WO2014069291A1 - 半導体基板の位置検出装置及び位置検出方法 - Google Patents

半導体基板の位置検出装置及び位置検出方法 Download PDF

Info

Publication number
WO2014069291A1
WO2014069291A1 PCT/JP2013/078644 JP2013078644W WO2014069291A1 WO 2014069291 A1 WO2014069291 A1 WO 2014069291A1 JP 2013078644 W JP2013078644 W JP 2013078644W WO 2014069291 A1 WO2014069291 A1 WO 2014069291A1
Authority
WO
WIPO (PCT)
Prior art keywords
disk
shaped substrate
coordinates
coordinate
edge
Prior art date
Application number
PCT/JP2013/078644
Other languages
English (en)
French (fr)
Inventor
藤本敬司
山本 康晴
Original Assignee
ローツェ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ローツェ株式会社 filed Critical ローツェ株式会社
Priority to KR1020157008491A priority Critical patent/KR101613135B1/ko
Priority to JP2014544445A priority patent/JP6113742B2/ja
Priority to CN201380056420.5A priority patent/CN104756243B/zh
Priority to US14/438,189 priority patent/US9275886B2/en
Publication of WO2014069291A1 publication Critical patent/WO2014069291A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67242Apparatus for monitoring, sorting or marking
    • H01L21/67253Process monitoring, e.g. flow or thickness monitoring
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/68Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for positioning, orientation or alignment
    • H01L21/681Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for positioning, orientation or alignment using optical controlling means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Definitions

  • the present invention relates to a position detection apparatus, a position detection method, and a position correction method for a disk-shaped substrate such as a semiconductor wafer.
  • an integrated circuit having a fine pattern is formed by repeatedly performing various processes such as exposure, film formation, etching, and heat treatment on a substrate such as a semiconductor wafer.
  • a substrate processing apparatus including a processing chamber composed of dedicated equipment for each processing.
  • the substrate processing apparatus is configured by connecting one or a plurality of various processing chambers to a transfer chamber containing a transfer robot having a transfer arm for mounting and transferring a disk-shaped substrate such as a semiconductor wafer.
  • the transfer chamber and various processing chambers are provided with means capable of maintaining the inside in a vacuum environment, and the transfer chamber and each processing chamber are connected via a gate valve.
  • a disk-shaped substrate such as a wafer held by the transfer robot is transferred to and placed on a mounting table provided in the processing chamber by the operation of the transfer arm, and various processes are performed.
  • a substrate processing apparatus in order to perform an appropriate process on a disk-shaped substrate such as a semiconductor wafer mounted on a mounting table, it is required to accurately transport the substrate to a predetermined position on the mounting table. . Therefore, in the substrate processing apparatus, it is necessary that the disk-shaped substrate is accurately positioned at a predetermined position on the mounting table in the processing chamber. For this purpose, first, it is necessary to detect the position deviation of the target disk-shaped substrate and then correct the position deviation to correct the position so as to be positioned at a predetermined position. In particular, it is difficult to directly detect the position of the disk-shaped substrate in the processing chamber due to processing contents and deposits used in the processing. Therefore, in a predetermined place in the transfer chamber connected to the processing chamber. It is necessary to detect the position of the disk-shaped substrate.
  • the disk-shaped substrate is placed on a rotatable pedestal and the outer periphery is detected by a line sensor while rotating.
  • a method for detecting a positional deviation based on the rotation angle of the pedestal and the detection result of the line sensor is disclosed.
  • Patent Document 1 when trying to implement the method disclosed in Patent Document 1, it is necessary to provide a rotatable pedestal or line sensor in the transfer chamber, resulting in an increase in size of the transfer chamber. Furthermore, there is a problem that a series of operations of detecting a positional deviation by temporarily placing and rotating the disk-shaped substrate held by the transfer robot on the pedestal causes a decrease in throughput.
  • Patent Document 2 a method has been used in which a peripheral portion of a semiconductor wafer is imaged a plurality of times and the position of the semiconductor wafer is detected based on the captured image. It is coming. That is, a plurality of cameras are arranged on the outer upper surface of the transfer chamber, and a light source is arranged at a position facing the camera on the lower surface of the transfer chamber. The plurality of cameras are arranged at positions where the peripheral portion of the semiconductor wafer transported inside the transport chamber can be photographed, and imaging is performed at the timing when the semiconductor wafer passes. The position detection is performed based on the image data of the plurality of captured peripheral portions.
  • Patent Document 2 With the method disclosed in Patent Document 2, it is not necessary to arrange the equipment used for positioning the semiconductor wafer in the transfer chamber, so that the occupied area in the transfer chamber can be reduced. However, in order to image a plurality of edges on the outer periphery of the semiconductor wafer, a plurality of cameras are required. Furthermore, the transfer chamber needs to have a plurality of viewports for imaging or a large-diameter viewport that can observe the entire wafer.
  • the viewport serves as a peephole for grasping the situation inside the transfer chamber from the outside, and is a part where the opening formed in the transfer chamber is sealed with a transparent member such as tempered glass, In order to allow observation from the outside, it is not possible to place equipment that maintains a vacuum environment in this area. Furthermore, if the viewport has a large diameter, a problem arises in strength when the inside is maintained in a vacuum state. Further, since a plurality of expensive cameras are provided for photographing, the cost is greatly increased.
  • the present invention has been devised to solve the above-described problems, and an object of the present invention is to make it possible to detect an accurate position of a disk-shaped substrate such as a semiconductor wafer from image data captured by a single camera. .
  • a position detection device is a position detection device that detects the position of a disc-shaped substrate held on a support member that is movable along a predetermined trajectory, the position detection device When the support member holding the disk-shaped substrate is positioned at a predetermined monitoring position, the apparatus includes one imaging camera that images a peripheral portion of the disk-shaped substrate, and the disk-shaped image captured by the imaging camera.
  • An edge extraction unit that extracts an edge of the disk-shaped substrate from imaging data of a peripheral portion of the substrate, and a coordinate detection unit that detects a center position coordinate of the disk-shaped substrate from the edge data extracted by the edge extraction unit It is characterized by having. With this configuration, it is possible to detect the center position coordinates of the disk-shaped substrate from an image captured by one imaging camera.
  • the imaging camera captures only a part of the peripheral edge of the disk-shaped substrate, the number of imaging cells per unit area can be increased compared to the case of capturing the entire image. Accuracy is improved.
  • the coordinate detection unit detects the center position coordinates of the disk-shaped object from the coordinates of the two points on the edge data and the radius of the disk-shaped substrate, so that only a part of the peripheral edge of the disk-shaped substrate is detected.
  • the center position coordinate can be detected simply by imaging.
  • the coordinate detection unit creates two right-angled isosceles triangles each having the radius as one side from the coordinates of the two points on the edge data and the radius of the disk-shaped substrate. By detecting the center position coordinates of the disk-shaped substrate, the center position coordinates can be accurately calculated.
  • the coordinate detection unit detects the center position coordinates without using the radius of the disk-shaped substrate by detecting the center position coordinates of the disk-shaped object from the coordinates of the three points on the edge data.
  • the center position coordinates can be detected even when the radius is unknown.
  • the coordinate detection unit creates three right-angled isosceles triangles each having the radius as one side from the coordinates of the three points on the edge data and the radius of the disk-shaped substrate, and from the three-square theorem, The center position coordinate of the disk-shaped substrate can be calculated.
  • the position detection device is configured such that the center position coordinates of the disk-shaped substrate held at the reference position of the support member and the center of the disk-shaped substrate that is misaligned to be conveyed during a manufacturing process.
  • a correction amount calculation unit that calculates a deviation amount with respect to the position coordinates in the X-axis direction and the Y-axis direction and calculates the correction amount of the support member is further provided, and the correction amount of the transport robot can be calculated.
  • a technique related to the present invention is a position detection method performed by the position detection device, and a position detection method for detecting the position of a disk-like substrate held on a support member movable along a predetermined trajectory.
  • the position detection method when the support member holding the disk-shaped substrate is positioned at a predetermined monitoring position, an imaging step of capturing an image of the peripheral edge of the disk-shaped substrate with a single imaging camera; An edge extraction step for extracting an edge of the disk-shaped substrate from image data of a peripheral portion of the disk-shaped substrate captured by an imaging camera, and a center of the disk-shaped substrate from the edge data extracted by the edge extraction step And a coordinate detection step for detecting position coordinates.
  • the imaging step if only a part of the peripheral portion of the disk-shaped substrate is imaged, the number of imaging cells per unit area can be increased as compared with the case where the entire image is captured. Accuracy is improved.
  • the coordinate detection step detects the center position coordinates of the disk-shaped object from the coordinates of the two points on the edge data and the radius of the disk-shaped substrate, so that only a part of the peripheral edge of the disk-shaped substrate is detected.
  • the center position coordinate can be detected simply by imaging.
  • the coordinate detection step creates two right isosceles triangles each having the radius as one side from the coordinates of the two points on the edge data and the radius of the disk-shaped substrate. By detecting the center position coordinates of the disk-shaped substrate, the center position coordinates can be accurately calculated.
  • the coordinate detection step detects the center position coordinates without using the radius of the disk-shaped substrate by detecting the center position coordinates of the disk-shaped object from the coordinates of the three points on the edge data.
  • the center position coordinates can be detected even when the radius is unknown.
  • the coordinate detection step creates three right-angled isosceles triangles each having the radius as one side from the coordinates of the three points on the edge data and the radius of the disk-shaped substrate.
  • the center position coordinate of the disk-shaped substrate can be calculated.
  • the position detection method includes the center position coordinate of the disk-shaped substrate held at the reference position of the support member, and the center of the disk-shaped substrate that is misaligned to be conveyed during the manufacturing process.
  • a correction amount calculating step of calculating a deviation amount with respect to the position coordinates in the X-axis direction and the Y-axis direction and calculating a correction amount of the support member is further provided, and the correction amount of the transport robot can be calculated.
  • a position detection apparatus is a position detection apparatus that detects the position of a disk-like substrate held by a support member that can move along a predetermined trajectory, and has an orthogonal XY-axis coordinate system.
  • a straight line U that passes through the center of the disk-shaped substrate and is parallel to the Y axis and the edge of the disk-shaped substrate are From the imaging camera that images the peripheral edge of the disk-shaped substrate with the intersecting intersection C in view, and the imaging data of the peripheral edge of the disk-shaped substrate captured by the imaging camera, the Y-axis coordinate value of the intersection C is calculated.
  • An edge extracting unit that extracts the XY-axis coordinates of a point on the edge of the disk-shaped substrate that is imaged in the range of the field of view and is at an arbitrary position away from the intersection C; and the edge extracting unit extracts Intersection From Y-axis coordinate value and the XY-axis coordinate of a point at an arbitrary position, it is characterized by having a coordinate detection unit that detects the center position coordinates of the disk-shaped substrate.
  • the present invention it is possible to detect the center position coordinates of a disk-shaped substrate by imaging the disk-shaped substrate with one camera. Furthermore, since the center position coordinates can be detected by imaging a part of the peripheral edge of the disk-shaped substrate, the number of cells per unit area can be increased, so that more accurate position coordinates can be detected. Furthermore, since a high detection accuracy can be obtained even with an imaging camera having a relatively low resolution, a high-resolution imaging camera is not necessary, which contributes to cost reduction.
  • FIG. 1 is a perspective view showing an outline of a semiconductor manufacturing system 1 including a position detecting device 29 according to the present invention
  • FIG. 2 is a top view thereof.
  • the semiconductor manufacturing system 1 transfers a disk-shaped substrate such as a semiconductor wafer 5 that has been stored on a shelf inside an airtight container called a FOUP (Front-Opening Unified Pod) 4 from the previous process to the load lock chamber 6. It comprises an EFEM (Equipment Front End Module) 2 that is placed accurately, and a processing device 3 that performs various processes on the surface of the semiconductor wafer 5.
  • EFEM Equipment Front End Module
  • the EFEM 2 is a device for transferring the semiconductor wafer 5 between the FOUP 4 and the processing apparatus 3.
  • the load port 7 for opening and closing the door of the FOUP 4 by placing the FOUP 4 and the semiconductor wafer 5 accommodated in the FOUP 4 are connected to the finger.
  • the atmospheric transfer robot 9 that transfers to the processing apparatus 3 through a predetermined path, identifies the center alignment of the semiconductor wafer 5, and the notches and orientation flats formed in the semiconductor wafer 5. It is comprised with the apparatus called the aligner 10 which performs position alignment of a rotation direction.
  • the aligner 10 includes a linear sensor that detects a peripheral portion of the semiconductor wafer 5 and a rotation mechanism that holds the semiconductor wafer 5 and adjusts the rotation angle thereof. Positioning in the rotation direction and alignment processing of the center position of the semiconductor wafer 5 to an appropriate position are performed.
  • the atmospheric transfer robot 9 includes a finger 8 that holds the semiconductor wafer 5 and includes a transfer arm 11 that is configured to bend, stretch, turn, and move up and down, and a semiconductor between the FOUP 4, the aligner 10, and the processing apparatus 3.
  • the wafer 5 can be delivered.
  • the operations of the axes of the load port 7, aligner 10 and atmospheric transfer robot 9 are controlled by a control unit 12 disposed in the EFEM 2.
  • the control unit 12 stores in advance coordinate data, route data, and the like when the atmospheric transfer robot 9 accesses, and issues an operation command to each operation axis of the atmospheric transfer robot 9.
  • control unit 12 calculates the notch position and the center position of the semiconductor wafer 5 from the data about the periphery of the semiconductor wafer 5 detected by the linear sensor of the aligner 10, and the semiconductor wafer so that the notch position is in a predetermined direction. 5 is directed to instruct the aligner 10 to align the center position to an appropriate position.
  • the space in which the atmospheric transfer robot 9 holds and transfers the semiconductor wafer 5 is covered with a partition 13 consisting of a frame and a cover on all sides, and an FFU (Fun Filter Unit) 14 is installed on the ceiling of the partition 13. ing.
  • the FFU 14 is a filter that filters air introduced from the outside by a fan and supplies it as clean clean air to the inside of the EFEM 2 as a downward laminar flow. By the down flow of the clean air supplied from the FFU 14, the inside of the EFEM 2 is It is always maintained in a clean environment.
  • the processing apparatus 3 includes a transfer chamber 16 in which the vacuum transfer robot 15 is disposed, a processing chamber 17 that is disposed around the transfer chamber 16 and performs various processes on the semiconductor wafer 5, and carries in the semiconductor wafer 5 to the outside.
  • An unillustrated environment maintaining means for maintaining the load lock chamber 6 for carrying out, the transfer chamber 16, the processing chamber 17, and the load lock chamber 6 in a vacuum environment or a low oxygen atmosphere is provided.
  • Openable and closable gate valves 18 are provided between the transfer chamber 16 and the processing chambers 17 and between the transfer chamber 16 and the load lock chambers 6, respectively. I can do it. Further, by opening these gate valves 18, the chambers are communicated with each other.
  • the gate valve 18 has a limitation that two or more gate valves 18 cannot be opened at the same time in order to ensure a vacuum environment or a low oxygen atmosphere in each chamber. That is, when a certain gate valve 18 is opened, the other gate valve 18 needs to be in a completely closed state, and the other gate valve 18 must be in a completely closed state. The gate valve 18 cannot be opened.
  • the transfer chamber 16 has a pentagonal shape when viewed from above, and a vacuum transfer robot 15 is disposed at the center of the transfer chamber 16.
  • the vacuum transfer robot 15 includes two first arms 19 having the same length dimension, and first ends of the respective first arms 19.
  • This is a so-called frog-leg type robot provided with two arms 20 and a finger 21 for supporting the semiconductor wafer 5 at the tip of each second arm 20.
  • the base ends of the two first arms 19 are attached to the central portion of the transfer chamber 16 so as to be coaxially pivotable, and each first arm 19 is attached to a motor (not shown) as a drive source.
  • a motor not shown
  • Each is connected via a belt and a pulley.
  • the vacuum transfer robot 15 causes the fingers 21 as the support members of the semiconductor wafer 5 to move forward and backward radially and linearly about the turning axis as the respective motors rotate in opposite directions. It is possible. In addition, the vacuum transfer robot 15 can be turned by rotating the motor in the same direction.
  • the motor which is a drive source has a configuration capable of repeatedly moving the finger 21 to a previously taught position by using a stepping motor or a servo motor capable of controlling the rotation angle. .
  • the robot controller 35 that controls the operation of the vacuum transfer robot 15 includes teaching information storage means 40 for storing transfer position data, operation speed data, and the like previously taught for the vacuum transfer robot 15.
  • teaching information storage means 40 for storing transfer position data, operation speed data, and the like previously taught for the vacuum transfer robot 15.
  • the vacuum transfer robot 15 issues a control command to access the teaching position.
  • the surface of the finger 21 that supports the semiconductor wafer 5 is about 2 to 3 mm from the radius of the semiconductor wafer 5 compared to the peripheral portion in order to prevent the semiconductor wafer 5 from dropping due to vibration or centrifugal force during conveyance. It is formed in a shape that is recessed in a large arc shape.
  • the side surface of the recess is inclined in a direction in which the radius increases from the surface on which the semiconductor wafer 5 is placed to the upper surface so that the semiconductor wafer 5 can be placed on the finger 21 even if the semiconductor wafer 5 is slightly displaced during delivery. Is formed. By this inclination, the lifted semiconductor wafer 5 is automatically guided onto the mounting surface of the finger 21.
  • the tip portion of the finger 21 has a shape that is cut out in an area larger than the field of view 28 of the imaging camera 24 so as not to block the transmitted light from the transmission illumination device 27 for imaging of the semiconductor wafer 5. .
  • the mounting table 22 on which the semiconductor wafer 5 is mounted inside the processing chamber 17 and the load lock chamber 6 is disposed at a position that can be reached by the extension operation of the arm body of the vacuum transfer robot 15.
  • the mounting table 22 is provided with a lifter that can be raised and lowered, and the semiconductor wafer 5 placed on the finger can be transferred by raising and lowering the lifter.
  • the semiconductor wafer 5 accommodated in the FOUP 4 from the previous process is taken out by the atmospheric transfer robot 9 and accurately aligned and notched by the aligner 10, and then relayed through the load lock chamber 6 to the processing apparatus 3.
  • the vacuum robot 9 that has received the semiconductor wafer 5 transports the semiconductor wafer 5 to the mounting table 22 of the target processing chamber 17, but a big problem arises here. That is, during transfer by the vacuum transfer robot 15, the semiconductor wafer 5 is affected by vibrations, changes in gas pressure, and the like, so that the position of the semiconductor wafer 5 is slightly shifted so as to slide sideways on the finger 21.
  • a view port 23 for observing the inside is provided in the transfer chamber 16, and the semiconductor wafer 5 is externally transferred from the transfer chamber 16 via the view port 23 by a single imaging camera 24.
  • the position of the semiconductor wafer 5 is detected by taking an image of the peripheral part of the semiconductor wafer 5.
  • the imaging camera 24 does not need to image the peripheral portion of the entire circumference of the semiconductor wafer 5 and only needs to image a part of the peripheral portion of the semiconductor wafer 5. Furthermore, it is not necessary to place on a special mounting table for position detection.
  • FIG. 5 is an explanatory diagram for detecting the position of the semiconductor wafer 5 in the transfer chamber 16.
  • the imaging camera 24 is fixed to a member forming the transfer chamber 16 via a fixing tool such as a bracket.
  • a view port 23 for observing the inside is provided above the member forming the transfer chamber 16, and a transparent light transmitting member 25 such as quartz glass is provided in the view port 23 via a sealing material 26. It is installed airtight.
  • a view port 23 is also provided below the transfer chamber 16 facing the view port 23.
  • a transmission illumination device 27 is attached to the lower viewport 23 so that the peripheral portion of the semiconductor wafer 5 that has reached the monitoring position can be illuminated from below.
  • the transmission illumination device 27 used in this embodiment preferably has an illumination range larger than the field of view of the imaging camera 24.
  • the transmission illumination device 27 is provided with a reflection mechanism and a lens so that the brightness in the field of view of the imaging camera 24 does not vary, and the light emitted from the light source is a detection target by the reflection mechanism.
  • the light is reflected toward the semiconductor wafer 5 and converted into parallel light in a direction substantially orthogonal to the semiconductor wafer 5 by a lens.
  • it is preferable that the light from the light source is collimated using a collimator lens or the like when fine position detection is performed.
  • FIG. 6 is a block diagram showing the configuration of the position detection device 29.
  • the position detection device 29 includes an imaging camera 24 that captures and captures a peripheral portion of the semiconductor wafer 5, a storage unit 30 that stores imaging data captured by the imaging camera 24, and edge extraction that performs edge extraction of the peripheral portion from the captured data. And a correction amount calculation unit 32 that calculates a correction amount for the position data of the vacuum transfer robot 15 from the data obtained by the edge extraction unit 31. Further, a display unit 38 that displays data information processed by the position detection device 29 such as an image captured by the imaging camera 24 and edge data extracted by the edge extraction unit 31, and various manual commands on the position detection device 29. Can be connected to input means 39 for inputting and storing images.
  • the display unit 38 is a monitor device including a display such as a liquid crystal, an organic EL, or a CRT, and the input unit 39 indicates a keyboard, a mouse, a touch panel, or the like.
  • the imaging camera 24 includes at least an imaging element 33 and an optical lens 34 that receives the transmitted light from the transmission illumination device 27 and forms an image on the imaging element 29, and is placed on the finger 21 of the vacuum transfer robot 15.
  • the semiconductor wafer 5 thus formed is placed on the upper portion of the transfer chamber 16 so as to be positioned on the movement locus.
  • the imaging element 29 is composed of a semiconductor element such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor), and stores an image formed by the optical lens 34 as signal data of each element of the imaging element 33.
  • the signal data from the image sensor 33 is an output signal of each cell of the image sensor 33, and is transmitted in association with coordinates set on the incident surface of the image sensor 33.
  • the storage means 30 stores image data sent from the imaging camera 24, edge coordinate data extracted by an edge extraction unit 31 described later, and each semiconductor wafer 5 calculated by the correction amount calculation unit 32. It serves to store correction data. Further, predetermined image data is transmitted to the edge extraction unit 31 in response to a request from the edge extraction unit 31.
  • the edge extraction unit 31 reads image data sent from the imaging camera 24 and then executes an image processing program to perform edge extraction processing of the semiconductor wafer 5.
  • the image data on which the edge extraction processing is performed includes light in the portion where the light from the transmissive illumination device 27 is directly incident on the image sensor 33 in the field of view 28 of the imaging camera 24 and in the portion where the light is blocked by the semiconductor wafer 5 and incident as a shadow.
  • a difference in brightness occurs on the image sensor 33 due to the difference in intensity. Accordingly, by extracting a portion where the brightness value changes abruptly from the image data captured by the image sensor 33, coordinate data corresponding to the edge of the semiconductor wafer 5 can be extracted.
  • the extracted coordinate data is sent to the coordinate detector 41 and the storage means 30 and stored therein.
  • the coordinate detection unit 41 detects the coordinates on the edge and the coordinates of the center position by the following method based on the edge data extracted by the edge extraction unit 31.
  • the detected coordinate data and deviation amount data are sent to the correction amount calculation unit 32.
  • the correction amount calculation unit 32 calculates a deviation amount of the target semiconductor wafer 5, and adds correction data for moving the finger 21 in the direction to cancel the deviation from the calculated deviation amount to the conveyance position data taught in advance. After that, correction data is sent to the robot controller 35 so as to operate the vacuum transfer robot 15.
  • the robot control unit 35 corrects the new transfer position data by adding the correction data received from the correction amount calculation unit 32 to the transfer position data stored in the teaching information storage unit 40. Operate to the corrected position.
  • FIG. 7 is a peripheral image of the semiconductor wafer 5 captured by the imaging camera 24.
  • the horizontal arrangement of the cells constituting the imaging device 33 in FIG. 7 is defined as the X axis
  • the vertical arrangement perpendicular to the X axis is defined as the Y axis.
  • Individual XY coordinates are assigned to each cell of the element 33.
  • the field of view 28 for imaging the semiconductor wafer 5 of the imaging camera 24 used in this embodiment is set to 64 mm in the X-axis direction and 48 mm in the Y-axis direction.
  • the semiconductor wafer 5 is placed on the finger 21 and is directed from the lower side to the upper side in FIG. It is supposed to move back and forth.
  • the coordinates of the image sensor 33 in order to detect the apex in the moving direction of the semiconductor wafer 5, that is, the coordinates of the point closest to the target position, in each adjacent cell
  • the X-axis coordinate and Y-axis coordinate of the apex are detected by comparing the density of the imaging, but with respect to the Y-axis direction, the density difference between each element adjacent in the vertical direction is clear and easy.
  • the X-axis direction it is very difficult to clearly recognize the difference in light and darkness of each element unit adjacent in the horizontal direction.
  • FIG. 7 schematically shows the relationship between each dot near the apex of the semiconductor wafer 5 and the edge of the semiconductor wafer 5.
  • Each cell aligned in the X-axis direction with respect to the edge of the peripheral portion of the semiconductor wafer 5 is shown in FIG.
  • the detection position in the X-axis direction is an elongated linear shape parallel to the X-axis direction. Coordinates are detected as vertices.
  • FIG. 8 to 11 are explanatory views showing an outline of the detection of the amount of misalignment of the semiconductor wafer 5.
  • an image of the semiconductor wafer 5 placed at a reference position, which is not misaligned, is used as a reference when performing misalignment detection processing.
  • a semiconductor wafer 5 serving as a reference is placed using a jig or the like at an optimal design position on the finger 21 provided in the vacuum transfer robot 15.
  • the vacuum transfer robot 15 is operated, and the vacuum transfer robot 15 is moved to the monitoring position so that the tip portion on the movement locus of the semiconductor wafer 5 is located within the field of view 28 of the imaging camera 24.
  • the operation of the vacuum transfer robot 15 is temporarily stopped and the peripheral portion of the semiconductor wafer 5 is imaged.
  • the captured image is sent to and stored in the storage means 30 as image data of the reference circle 36.
  • the reference image data may be a jig or the like having the same arc as that of the semiconductor wafer 5 instead of the actual semiconductor wafer 5.
  • the operation of the vacuum transfer robot 15 is temporarily stopped at the time of imaging.
  • the semiconductor wafer 5 that is moving can be imaged by the vacuum transfer robot 15 in order to improve throughput.
  • the image data is sent to the edge extraction unit 31, and the edge of the peripheral portion is extracted.
  • the coordinate detection unit 41 obtains the center coordinates of the reference circle 36 that is the semiconductor wafer 5 placed at the reference position from the edge data obtained by the edge extraction unit 31 and the known radius of the semiconductor wafer 5.
  • the Y-axis coordinate value of the vertex position on the circumference and any two points are extracted from the edge data extracted by the edge extraction unit 31, and the coordinates of the two points regarding the X and Y axes It can be obtained from the data and the radius of the semiconductor wafer 5. The detection procedure will be described below.
  • FIG. 8 is an explanatory diagram showing the positional relationship between the reference circle 36 and the visual field 28.
  • the reference circle 36 is a pseudo image showing the entire image of the semiconductor wafer 5 whose position is being detected.
  • the field of view 28 indicates the imaging range when the imaging camera 24 captures an image.
  • the origin two arbitrary points on the edge extracted by the edge extraction process are designated.
  • the designated two points are point A and point B
  • the XY coordinates in the field A of the point A are (X1, Y1)
  • the XY coordinates of the point B are (X2, Y2).
  • a straight line X1 parallel to the Y axis of the visual field 28 and passing through the point A and a straight line X2 parallel to the Y axis and passing through the point B are drawn. Further, the center point of the reference circle 36 is O1, and its XY coordinates are (a, b). Next, a straight line R that passes through the center point O1 of the reference circle 36 and is parallel to the X axis of the field of view 28 is drawn, the intersection of the straight line R and the straight line X1 is D, and the intersection of the straight line R and the straight line X2 is E. .
  • a straight line U passing through the center point O1 of the reference circle 36 and parallel to the Y axis is drawn, and an intersection point in the field of view 28 between the straight line U and the edge of the reference circle 36 is defined as a point C.
  • the XY coordinates in the visual field 28 at this point C are (a, Y3).
  • the semiconductor wafer 5 drawn as the reference circle 36 is placed on the finger 21 and moves upward in the screen parallel to the Y axis, the point C is the closest vertex to the destination. I can say that.
  • the coordinate position of Y3, which is the Y coordinate is a value that can be detected by the position detection device 29.
  • the value a of the X coordinate of the center point O1 can be calculated from the above calculation formula.
  • the coordinates (a, b) of the center point O1 of the reference circle 36 obtained here are transmitted to the storage means 30 and stored.
  • the position detection device 29 extracts the edge of the semiconductor wafer 5 transported in the actual manufacturing process using the coordinates (a, b) of the center position O1 as the reference position, and the amount of deviation Detection is performed.
  • the operating position of each motor that operates the finger 21 needs to be the same as the monitoring position from which the reference circle 36 is extracted.
  • the method for detecting the center position of the measurement circle 37 extracted from the semiconductor wafer 5 being transported in the target manufacturing process is performed in accordance with the same procedure as that shown in the above formulas (1) to (6). .
  • FIG. 9 is an explanatory diagram showing the positions of the measurement circle 37 and the field of view 28 simulating the semiconductor wafer 5 actually transported in the manufacturing process.
  • the XY coordinates on the visual field 28 of the center point O2 of the measurement circle 37 are (c, d) here.
  • the intersection of the edge of the measurement circle 37 extracted by the edge extraction unit 31 and the straight lines X1 and X2 is defined as a point F and a point G
  • the XY coordinates of the point G are (X1, Y4)
  • the XY coordinates of the point G are (X2, Y5).
  • a straight line R ′ that passes through the center point O2 of the measurement circle 37 and is parallel to the X axis is drawn, where the intersection of the straight line R ′ and the straight line X1 is J, and the intersection of the straight line R ′ and the straight line X2 is K.
  • the XY coordinates of the intersection point J are (X1, d)
  • the XY coordinates of the intersection point K are (X2, d).
  • two right triangles ⁇ and ⁇ are formed on the measurement circle 37.
  • the sides F-O2, G-O2 of the right triangles ⁇ , ⁇ have the same length as the radius r of the measurement circle 37.
  • the measurement circle 37 also has an intersection point in the visual field 28 between the straight line U ′ passing through the center point O2 and parallel to the Y axis and the edge of the measurement circle 37 as a point H.
  • the measurement circle 37 is also placed on the finger 21 and moved upward in the screen parallel to the Y axis, so that the point H is the closest vertex to the destination. I can say that.
  • the position of Y6 that is the Y coordinate of this point H is a value that can be detected by the position detection device 29.
  • c which is the X coordinate, since only unclear imaging can be recognized, it becomes an unknown value.
  • the value c of the X coordinate of the center point O2 can be calculated from the above calculation formula.
  • the coordinates (c, d) of the center point O2 of the measurement circle 37 obtained here are transmitted to the storage means 30 and stored.
  • the correction amount calculation unit 32 determines that the coordinates (c, d) of the center point obtained here are X-axis on the XY coordinates with respect to the coordinates (a, b) of the center point O1 of the reference circle 36. The amount of displacement in the direction and the Y-axis direction is quantified. Based on the digitized shift amount, the correction amount calculation means 32 rotates each drive motor as a drive source so that the finger 21 of the vacuum transfer robot 15 can be operated in a direction to cancel the position shift. Find the correction amount for the angle. The robot control unit 35 that has received the data regarding the corrected rotation angle of each drive motor operates the vacuum transfer robot 15 in accordance with the corrected data.
  • the imaging camera 24 may be installed so that the field of view 28 is set at a position where the notch or orientation flat of the semiconductor wafer 5 does not exist.
  • the notch can be extracted from the image of the imaging camera 24. Therefore, when determining a point on the edge, it may be determined at a position where no orientation flat exists.
  • the X-axis coordinates a, c of the center points O1, O2 of the reference circle 36 and the measurement circle 37 from the XY coordinates of the points A, B, F, G on the edge. Can be calculated.
  • a square root exists in the value calculated from Formula (15) and Formula (16). For this, it is determined whether to use a plus or minus value depending on the magnitude of the values of Y1 and Y2. That is, the position of the normal center point is calculated by using a positive value when the value of Y1 is smaller than the value of Y2, and using a negative value when the value of Y1 is larger than the value of Y2. I can do it.
  • the radius r of the semiconductor wafer 5 is input as a known value. Next, a calculation method that does not require the value of the radius r will be described. According to this calculation method, the center position and the correction amount can be accurately calculated even when the radial dimension of the semiconductor wafer 5 to be transferred varies.
  • 10 and 11 are explanatory views showing an outline of the third correction amount calculation method.
  • the first and second correction amount calculation methods there are two arbitrary points on the edge extracted by the edge extraction process.
  • an edge is added.
  • An arbitrary third point L, N is designated above.
  • the third correction amount calculation method will be described in detail below.
  • a method for obtaining the XY coordinates (a, b) and the radius r of the center point O1 of the reference circle 36 will be described with reference to FIG.
  • a third arbitrary point is designated in addition to the points A and B designated previously.
  • the designated third point is a point L
  • the XY coordinates in the field of view 28 of the point L are (X3, Y7).
  • the XY coordinates in the field of view 28 of the point A specified earlier are (X1, Y1)
  • the XY coordinates in the field of view 28 of the point B are (X2, Y2).
  • a straight line X1 passing through point A and parallel to the Y axis of the visual field 28 a straight line X2 passing through point B and parallel to the Y axis of the visual field 28, and a straight line passing through point L and parallel to the Y axis of the visual field 28
  • the center point of the reference circle 36 is set to O1
  • the XY coordinates thereof are set to (a, b) as in the above-described method.
  • FIG. 11 is an explanatory diagram in which a third straight line X3 is added to FIG.
  • the point where the third straight line X3 and the edge of the measurement circle 37 intersect is defined as a point N, and the position of this point N in the XY coordinate system is (X3, Y8). To do.
  • Equation (24) and (25) are obtained, and the XY coordinates (c, d) of the center point O2 of the measurement circle 37 are obtained. I can do it. Moreover, if this XY coordinate (c, d) is calculated
  • the positional deviation amounts Ax and Ay in the X-axis and Y-axis directions of the semiconductor wafer 5 transported on the production line are changed from c, which is the X coordinate of the center point of the measurement circle 37, to the reference circle 36 in the X-axis direction. It is obtained by subtracting a which is the X axis coordinate of the center point, and in the Y axis direction, b which is the Y axis coordinate of the center point of the reference circle 36 is subtracted from d which is the Y coordinate of the center point of the measurement circle 37. Is required.
  • the correction amount calculation unit 32 Based on the amount of positional deviation in the X-axis and Y-axis directions obtained here, the correction amount calculation unit 32 performs a correction operation of the finger 21 of the vacuum transfer robot 15 in a direction to cancel the positional deviation. A correction amount for the rotation angle of each drive motor is obtained. The robot control unit 35 that has received the data regarding the corrected rotation angle of each drive motor operates the vacuum transfer robot 15 in accordance with the corrected data. Furthermore, in this third correction amount calculation method, a slight difference in the radius of each semiconductor wafer 5 can also be calculated. Therefore, a point on the circumference of the reference circle 36 is determined as a reference position, and the correction amount for this point is determined. Can also be calculated.
  • FIG. 12 is an explanatory diagram showing a perpendicular bisector of a straight line connecting two points A and B and B and L out of three points A, B and L on the reference circle 36.
  • symbol is provided to the same thing about each point and straight line regarding the reference
  • a (Y9-Y10-X5tan ⁇ 1 + X6tan ⁇ 2) / (tan ⁇ 2 -tan ⁇ 1) ⁇ (29)
  • equation (30) is obtained from equation (26).
  • b Y9- (X5-a) tan ⁇ 1 (30) Since the coordinates (a, b) of the center point O1 are obtained, the radius r of the reference circle 36 can be obtained by any one of the equations (1), (2), and (15).
  • the fourth positional deviation amount detection method for obtaining the center coordinates (a, b) of the reference circle 36. Since the center coordinates (c, d) and the radius r of the measurement circle 37 can also be obtained by substituting each coordinate and angle using the method described above, the deviation amount can be obtained easily. It goes without saying that there are known calculation methods such as a calculation method using a matrix other than the above-described method for obtaining the center position from three points on the circumference.
  • the notch formed in the semiconductor wafer 5 may be located in any of the three straight lines X1, X2, and X3 described above.
  • the coordinates of the straight line where the notch is located may be excluded, and the center may be obtained by the method of obtaining the center position using the two straight lines X1 and X2.
  • the center position may be calculated using four straight lines, the center position may be calculated from each intersection, and an appropriate one may be adopted as the center position from the derived result.
  • the distance between the straight lines is set larger than the width dimension of the notches, it is possible to prevent the notches from straddling two straight lines and to calculate the center position accurately.
  • the method for calculating the center position of the semiconductor wafer 5 from the image data picked up by one image pickup camera 24 and the position detection device have been described above. Further, the illumination device 42 is newly added to the position detection device 29 of the present invention. It is also possible to detect the wafer mark 43 and the alignment mark 44 written on the surface of the semiconductor wafer 5 by irradiating light on the surface of the semiconductor wafer 5 from the direction in which the imaging camera 24 is arranged. .
  • the wafer mark 43 is an individual identification symbol formed on the semiconductor wafer 5 using a laser or the like, and is used for process management of the semiconductor wafer 5 by reading the wafer mark 43 in each processing step. Is.
  • the alignment mark 44 is a mark for aligning the circumferential direction of the semiconductor wafer 5 during each processing step. Like the wafer mark 43, the alignment mark 44 is formed on the surface of the semiconductor wafer 5 by a laser or the like.
  • FIG. 13 is a diagram of the position detection device 29 in which a lighting device 42 is newly added
  • FIG. 14 is a diagram schematically showing the imaged wafer mark 43 and alignment mark 44.
  • the illumination device 42 can illuminate the surface of the semiconductor wafer 5 from above via the upper viewport 23 in the vicinity of the imaging camera 24 on the surface of the transfer chamber 16 opposite to the surface where the transmission illumination device 27 is disposed. It is attached to become.
  • the wafer mark 43 illuminated by the illumination device 42 is imaged by the imaging camera 24, and the captured image data is character-coded by a reading unit (not shown) and stored in the storage unit 30.
  • the stored data is transmitted to a computer (not shown) that manages the manufacturing process of the semiconductor wafer 5.
  • the alignment mark 44 illuminated by the illumination device 42 is captured by the imaging camera 24 and then transmitted to and stored in the storage means 30 of the position detection device 29.
  • the stored image data of the alignment mark 44 is converted into coordinate data in the field of view 28 by an alignment mark coordinate detection unit (not shown), and the most suitable alignment mark 44 in design stored in the storage means 30 in advance.
  • the positional deviation amount in the circumferential direction of the imaged semiconductor wafer 5 is calculated by comparing with the coordinate data.
  • the present invention has been described based on the embodiment.
  • the positional deviation detection of the semiconductor wafer 5 placed on the vacuum transfer robot 15 and the detection of the wafer mark 43 and the alignment mark 44 are performed.
  • the present invention is not limited to this embodiment.
  • the present invention can be applied to the semiconductor wafer 5 held by the atmospheric transfer robot 9.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Hardware Design (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Container, Conveyance, Adherence, Positioning, Of Wafer (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

1台のカメラによって撮像された画像データから、円盤状基板の中心位置座標を正確に検出し、処理途中で搬送されている円盤状基板の支持部材上での位置ずれ量を算出し、正確な載置位置に載置できるように位置補正を行うことができる位置検出装置を提供する。 画像データから抽出されたエッジデータ上の2点の座標と円盤状基板の半径から、若しくは、エッジデータ上の3点の座標から半径をそれぞれ一辺とする直角二等辺三角形を作成し、三平方の定理から円盤状基板の中心位置座標を検出する。

Description

半導体基板の位置検出装置及び位置検出方法
本発明は、半導体ウエハ等の円盤状基板の位置検出装置及び位置検出方法、位置補正方法に関する。
一般的な半導体集積回路の製造工程においては、半導体ウエハ等の基板上に露光、成膜処理、エッチング処理、熱処理といった各種処理を繰り返し行うことによって微細なパターンを有する集積回路を形成していく。
こういった各種処理工程は、夫々の処理のための専用の機材から構成された処理室を備える基板処理装置によって行われる。基板処理装置は中央に半導体ウエハ等の円盤状基板を載置して搬送する搬送アームを備えた搬送ロボットを収容した搬送室に、各種処理室を一台若しくは複数連結して構成されている。さらに、搬送室と各種処理室は内部を真空環境に維持出来る手段を備えていて、搬送室と各処理室とは、ゲートバルブを介して連結されている。ここで、搬送ロボットによって保持されたウエハ等の円盤状基板は、搬送アームの動作によって処理室に備えられた載置台上に搬送し載置され、各種処理が施される。
基板処理装置において、載置台上に載置された半導体ウエハ等の円盤状基板に対して適切な処理を施すためには、基板を載置台上の所定の位置に精度良く搬送することが求められる。そのため、基板処理装置では、円盤状基板が処理室内において載置台上の所定の位置に正確に位置していることが必要になってくる。そのためには、先ず目的の円盤状基板の位置ずれを検出した上で、位置ずれがあった場合にはそれを補正することで所定の位置に位置決めする必要がある。特に、処理内容や処理に使われる堆積物等の理由から、処理室内での円盤状基板の位置を直接検出することは困難なため、処理室と連結された搬送室内の所定の場所に於いて、円盤状基板の位置を検出する必要がある。
円盤状基板の位置検出の方法として、従来は、例えば特許文献1に開示されているように、円盤状基板を回転可能な台座に載置して、回転させながら外周をラインセンサで検出することによって台座の回転角度とラインセンサでの検出結果に基づいて、位置ずれを検出する方法が開示されていた。
しかしながら、特許文献1に開示された方法を実施しようとした場合、回転可能な台座やラインセンサを搬送室内部に備える必要があり、結果として搬送室の大型化をまねいてしまう。さらに、搬送ロボットが保持している円盤状基板を、一旦台座に載置して回転させることで位置ずれを検出するという一連の動作が必要となり、スループットの低下を招いてしまうという問題がある。
そこで、近年では特許文献2に開示されているように、半導体ウエハの周縁部分を複数回撮像して、その撮像された画像に基づいて、半導体ウエハの位置を検出する方法が行われるようになってきている。すなわち、複数のカメラを搬送室の外部上面に配置し、搬送室外部下面のカメラに対向する位置に光源を配置する。複数のカメラは搬送室内部を搬送される半導体ウエハの周縁部分を撮影出来る位置に配置されていて、半導体ウエハが通過するタイミングで、撮像が行われる。この撮像された複数の周縁部分の画像データに基づいて位置検出を行うものである。
特開2003-152055号公報 特開平09-186061号公報
特許文献2に開示された方法であれば、半導体ウエハの位置決めに用いられる機材を搬送室内に配置する必要は無くなるので、搬送室内での占有面積は小さくすることが出来る。しかしながら、半導体ウエハ外周縁上の複数のエッジを撮像するには、複数のカメラが必要となる。さらに、搬送室には撮像のための複数のビューポートを備えるか、ウエハ全体を観察が可能な大口径のビューポートを備える必要がある。
ビューポートは搬送室内部の状況を外部から把握するための覗き孔の役目をするもので、搬送室に形成された開口部を強化ガラス等の透明な部材で封止した部分のことであり、外部からの観察ができるように、この部分には真空環境を維持する機材等を配置することが出来ない。さらに、ビューポートが大口径になれば、内部を真空状態に維持した際の強度に問題が生じる。さらに、撮影のために高価なカメラを複数備えることとなるので、大きなコストアップにもなってしまう。
本発明は、上記課題を解決するために考案されたもので、一台のカメラによって撮像された画像データによって半導体ウエハ等の円盤状基板の正確な位置を検出できるようにすることを目的とする。
上記課題を解決するため、本発明に係る位置検出装置は、所定の軌道上に沿って移動可能な支持部材に保持された円盤状基板の位置を検出する位置検出装置であって、前記位置検出装置は、前記円盤状基板を保持した前記支持部材が所定の監視位置に位置した際に、円盤状基板の周縁部を撮像する1台の撮像カメラと、前記撮像カメラによって撮像された前記円盤状基板の周縁部の撮像データから、前記円盤状基板のエッジを抽出するエッジ抽出部と、前記エッジ抽出部によって抽出されたエッジデータから前記円盤状基板の中心位置座標を検出する座標検出部とを有することを特徴としている。この構成により、1台の撮像カメラによって撮像された画像から、円盤状基板の中心位置座標を検出することが可能となる。
また、前記撮像カメラは、前記円盤状基板の周縁部の一部分のみを撮像することとすれば、全体を撮像する場合に比べ、単位面積あたりの撮像セルの数を増やすことができるので座標検出の精度が向上する。
また、前記座標検出部は、前記エッジデータ上の2点の座標と前記円盤状基板の半径から、前記円盤状物の中心位置座標を検出することで、前記円盤状基板の周縁部の一部分のみを撮像するだけで中心位置座標を検出することができる。
また、前記座標検出部は、前記エッジデータ上の2点の座標と前記円盤状基板の前記半径から、前記半径をそれぞれ一辺とする2つの直角二等辺三角形を作成し、三平方の定理から前記円盤状基板の前記中心位置座標を検出することで、正確に中心位置座標を算出することができる。
また、前記座標検出部は、前記エッジデータ上の3点の座標から、前記円盤状物の前記中心位置座標を検出することで、前記円盤状基板の半径を使うことなく中心位置座標を検出することができ、半径が未知の状態でも中心位置座標を検出できる。
また、前記座標検出部は、前記エッジデータ上の3点の座標と前記円盤状基板の前記半径から、前記半径を各々一辺とする3つの直角二等辺三角形を作成し、三平方の定理から前記円盤状基板の前記中心位置座標を算出することができる。
また、位置検出装置は、前記支持部材の基準位置に保持された前記円盤状基板についての前記中心位置座標と、製造工程中に搬送される位置ずれを発生している前記円盤状基板の前記中心位置座標とのX軸方向及びY軸方向についてのずれ量を算出し、前記支持部材の補正量を算出する補正量算出部を更に備えていて、搬送ロボットの補正量を算出することが出来る。
さらに、本発明に関連する技術は上記位置検出装置によって行われる位置検出方法であり、所定の軌道上に沿って移動可能な支持部材に保持された円盤状基板の位置を検出する位置検出方法であって、前記位置検出方法は、前記円盤状基板を保持した前記支持部材が所定の監視位置に位置した際に、1台の撮像カメラによって円盤状基板の周縁部を撮像する撮像ステップと、前記撮像カメラによって撮像された前記円盤状基板の周縁部の撮像データから、前記円盤状基板のエッジを抽出するエッジ抽出ステップと、前記エッジ抽出ステップによって抽出されたエッジデータから、前記円盤状基板の中心位置座標を検出する座標検出ステップとから構成されている。
また、前記撮像ステップは、前記円盤状基板の周縁部の一部分のみを撮像することとすれば、全体を撮像する場合に比べ、単位面積あたりの撮像セルの数を増やすことができるので座標検出の精度が向上する。
また、前記座標検出ステップは、前記エッジデータ上の2点の座標と前記円盤状基板の半径から、前記円盤状物の中心位置座標を検出することで、前記円盤状基板の周縁部の一部分のみを撮像するだけで中心位置座標を検出することができる。
また、前記座標検出ステップは、前記エッジデータ上の2点の座標と前記円盤状基板の前記半径から、前記半径をそれぞれ一辺とする2つの直角二等辺三角形を作成し、三平方の定理から前記円盤状基板の前記中心位置座標を検出することで、正確に中心位置座標を算出することができる。
また、前記座標検出ステップは、前記エッジデータ上の3点の座標から、前記円盤状物の前記中心位置座標を検出することで、前記円盤状基板の半径を使うことなく中心位置座標を検出することができ、半径が未知の状態でも中心位置座標を検出できる。
また、前記座標検出ステップは、前記エッジデータ上の3点の座標と前記円盤状基板の前記半径から、前記半径を各々一辺とする3つの直角二等辺三角形を作成し、三平方の定理から前記円盤状基板の前記中心位置座標を算出することができる。
また、位置検出方法は、前記支持部材の基準位置に保持された前記円盤状基板についての前記中心位置座標と、製造工程中に搬送される位置ずれを発生している前記円盤状基板の前記中心位置座標とのX軸方向及びY軸方向についてのずれ量を算出し、前記支持部材の補正量を算出する補正量算出ステップを更に備えていて、搬送ロボットの補正量を算出することが出来る。
 また、本発明に係る位置検出装置は、所定の軌道上に沿って移動可能な支持部材に保持された円盤状基板の位置を検出する位置検出装置であって、直交するXY軸の座標系にセルが配置され、前記円盤状基板を保持した前記支持部材が所定の監視位置に位置した際に、前記円盤状基板の中心を通りY軸に平行な直線Uと前記円盤状基板のエッジとが交差する交点Cを視野に入れて円盤状基板の周縁部を撮像する撮像カメラと、前記撮像カメラによって撮像された前記円盤状基板の周縁部の撮像データから、前記交点CのY軸座標値を抽出し、前記視野の範囲において撮像された前記円盤状基板のエッジ上であって前記交点Cから離れた任意位置にある地点のXY軸座標を抽出するエッジ抽出部と、前記エッジ抽出部によって抽出された交点CのY軸座標値及び任意位置にある地点のXY軸座標から、前記円盤状基板の中心位置座標を検出する座標検出部とを有することを特徴としている。
本発明によれば、1台のカメラで円盤状基板を撮像することでその円盤状基板の中心位置座標を検出することができる。さらに、円盤状基板の周縁部の一部分を撮像することで中心位置座標を検出できるので、単位面積あたりのセルの数を多くすることができるので、より正確な位置座標の検出が可能となる。さらに、解像度の比較的低い撮像カメラでも高い検出精度が得られるので、高解像度の撮像カメラが不要となり、コストの削減にも貢献することになる。
本発明の位置検出装置を備える半導体製造システムを示した斜視図である。 本発明の位置検出装置を備える半導体製造システムを示した上面図である。 本実施例における搬送室16と真空搬送ロボットを示した上面図である。 本実施例における支持部材であるフィンガを示した図である。 本実施例における半導体ウエハの位置検出についての説明図である。 本発明における位置検出装置の構成を示したブロック図である。 本実施例における撮像カメラが撮像した半導体ウエハの頂点付近を示す図である。 本発明における第1及び第2の位置ずれ量検出方法の概略を示した図である。 本発明における第1及び第2の位置ずれ量検出方法の概略を示した図である。 本発明における第3の位置ずれ量検出方法の概略を示した図である。 本発明における第3の位置ずれ量検出方法の概略を示した図である。 本発明における第4の位置ずれ量検出方法の概略を示した図である。 照明装置42を追加した位置検出装置29の図である。 撮像されたウエハマーク43とアライメントマーク44を示した図である。
以下に、本発明の実施の形態について図を参照して詳細に説明する。図1は本発明に係る位置検出装置29を備える半導体製造システム1の概略を示した斜視図であり、図2はその上面図である。一般に半導体製造システム1は、前の工程からFOUP(Front-Opening Unified Pod)4と呼ばれる密閉容器内部の棚段上に収納され運ばれてきた半導体ウエハ5といった円盤状基板を、ロードロック室6に正確に載置するEFEM(Equipment Front End Module)2と、半導体ウエハ5表面に各種処理を施す処理装置3とから構成されている。
EFEM2は、FOUP4と処理装置3との間で半導体ウエハ5の受渡しを行う装置で、FOUP4を載置してFOUP4のドアを開閉するロードポート7と、FOUP4内部に収納された半導体ウエハ5をフィンガ8で保持して所定の経路を通って処理装置3へと搬送する大気搬送ロボット9と、半導体ウエハ5の中心位置合わせ及び半導体ウエハ5に形成されたノッチやオリフラを識別し、半導体ウエハ5の回転方向の位置合わせを行うアライナ10と呼ばれる装置とで構成されている。アライナ10は、半導体ウエハ5の周縁部分を検出するリニアセンサと、半導体ウエハ5を保持しその回転角度を調整する回転機構とを備えていて、半導体ウエハ5の周縁に形成されたノッチやオリフラの回転方向についての位置決めや、半導体ウエハ5の中心位置を適正な位置にアライメント処理している。
大気搬送ロボット9は、半導体ウエハ5を保持するフィンガ8を有するとともに屈伸、旋回及び昇降動作するように構成された搬送アーム11を備えていて、FOUP4とアライナ10及び処理装置3との間で半導体ウエハ5の受け渡しをすることが出来る。これらロードポート7、アライナ10及び大気搬送ロボット9の各軸の動作はEFEM2内に配置された制御部12により制御されている。制御部12は大気搬送ロボット9がアクセスする際の座標データや、経路データ等を予め記憶し、大気搬送ロボット9の各動作軸へと動作命令を出す。さらに、制御部12は、アライナ10のリニアセンサが検出した半導体ウエハ5の周縁についてのデータから、半導体ウエハ5のノッチ位置と中心位置を演算し、ノッチ位置が所定の方向になるように半導体ウエハ5を向け、中心位置を適正な位置にアライメントするようにアライナ10に指示を出す。
また、大気搬送ロボット9が半導体ウエハ5を保持し搬送する空間は四方をフレームとカバーとから成る仕切り13で覆われていて、仕切り13の天井部分にはFFU(Fun Filter Unit)14が設置されている。FFU14は、ファンによって外部から導入してきた空気をフィルタによって濾過し清浄なクリーンエアとしてEFEM2内部に下向きの層流として供給するもので、このFFU14から供給されるクリーンエアのダウンフローよって、EFEM2内部は常に清浄な環境に維持されている。
処理装置3には、真空搬送ロボット15が配置される搬送室16と、搬送室16の周囲に配置され半導体ウエハ5に対し各種処理を施す処理室17と、外部との半導体ウエハ5の搬入、搬出を行うためのロードロック室6と、搬送室16と処理室17及びロードロック室6内とを真空環境若しくは低酸素雰囲気に維持する不図示の環境維持手段が設けられている。搬送室16と各処理室17との間、及び搬送室16と各ロードロック室6との間には、開閉自在のゲートバルブ18が夫々設けられていて、各室を気密に閉鎖することが出来る。さらに、これらゲートバルブ18を開動作させることによって、各室間が連通されるようになっている。なお、ゲートバルブ18については、各室の真空環境若しくは低酸素雰囲気を確保するために二つ以上のゲートバルブ18を同時に開くことは出来ないという制限がある。すなわち、或るゲートバルブ18を開く際には、他のゲートバルブ18が完全に閉まった状態である必要があり、その開いたゲートバルブ18が完全に閉まった状態になってからでないと、他のゲートバルブ18を開けることは出来ない。
本実施例における処理装置3では、搬送室16は上面視五角形の形状となっていて、搬送室16の中央部分には真空搬送ロボット15が配置されている。真空搬送ロボット15は、例えば図3に示すように、同じ長さ寸法の二本の第1アーム19と、夫々の第1アーム19の先端部には、基端を回転自在に連結された第2アーム20と、夫々の第2アーム20の先端に半導体ウエハ5を支持するフィンガ21が備えられた所謂フロッグレッグ型ロボットである。二本の第1アーム19の基端部は搬送室16の中央部に同軸状に旋回可能に積み上げられた状態で取り付けられていて、各第1アーム19は駆動源である不図示のモータにそれぞれベルトとプーリを介して連結している。この構成により、真空搬送ロボット15は、それぞれのモータが反対の方向に回転することで、半導体ウエハ5の支持部材であるフィンガ21を、旋回軸を中心として放射状に、且つ直線的に進退移動させることが可能となっている。また、モータが同じ方向に回転することにより、真空搬送ロボット15を旋回動作させることが可能となっている。なお、駆動源であるモータは、ステッピングモータやサーボモータといった回転角度の制御可能なものを使用することによって、フィンガ21を、予め教示された位置に繰り返し移動させることが可能な構成となっている。
真空搬送ロボット15の動作を制御するロボット制御部35は、内部に真空搬送ロボット15に関する予め教示された搬送位置データや動作速度データ等を記憶する教示情報記憶手段40を備えていて、上位コンピュータからの動作指令によって、真空搬送ロボット15が教示位置へのアクセスを行うよう制御指令を出す。
フィンガ21の半導体ウエハ5を支持する面は、半導体ウエハ5が搬送中の振動や遠心力により落下してしまうのを防止するために、周辺部に比べ半導体ウエハ5の半径よりも2、3mm程度大きな円弧状に窪んだ形状に形成されている。この窪みの側面は、受け渡しの際に半導体ウエハ5が多少位置ずれしてもフィンガ21上に載置できるように、半導体ウエハ5を載置する面から上面に行くに従って半径が大きくなる方向に傾斜して形成されている。この傾斜により、持ち上げられた半導体ウエハ5は、自動的にフィンガ21の載置面上に案内される。また、フィンガ21の先端部分は、半導体ウエハ5の撮像のために、透過照明装置27からの透過光を遮蔽しないように撮像カメラ24の視野28よりも大きな面積に切り取られた形状となっている。
処理室17とロードロック室6の内部で半導体ウエハ5を載置する載置台22は、真空搬送ロボット15のアーム体の伸長動作によって到達可能な位置に配置されている。載置台22には昇降自在なリフタが備えられていて、リフタの昇降動作によってフィンガ上に載置された半導体ウエハ5の受け渡しが行えるようになっている。
上記構成により、前の工程からFOUP4に収納されてきた半導体ウエハ5を大気搬送ロボット9によって取り出し、アライナ10によって正確な位置決めとノッチ位置合わせされた後、ロードロック室6を中継して処理装置3に搭載された真空搬送ロボット9に受渡すことが可能となる。その後、半導体ウエハ5を受け取った真空ロボット9は、目的の処理室17の載置台22まで半導体ウエハ5を搬送することになるが、ここで大きな問題点が出てくる。すなわち、真空搬送ロボット15にて搬送中、半導体ウエハ5が振動やガス圧の変化等の影響を受けて、フィンガ21上で横滑りするように微小に位置ずれを起こしてしまうのである。
そこで、本実施例における半導体製造システム1では、搬送室16に内部を観察するためのビューポート23を設け、このビューポート23を介して搬送室16外部から1台の撮像カメラ24によって半導体ウエハ5の周縁部分を撮像し、半導体ウエハ5の位置を検出することとしている。撮像カメラ24は半導体ウエハ5の全周にわたる周縁部分を撮像する必要は無く、半導体ウエハ5周縁部の一部分について撮像するだけでよい。さらに、位置検出のための特別な載置台に置く必要もない。
以下に1台の撮像カメラ24を使った半導体ウエハ5の中心位置検出処理について説明する。図5は搬送室16における半導体ウエハ5の位置検出についての説明図である。撮像カメラ24は、搬送室16を形成する部材にブラケット等の固定用具を介して固定されている。搬送室16を形成する部材の上方には、内部を観察するためのビューポート23が設けられていて、このビューポート23には石英ガラス等の透明な光透過部材25がシール材26を介して気密に取り付けられている。このビューポート23に対向する搬送室16の下方にもビューポート23が設けられている。この下方のビューポート23には透過照明装置27が取り付けられていて、監視位置に到達した半導体ウエハ5の周縁部分を、下方から照らすことが可能となっている。なお、本実施例で使用される透過照明装置27は撮像カメラ24の視野よりも大きい照明範囲を有するものが好ましい。
透過照明装置27では、光源としては蛍光灯やLED、ハロゲンランプといったものが広く使用されている。また、透過照明装置27には撮像カメラ24の視野内での明るさにムラが生じないように、反射機構やレンズが備えられていて、光源から照射された光を反射機構によって検出対象である半導体ウエハ5側へと反射させ、レンズによって半導体ウエハ5に対してほぼ直交する方向の平行光へと変換する。また、光源からの光を、コリメータレンズ等を使用して平行光とすることも微細な位置検出を行う際には好ましいものとなる。
次に、位置検出装置29について説明する。図6は位置検出装置29の構成を示したブロック図である。位置検出装置29は、半導体ウエハ5の周縁部分を撮像し取り込む撮像カメラ24と、撮像カメラ24によって取り込まれた撮像データを記憶する記憶手段30と、撮像データから周縁部分のエッジ抽出を行うエッジ抽出部31と、エッジ抽出部31により得られたデータから真空搬送ロボット15の位置データについての補正量を算出する補正量算出部32とから構成されている。さらに、撮像カメラ24によって撮像された画像やエッジ抽出部31によって抽出されたエッジデータといった位置検出装置29によって処理されるデータ情報を表示する表示部38と、位置検出装置29に手動での各種コマンドを入力や画像の記憶作業を行うための入力手段39が接続可能となっている。具体的には、表示部38とは液晶や有機EL、CRTといった表示器を備えるモニター装置であり、入力手段39とはキーボードやマウス、タッチパネル等のことを指す。
撮像カメラ24は、少なくとも撮像素子33と、透過照明装置27からの透過光を受光して撮像素子29に結像させる光学レンズ34とから構成されていて、真空搬送ロボット15のフィンガ21に載置された半導体ウエハ5の、移動軌跡上に位置するように搬送室16の上部に設置されている。撮像素子29は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの半導体素子から成っていて、光学レンズ34によって結像された画像を撮像素子33の各素子の信号データとして記憶手段30へと送信する。撮像素子33からの信号データは、撮像素子33の各セルの出力信号であり、撮像素子33の入射面上に設定された座標に関連付けて送信される。
記憶手段30は、撮像カメラ24から送られて来た画像データや、後述するエッジ抽出部31により抽出されたエッジの座標データ、及び補正量算出部32によって算出された各半導体ウエハ5の夫々の補正データを格納する役目をする。さらに、エッジ抽出部31からの要求に応じて、所定の画像データをエッジ抽出部31に送信するものである。
エッジ抽出部31は、撮像カメラ24により送られて来た画像データを読み取った後、画像処理プログラムを実行して半導体ウエハ5のエッジ抽出処理を行う。エッジ抽出処理が行われる画像データは、撮像カメラ24の視野28において透過照明装置27からの光がそのまま撮像素子33に入射した部分と、半導体ウエハ5によって遮光され、影として入射した部分では、光の強弱の違いから撮像素子33上に明暗の差が生じている。従って、撮像素子33に取り込まれた画像データのうち、明暗の値が急激に変化している部分を抽出することで半導体ウエハ5のエッジに相当する座標データを抽出することが出来る。ここで、抽出された座標データは座標検出部41と記憶手段30に送られ、格納される。
座標検出部41は、エッジ抽出部31によって抽出されたエッジデータを基に、以下に示す方法によりエッジ上の座標と中心位置の座標を検出する。ここで検出された座標データとずれ量のデータは補正量算出部32に送られる。補正量算出部32は、目的の半導体ウエハ5のずれ量を算出し、その算出されたずれ量から、ずれを打ち消す方向にフィンガ21を移動させる補正データを、予め教示された搬送位置データに加算した上で真空搬送ロボット15を動作させるよう補正データをロボット制御部35に送る。ロボット制御部35は、補正量算出部32から受け取った補正データを、教示情報記憶手段40に格納された搬送位置データに加算することで新たな搬送位置データとして補正を行い、真空搬送ロボット15を補正された位置まで動作させる。
次に、撮像カメラ24による半導体ウエハ5の位置検出方法について説明する。図7は撮像カメラ24によって撮像された半導体ウエハ5の周縁部画像である。本実施例における撮像カメラ24では、図7の撮像素子33を構成する各セルの横方向の並びをX軸とし、X軸に対し垂直な縦方向の並びをY軸と規定していて、撮像素子33の各セルには個別のXY座標が割り振られている。本実施例にて使用する撮像カメラ24の、半導体ウエハ5を撮像する視野28はX軸方向で64ミリメートル、Y軸方向で48ミリメートルに設定されている。これをセルの最小単位であるドットで換算すると、X軸方向に1600ドット、Y軸方向に1200ドットのセルが配置されていることとなる。すなわち、半導体ウエハ5の周縁部分を、1ドットの寸法である4マイクロメートルオーダーでのエッジの抽出、及び半導体ウエハ5の中心位置の検出が可能ということになる。
さらに、本実施例においては、半導体ウエハ5はフィンガ21上に載置され、図7の下方から上方に向かってY軸と平行な軌跡に沿って、図の上方に配置された目的位置に対して往復移動することとなっている。ここで、撮像素子33の座標上で、半導体ウエハ5の移動方向における頂点、すなわち、目的位置に対して最も接近している地点の座標を検出するためには、隣り合った個々のセルでの撮像の濃淡を比較することで頂点のX軸座標及びY軸座標を検出することになるが、Y軸方向に関しては縦方向に隣り合った各素子単位での濃淡の差が明確で、容易に認識可能であるが、X軸方向に関しては、横方向に隣り合った各素子単位での濃淡の差は明確に認識することは非常に難しい。
図7に概略的に半導体ウエハ5の頂点付近の各ドットと半導体ウエハ5のエッジとの関係を示すが、半導体ウエハ5の周縁部分のエッジに対して、X軸方向に整列された各セルが目的のエッジに対して接線の位置にあることで、隣り合ったセル同士での濃淡の差が出にくくなってしまうのである。これは、隣り合ったセル同士の濃淡の度合いがほぼ同じ値となってしまい、セル単位での位置の検出が出来ず、X軸方向の検出位置が、X軸方向に平行な細長い線状の座標を頂点として検出されてしまうのである。
そこで、以下の方法によって搬送中の半導体ウエハ5のX軸方向及びY軸方向の正確な位置ずれ量を検出することとしている。図8~図11は、半導体ウエハ5の位置ずれ量検出の概略を示した説明図である。
先ず、位置ずれ検出処理を行う際の基準となる、位置ずれを起こしていない、基準位置に載置された半導体ウエハ5の撮像を行う。真空搬送ロボット15が備えるフィンガ21上の設計上の最適な位置に、治具等を使用して基準となる半導体ウエハ5を載置する。その後、真空搬送ロボット15を動作させて、半導体ウエハ5の移動軌跡上での先端部分が撮像カメラ24の視野28内に位置するように、真空搬送ロボット15を監視位置まで動作させる。所定の監視位置に到達したところで、真空搬送ロボット15の動作を一時停止させて、半導体ウエハ5の周縁部分を撮像する。撮像した画像は基準円36の画像データとして記憶手段30に送られ記憶される。なお、基準となる画像データは、実物の半導体ウエハ5に替えて、半導体ウエハ5と同一の円弧を有する治具等を使用することとしてもよい。なお、本実施例においては、撮像時に真空搬送ロボット15の動作を一時停止させているが、スループット向上のため、真空搬送ロボット15によって移動動作中の半導体ウエハ5を撮像することとしてもよい。
ここで、画像データはエッジ抽出部31に送られ、周縁部分のエッジを抽出する。次に、座標検出部41はエッジ抽出部31でもとめられたエッジデータと、既知である半導体ウエハ5の半径とから、基準位置に配置された半導体ウエハ5である基準円36の中心座標を求める。中心座標を求めるには、エッジ抽出部31によって抽出されたエッジデータから、円周上の頂点位置のY軸座標値、及び任意の2点を抽出し、その2点のX、Y軸に関する座標データと半導体ウエハ5の半径により求めることが可能となる。以下にその検出手順について説明する。
(第1の位置ずれ量検出方法)
図8は、基準円36と視野28との位置関係を示した説明図である。基準円36は位置検出中の半導体ウエハ5の全体像を擬似的に示したものであり、視野28は撮像カメラ24によって撮像したときの撮像範囲を示していて、視野28の図面視左下地点を原点としている。まず、エッジ抽出処理によって抽出されたエッジ上の任意の地点を2点指定する。指定した2つの地点をここでは地点A、地点Bとし、地点Aの視野28内におけるXY座標を(X1、Y1)、地点BのXY座標を(X2、Y2)とする。次に、視野28のY軸に平行であって地点Aを通過する直線X1と、Y軸に平行であって地点Bを通過する直線X2とを引く。さらに、基準円36の中心点をO1とし、そのXY座標を(a、b)とする。次に、基準円36の中心点O1を通過し視野28のX軸に平行な直線Rを引き、直線Rと直線X1との交点をDとし、直線Rと直線X2との交点をEとする。ここで、交点DのXY座標系における位置は(X1、b)、交点EのXY座標系における位置は(X2、b)となる。この結果、基準円36上には2つの直角三角形αとβが出来ることとなり、この直角三角形α、βの夫々の辺A-O1、B-O1は基準円36の半径rと同一の長さとなる。上記から、直角三角形αについては、
(X1-a)+(Y1-b)=r・・・(1)
という式が成り立ち、直角三角形βについては、
(X2-a)+(Y2-b)=r・・・(2)
という式が成り立つ。
さらに、基準円36の中心点O1を通りY軸に平行な直線Uを引き、この直線Uと基準円36のエッジとの視野28内に於ける交点を地点Cとする。この地点Cの視野28内に於けるXY座標を(a、Y3)とする。ここで、基準円36として描かれる半導体ウエハ5は、フィンガ21上に載置されてY軸に平行に画面上方に向かって移動しているので、地点Cは目的地に対して最も近い頂点と言うことが出来る。この地点Cのうち、Y座標であるY3の座標位置は位置検出装置29により検出できる値であるが、X座標であるaについては、不明瞭な撮像しか認識出来ないことから、不明な値となる。地点AのXY座標であるX1、Y1、及び地点BのXY座標であるX2、Y2の値は、位置検出装置29により検出できる値であるので、中心点O1のY座標bは、
b=Y3-r・・・(3)
として算出できる。なお、半径rは搬送時の半導体ウエハ5の半径であるので、既知の値である。
次に、中心点O1のX座標aの求め方を以下に説明する。まず、式(1)-式(2)とすると、以下の式となる。
(X1-a)-(X2-a)+(Y1-b)-(Y2-b)=0・・・(4)
この式(4)を展開すると、
X1-X2+Y1-Y2-2(X1-X2)a-2(Y1-Y2)b=0・・・(5)
となり、aを求める計算式に整理すると、
a={X1-X2+Y1-Y2-2(Y1-Y2)b}/2(X1-X2)・・・(6)
となる。前述の通り、a以外の値は既に検出されている座標上の値であるので、上の計算式から中心点O1のX座標の値aは算出することが出来る。ここで求められた基準円36の中心点O1の座標(a、b)は、記憶手段30に送信され、記憶される。
基準円36の検出が終了したら、位置検出装置29は、この中心位置O1の座標(a、b)を基準位置として、実際の製造工程で搬送される半導体ウエハ5のエッジを抽出し、ずれ量の検出を行う。この検出を行う時、フィンガ21を動作させる各モータの動作位置は前述の基準円36を抽出した監視位置と同じ位置にしておく必要がある。目的の製造工程で搬送されている半導体ウエハ5から抽出される計測円37の中心位置を検出する方法は、前述の式(1)から式(6)に示された手順と同じ手順に従って行われる。
図9は、製造工程において実際に搬送されている半導体ウエハ5を擬似的に示した計測円37と視野28の位置を示した説明図である。計測円37の中心点O2の視野28上におけるXY座標を、ここでは(c、d)とする。ここで、エッジ抽出部31によって抽出された計測円37のエッジと直線X1、X2との交点を地点F、地点Gとし、地点GのXY座標を(X1、Y4)、地点GのXY座標を(X2、Y5)とする。次に、計測円37の中心点O2を通過しX軸に平行な直線R´を引き、ここで、直線R´と直線X1との交点をJとし、直線R´と直線X2との交点をKとする。交点JのXY座標は(X1、d)、交点KのXY座標は(X2、d)となり、この結果、計測円37上には2つの直角三角形γとδが出来ることとなる。この直角三角形γ、δの夫々の辺F-O2、G-O2は計測円37の半径rと同一の長さとなる。上記から、直角三角形γについては、
(X1-c)+(Y4-d)=r・・・(7)
という式が成り立ち、直角三角形βについては、
(X2-c)+(Y5-d)=r・・・(8)
という式が成り立つ。
さらに、基準円36と同様に計測円37についても、中心点O2を通りY軸に平行な直線U´と計測円37のエッジとの視野28内に於ける交点を地点Hとし、この地点HのXY座標を(c、Y6)とする。ここで、基準円36と同様に計測円37も、フィンガ21上に載置されてY軸に平行に画面上方に向かって移動しているので、地点Hは目的地に対して最も近い頂点と言うことが出来る。この地点HのY座標であるY6の位置は位置検出装置29により検出できる値である。しかし、X座標であるcについては、不明瞭な撮像しか認識出来ないことから、不明な値となる。また、地点FのXY座標である(X1、Y4)、及び地点GのXY座標である(X2、Y5)の値も位置検出装置29により検出される値であるので、中心点O2のY座標dは、
d=Y6-r・・・(9)
として算出できる。なお、半径rは搬送時の半導体ウエハ5の半径となるので、既知の値である。
次に、中心点O2のX座標cの求め方は以下のようになる。式(7)-式(8)とすると、
(X1-c)-(X2-c)+(Y4-d)-(Y5-d)=0・・・(10)
となり、この式(4)を展開すると、
X1-X2+Y4-Y5-2(X1-X2)c-2(Y4-Y5)d=0・・・(11)
となる。この式(11)を、cを求める計算式に整理すると、
c={X1-X2+Y4-Y5-2(Y4-Y5)d}/2(X1-X2)・・・(12)
となる。X座標c以外の値は既に検出されている座標上の値であるので、上の計算式から中心点O2のX座標の値cは算出することが出来る。ここで求められた計測円37の中心点O2の座標(c、d)は、記憶手段30に送信され、記憶される。
次に、補正量算出部32は、ここで求められた中心点の座標(c、d)が、基準円36の中心点O1の座標(a、b)に対して、XY座標上でX軸方向及びY軸方向にどれだけずれているかを数値化する。ここで数値化されたずれ量を基に、補正量算出手段32は、位置ずれを打ち消す方向に真空搬送ロボット15のフィンガ21を動作させることが出来るように、駆動源である各駆動モータの回転角度に対する補正量を求める。この補正された各駆動モータの回転角度についでのデータを受け取ったロボット制御部35は補正されたデータに則って真空搬送ロボット15を動作させる。
以上が第1の補正量算出方法の説明である。ここで、注意すべき事として半導体ウエハ5に形成されたノッチやオリフラといった位置決めのために形成された切り欠き部分の存在である。前述のとおり、FOUP4に収納され前の工程から運ばれて来た半導体ウエハ5は、EFEM2内に備えられたアライナ10によってノッチやオリフラの位置合わせ処理が行われている。このノッチやオリフラの位置合わせ処理は、全ての半導体ウエハ5のノッチ若しくはオリフラが同じ方向に向くように処理される。このことから、撮像カメラ24は、半導体ウエハ5のノッチやオリフラが存在しない位置に視野28が設定されるように設置しておけばよい。若しくは、たとえ視野28内にノッチが存在したとしても、撮像カメラ24の画像からノッチは抽出することが出来るので、エッジ上の地点を決定する際に、オリフラが存在しない位置に決定すれば良い。
(第2の位置ずれ量検出方法)
前述した第1の方法では、基準位置にある半導体ウエハ5(基準円36)の頂点CのY座標Y3と、実際に製造ラインに乗って搬送される半導体ウエハ5(計測円37)の頂点HのY座標Y6を用いて、各中心点O1、O2のX座標a、cを算出していた。次に、各頂点C、HのY座標を用いることなく中心点O1、O2のX座標a、cを算出する方法について説明する。図は第1の補正量算出方法にて用いられた図8、図9を使用する。
まず、前述の基準円36についての式(5)を、中心点O1のY座標bを求める計算式に整理すると、以下の式(13)となる。
b={-2(X1-X2)a+X1-X2+Y1-Y2}/2(Y1-Y2)・・・(13)
また、同じく前述の計測円37についての式(11)を、中心点O2のY座標dを求める計算式に整理すると、以下の式(14)となる。
d={-2(X1-X2)c+X1-X2+Y4-Y5}/2(Y4-Y5)・・・(14)
ここで、式(13)を式(1)に代入して、展開すると以下の式(15)となる。
Figure JPOXMLDOC01-appb-M000001
次に式(14)を式(7)に代入して、展開すると以下の式(16)となる。
Figure JPOXMLDOC01-appb-M000002
以上の式(15)と式(16)により、エッジ上の地点A、B、F、GのXY座標から、基準円36と計測円37の各中心点O1、O2のX軸座標a、cが算出できる。なお、式(15)、式(16)から算出される値には平方根が存在する。これについては、Y1とY2の値の大小によりプラス若しくはマイナスの数値のどちらを使うかが決定される。すなわち、Y1の値がY2の値よりも小さい場合にはプラスの値を、Y1の値がY2の値よりも大きい場合にはマイナスの値を使うことで、正規の中心点の位置を算出することが出来る。また、Y1とY2の値が同じになってしまった場合には、直線X1若しくはX2を設定し直すことが好ましい。ここで、各中心点O1、O2のY軸座標b、dは上述の式(13)と式(14)により算出することが出来るので、各中心点O1、O2の座標を求めることが出来た。次に、計測円37の基準円36に対するXY座標系についてのずれ量を算出し、このずれ量から真空搬送ロボット15の動作を補正する手順については前述の通りであるので省略する。
上記説明した2つの算出方法では、半導体ウエハ5の半径rを既知の値として入力するようにしていたが、次に、半径rの値を必要としない算出方法を説明する。この算出方法によれば、搬送する半導体ウエハ5の半径寸法のバラつきが発生していた場合でも、正確に中心位置、及び補正量を算出することが出来る。図10、図11は第3の補正量算出方法の概略を示した説明図である。第1、第2の補正量算出方法では、エッジ抽出処理によって抽出されたエッジ上に任意の地点を2点していたが、この第3の補正量算出方法では、この2点に加え、エッジ上に3点目の任意の点L、Nを指定することとしている。
(第3の位置ずれ量検出方法)
以下に第3の補正量算出方法について詳しく説明する。まず基準円36の中心点O1のXY座標(a、b)及び半径rを求める方法について図10を参照して説明する。基準位置に設置された半導体ウエハ5の画像から抽出されたエッジ上に、先に指定した地点A、地点Bに加え、第3の任意の地点を指定する。指定した第3の地点をここでは地点Lとし、地点Lの視野28内におけるXY座標を(X3、Y7)とする。なお、先に指定した地点Aの視野28内におけるXY座標は(X1、Y1)、地点Bの視野28内におけるXY座標は(X2、Y2)である。次に、地点Aを通過し視野28のY軸に平行な直線X1と、地点Bを通過し視野28のY軸に平行な直線X2、地点Lを通過し視野28のY軸に平行な直線X3を引く。基準円36の中心点をO1とし、そのXY座標を(a、b)とすることは前述の方法と同じである。
次に、上記説明と同様に直線Rと直線X1との交点をDとし、直線Rと直線X2との交点をE、直線Rと直線X3との交点をMとすると、各交点D、E、MのXY座標はそれぞれ(X1、b)、(X2、b)、(X3、b)となる。この結果、基準円36上に3つの直角三角形α、β、εが出来ることとなり、ここで直角三角形εの辺L-O1も基準円36の半径rと同一の長さとなる。上記から、直角三角形αについては式(1)、βについては式(2)、εについては、
(X3-a)+(Y7-b)=r・・・(17)
という式が成り立つ。
ここで、直角三角形α、βの関係式から、式(1)-式(2)として展開すると式(5)となり、直角三角形α、εの関係式から、式(1)-式(17)として展開すると、
X1-X3+Y1-Y7-2(X1-X3)a-2(Y1-Y7)b=0・・・(18)
式(18)となる。ここで、式(5)と式(18)からaとbとを求める一次方程式に整理することで、式(19)、式(20)となり、中心点O1のXY座標(a、b)を求めることが出来る。また、XY座標(a、b)が求められれば、例えば式(17)から、基準円36の半径rも求めることが出来る。
Figure JPOXMLDOC01-appb-M000003
次に、図11を参照して、計測円37の中心点O2のXY座標(c、d)を求める計算式を作成する。図11は図9に第3の直線X3を追加した説明図である。ここでも図10に示した基準円36と同様に、第3の直線X3と計測円37のエッジとの交わる地点を地点Nとし、この地点NのXY座標系における位置を(X3、Y8)とする。次に、計測円37の中心点O2を通過し視野28のX軸に平行な直線R´と直線X1との交点をJとし、直線R´と直線X2との交点をK、直線R´と直線X3との交点をPとすると、各交点J、K、PのXY座標はそれぞれ(X1、d)、(X2、d)、(X3、d)となる。この結果、計測円37上に3つの直角三角形γ、δ、Ζが出来ることとなり、ここで直角三角形Ζの辺N-O2も計測円37の半径rと同一の長さとなる。上記から、直角三角形γについては式(7)、δについては式(8)、Ζについては、
(X3-c)+(Y8-d)=r・・・(21)
という式が成り立つ。
ここで、上記の式から、式(7)-式(8)として展開すると式(22)となり、式(8)-式(21)として展開すると式(23)となる。
X1-X2+Y4-Y5-2(X1-X2)c-2(Y4-Y5)d=0・・・(22)
X2-X3+Y5-Y8-2(X2-X3)c-2(Y5-Y8)d=0・・・(23)
ここで、前述した基準円36で行った計算と同様の計算を行うことで、式(24)、式(25)となり、計測円37の中心点O2のXY座標(c、d)を求めることが出来る。また、このXY座標(c、d)が求められれば、計測円37の半径rも例えば式(21)から求めることが出来る。
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
製造ライン上を搬送される半導体ウエハ5のX軸及びY軸方向についての位置ずれ量Ax、Ayは、X軸方向については、計測円37の中心点のX座標であるcから基準円36の中心点のX軸座標であるaを引くことで求められ、Y軸方向については、計測円37の中心点のY座標であるdから基準円36の中心点のY軸座標であるbを引くことで求められる。ここで求められたX軸Y軸方向についての位置ずれ量を基に、補正量算出部32は位置ずれを打ち消す方向に真空搬送ロボット15のフィンガ21を補正動作させることが出来るように、駆動源である各駆動モータの回転角度に対する補正量を求める。この補正された各駆動モータの回転角度についでのデータを受け取ったロボット制御部35は補正されたデータに則って真空搬送ロボット15を動作させる。さらに、この第3の補正量算出方法では、各半導体ウエハ5の半径の僅かな差も算出できるので、基準円36の円周上の点を基準位置として定め、この点に対しての補正量を算出することも出来る。
(第4の位置ずれ量検出方法)
前述の方法以外にも、視野28内のエッジ上の3点から円の中心位置を求める方法として、円周上の3点から2点を選び、その2点を結ぶ直線を2本引き、その2本の直線についてそれぞれの垂直二等分線の交点が円の中心点と一致することから、求める方法もある。図12は基準円36上の3つの地点A、B、Lのうち2つの地点AとB、BとLを結ぶ直線についての垂直二等分線を示した説明図である。なお、基準円36、計測円37に関する各地点や直線について同一のものには、同一の符号を付与している。ここで、地点AとBを結ぶ直線A-Bの垂直二等分線をSとし、直線A-BとSとの交わる点をsとする。また、地点BとLを結ぶ直線B-Lの垂直二等分線をTとし、直線B-LとTとの交わる点をtとする。なお、直線A-B、B-Lの傾き角度、及び中点は座標検出部41により検出される。この直線A-B、B-Lの傾きが検出されることで、この直線A-B、B-Lに直交する垂直二等分線SとTの傾き角度も検出可能である。ここで、垂直二等分線SとTとの交点は基準円36の中心点O1となる。
次に、点s及び点tの座標をそれぞれ(X5、Y9)、(X6、Y10)とし、中心点O1を通るX方向の座標軸に平行な直線Rから直線S、Tまでの角度をそれぞれθ、θとすると、
Y9-b=(X5-a)tanθ  ・・・(26)
Y10-b=(X6-a)tanθ ・・・(27)
となり、bを消去するために式(26)-式(27)とすると、
Y9-Y10=X5tanθ-X6tanθ-atanθ+atanθ・・・(28)
となり、中心点O1のX座標aは、以下の式(29)で求められる。
a=(Y9-Y10-X5tanθ+X6tanθ)/(tanθ-tanθ)・・・(29)
また、bについては、たとえば式(26)から以下の式(30)で求められる。
b=Y9-(X5-a)tanθ  ・・・(30)
中心点O1の座標(a、b)が求められたので、基準円36の半径rは式(1)、(2)、(15)のうちのいずれかで求めることが出来る。
以上が、基準円36の中心座標(a、b)を求める第4の位置ずれ量検出方法の説明となる。計測円37の中心座標(c、d)や半径rについても前述した方法を使って各座標と角度を代入することで求めることが出来るので、ずれ量は簡単に求めることが出来る。なお、円周上の3点から中心位置を求める方法は、前述した方法以外にも、例えば行列を使った計算方法等、既知の算出方法があることは言うまでもない。
また、場合によっては、半導体ウエハ5に形成されているノッチが前述した3本の直線X1、X2、X3のいずれかに位置することも考えられる。その場合には、ノッチが位置している直線についての座標は除外して、前述した2本の直線X1、X2を使った中心位置の求め方によって中心を求めることとしてもよい。さらに、直線を4本用いて、中心位置を算出し夫々の交点から中心位置を算出し、導き出された結果から適切なものを中心位置として採用することしても良い。また、各直線間の距離をノッチの幅寸法よりも大きくして配置すれば、ノッチが直線2本に跨って存在することを防止することができ、正確な中心位置の算出が可能となる。さらに、エッジ抽出部31や補正量算出部32にノッチの検出する機能を追加し、ノッチの存在しない位置に直線を引くようにすることも、既存の技術を使えば十分可能である。
以上、1台の撮像カメラ24により撮像された画像データから半導体ウエハ5の中心位置を算出する方法及び位置検出装置について説明してきたが、更に、本発明の位置検出装置29に新たに照明装置42を追加して、撮像カメラ24が配置されている方向から半導体ウエハ5の表面に光を照射し、半導体ウエハ5の表面に記されたウエハマーク43やアライメントマーク44を検出することも可能である。ウエハマーク43とは、レーザー等を用いて半導体ウエハ5上に形成される個別の識別記号であり、各処理工程にてウエハマーク43を読み取ることで、その半導体ウエハ5の工程管理を行うためのものである。アライメントマーク44とは、各処理工程中に半導体ウエハ5の円周方向の向きを合わせるための目印で、ウエハマーク43と同様、レーザー等により半導体ウエハ5表面に形成される。
図13は新たに照明装置42を追加した位置検出装置29の図であり、図14は撮像されたウエハマーク43とアライメントマーク44の概略を示した図である。照明装置42は搬送室16の透過照明装置27の配置された面に対向する面の撮像カメラ24の近傍に、上側のビューポート23を介して半導体ウエハ5の表面を上方から照らすことが可能になるように取り付けられている。照明装置42により照らされたウエハマーク43は撮像カメラ24により撮像され、撮像された画像データは不図示の読取手段により文字コード化されて記憶手段30に記憶される。ここで記憶されたデータは半導体ウエハ5の製造工程を管理する不図示のコンピュータに送信される。
また、照明装置42により照らされたアライメントマーク44は、撮像カメラ24により撮像された後、位置検出装置29の記憶手段30に送信され記憶される。記憶されたアライメントマーク44の画像データは、不図示のアライメントマーク座標検出部にて視野28内における座標データへと変換され、記憶手段30に予め記憶されている設計上の最も適切なアライメントマーク44の座標データと比較されて、撮像された半導体ウエハ5の円周方向の位置ずれ量が算出される。なお、このウエハマーク43やアライメントマーク44を読み取る際は、搬送室16の下側に配置された透過照明装置27からの光の照射は中断することが望ましい。
以上、本発明を実施例に基づき説明してきたが、上記実施例では真空搬送ロボット15に載置された半導体ウエハ5の位置ずれ検出やウエハマーク43、アライメントマーク44の検出を行っているが、本発明はこの実施例に限定されるものではない。例えば、大気搬送ロボット9に保持された半導体ウエハ5にも本発明は適用可能である。さらに、半導体ウエハ5以外にも、円盤状のワークであれば本実施例にて開示された方法によって、位置ずれ検出やウエハマーク43、アライメントマーク44の検出を行うことが可能である。

Claims (15)

  1. 所定の軌道上に沿って移動可能な支持部材に保持された円盤状基板の位置を検出する位置検出装置であって、
    前記位置検出装置は、
    前記円盤状基板を保持した前記支持部材が所定の監視位置に位置した際に、円盤状基板の周縁部を撮像する1台の撮像カメラと、
    前記撮像カメラによって撮像された前記円盤状基板の周縁部の撮像データから、前記円盤状基板のエッジを抽出するエッジ抽出部と、
    前記エッジ抽出部によって抽出されたエッジデータから、前記円盤状基板の中心位置座標を検出する座標検出部と、
    を有することを特徴とする位置検出装置。
  2. 前記撮像カメラは、前記円盤状基板の周縁部の一部分のみを撮像する
    ことを特徴とする請求項1に記載の位置検出装置。
  3. 前記座標検出部は、前記エッジデータ上の2点の座標と前記円盤状基板の半径から、前記円盤状物の中心位置座標を検出する
    ことを特徴とする請求項1若しくは請求項2に記載の位置検出装置。
  4. 前記座標検出部は、前記エッジデータ上の2点の座標と前記円盤状基板の前記半径から、前記半径をそれぞれ一辺とする2つの直角二等辺三角形を作成し、三平方の定理から前記円盤状基板の前記中心位置座標を算出する、
    ことを特徴とする請求項3に記載の位置検出装置。
  5. 前記座標検出部は、前記エッジデータ上の3点の座標から、前記円盤状物の前記中心位置座標を検出する
    ことを特徴とする請求項1若しくは請求項2に記載の位置検出装置。
  6. 前記座標検出部は、前記エッジデータ上の3点の座標と前記円盤状基板の前記半径から、前記半径を各々一辺とする3つの直角二等辺三角形を作成し、三平方の定理から前記円盤状基板の前記中心位置座標を算出する、
    ことを特徴とする請求項5に記載の位置検出装置。
  7. 請求項1から請求項6に記載の位置検出装置であって、
    前記支持部材の基準位置に保持された前記円盤状基板についての前記中心位置座標と、製造工程中に搬送される位置ずれを発生している前記円盤状基板の前記中心位置座標とのX軸方向及びY軸方向についてのずれ量を算出し、前記支持部材の補正量を算出する補正量算出部を更に備えている
    ことを特徴とする請求項1から請求項6に記載の位置検出装置。
  8. 所定の軌道上に沿って移動可能な支持部材に保持された円盤状基板の位置を検出する位置検出方法であって、前記位置検出方法は、
    前記円盤状基板を保持した前記支持部材が所定の監視位置に位置した際に、1台の撮像カメラによって円盤状基板の周縁部を撮像する撮像ステップと、
    前記撮像カメラによって撮像された前記円盤状基板の周縁部の撮像データから、前記円盤状基板のエッジを抽出するエッジ抽出ステップと、
    前記エッジ抽出ステップによって抽出されたエッジデータから、前記円盤状基板の中心位置座標を検出する座標検出ステップと、
    から構成されることを特徴とする位置検出方法。
  9. 前記撮像ステップは、前記円盤状基板の周縁部の一部分のみを撮像する
    ことを特徴とする請求項8に記載の位置検出方法。
  10. 前記座標検出ステップは、前記エッジデータ上の2点の座標と前記円盤状基板の半径から、前記円盤状物の中心位置座標を検出する
    ことを特徴とする請求項8若しくは請求項9に記載の位置検出方法。
  11. 前記座標検出ステップは、前記エッジデータ上の2点の座標と前記円盤状基板の前記半径から、前記半径をそれぞれ一辺とする2つの直角二等辺三角形を作成し、三平方の定理から前記円盤状基板の前記中心位置座標を算出する、
    ことを特徴とする請求項10に記載の位置検出方法。
  12. 前記座標検出ステップは、前記エッジデータ上の3点の座標から、前記円盤状物の前記中心位置座標を検出する
    ことを特徴とする請求項8若しくは請求項9に記載の位置検出方法。
  13. 前記座標検出ステップは、前記エッジデータ上の3点の座標と前記円盤状基板の前記半径から、前記半径を各々一辺とする3つの直角二等辺三角形を作成し、三平方の定理から前記円盤状基板の前記中心位置座標を算出する、
    ことを特徴とする請求項12に記載の位置検出方法。
  14. 請求項8から請求項13に記載の位置検出方法であって、
    前記支持部材の基準位置に保持された前記円盤状基板についての前記中心位置座標と、製造工程中に搬送される位置ずれを発生している前記円盤状基板の前記中心位置座標とのX軸方向及びY軸方向についてのずれ量を算出し、前記支持部材の補正量を算出する補正量算出ステップを更に備えている
    ことを特徴とする請求項8から請求項13に記載の位置検出方法。
  15. 所定の軌道上に沿って移動可能な支持部材に保持された円盤状基板の位置を検出する位置検出装置であって、
    前記位置検出装置は、
    直交するXY軸の座標系にセルが配置され、前記円盤状基板を保持した前記支持部材が所定の監視位置に位置した際に、前記円盤状基板の中心を通りY軸に平行な直線Uと前記円盤状基板のエッジとが交差する交点Cを視野に入れて円盤状基板の周縁部を撮像する撮像カメラと、
    前記撮像カメラによって撮像された前記円盤状基板の周縁部の撮像データから、前記交点CのY軸座標値を抽出し、前記視野の範囲において撮像された前記円盤状基板のエッジ上であって前記交点Cから離れた任意位置にある地点のXY軸座標を抽出するエッジ抽出部と、
    前記エッジ抽出部によって抽出された交点CのY軸座標値及び任意位置にある地点のXY軸座標から、前記円盤状基板の中心位置座標を検出する座標検出部と
    を有することを特徴とする位置検出装置。
PCT/JP2013/078644 2012-10-29 2013-10-23 半導体基板の位置検出装置及び位置検出方法 WO2014069291A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020157008491A KR101613135B1 (ko) 2012-10-29 2013-10-23 반도체 기판의 위치 검출 장치 및 위치 검출 방법
JP2014544445A JP6113742B2 (ja) 2012-10-29 2013-10-23 半導体基板の位置検出装置及び位置検出方法
CN201380056420.5A CN104756243B (zh) 2012-10-29 2013-10-23 半导体衬底的位置检测装置和位置检测方法
US14/438,189 US9275886B2 (en) 2012-10-29 2013-10-23 Device and method for detecting position of semiconductor substrate

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-238373 2012-10-29
JP2012238373 2012-10-29

Publications (1)

Publication Number Publication Date
WO2014069291A1 true WO2014069291A1 (ja) 2014-05-08

Family

ID=50627202

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/078644 WO2014069291A1 (ja) 2012-10-29 2013-10-23 半導体基板の位置検出装置及び位置検出方法

Country Status (5)

Country Link
US (1) US9275886B2 (ja)
JP (1) JP6113742B2 (ja)
KR (1) KR101613135B1 (ja)
CN (1) CN104756243B (ja)
WO (1) WO2014069291A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017140682A (ja) * 2016-02-12 2017-08-17 株式会社ディスコ 装置
JP2019174262A (ja) * 2018-03-28 2019-10-10 株式会社東京精密 貼り合せ基板の測定方法および加工方法並びにそれらに用いる装置
US10515834B2 (en) 2015-10-12 2019-12-24 Lam Research Corporation Multi-station tool with wafer transfer microclimate systems
JP2021034418A (ja) * 2019-08-19 2021-03-01 株式会社Screenホールディングス 基板の偏芯低減方法およびティーチング装置
WO2022059436A1 (ja) * 2020-09-17 2022-03-24 川崎重工業株式会社 ロボットシステム及びオフセット取得方法
JP2022088378A (ja) * 2018-03-28 2022-06-14 株式会社東京精密 貼り合せ基板の測定方法および加工方法並びにそれらに用いる装置
JP2022189768A (ja) * 2021-06-11 2022-12-22 台湾積體電路製造股▲ふん▼有限公司 ウェハ取り扱い方法、及びロードポート
EP3026491B1 (en) * 2014-11-28 2023-11-01 Canon Kabushiki Kaisha Position determining device, position determining method, lithographic apparatus, and method for manufacturing object
TWI835911B (zh) * 2018-11-05 2024-03-21 美商蘭姆研究公司 用於晶圓搬運的設備、方法、和非暫態電腦可讀媒體

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9704762B2 (en) * 2014-02-04 2017-07-11 Applied Materials, Inc. Application of in-line glass edge-inspection and alignment check in display manufacturing
JP6377918B2 (ja) * 2014-03-06 2018-08-22 株式会社ダイヘン 基板損傷検出装置、その基板損傷検出装置を備えた基板搬送ロボット及び基板損傷検出方法
KR101885751B1 (ko) * 2014-03-12 2018-08-06 에이에스엠엘 네델란즈 비.브이. 센서 시스템, 기판 핸들링 시스템 및 리소그래피 장치
JP5893695B1 (ja) * 2014-09-10 2016-03-23 ファナック株式会社 物品搬送システム
KR102238649B1 (ko) * 2014-09-16 2021-04-09 삼성전자주식회사 반도체 칩 본딩 장치
JP6405819B2 (ja) * 2014-09-17 2018-10-17 東京エレクトロン株式会社 アライメント装置
US9796086B2 (en) * 2015-05-01 2017-10-24 Kawasaki Jukogyo Kabushiki Kaisha Method of teaching robot and robot
JP6463227B2 (ja) * 2015-07-07 2019-01-30 東京エレクトロン株式会社 基板搬送方法
KR101757815B1 (ko) * 2015-09-25 2017-07-14 세메스 주식회사 기판 중심 검출 방법, 기판 반송 방법, 반송 유닛 및 이를 포함하는 기판 처리 장치.
JP2017084975A (ja) * 2015-10-28 2017-05-18 オムロン株式会社 位置検出装置、位置検出方法、情報処理プログラム、および記録媒体
US9811000B2 (en) * 2015-10-30 2017-11-07 Taiwan Semiconductor Manufacturing Co., Ltd. Photolithography tool and method thereof
KR101626374B1 (ko) * 2016-01-26 2016-06-01 주식회사 마이크로비전 모서리 기반 코너 추정을 이용한 정밀 위치 보정 방법
JP6444909B2 (ja) * 2016-02-22 2018-12-26 東京エレクトロン株式会社 基板処理方法、基板処理装置及びコンピュータ読み取り可能な記録媒体
CN105702607B (zh) * 2016-03-17 2018-09-25 东方晶源微电子科技(北京)有限公司 机械臂和检查系统
CN106847735B (zh) * 2017-01-05 2019-04-09 皖江新兴产业技术发展中心 一种精确定位分选机工作台中心基准的方法
KR101940414B1 (ko) * 2017-06-20 2019-01-18 윤영엽 웨이퍼 위치 검증 방법 및 장치
JP2019012040A (ja) * 2017-06-30 2019-01-24 ブラザー工業株式会社 制御装置及び制御方法
US20190013215A1 (en) * 2017-07-05 2019-01-10 Kawasaki Jukogyo Kabushiki Kaisha Substrate holding hand and substrate conveying apparatus including the same
US10984524B2 (en) * 2017-12-21 2021-04-20 Advanced Ion Beam Technology, Inc. Calibration system with at least one camera and method thereof
US11468590B2 (en) * 2018-04-24 2022-10-11 Cyberoptics Corporation Wireless substrate-like teaching sensor for semiconductor processing
CN112020769A (zh) * 2018-04-24 2020-12-01 迪思科高科技(欧洲)有限公司 对准装置和对准方法
KR102217780B1 (ko) 2018-06-12 2021-02-19 피에스케이홀딩스 (주) 정렬 장치
CN110668188B (zh) * 2018-07-03 2021-07-30 日本电产三协株式会社 工业用机器人
KR102020533B1 (ko) 2019-02-22 2019-09-10 임진희 엔드 이펙터 측정모듈 및 이를 이용한 엔드 이펙터 모니터링 장치
KR20210023375A (ko) 2019-08-23 2021-03-04 삼성전자주식회사 레이저 전사 장치 및 이를 이용한 전사 방법
KR20210039523A (ko) 2019-10-01 2021-04-12 삼성전자주식회사 웨이퍼 이송 장치 및 이를 이용한 웨이퍼 이송 방법
JP7116330B2 (ja) * 2020-01-31 2022-08-10 日亜化学工業株式会社 発光装置の製造方法
CN111469112B (zh) * 2020-05-21 2020-12-08 哈尔滨市科佳通用机电股份有限公司 一种库检机器人及库检机器人的位置补偿方法
KR102235042B1 (ko) * 2020-06-16 2021-03-31 에스케이씨솔믹스 주식회사 엔드 이펙터 변위 측정 방법 및 장치
KR102187486B1 (ko) 2020-06-16 2020-12-07 에스케이씨솔믹스 주식회사 로봇의 상태 판단 방법 및 장치
US12019031B2 (en) * 2020-09-16 2024-06-25 Globalwafers Co., Ltd. Cleaved semiconductor wafer imaging system
CN112490150A (zh) * 2020-11-17 2021-03-12 北京北方华创微电子装备有限公司 一种检测晶圆放置状态的方法、半导体工艺设备
TW202238803A (zh) * 2021-02-26 2022-10-01 日商東京威力科創股份有限公司 搬運系統、搬運裝置及搬運方法
KR20230094447A (ko) 2021-12-21 2023-06-28 이규옥 엔드이펙터 감지센서를 갖는 풉 및 이를 이용한 데이터 통합 관리시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09120986A (ja) * 1995-10-26 1997-05-06 Nikon Corp プリアライメント方法およびプリアライメント装置
JP2009123790A (ja) * 2007-11-13 2009-06-04 Disco Abrasive Syst Ltd 研削装置
JP2010182966A (ja) * 2009-02-06 2010-08-19 Sinfonia Technology Co Ltd ワークの中心位置合わせ装置
JP2010186863A (ja) * 2009-02-12 2010-08-26 Disco Abrasive Syst Ltd 位置合わせ機構、加工装置および位置合わせ方法
JP2010283280A (ja) * 2009-06-08 2010-12-16 Lintec Corp 位置認識装置及び位置認識方法、並びに、アライメント装置及びアライメント方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5194743A (en) * 1990-04-06 1993-03-16 Nikon Corporation Device for positioning circular semiconductor wafers
JP3590916B2 (ja) 1995-12-28 2004-11-17 株式会社ニコン 位置決め方法
JP4226241B2 (ja) 2001-11-14 2009-02-18 ローツェ株式会社 ウエハの位置決め方法、位置決め装置並びに処理システム
US6900877B2 (en) * 2002-06-12 2005-05-31 Asm American, Inc. Semiconductor wafer position shift measurement and correction
US6760976B1 (en) * 2003-01-15 2004-07-13 Novellus Systems, Inc. Method for active wafer centering using a single sensor
JP2005164579A (ja) 2004-10-29 2005-06-23 Alps Electric Co Ltd 境界線の位置の検出方法およびこの検出方法を用いた磁気ヘッドの位置決め方法および位置決め装置
KR20060088817A (ko) * 2005-01-28 2006-08-07 가부시키가이샤 이빔 기판처리장치 및 기판처리방법
JP4522360B2 (ja) * 2005-12-02 2010-08-11 日東電工株式会社 半導体ウエハの位置決定方法およびこれを用いた装置
JP2010021485A (ja) 2008-07-14 2010-01-28 Renesas Technology Corp 半導体装置の製造方法
JP2010153769A (ja) * 2008-11-19 2010-07-08 Tokyo Electron Ltd 基板位置検出装置、基板位置検出方法、成膜装置、成膜方法、プログラム及びコンピュータ可読記憶媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09120986A (ja) * 1995-10-26 1997-05-06 Nikon Corp プリアライメント方法およびプリアライメント装置
JP2009123790A (ja) * 2007-11-13 2009-06-04 Disco Abrasive Syst Ltd 研削装置
JP2010182966A (ja) * 2009-02-06 2010-08-19 Sinfonia Technology Co Ltd ワークの中心位置合わせ装置
JP2010186863A (ja) * 2009-02-12 2010-08-26 Disco Abrasive Syst Ltd 位置合わせ機構、加工装置および位置合わせ方法
JP2010283280A (ja) * 2009-06-08 2010-12-16 Lintec Corp 位置認識装置及び位置認識方法、並びに、アライメント装置及びアライメント方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3026491B1 (en) * 2014-11-28 2023-11-01 Canon Kabushiki Kaisha Position determining device, position determining method, lithographic apparatus, and method for manufacturing object
US10515834B2 (en) 2015-10-12 2019-12-24 Lam Research Corporation Multi-station tool with wafer transfer microclimate systems
JP2017140682A (ja) * 2016-02-12 2017-08-17 株式会社ディスコ 装置
JP7200413B2 (ja) 2018-03-28 2023-01-06 株式会社東京精密 貼り合せ基板の測定方法および加工方法並びにそれらに用いる装置
JP2019174262A (ja) * 2018-03-28 2019-10-10 株式会社東京精密 貼り合せ基板の測定方法および加工方法並びにそれらに用いる装置
JP7034797B2 (ja) 2018-03-28 2022-03-14 株式会社東京精密 貼り合せ基板の測定方法および加工方法並びにそれらに用いる装置
JP2022088378A (ja) * 2018-03-28 2022-06-14 株式会社東京精密 貼り合せ基板の測定方法および加工方法並びにそれらに用いる装置
TWI835911B (zh) * 2018-11-05 2024-03-21 美商蘭姆研究公司 用於晶圓搬運的設備、方法、和非暫態電腦可讀媒體
JP2021034418A (ja) * 2019-08-19 2021-03-01 株式会社Screenホールディングス 基板の偏芯低減方法およびティーチング装置
JP7372078B2 (ja) 2019-08-19 2023-10-31 株式会社Screenホールディングス 基板の偏芯低減方法およびティーチング装置
WO2022059436A1 (ja) * 2020-09-17 2022-03-24 川崎重工業株式会社 ロボットシステム及びオフセット取得方法
JP7495510B2 (ja) 2020-09-17 2024-06-04 川崎重工業株式会社 ロボットシステム及びオフセット取得方法
JP2022189768A (ja) * 2021-06-11 2022-12-22 台湾積體電路製造股▲ふん▼有限公司 ウェハ取り扱い方法、及びロードポート

Also Published As

Publication number Publication date
CN104756243B (zh) 2018-02-13
KR101613135B1 (ko) 2016-04-18
US20150287625A1 (en) 2015-10-08
US9275886B2 (en) 2016-03-01
CN104756243A (zh) 2015-07-01
JP6113742B2 (ja) 2017-04-12
JPWO2014069291A1 (ja) 2016-09-08
KR20150052230A (ko) 2015-05-13

Similar Documents

Publication Publication Date Title
JP6113742B2 (ja) 半導体基板の位置検出装置及び位置検出方法
JP4567667B2 (ja) ウェーハ担持ロボットを較正するための方法
JP4163950B2 (ja) セルフティーチングロボット
KR101817395B1 (ko) 기판 반송 기구의 위치 검출 방법, 기억 매체 및 기판 반송 기구의 위치 검출 장치
JP3795820B2 (ja) 基板のアライメント装置
KR20040101540A (ko) 관측 시스템
US20090016857A1 (en) Substrate-replacing apparatus, substrate-processing apparatus, and substrate-inspecting apparatus
JPWO2002021589A1 (ja) 基板搬送装置
US10402997B2 (en) Displacement detecting apparatus, displacement detecting method and substrate processing apparatus
TWI390660B (zh) 用於半導體晶圓對準之方法與設備
JP2009218622A (ja) 基板処理装置及び基板処理装置における基板位置ずれ補正方法
WO2018062153A1 (ja) ロボット、ロボットの制御装置、及び、ロボットの位置教示方法
WO2021161582A1 (ja) 基板搬送装置及び基板位置ずれ測定方法
KR102671647B1 (ko) 티칭 장치, 기판 반송 장치, 기판 처리 장치, 티칭 방법, 및 전자 디바이스의 제조 방법
JP2007088110A (ja) 基板搬送ロボットの基準位置教示方法
JP4468159B2 (ja) 基板処理装置及びその搬送位置合わせ方法
US7675633B2 (en) Method for measuring positions of structures on a substrate with a coordinate measuring machine
JP4359365B2 (ja) 基板処理装置及び基板処理装置における基板位置ずれ補正方法
CN114107933B (zh) 标记检测装置、对准装置、成膜装置、标记检测方法以及成膜方法
JP2003017545A (ja) 基板の位置決め方法と装置
JP7440355B2 (ja) アライメント装置、成膜装置、アライメント方法、電子デバイスの製造方法、プログラム及び記憶媒体
JP2006080198A (ja) 基板搬送装置及び基板搬送方法
JP2024058215A (ja) 位置教示装置および位置教示方法
JP2022114519A (ja) 照明装置、照明方法および基板検査装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13850927

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2014544445

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20157008491

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14438189

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13850927

Country of ref document: EP

Kind code of ref document: A1