WO2011096239A1 - 検出方法および検出装置 - Google Patents

検出方法および検出装置 Download PDF

Info

Publication number
WO2011096239A1
WO2011096239A1 PCT/JP2011/000700 JP2011000700W WO2011096239A1 WO 2011096239 A1 WO2011096239 A1 WO 2011096239A1 JP 2011000700 W JP2011000700 W JP 2011000700W WO 2011096239 A1 WO2011096239 A1 WO 2011096239A1
Authority
WO
WIPO (PCT)
Prior art keywords
substrate
image
illumination
region
detection method
Prior art date
Application number
PCT/JP2011/000700
Other languages
English (en)
French (fr)
Inventor
義昭 鬼頭
正範 荒井
福井 達雄
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to EP11739588.9A priority Critical patent/EP2535923B1/en
Priority to JP2011552714A priority patent/JP5708501B2/ja
Priority to KR1020127023128A priority patent/KR101809768B1/ko
Publication of WO2011096239A1 publication Critical patent/WO2011096239A1/ja
Priority to US13/568,897 priority patent/US8547559B2/en
Priority to US13/973,755 priority patent/US8994957B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/028Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring lateral position of a boundary of the object
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67011Apparatus for manufacture or treatment
    • H01L21/67092Apparatus for mechanical treatment
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/68Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for positioning, orientation or alignment
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/68Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for positioning, orientation or alignment
    • H01L21/681Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for positioning, orientation or alignment using optical controlling means
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/10Measuring as part of the manufacturing process
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/10Measuring as part of the manufacturing process
    • H01L22/12Measuring as part of the manufacturing process for structural parameters, e.g. thickness, line width, refractive index, temperature, warp, bond strength, defects, optical inspection, electrical measurement of structural dimensions, metallurgic measurement of diffusions

Definitions

  • the present invention relates to a detection method and a detection apparatus.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2009-231671
  • the outer shape of each substrate may be used as a reference for positioning.
  • the outer shape is detected by a transmissive optical system.
  • a detection method for detecting a position of a specific substrate among a plurality of stacked substrates the step of irradiating a region including a part of an edge of the specific substrate; A direction of illuminating the region in the step of irradiating illumination, the method comprising: obtaining an image obtained by imaging the region; and identifying a position of an edge of a specific substrate based on the position of the stepped portion appearing in the image.
  • a detection method is provided in which at least one of the directions of capturing the region in the step of acquiring an image is oblique with respect to the surface direction of the substrate.
  • a detection device for detecting the position of a specific substrate among a plurality of stacked substrates, wherein the illumination unit illuminates a region including a part of an edge of the specific substrate. And an image acquisition unit that acquires an image obtained by imaging the region obliquely with respect to the surface direction of the substrate, and a position specifying unit that specifies the position of the edge of the specific substrate based on the position of the stepped portion appearing in the image.
  • a detection device in which at least one of the direction in which illumination is applied to the region in the illumination unit and the direction in which the region in the image acquisition unit is imaged is oblique with respect to the surface direction of the substrate.
  • FIG. 1 is a perspective view schematically showing the structure of a detection apparatus 100 according to an embodiment.
  • the detection apparatus 100 detects the position of the upper substrate 104 among the stacked lower substrate 102 and upper substrate 104.
  • the detection apparatus 100 includes a stage 101, an illumination unit 108, an image acquisition unit 110, and a position specifying unit 120.
  • the lower substrate 102 and the upper substrate 104 are overlapped in the thickness direction by a substrate bonding apparatus or the like.
  • the outer shape of the upper substrate 104 is smaller than the outer shape of the lower substrate 102. Therefore, a step is formed between the upper surface of the upper substrate 104 and the upper surface of the lower substrate 102 at the edge of the upper substrate 104.
  • the stage 101 mounts the lower substrate 102 and the upper substrate 104, which are detection targets.
  • the stage 101 moves in parallel with respect to the X axis, the Y axis, and the Z axis.
  • the stage 101 may be a stage of an apparatus for attaching another substrate to the upper substrate 104 or the like. In that case, the stage 101 may rotate around the X, Y, and Z axes.
  • a reference mark 103 is provided on the upper surface of the stage 101.
  • the left-right direction in the upper surface of the stage 101 is taken as the X axis
  • the front back direction is taken as the Y axis.
  • the Z axis is taken upward perpendicular to the X axis and Y axis.
  • the reference mark 103 is used for adjusting the illumination unit 108 and the image acquisition unit 110.
  • the slit image 114 is irradiated on the reference mark 103 and used as a reference for focusing the optical system so that a sharp reference mark 103 image can be formed on the imaging unit 105.
  • the reference mark 103 is used as a reference for associating the position on the stage 101 with the position on the image captured by the imaging unit 105 via the reference mark 103.
  • the illumination unit 108 provides a slit image 114 for substrate position detection.
  • the illumination unit 108 includes a light source 119, a lens 118, a slit 116, and a lens 115 in this order.
  • the light source 119 emits light having a wavelength that can be detected by the imaging unit 105, for example, visible light when the imaging unit 105 can capture visible light.
  • the lens 118 focuses the light from the light source 119.
  • the slit 116 defines an illumination range when detecting the position of the upper substrate 104.
  • the lens 115 focuses the light passing through the slit 116 and forms a slit image 114 on the upper surfaces of the lower substrate 102 and the upper substrate 104.
  • the illumination unit 108 irradiates the lower substrate 102 and the upper substrate 104 obliquely with respect to the plane directions of the lower substrate 102 and the upper substrate 104, and from the upper left in FIG.
  • the slit image 114 on the lower substrate 102 and the upper substrate 104 by the illumination unit 108 has an elongated shape extending in the radial direction of the disk-shaped lower substrate 102 and the upper substrate 104, and the irradiation range thereof is the edge of the upper substrate 104. Includes a portion.
  • the illumination unit 108 stores in advance a position where an edge is to come when the laminated substrate is correctly placed at a predetermined position of the stage 101, and irradiates the position with illumination. This edge is a circumference when the lower substrate 102 or the like is disk-shaped.
  • the edge may include a characteristic portion such as a notch.
  • the image acquisition unit 110 includes an imaging unit 105 and a lens 112.
  • the image acquisition unit 110 captures an area including a part of the edge of the upper substrate 104 obliquely with respect to the surface direction of the upper substrate 104 and the like, and from the upper right in FIG. Also in this case, the image acquisition unit 110 stores in advance a position where an edge should come when the laminated substrate is correctly placed at a predetermined position of the stage 101, and images a region including the position.
  • the lens 112 images the light reflected from the upper surfaces of the lower substrate 102 and the upper substrate 104 on the imaging unit 105.
  • An example of the imaging unit 105 is a CCD, CMOS, or the like in which pixels are two-dimensionally arranged.
  • the imaging unit 105 acquires the image 106 by converting the optical signal of the image formed on the imaging surface into an electrical signal for each pixel.
  • the position specifying unit 120 analyzes the image 106 and specifies the position of the edge of the upper substrate 104 based on the position of the stepped portion appearing in the image 106.
  • the optical system of the illumination unit 108 and the image acquisition unit 110 does not limit the optical system of the illumination unit 108 and the image acquisition unit 110.
  • the lenses 118, 115, and 112 schematically show an optical system, and are not limited to one lens.
  • the optical system of the image acquisition unit 110 may be a non-tilting optical system or a tilting optical system.
  • the tilting optical system can focus the surface of the upper substrate 104 and the lower substrate 102 that are inclined with respect to the principal ray over a wide range by tilting the imaging unit 105.
  • This detection method includes a step of acquiring an image and a step of specifying a position.
  • the image acquisition step includes illuminating an area including a part of the edge of the upper substrate 104 by the illumination unit 108 from the upper left to form a slit image 114, and reflecting on the upper surfaces of the lower substrate 102 and the upper substrate 104. Capturing the slit image 114 by the imaging unit 105 obliquely with respect to the plane direction of the lower substrate 102 and the upper substrate 104 to obtain the image 106.
  • FIG. 2 is a conceptual diagram of the image 106 of the substrate edge portion acquired by the image acquisition unit 110.
  • An upper substrate reflection image 132 in the image 106 is an image of a portion of the slit image 114 reflected by the upper substrate 104.
  • the lower substrate reflection image 134 is an image of a portion of the slit image 114 reflected by the lower substrate 102.
  • the step of specifying the position includes a step of transferring the image 106 from the imaging unit 105 to the position specifying unit 120 and a stepped portion that appears between the upper substrate reflected image 132 and the lower substrate reflected image 134 by image analysis of the position specifying unit 120. Determining the position of the edge of the upper substrate 104 based on the position of E.
  • the position of the stepped portion E on the image 106 corresponds to the position of the edge of the upper substrate 104.
  • the position of the stepped portion E in the image 106 moves to the left, and the edge of the upper substrate 104 changes.
  • the position of the stepped portion E in the image 106 moves to the right. Therefore, by analyzing the position of the stepped portion E, the position of the edge of the upper substrate 104 can be specified.
  • the position specifying unit 120 stores in advance the vertical width D of the upper substrate reflection image 132 based on the size of the slit 116, the optical magnification of the illumination unit 108 and the image acquisition unit 110, and the like.
  • the position specifying unit 120 stores in advance a maximum value L max that appears in the lateral width L of the upper substrate reflection image 132 based on the size of the slit 116, the optical magnification of the illumination unit 108, and the image acquisition unit 110, and the like.
  • the range of the image to be analyzed is selected by the selection window 136.
  • the vertical width b of the selection window 136 is wider than the width D, and the horizontal width a of the selection window 136 is narrower than the width Lmax. preferable. Since the luminance of the portion of the upper substrate reflection image 132 is higher than that of the surrounding area, the position specifying unit 120 analyzes the luminance in the vertical direction of the image selected in the selection window 136 to thereby determine the vertical position and width of the upper substrate reflection image 132. D can be obtained.
  • FIG. 3 is an explanatory diagram for specifying the position of the stepped portion.
  • the vertical width b of the selection window 136 is preferably narrower than the width D.
  • FIG. 4 is a curve conceptually showing a change in luminance at the stepped portion E of the upper substrate reflection image 132 appearing in the image 106.
  • the horizontal axis indicates the coordinates in the horizontal direction in the image 106 shown in FIG. 2, and the vertical axis indicates the luminance.
  • the luminance change of the upper substrate reflection image 132 is observed.
  • the upper substrate reflection image 132 shows a sharp change in luminance at the stepped portion E as shown by the broken line 142, but in reality, the upper substrate reflected image 132 appears at the stepped portion E as shown by the curve 144 due to aberration of the optical system.
  • the full width at half maximum Sx of the region where the luminance changes gradually is referred to as a blur amount.
  • the amount of blur Sx due to diffraction on the imaging surface is on the order of ⁇ / NA.
  • is the optical system imaging magnification
  • is the wavelength of the incident light
  • NA is the lens numerical aperture.
  • three or more measurement points are included in the range of the blur amount. For example, when a CCD is used for the imaging unit 105, if the CCD pixel size is u, the condition that three or more pixels are included in the range of Sx is ( ⁇ / NA)> 3u. That is, the condition is NA ⁇ ( ⁇ / 3u).
  • NA ⁇ 0.045.
  • This conditional expression of NA indicates a preferable upper limit value of NA when using the above ⁇ , u, and ⁇ .
  • the above ⁇ may be replaced with the lateral magnification ⁇ ′ of the tilt optical system.
  • FIG. 5 is an explanatory diagram for explaining other conditions.
  • the blur amount Sy also exists in the vertical direction of the upper substrate reflected image 132 and the lower substrate reflected image 134.
  • the height H of the stepped portion E is preferably larger than (Sy + mu).
  • m is the number of pixels for specifying the stepped portion E, and is therefore an integer of 1 or more.
  • the blur amount Sy is also in the order of ⁇ / NA, it is preferable that the following expression is satisfied. H> ( ⁇ / NA) + mu (1)
  • the height H of the stepped portion E corresponds to the distance h between the upper surface of the lower substrate 102 and the upper surface of the upper substrate 104, that is, the thickness of the upper substrate 104, and the size of H is determined by the following equation.
  • H 2h ⁇ sin ⁇ i (2)
  • h is the distance between the upper surface of the lower substrate 102 and the upper surface of the upper substrate 104
  • ⁇ i is the incident angle of incident light.
  • an incident plane including incident light and reflected light is in contact with the edge of the upper substrate 104. If the incident plane deviates from the direction of the substrate cut line, an error occurs in the detection result. In order to suppress the error within an allowable range, it is preferable to adjust the angle formed by the incident plane and the tangential direction of the upper substrate 104 within 5 °.
  • FIG. 6 shows another embodiment for specifying the position of the edge of the upper substrate 104.
  • slit images 114, 172, and 174 are formed in three regions of the edge of the upper substrate 104, respectively, and images reflected in the respective regions are acquired to specify the position of the upper substrate 104.
  • the detection apparatus 100 corresponding to each of the slit image 114, the slit image 172, and the slit image 174 is provided.
  • Each detection device 100 can specify the position of the edge of the corresponding part by the above-described detection method.
  • the position of the upper substrate 104 on the stage 101 is detected more accurately by specifying the positions of the three edges of the upper substrate 104 in the image 106. be able to.
  • the upper substrate 104 is a disk shape
  • the center position and radius of the upper substrate 104 can be specified by specifying the positions of three edges of the upper substrate 104.
  • the position of the upper substrate 104 can be accurately detected.
  • not only the detection efficiency is high, but also errors that occur when a plurality of locations are detected by moving the substrate can be prevented.
  • FIG. 7 and 8 show still another embodiment for specifying the position of the edge of the upper substrate 104.
  • FIG. 7 and 8 show the operation following FIG. In this embodiment, while relatively moving the upper substrate 104 and the like and the illumination and imaging regions irradiated on the upper substrate 104 and the like, a plurality of images are acquired and a characteristic portion such as a notch is specified. .
  • the slit image 114 irradiates a region including the notch of the upper substrate 104
  • the slit image 172 irradiates a position rotated 90 degrees with respect to the notch
  • the slit image 174 becomes a notch.
  • the position rotated 180 degrees is irradiated.
  • the slit image 114, the slit image 172, and the slit image 174 form a long and narrow illumination extending in the radial direction of the upper substrate 104 at each position.
  • Each detection device 100 acquires an image of each region and specifies the position of the edge of the corresponding part. As shown in FIG. 7, by specifying the notch of the upper substrate 104, the rotation of the upper substrate 104 can be specified.
  • the longitudinal direction of the slit image 114 and the slit image 174 is the Y-axis direction
  • the longitudinal direction of the slit image 172 is the X-axis direction.
  • the incident plane of the slit image 114 or the slit image 174 is a plane perpendicular to the Y axis.
  • the incident plane of the slit image 172 is a plane perpendicular to the X axis.
  • the stage 101 moves from the position of the upper substrate 104 and the like shown in FIG. 6 to the X direction and to the right in the drawing to move the upper substrate 104 and the lower substrate 102, and a plurality of edges are moved.
  • the position is detected.
  • the image acquisition unit 110 captures a plurality of images 106 while the stage 101 moves at a constant speed while the illumination unit 108 and the image acquisition unit 110 are fixed.
  • the stage 101 may be moved intermittently, and the image 106 may be acquired when the stage 101 is temporarily stopped.
  • FIG. 9 shows an example of information on a plurality of positions of the edge obtained by the embodiment shown in FIGS. 9, the positions Y1, Y2,... Of the step portions of the image 106 corresponding to the slit image 114 in FIGS. 6 to 8, and the positions X1, X2,. It is shown. Thereby, the XY position of the notch on the stage 101 can be specified.
  • the method of moving the upper substrate 104 and the like to specify a plurality of positions of the edge is as follows.
  • the three detection devices 100 are used. It is not limited to the case where three points on the laminated substrate are specified. As shown in FIG. 1, it can also be used when specifying one point and when specifying a plurality of points less than three and more than three. Even when one point is specified, the position and shape of the upper substrate 104 can be detected by specifying edges at a plurality of positions while moving the upper substrate 104 and the like.
  • the positional relationship between the stage 101 and the imaging unit 105 may fluctuate during the movement, and a position specifying error may occur.
  • the displacement due to the vibration of the Y axis is detected from the detection device 100 corresponding to the slit image 114 and the slit image 174. Based on the vibration displacement value of the Y axis, the value of the Y axis in the position information specified from the slit image 172 is corrected. Similarly, the detection device 100 corresponding to the slit image 172 detects displacement due to X-axis vibration.
  • the value of the X axis in the position information specified from the slit image 114 and the slit image 174 is corrected.
  • the shape and position of the upper substrate 104 can be detected more accurately.
  • FIGS. 10 and 11 are front views illustrating an embodiment for scanning illumination.
  • FIGS. 10 and 11 instead of moving the stage 101, multiple positions of the edge are detected while moving the illumination irradiation position.
  • the illumination unit 108 includes a parallel flat glass 182 between the image side of the lens 115, that is, between the laminated substrate and the lens 115.
  • the irradiation position of illumination through the parallel flat glass 182 is a position x extending from the lens center to the principal ray. 1
  • the irradiation position when tilting the angle of the parallel plate glass 182 with respect to the principal ray from the lens, while maintaining the incident angle to the multilayer substrate, the irradiation position can be moved from x 1 to x 2. Thereby, a plurality of positions of the edge can be detected while changing the angle of the parallel flat glass 182 and scanning the irradiation position.
  • FIG. 12 is a front view for explaining another embodiment for scanning illumination.
  • the illumination unit 108 has a mirror 184 at the pupil position. By changing the angle of the mirror 184, the irradiation position of the slit image 114 can be moved.
  • the whole detection apparatus 100 can be designed more compactly.
  • an incident plane having incident rays and reflected rays is in contact with the edge of the upper substrate 104. If the moving range of the stage 101 or the incident light beam is large, the detection range also includes an edge that makes a large angle with the incident plane, and the detection accuracy in such a portion decreases (see FIGS. 6 to 8). Therefore, when measuring while moving the stage 101 or the incident light beam, it is preferable to limit the moving range.
  • pre-alignment is performed so that the notch of the upper substrate 104 faces the Y direction with respect to the substrate center.
  • the edge of the upper substrate 104 may be accurately detected while the stage 101 or the incident light beam is moved within a range of 5 mm or less.
  • FIG. 13 shows an embodiment in which four points are specified.
  • the positions of the edges in the four regions can be simultaneously determined. Can be identified. In this case, even when one of the four slit images irradiates the position of the notch of the upper substrate 104, the center position of the upper substrate 104 can be detected simultaneously by the other three slit images.
  • FIG. 14 is a conceptual diagram of an image of a substrate edge portion that can be acquired by the detection apparatus 100 shown in FIG. 1 when three substrates of different sizes are stacked.
  • the three substrates are respectively reflected in the upper substrate reflected image 132 and the lower substrate reflected image 134 in the order from the top in the image 106.
  • a three-layer substrate reflection image 192 is formed. Even in this case, if a stepped portion E that can be identified in the upper substrate reflection image 132 appears corresponding to the edge of the uppermost upper substrate 104, the position of the edge can be detected by the above-described method.
  • the outer shape and position of the substrates to be bonded can be accurately detected. Thereby, the relative position with the board
  • the image acquisition unit 110 is located to acquire an image obtained by regular reflection of oblique illumination by the illumination unit 108.
  • the arrangement of the illumination unit 108 and the image acquisition unit 110 is not limited to this.
  • the illumination unit 108 may be oblique to the surface direction of the substrate, and the image acquisition unit 110 may acquire an image in the normal direction of the surface.
  • the illumination unit 108 may irradiate illumination from the normal direction of the surface of the substrate, and the image acquisition unit 110 may acquire an image obliquely with respect to the surface direction.
  • both the illumination unit 108 and the image acquisition unit 110 may be inclined with respect to the surface of the substrate and deviated from regular reflection.
  • the slit image 114 is used as illumination in the above embodiment.
  • the example of illumination is not restricted to this.
  • the illumination has a pattern extending in the radial direction when the substrate is circular.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Container, Conveyance, Adherence, Positioning, Of Wafer (AREA)

Abstract

 積層された複数の基板のうちの特定の基板の位置を検出する検出方法であって、特定の基板のエッジの一部分を含む領域に照明を照射するステップと、領域を撮像した画像を取得するステップと、画像に現れる段差部の位置に基づいて特定の基板のエッジの位置を特定するステップとを備え、照明を照射するステップにおける領域に照明を照射する方向、および、画像を取得するステップにおける領域を撮像する方向の少なくともいずれか一方が、基板の面方向に対して斜めである検出方法が提供される。

Description

検出方法および検出装置
 本発明は、検出方法および検出装置に関する。
 半導体装置の実装密度を高める目的で、電子回路が形成された複数の基板を積層した積層型の半導体装置が注目されている。複数の基板を積層する場合に、基板間の位置合せをして貼り合わせる基板貼り合わせ装置がある(例えば、特許文献1を参照)。
  [特許文献1]特開2009-231671号公報
 複数の基板を積層する場合に、位置決めに各基板の外形が基準とされることがある。この場合には、外形が透過型の光学系により検出される。しかしながら、検出対象の基板がすでに複数の基板を積層した積層基板であり、特に上段の基板が下段の基板よりも外形が小さい場合に、当該上段の基板の外形を正確に検出することが困難である。
 本発明の第1の態様においては、積層された複数の基板のうちの特定の基板の位置を検出する検出方法であって、特定の基板のエッジの一部分を含む領域に照明を照射するステップと、領域を撮像した画像を取得するステップと、画像に現れる段差部の位置に基づいて特定の基板のエッジの位置を特定するステップとを備え、照明を照射するステップにおける領域に照明を照射する方向、および、画像を取得するステップにおける領域を撮像する方向の少なくともいずれか一方が、基板の面方向に対して斜めである検出方法が提供される。
 本発明の第2の態様においては、積層された複数の基板のうちの特定の基板の位置を検出する検出装置であって、特定の基板のエッジの一部分を含む領域に照明を照射する照明部と、領域を基板の面方向に対して斜めから撮像した画像を取得する画像取得部と、画像に現れる段差部の位置に基づいて特定の基板のエッジの位置を特定する位置特定部とを備え、照明部における領域に照明を照射する方向、および、画像取得部における領域を撮像する方向の少なくともいずれか一方が、基板の面方向に対して斜めである検出装置が提供される。
 なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
検出装置100構造を模式的に示す斜視図である。 画像取得部が取得した基板エッジ部の画像106の概念図である。 位置特定部により基板エッジ部の位置を特定する説明図である。 段差部Eにおける輝度の変化を概念的に示す曲線である。 検出装置の検出条件の説明図である。 基板エッジ部の3箇所から画像を取得する説明図である。 基板を移動しながら画像を取得する説明図である。 基板を移動しながら画像を取得する説明図である。 検出した基板エッジの位置により基板の外形および位置を判断する説明図である。 入射光線を走査する実施形態を説明する正面図である。 入射光線を走査する実施形態を説明する正面図である。 入射光線を走査する他の実施形態を説明する正面図である。 基板エッジ部の4箇所から画像を取得する説明図である。 3層基板の基板エッジ部の画像の概念図である。
 以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
 図1は、一実施形態である検出装置100の構造を模式的に示す斜視図である。検出装置100は、積層された下部基板102および上部基板104のうち上部基板104の位置を検出する。検出装置100は、ステージ101と、照明部108と、画像取得部110と、位置特定部120とを備える。
 下部基板102および上部基板104は、基板貼り合わせ装置等により厚み方向に重ね合わされている。上部基板104の外形は下部基板102の外形より小さい。よって、上部基板104のエッジにおいて、上部基板104の上面と下部基板102の上面との間には段差が形成される。
 ステージ101は、検出対象である下部基板102および上部基板104を載置する。ステージ101は、X軸、Y軸およびZ軸に対して平行移動する。当該ステージ101は、上部基板104等にさらに他の基板を貼り合わせる装置のステージであってもよい。その場合にステージ101は、X軸、Y軸およびZ軸まわりに回転してもよい。ステージ101の上面に基準マーク103が設けられる。図1を含む斜視図において、ステージ101の上面内の左右方向をX軸、手前奥方向をY軸とする。これらX軸、Y軸に直交して上向きにZ軸をとる。
 基準マーク103は、照明部108及び画像取得部110の調整等に用いられる。例えば、基板位置の検出作業前に、基準マーク103にスリット像114を照射して、撮像部105にシャープな基準マーク103の像が結像できるように、光学系の焦点を合わせる基準として用いられる。さらに、当該基準マーク103は、当該基準マーク103を介してステージ101上の位置と撮像部105に撮像される画像上の位置とを対応付ける基準として用いられる。
 照明部108は、基板位置検出用のスリット像114を提供する。照明部108は、光源119と、レンズ118と、スリット116と、レンズ115とをこの順に有する。
 光源119は、撮像部105が検知できる波長の光、例えば撮像部105が可視光を撮像できる場合には可視光を発する。レンズ118は、光源119からの光を集束する。スリット116は、上部基板104の位置を検出するときの照明の範囲を定める。レンズ115は、スリット116を通過した光を集束して、下部基板102および上部基板104の上面にスリット像114を結像する。
 照明部108は、下部基板102および上部基板104の面方向に対して斜めから、図1では左上から、下部基板102および上部基板104を照射する。照明部108による下部基板102および上部基板104上のスリット像114は、円盤状の下部基板102および上部基板104の径方向に延伸する細長い形状を有し、その照射範囲は上部基板104のエッジの一部分を含む。照明部108は、積層基板がステージ101の所定位置に正しく載置された場合にエッジが来るべき位置を予め記憶しておき、当該位置に照明を照射する。このエッジは、下部基板102等が円盤状の場合には円周となる。エッジはノッチなどの特徴箇所を含んでいてもよい。
 画像取得部110は、撮像部105と、レンズ112とを含む。画像取得部110は、上部基板104のエッジの一部分を含む領域を、上部基板104等の面方向に対して斜めから、図1では右上から撮像する。この場合にも、画像取得部110は、積層基板がステージ101の所定位置に正しく載置された場合にエッジが来るべき位置を予め記憶しておき、当該位置を含む領域を撮像する。
 レンズ112は、下部基板102および上部基板104の上面から反射した光を撮像部105に結像する。撮像部105の一例は、画素が二次元的に配列されたCCD、CMOS等である。撮像部105は撮像面に結像された像の光信号を画素ごとに電気信号に変換することにより、画像106を取得する。位置特定部120は、画像106を分析して、画像106に現れる段差部の位置に基づいて上部基板104のエッジの位置を特定する。
 図1に示す構造は、照明部108及び画像取得部110の光学系を限定するものではない。例えば、レンズ118、115、112は、光学系を概略的に示したものであり、1枚のレンズに限られない。また、画像取得部110の光学系は、非アオリ光学系であってもよく、アオリ光学系であってもよい。アオリ光学系は、撮像部105を傾けることにより、主光線に対して斜めになっている上部基板104及び下部基板102の表面に対して広範囲に焦点を合わせることができる。
 以下、図1に示す検出装置100を用いて上部基板104の位置を検出する検出方法を説明する。本検出方法は、画像を取得するステップと、位置を特定するステップとを備える。画像を取得するステップは、照明部108により上部基板104のエッジの一部分を含む領域に、左上から照明を照射してスリット像114を形成するステップと、下部基板102および上部基板104の上面で反射したスリット像114を下部基板102および上部基板104の面方向に対して斜めから撮像部105により撮像して、画像106を取得するステップとを有する。
 図2は、画像取得部110が取得した基板エッジ部の画像106の概念図である。画像106における上部基板反射像132は、スリット像114のうち上部基板104で反射した部分の画像である。一方、下部基板反射像134は、スリット像114のうち下部基板102で反射した部分の画像である。
 位置を特定するステップは、画像106を撮像部105から位置特定部120に転送するステップと、位置特定部120の画像分析により上部基板反射像132と下部基板反射像134との間に現れる段差部Eの位置に基づいて上部基板104のエッジの位置を特定するステップとを有する。
 画像106上の段差部Eの位置は、上部基板104のエッジの位置に対応する。図1において、スリット像114が照射する領域内の上部基板104のエッジが紙面に対して奥の方向に移動すると、画像106における段差部Eの位置が左に移動し、上部基板104のエッジが紙面に対して手前の方向に移動すると、画像106における段差部Eの位置が右に移動する。よって、段差部Eの位置を分析することにより、上部基板104のエッジの位置を特定することができる。
 位置特定部120は、スリット116のサイズ、照明部108及び画像取得部110の光学倍率等に基づいて、上部基板反射像132の縦の幅Dを予め記憶する。位置特定部120は、スリット116のサイズ、照明部108及び画像取得部110の光学倍率等に基づいて、上部基板反射像132の横の幅Lに現われる最大値Lmaxを予め記憶する。
 画像106を分析するときに、まず選択ウィンドウ136により分析する画像の範囲を選定する。画像106における上部基板反射像132の上下の位置を特定する目的で、選択ウィンドウ136の縦の幅bは上記幅Dより広く、選択ウィンドウ136の横の幅aは上記幅Lmaxより狭いことが好ましい。上部基板反射像132の部分の輝度が周辺より高いので、位置特定部120は、選択ウィンドウ136で選択した画像の縦方向の輝度を分析することにより、上部基板反射像132の上下の位置および幅Dを取得することができる。
 図3は、段差部の位置を特定する説明図である。段差部Eの位置を特定する目的で、選択ウィンドウ136の横の幅aは上記幅Lmaxより広く、選択ウィンドウ136の縦の幅bは上記幅Dより狭いことが好ましい。位置特定部120、選択ウィンドウ136で選択した画像の横方向の輝度を分析することにより、段差部Eの位置を特定することができる。画像106における段差部Eの位置から、スリット像114が照射した領域における上部基板104のエッジの、ステージ101における位置を特定することができる。
 図4は、画像106に現れる上部基板反射像132の段差部Eにおける輝度の変化を概念的に示す曲線である。横軸は図2等の画像106における横方向の座標を示し、縦軸は輝度を示す。同図は上部基板反射像132の輝度の変化を見ているものとする。理想的には折れ線142のように、上部基板反射像132が段差部Eにおいてシャープな輝度変化を示すが、現実的には、光学系の収差等により曲線144のように、段差部Eにおいて上部基板反射像132の輝度が緩やかに変化する領域を有する。ここで、輝度が緩やかに変化する領域の半値幅Sxをボケ量と称する。
 撮像面上の回析によるボケ量Sxは、βλ/NAのオーダーである。ここで、βは光学系結像倍率であり、λは入射光の波長であり、NAはレンズ開口数である。段差部Eを正確に特定するには、ボケ量の範囲内に3点以上の計測点が含まれることが好ましい。例えば、撮像部105にCCDが用いられる場合に、CCDの画素サイズをuとすると、Sxの範囲に画素が3つ以上含まれる条件は、(βλ/NA)>3uである。すなわち、当該条件はNA<(βλ/3u)となる。
 例えば、β=1、u=5μm、λ=0.67μmである場合には、NA<0.045となる。このNAの条件式は、上記β、uおよびλを用いる場合の、NAの好ましい上限値を示す。なお、アオリ光学系を用いる場合には、上記βをアオリ光学系の横倍率β′に置き換えればよい。
 図5は、他の条件を説明する説明図である。図4に示したボケ量Sxのほかに、上部基板反射像132および下部基板反射像134の縦方向にもボケ量Syが存在する。段差部Eが特定されるには、段差部Eの高さHが(Sy+mu)より大きいことが好ましい。mは段差部Eを特定するための画素数であり、よって1以上の整数である。ボケ量Syもβλ/NAオーダーであることを考慮すると、次の上記式を満たすことが好ましい。
 H > (βλ/NA)+mu                (1)
 段差部Eの高さHは、下部基板102の上面と上部基板104の上面との間隔h、即ち上部基板104の厚さに対応し、Hの大きさは次の式により定められる。
 H = 2hβsinθ                  (2)
 ここで、hは、下部基板102の上面と上部基板104の上面との間隔であり、θは、入射光の入射角である。アオリ光学系を用いる場合には、βをアオリ光学系の横倍率β′に置き換える。
 θが90°の場合に、sinθが最大値の1を示す。よって、Hの最大値は次の式により現わすことができる。
 Hmax = 2hβ                    (3)
 式(3)を式(1)に代入すると、次の式が得られる。
 2hβ > (βλ/NA)+mu             (4)
 例えば、β=1、u=5μm、λ=0.67μm、m=1である場合、30μmの間隔hを検出するには、NA>0.0012である。この条件式は、上記β、u、λおよびmを用いる場合の、NAの好ましい下限値を示す。
 上部基板104の形状をより正確に検出する目的で、入射光線と反射光線を含む入射平面が上部基板104のエッジに接することが好ましい。入射平面が基板の切線方向からずれると、検出結果に誤差が発生する。その誤差を許容範囲に抑える目的で、入射平面が上部基板104の切線方向となす角度が5°以内調整することが好ましい。
 図6は、上部基板104のエッジの位置を特定する他の実施形態を示す。この実施形態において、上部基板104のエッジの3つの領域にそれぞれスリット像114、172、174を形成して、各領域で反射した画像を取得して、上部基板104の位置を特定する。この場合に、スリット像114、スリット像172およびスリット像174のそれぞれに対応する検出装置100を備える。各検出装置100は、上述の検出方法により、対応する部位のエッジの位置を特定することができる。
 この実施形態において、上部基板104の形状が既知であれば、画像106における上部基板104の3箇所のエッジの位置を特定することにより、ステージ101上における上部基板104の位置をより正確に検出することができる。例えば、上部基板104が円盤状であれば、上部基板104の3箇所のエッジの位置を特定することにより、上部基板104の中心位置および半径を特定することができる。これにより、上部基板104の位置を正確に検出することができる。本実施形態によれば、検出の効率が高いだけでなく、基板を移動させて複数個所を検出する場合に生じる誤差を防ぐこともできる。
 図7および図8は、上部基板104のエッジの位置を特定するさらに他の実施形態を示す。これら図7および図8は、図6に続く動作を示す。この実施形態においては、上部基板104等と当該上部基板104等に照射される照明および撮像の領域とを相対的に移動しつつ、複数個所の画像を取得してノッチ等の特徴箇所を特定する。
 この場合に、図7に示すように、スリット像114は上部基板104のノッチを含む領域を照射し、スリット像172はノッチに対して90度回転した位置を照射し、スリット像174はノッチに対して180度回転した位置を照射する。スリット像114、スリット像172およびスリット像174は、それぞれの位置において、上部基板104の径方向に延伸する細長い照明を形成する。各検出装置100は、それぞれの領域の画像を取得して、対応する部位のエッジの位置を特定する。図7に示すように、上部基板104のノッチを特定することにより、上部基板104の回転を特定することができる。
 図6から図8において、スリット像114およびスリット像174の長手方向はY軸方向であり、スリット像172の長手方向はX軸方向である。この場合に、スリット像114又はスリット像174の入射平面は、Y軸に垂直な面である。スリット像172の入射平面は、X軸に垂直な面である。
 図7および図8において、図6に示す上部基板104等の位置からX方向、図中の右方向に、ステージ101が移動することにより上部基板104および下部基板102を移動し、エッジの複数の位置が検出される。この場合に、照明部108および画像取得部110が固定された状態で、ステージ101が一定の速度で移動しながら、画像取得部110が複数の画像106を撮像する。この場合に、ステージ101が間歇的に移動されて、ステージ101の一旦停止時に画像106が取得されてもよい。
 図9は、図6から図8に示す実施形態により得られるエッジの複数の位置の情報の一例を示す。図9において、図6から図8におけるスリット像114に対応する画像106の段差部の位置Y1、Y2、…、と、そのときのステージ101のX軸に沿った位置X1、X2、…、が示されている。これにより、ステージ101上におけるノッチのXY位置を特定することができる。
 上部基板104等を移動して、エッジの複数位置を特定する方法は、図6から図8に示すように、積層基板上に3つのスリット像を照射した場合、即ち、3つの検出装置100を用いて、積層基板上の3点を特定する場合に限られない。図1に示すように1点を特定する場合、および、3点未満、3点より多い複数の点を特定する場合にも用いることができる。1点を特定する場合でも、上部基板104等を移動しながら、複数位置のエッジを特定することにより、上部基板104の位置および形状を検出することができる。
 ここで、ステージ101の移動に伴う振動等により、移動中にステージ101と撮像部105との位置関係が変動し、位置の特定誤差が生じるおそれがある。これに対し図6から図8に示すように複数の箇所を特定する場合には、スリット像114およびスリット像174に対応する検出装置100から、Y軸の振動による変位を検出する。このY軸の振動変位値に基づいて、スリット像172から特定した位置情報におけるY軸の値を補正する。同様に、スリット像172に対応する検出装置100は、X軸の振動による変位を検出する。このX軸の振動変位値に基づいて、スリット像114およびスリット像174から特定した位置情報におけるX軸の値を補正する。この補正により、上部基板104の形状および位置をより正確に検出することができる。
 図10および図11は、照明を走査する実施形態を説明する正面図である。図10および図11の実施形態においては、ステージ101を移動することに代えて、照明の照射位置を移動しながら、エッジの複数位置を検出する。
 図10に示すように、照明部108は、レンズ115の像側、すなわち、積層基板との間に、平行平板ガラス182を有する。図10に示す状態において平行平板ガラス182の入射面が主光線に垂直に配されているので、当該平行平板ガラス182を通しても照明の照射位置は、レンズ中心から主光線の方向に延長した位置xとなる。
 図11に示すように、レンズからの主光線に対して平行平板ガラス182の角度を傾けると、積層基板への入射角度を保ちつつ、照射位置をxからxに移動することができる。これにより、平行平板ガラス182の角度を変更して照射位置を走査しながら、エッジの複数の位置を検出することができる。
 図12は、照明を走査する他の実施形態を説明する正面図である。図12において照明部108は、瞳位置にミラー184を有する。ミラー184の角度を変更することにより、スリット像114の照射位置を移動することができる。
 図10から図12の実施形態によれば、積層基板を載置したステージ101を移動しなくてよい。よって、検出装置100全体をよりコンパクトに設計することができる。
 上部基板104の形状をより正確に検出する目的で、入射光線及び反射光線を有する入射平面が上部基板104のエッジに接することが好ましい。ステージ101又は入射光線の移動範囲が大きければ、検出範囲内に入射平面と大きい角度をなすエッジも含み、そのような部分における検出精度が落ちる(図6から図8を参照)。よって、ステージ101又は入射光線を移動しながら計測する場合には、その移動範囲を限定することが好ましい。例えば、幅が0.065mmであるスリット116を用いて、約300mmの上部基板104のエッジを検出するときは、上部基板104のノッチを基板中心に対してY方向に向くようにプリアライメントをしてステージ101に配置して、ステージ101又は入射光線を5mm以内の範囲で移動しながら、上部基板104のエッジを正確に検出してよい。
 図13は、4点を特定する実施形態を示す。図6におけるスリット像114、スリット像172およびスリット像174のほかに、更にスリット像172に対して180度回転した位置を照射するスリット像188を設けることにより、同時に4つの領域におけるエッジの位置を特定することができる。この場合、4つのスリット像のうち、1つが上部基板104のノッチの位置を照射した場合でも、他の3つのスリット像により、上部基板104の中心位置を同時に検出することができる。
 図14は、異なるサイズの基板が3枚重ねられた場合に、図1に示す検出装置100により取得できる基板エッジ部の画像の概念図である。例えば、図1の下部基板102の下に更に下部基板102より大きい基板を重ね合わせたときに、3枚の基板は画像106において上からの順番でそれぞれ上部基板反射像132、下部基板反射像134および3層基板反射像192を形成する。この場合でも、最上位の上部基板104のエッジに対応して、上部基板反射像132に識別できる程度の段差部Eが現れれば、上述の方法により当該エッジの位置を検出することができる。
 以上、本実施形態によれば、複数の基板貼り合わせて積層半導体装置を製造する装置において、貼り合せるべき基板の外形、位置を正確に検出することができる。これにより、貼り合せ対象である基板同士との相対位置を正確に合わせることができる。
 なお、上記実施形態においては、照明部108による斜め照明の正反射による画像を取得すべく画像取得部110が位置している。しかしながら、照明部108および画像取得部110の配置はこれに限られない。他の例として、照明部108が基板の面方向に対して斜めであって、画像取得部110は、面の法線方向の画像を取得してもよい。さらに他の例として、照明部108が基板の面の法線方向から照明を照射して、画像取得部110は、面方向に対して斜めから画像を取得してもよい。さらに他の例として照明部108および画像取得部110はいずれも基板の面に対して斜めであって、互いに正反射からずれた位置にあってもよい。
 また、上記実施形態において照明としてスリット像114を用いた。しかしながら、照明の例はこれに限られない。他の例として、スリット像114とネガポジの関係、すなわち、スリット状の影を有してその周囲が明るい照明であってもよい。この場合に、基板が円形の場合における径方向に延伸するパターンを持った照明であることが好ましい。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。
 請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。

Claims (18)

  1.  積層された複数の基板のうちの特定の基板の位置を検出する検出方法であって、
     前記特定の基板のエッジの一部分を含む領域に照明を照射するステップと、
     前記領域を撮像した画像を取得するステップと、
     前記画像に現れる段差部の位置に基づいて前記特定の基板のエッジの位置を特定するステップと
    を備え、
     前記照明を照射するステップにおける前記領域に照明を照射する方向、および、前記画像を取得するステップにおける前記領域を撮像する方向の少なくともいずれか一方が、前記基板の面方向に対して斜めである検出方法。
  2.  前記画像を取得するステップは、前記照明を照射するステップにおいて照射された照明の前記領域での正反射による画像を含む請求項1に記載の検出方法。
  3.  前記照明を照射するステップにおいて、照明の入射光線と反射光線とが作る面が、前記基板が円形の場合における径方向と交差する請求項1または2に記載の検出方法。
  4.  前記照明を照射するステップにおいて、前記特定の基板が円形の場合における径方向に延伸するパターンを持った照明を照射する請求項1から3のいずれか1項に記載の検出方法。
  5.  前記特定の基板が円形の場合における径方向と交差する方向に、前記複数の基板を移動するステップをさらに備え、
     前記画像を取得するステップにおいて、前記基板の移動における前記基板の複数の位置のそれぞれにおいて、前記領域を、前記基板の面方向に対して斜めから撮像した画像を取得し、
     前記基板の位置を特定するステップにおいて、前記基板の複数の位置における前記画像の前記段差部の位置に基づいて、前記エッジに含まれる特徴箇所の位置を検出する請求項1から4のいずれか1項に記載の検出方法。
  6.  前記照明を照射するステップにおいて、前記径方向に交差する方向に前記照明を走査し、
     前記画像を取得するステップにおいて、前記照明の走査における前記照明の複数の位置のそれぞれにおいて、前記領域を、前記基板の面方向に対して斜めから撮像した画像を取得し、
     前記基板の位置を特定するステップにおいて、前記照明の複数の位置における前記画像の前記段差部の位置に基づいて、前記エッジに含まれる特徴箇所の位置を特定する請求項4に記載の検出方法。
  7.  前記画像を取得するステップは、前記特定の基板のエッジがノッチを有している場合に、前記特定の基板における前記ノッチを含む領域および他の領域を撮像した画像を取得するステップを含み、
     前記基板の位置を特定するステップは、前記他の領域を撮像した画像に基づいて、前記特定の基板の位置を特定するステップ、および、前記ノッチを含む領域を撮像した画像に基づいて、前記ノッチの回転方向を特定するステップを含む請求項1または2に記載の検出方法。
  8.  前記画像を取得するステップは、前記他の領域として複数の異なる領域のそれぞれについて画像を取得する請求項7に記載の検出方法。
  9.  前記照明を照射するステップにおいて、前記特定の基板が略円盤状の場合における径方向に延伸するパターンを持った照明を、前記ノッチを含む領域および前記他の領域に前記基板の面方向に対して斜めから照射する請求項7または8に記載の検出方法。
  10.  前記複数の基板を、前記径方向に交差する方向に移動するステップをさらに備え、
     前記画像を取得するステップにおいて、前記基板の移動における前記基板の複数の位置のそれぞれにおいて、少なくとも前記ノッチを含む領域を、前記基板の面方向に対して斜めから撮像した画像を取得し、
     前記エッジの位置を特定するステップにおいて、前記基板の複数の位置における前記画像の前記段差部の位置に基づいて、前記ノッチに含まれる特徴箇所の位置を検出する請求項9に記載の検出方法。
  11.  前記画像を取得するステップにおいて、前記基板の移動における複数の位置のそれぞれにおいて、前記他の領域を、前記基板の面方向に対して斜めから撮像した画像を取得し、
     前記他の領域の前記複数の位置に対応する画像間におけるエッジの位置の変位に基づいて、前記ノッチの特徴箇所の位置を補正するステップをさらに備える請求項10に記載の検出方法。
  12.  前記照明を照射するステップにおいて、前記径方向に交差する方向に前記照明を走査し、
     前記画像を取得するステップにおいて、前記照明の複数の位置のそれぞれにおいて、前記ノッチを含む領域を、前記基板の面方向に対して斜めから撮像した画像を取得し、
     前記基板の位置を特定するステップにおいて、前記照明の複数の位置に対応する複数の画像の前記段差部の位置に基づいて、前記ノッチに含まれる特徴箇所の位置を特定する請求項9に記載の検出方法。
  13.  前記画像を取得するステップにおいて、前記他の領域は前記基板が円形の場合における前記ノッチに対して90度回転した位置を含む請求項7から12のいずれか1項に記載の検出方法。
  14.  前記画像を取得するステップにおいて、前記他の領域は前記基板が円形の場合における前記ノッチに対して180度回転した位置を含む請求項7から12のいずれか1項に記載の検出方法。
  15.  前記画像を取得するステップにおいて、アオリ光学系を用いる請求項1から14のいずれか1項に記載の検出方法。
  16.  積層された複数の基板のうちの特定の基板の位置を検出する検出装置であって、
     前記特定の基板のエッジの一部分を含む領域に照明を照射する照明部と、
     前記領域を前記基板の面方向に対して斜めから撮像した画像を取得する画像取得部と、
     前記画像に現れる段差部の位置に基づいて前記特定の基板のエッジの位置を特定する位置特定部と
    を備え、
     前記照明部における前記領域に照明を照射する方向、および、前記画像取得部における前記領域を撮像する方向の少なくともいずれか一方が、前記基板の面方向に対して斜めである検出装置。
  17.  前記照明部において、照明の入射光線と反射光線とが作る面が、前記基板が円形の場合における径方向と交差する請求項16に記載の検出装置。
  18.  前記基板の複数の領域のそれぞれを照射すべく複数の前記照明部が設けられると共に、前記複数の照明部に対応した複数の前記画像取得部が設けられた請求項16または17に記載の検出装置。
PCT/JP2011/000700 2010-02-08 2011-02-08 検出方法および検出装置 WO2011096239A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP11739588.9A EP2535923B1 (en) 2010-02-08 2011-02-08 Detection method and detection device
JP2011552714A JP5708501B2 (ja) 2010-02-08 2011-02-08 検出方法および検出装置
KR1020127023128A KR101809768B1 (ko) 2010-02-08 2011-02-08 검출 방법 및 검출 장치
US13/568,897 US8547559B2 (en) 2010-02-08 2012-08-07 Detection method and detection apparatus
US13/973,755 US8994957B2 (en) 2010-02-08 2013-08-22 Detection method and detection apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-025935 2010-02-08
JP2010025935 2010-02-08

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/568,897 Continuation US8547559B2 (en) 2010-02-08 2012-08-07 Detection method and detection apparatus

Publications (1)

Publication Number Publication Date
WO2011096239A1 true WO2011096239A1 (ja) 2011-08-11

Family

ID=44355249

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/000700 WO2011096239A1 (ja) 2010-02-08 2011-02-08 検出方法および検出装置

Country Status (5)

Country Link
US (2) US8547559B2 (ja)
EP (1) EP2535923B1 (ja)
JP (1) JP5708501B2 (ja)
KR (1) KR101809768B1 (ja)
WO (1) WO2011096239A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11935775B2 (en) 2020-03-17 2024-03-19 Kioxia Corporation Semiconductor manufacturing apparatus and method of manufacturing semiconductor device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020123474A1 (en) * 2018-12-10 2020-06-18 Neocera, Llc Method and apparatus for contactless high-resolution determination and control of an object position

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05332719A (ja) * 1992-05-29 1993-12-14 Hitachi Techno Eng Co Ltd 板状体の非接触位置決め装置
WO1998057361A1 (fr) * 1997-06-12 1998-12-17 Nikon Corporation Substrat de fabrication de dispositif, procede de fabrication de ce substrat, et procede d'exposition avec ce substrat
JP2001006998A (ja) * 1999-06-22 2001-01-12 Hitachi Ltd パターン露光装置
JP2002050749A (ja) * 2000-07-31 2002-02-15 Canon Inc 複合部材の分離方法及び装置
JP2006220425A (ja) * 2005-02-08 2006-08-24 Matsushita Electric Ind Co Ltd プリント基板外観検査装置及びプリント基板外観検査方法
WO2008153086A1 (ja) * 2007-06-12 2008-12-18 Nikon Corporation 基板検出装置、基板位置決め装置、これらを有する基板貼り合わせ装置、ウェハ外形検出装置、ウェハ位置決め装置、及び、ウェハ外形検出装置及びウェハ外形検出装置を有するウェハ貼り合せ装置
JP2009139285A (ja) * 2007-12-07 2009-06-25 Univ Nihon 半田ボール検査装置、及びその検査方法、並びに形状検査装置
JP2009231671A (ja) 2008-03-25 2009-10-08 Nikon Corp アラインメント装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5563798A (en) * 1994-04-05 1996-10-08 Applied Materials, Inc. Wafer positioning system
US6452503B1 (en) * 2001-03-15 2002-09-17 Pri Automation, Inc. Semiconductor wafer imaging system
US6950181B2 (en) * 2003-03-31 2005-09-27 Taiwan Semiconductor Manufacturing Co., Ltd. Optical wafer presence sensor system
JP2007205864A (ja) * 2006-02-01 2007-08-16 Reitetsukusu:Kk 基盤検査装置、及び、基盤検査方法
US8175831B2 (en) * 2007-04-23 2012-05-08 Kla-Tencor Corp. Methods and systems for creating or performing a dynamic sampling scheme for a process during which measurements are performed on wafers
US8099190B2 (en) * 2007-06-22 2012-01-17 Asm International N.V. Apparatus and method for transferring two or more wafers whereby the positions of the wafers can be measured

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05332719A (ja) * 1992-05-29 1993-12-14 Hitachi Techno Eng Co Ltd 板状体の非接触位置決め装置
WO1998057361A1 (fr) * 1997-06-12 1998-12-17 Nikon Corporation Substrat de fabrication de dispositif, procede de fabrication de ce substrat, et procede d'exposition avec ce substrat
JP2001006998A (ja) * 1999-06-22 2001-01-12 Hitachi Ltd パターン露光装置
JP2002050749A (ja) * 2000-07-31 2002-02-15 Canon Inc 複合部材の分離方法及び装置
JP2006220425A (ja) * 2005-02-08 2006-08-24 Matsushita Electric Ind Co Ltd プリント基板外観検査装置及びプリント基板外観検査方法
WO2008153086A1 (ja) * 2007-06-12 2008-12-18 Nikon Corporation 基板検出装置、基板位置決め装置、これらを有する基板貼り合わせ装置、ウェハ外形検出装置、ウェハ位置決め装置、及び、ウェハ外形検出装置及びウェハ外形検出装置を有するウェハ貼り合せ装置
JP2009139285A (ja) * 2007-12-07 2009-06-25 Univ Nihon 半田ボール検査装置、及びその検査方法、並びに形状検査装置
JP2009231671A (ja) 2008-03-25 2009-10-08 Nikon Corp アラインメント装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2535923A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11935775B2 (en) 2020-03-17 2024-03-19 Kioxia Corporation Semiconductor manufacturing apparatus and method of manufacturing semiconductor device

Also Published As

Publication number Publication date
US8994957B2 (en) 2015-03-31
KR101809768B1 (ko) 2017-12-15
US20140022560A1 (en) 2014-01-23
EP2535923B1 (en) 2020-06-17
EP2535923A4 (en) 2014-09-17
KR20120123538A (ko) 2012-11-08
US8547559B2 (en) 2013-10-01
EP2535923A1 (en) 2012-12-19
JP5708501B2 (ja) 2015-04-30
US20130033712A1 (en) 2013-02-07
JPWO2011096239A1 (ja) 2013-06-10

Similar Documents

Publication Publication Date Title
KR101379538B1 (ko) 접합 기판의 회전 어긋남량 계측 장치, 접합 기판의 회전 어긋남량 계측 방법 및 접합 기판의 제조 방법
KR101141345B1 (ko) 3차원 형상 계측 장치, 3차원 형상 계측 방법, 3차원 형상 계측 프로그램, 및 기록 매체
JP4883181B2 (ja) 部品実装方法
JP4939843B2 (ja) 欠陥検査方法及びその装置
KR101808388B1 (ko) 프로브 장치 및 프로브 방법
JP2002310929A (ja) 欠陥検査装置
CN1795536A (zh) 位置信息测量方法及装置、和曝光方法及装置
JP2015190826A (ja) 基板検査装置
JP5951793B2 (ja) 撮像素子位置検出装置
JP5346759B2 (ja) 基板位置決め方法
WO2020188761A1 (ja) カメラモジュール製造装置及びカメラモジュール製造方法
JP5708501B2 (ja) 検出方法および検出装置
JP2014062940A (ja) 検査装置
JP2005070225A (ja) 表面画像投影装置及び表面画像投影方法
JP6684992B2 (ja) 突起検査装置及びバンプ検査装置
JPH11326229A (ja) 異物検査装置
WO2019180899A1 (ja) 外観検査装置
US10847369B2 (en) Wafer bonding method, method for manufacturing semiconductor device, and apparatus therefor
JP2007042858A (ja) 投影露光装置
JP2011085494A (ja) 表面検査装置
TWI510754B (zh) Detection method and detection device
US20220344192A1 (en) Systems and methods for absolute sample positioning
JP2013140187A (ja) 検査装置
JP2006165377A (ja) 露光装置、露光方法、マスクおよび半導体装置
JP2001091211A (ja) 高さ測定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11739588

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011552714

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2011739588

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20127023128

Country of ref document: KR

Kind code of ref document: A