WO2019180899A1 - 外観検査装置 - Google Patents

外観検査装置 Download PDF

Info

Publication number
WO2019180899A1
WO2019180899A1 PCT/JP2018/011604 JP2018011604W WO2019180899A1 WO 2019180899 A1 WO2019180899 A1 WO 2019180899A1 JP 2018011604 W JP2018011604 W JP 2018011604W WO 2019180899 A1 WO2019180899 A1 WO 2019180899A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
sample
sensor
circuit
coordinate
Prior art date
Application number
PCT/JP2018/011604
Other languages
English (en)
French (fr)
Inventor
神宮 孝広
英雄 栄井
Original Assignee
株式会社日立ハイテクノロジーズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立ハイテクノロジーズ filed Critical 株式会社日立ハイテクノロジーズ
Priority to PCT/JP2018/011604 priority Critical patent/WO2019180899A1/ja
Priority to TW108107739A priority patent/TW201940840A/zh
Publication of WO2019180899A1 publication Critical patent/WO2019180899A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures

Definitions

  • the present invention relates to an appearance inspection apparatus for measuring a three-dimensional shape of a sample surface.
  • Patent Document 1 There is an inspection device that measures the bump height on the sample surface using a confocal optical system (Patent Document 1). It is disclosed that the height can be measured from the amount of change in luminance by using the property that the reflected light luminance is maximized at the top portion by focusing on the bump top portion in advance. In this method, only the height of the sample surface is calculated using at least two types of reflected light luminance information obtained when the focus is on the top and when the focus is on the sample surface.
  • An object of the present invention is to provide an appearance inspection apparatus capable of accurately and rapidly measuring various three-dimensional shape information such as an inclination angle and an inclination direction as well as a height with respect to a surface shape of a sample.
  • the present invention includes a light source that emits inspection light, a stage that holds a sample, a stage control device that drives the stage so that the inspection light scans the sample, and a plurality of stages
  • a sensor that has a pixel and receives reflected light from the sample, output information from the sensor, and first reference data that is a correlation between an inclination angle or an inclination direction of a reflection surface on which incident reflected light is reflected.
  • a processing device that calculates and outputs at least one of a tilt angle and a tilt direction of the surface of the sample from the output information of the sensor based on the registered memory and the first reference data.
  • the three-dimensional shape of the sample surface can be accurately measured at high speed.
  • FIG. 6A is a schematic diagram showing a reflected light spot of a sensor that receives reflected light at sampling point A on the reflecting surface in FIG. 6A.
  • FIG. 6A is a schematic diagram showing a reflected light spot of a sensor that receives reflected light at a sampling point B on the reflecting surface in FIG. 6A.
  • FIG. 6A is a schematic diagram showing a reflected light spot of a sensor that receives reflected light at a sampling point C on the reflecting surface in FIG. 6A.
  • Plan view of three-dimensional reflecting surface Sectional view taken along line VIIb-VIIb in FIG. 7A The figure showing the reflected light spot on the sensor when the inspection light imaged at the sampling point A on the reflecting surface in FIG.
  • FIG. 7B is a diagram showing a state in which inspection light is reflected at sampling points AC on the reflecting surface in FIG. 7B.
  • inspection light imaged by the sampling point A of the reflective surface of FIG. 7B A flowchart showing a process for obtaining shape information of the three-dimensional shape of the sample surface at each sampling point based on the output of the sensor unit.
  • FIG. 1 is a schematic diagram illustrating the overall configuration of an appearance inspection apparatus according to an embodiment of the present invention
  • FIG. 2 is a schematic diagram illustrating a positional relationship between an alignment apparatus and a three-dimensional measurement apparatus in an inspection machine.
  • the visual inspection apparatus according to the present embodiment uses a flat sample such as a semiconductor wafer, MEMS, a glass substrate for a flat display, a printed circuit board, or the like as an inspection target, and the three-dimensional surface of the sample in each stage of the manufacturing process of these samples. Applicable to shape measurement.
  • a semiconductor wafer is used as a sample, it can be used for inspection of patterns, bumps, foreign matter, waviness on the wafer surface, and the like.
  • the illustrated visual inspection apparatus includes an inspection machine 10, a control device 20, and a processing device 30.
  • the inspection machine 10 includes a stage 11, a stage driving device 12, a stage control device 13, a transport device 14, an optical microscope 15, an alignment device 16, a camera 17, a three-dimensional measuring device 18, and the like.
  • the stage 11 is an inspection table on which the sample S is placed and held, and is provided on the stage driving device 12.
  • the stage driving device 12 includes an R driving device 12r, a Y driving device 12y, a Z driving device 12z, and a ⁇ driving device 12t.
  • the R driving device 12r is a driving device that moves the stage 11 along an R axis that linearly extends in the horizontal direction.
  • the Y drive device 12y is a drive device that moves the stage 11 along the Y axis that extends orthogonally to the R axis and linearly in the horizontal direction.
  • the Z driving device 12z is a driving device that moves the stage 11 along the Z axis extending linearly in the vertical direction.
  • the ⁇ drive device 12t is a drive device that rotates the stage 11 in the ⁇ direction around a vertical rotation axis.
  • the stage 11 is moved in four axis directions by these driving devices, and the position of the stage 11 with respect to the optical microscope 15, the camera 17, and the three-dimensional measuring device 18 can be adjusted.
  • the description is made on the assumption that the rotary stage is used, but the same method can be used even when scanning is performed by an XY stage.
  • the R drive device 12r, the Y drive device 12y, the Z drive device 12z, and the ⁇ drive device 12t are each provided with a spindle drive control encoder.
  • the R driving device 12r, the Y driving device 12y, the Z driving device 12z, and the ⁇ driving device 12t are each driven by a command value output from the stage control device 13 in response to a command signal from the control device 20.
  • the stage control device 13 can instruct the R driving device 12r and the ⁇ driving device 12t in accordance with a command from the control device 20 to scan the sample S with the inspection light in a spiral manner in the polar coordinate system.
  • the Z drive device 12z can also be AF controlled so as to focus on the reference surface of the sample S by the command value output from the AF control device 19.
  • the R driving device 12r, the Y driving device 12y, the Z driving device 12z, and the ⁇ driving device 12t are each provided with a coordinate detection encoder, and the values of the R coordinate, Y coordinate, Z coordinate, and ⁇ coordinate of the stage 11 are set. It is output to the control device 20 (for example, the coordinate detection circuit 26) at any time.
  • the transport device 14 is a device for placing the sample S stored in a cassette (not shown) provided in the appearance inspection device on the stage 11 and returning the sample S on the stage 11 to the cassette. It is driven by a command signal from the apparatus 20 and transports the sample S.
  • the transfer device 14 places the sample S on the stage 11 or picks it up from the stage 11 at the load position P1 (R1, Y1) shown in FIG.
  • the optical microscope 15 is a device that acquires an enlarged observation image of the sample S. According to a command signal from the control device 20, an R driving device 12r, a Y driving device 12y, a Z driving device 12z, and a ⁇ driving device 12t The sample S is scanned in cooperation as appropriate, and for example, a bright field image is acquired. Image data obtained by the optical microscope 15 is output to the control device 20 (for example, the host CPU 22). As shown in FIG. 2, in this embodiment, the optical microscope 15 is located between the scanning start position P2 (R2, Y1) by the three-dimensional measuring device 18 and the load position P1. The layout is designed so that an image can be acquired by the optical microscope 15 on the flow line along which the stage 11 moves along the R axis from the load position P1 to the scanning start position P2.
  • the alignment device 16 includes an eccentricity detection sensor 16 a that senses the outer edge portion of the sample S placed on the stage 11. By detecting the outer edge portion of the sample S with the eccentricity detection sensor 16a while rotating the stage 11, prealignment of the center of the sample S and the position of a notch (not shown) is performed.
  • the alignment device 16 is driven by a command from the control device 20 and outputs the acquired data to the control device 20 (for example, the host CPU 22).
  • the camera 17 is, for example, a color CCD camera that acquires a photographed image of the sample S or the stage 11, and is provided in the optical microscope 15, for example.
  • the camera 17 is driven by a command from the control device 20 and outputs the acquired data to the control device 20 (for example, the host CPU 22).
  • the shape information of the reflected light spot incident on the sensor and the vector information of the reflected light centroid from the sensor reference position are the (local) tilt angle, tilt direction or height of the sample surface.
  • the three-dimensional measuring device 18 is a device that measures a three-dimensional surface shape including at least one of the height information and the tilt information of the sample surface. In this embodiment, as shown in FIG. They are arranged along with the microscope 15 in the R-axis direction. You may make it perform alignment using the optical microscope 15.
  • FIG. The three-dimensional measuring apparatus 18 includes at least one (eight illustratively in the present embodiment) sensor unit 18a. The sensor units 18a are arranged side by side at a constant interval W along the R axis, and the distances from the rotation center of the stage 11 are different. In the case of a wafer with a chip, only a part of the chips on the sample S indicated by the solid line in FIG.
  • the inspection light from the light source (not shown) of the sensor unit 18a arranged on the outermost periphery (leftmost in FIG. 2) is placed on the circumscribed circle S1 of the chip formation region.
  • the stage 11 is moved so as to be irradiated.
  • the surface of the sample S is scanned by the sensor unit 18a by moving the stage 11 in the R-axis direction (here, the left direction) while rotating in the ⁇ direction. Can do.
  • the distance from the scanning start position P2 to the scanning end position P3 (R3, Y1) equal to or slightly larger than the interval W of the sensor unit 18a, the entire surface of the formation region of the sample S is shared by each sensor unit 18a. Can be scanned.
  • the donut-shaped regions between the concentric circles of the circumscribed circle S1 represented by broken lines in FIG. 2 are scanning regions of the sensor units 18a.
  • Each sensor unit 18a in the present embodiment includes a pair of two types of optical systems that receive reflected light of different optical paths in order to measure the three-dimensional shape information on the sample surface as a physical quantity.
  • Two types of optical systems are selectively used according to the object to be measured. There may be a deviation between the image forming positions (focus points) between the two types of optical systems in one sensor unit 18a due to manufacturing errors or the like.
  • the microscopic imaging position shift in the sensor is calibrated with high accuracy (described later).
  • FIG. 3 is a diagram showing a state of displacement of the sensor unit with respect to the design position.
  • the sensor unit 18a on the left side is manufactured and assembled accurately as designed.
  • the imaging position F1 of the right sensor unit 18a is shifted in the X-axis direction ( ⁇ X1), the Y-axis direction ( ⁇ Y1), and the Z-axis direction ( ⁇ Z1).
  • the inspection apparatus is accompanied by a manufacturing error.
  • each sensor unit 18a has an error from the design position, and the positional relationship between the sensor units 18a varies microscopically. There is a case.
  • the variation in the positional relationship between the microscopic sensors is calibrated with high accuracy (described later).
  • FIG. 4 is a diagram showing a change in the cross-sectional shape of the reflected light that has passed through the cylindrical lens.
  • the optical system of the sensor unit 18a is adjusted so that the spot shape of the reflected light L incident on the sensor 18c (FIG. 5 and the like) is circular if the inspection light is reflected at the imaging position F1 (spot L1).
  • the sensor unit 18a is provided with a cylindrical lens 18b on the optical path toward the sensor of the reflected light L reflected by the sample S.
  • the cylindrical lens 18b is formed in a semi-cylindrical shape, and exhibits a lens effect only in the ⁇ -axis direction in the ⁇ orthogonal coordinate system (FIG. 4) in the cross section of the reflected light L.
  • the spot shape of the reflected light incident on the sensor becomes a horizontally long ellipse due to a deviation in the Z-axis direction between the reflection position of the inspection light (intersection of the inspection light optical axis and the surface of the sample S) and the imaging position F1. Or a vertically long ellipse (spots L2, L3). Further, the greater the amount of deviation in the Z-axis direction between the reflection position of the inspection light and the imaging position F1, the more the spot shape of the reflected light becomes an elliptical shape whose long axis is longer than the short axis.
  • the ellipticity of the spot shape of the reflected light incident on the sensor 18c changes depending on the distance in the Z-axis direction of the reflection position with respect to the imaging position F1.
  • the ellipticity is a ratio obtained from a major axis and a minor axis of XY axes in a circular image, or a parameter indicating the degree of ellipse such as eccentricity and flatness.
  • FIG. 5 is a schematic diagram of the sensor of the sensor unit viewed from the incident direction of the reflected light.
  • the sensor 18c includes a plurality of pixels. In the present embodiment, an example in which a plurality of pixels are arranged in a lattice shape is shown.
  • a CCD can be used as the sensor 18c, but a TDI, CMOS sensor, photodiode array, or the like can also be used.
  • the sensor unit 18a outputs the signal intensity of each pixel of the sensor 18c.
  • the signal of each pixel is processed to generate information on a reference position (described later) on the sensor 18c and the position of the reflected light spot received by the sensor 18c or the shape of the reflected light spot, and this is used as the signal intensity of each pixel. It is also possible to output it instead of.
  • the output information of the sensor 18c in that case includes, for example, at least one of the position information of the center O of the sensor 18c and the gravity center G of the reflected light spot and the ellipticity of the reflected light spot.
  • the center O of the sensor 18c is described as the reference position, but the reference position may not be the center O.
  • the reference position of the sensor 18c can be arbitrarily set at the start of inspection. If the reflecting surface coincides with the imaging position F1, the spot of the reflected light incident on the sensor 18c becomes a circle (spot L1). For example, when the reflecting surface is lower than the imaging position F1 (far from the sensor unit 18a), the spot of reflected light incident on the sensor 18c becomes a horizontally long ellipse (spot L2). On the other hand, when the reflecting surface is higher than the imaging position F1 (closer to the sensor unit 18a), the spot of the reflected light incident on the sensor 18c becomes a vertically long ellipse (spot L3).
  • FIG. 6A is a plan view of a three-dimensional reflecting surface
  • FIG. 6B is a cross-sectional view taken along line VIb-VIb of FIG. 6A
  • FIG. 6C is a reflected light of the sensor 18c that receives the reflected light at the sampling point A of the reflecting surface of FIG. It is a schematic diagram showing a spot.
  • the reflection surface model shown in FIGS. 6A and 6B is assumed to be a protrusion such as a bump including a slope on the sample surface.
  • FIGS. 6D and 6E are schematic views showing reflected light spots of the sensor 18c receiving the reflected light at the sampling points B and C, respectively.
  • the gravity center G of the reflected light spot reflected at the sampling point A which is the uppermost point of the three-dimensional reflecting surface, is incident on the center O of the sensor 18c as shown in FIG. 6C.
  • the center G of the reflected light spot is deviated from the center O of the sensor 18c as shown in FIGS. 6D and 6E.
  • the reflecting surface has a three-dimensional shape including an inclined surface, the vector of the center of gravity G of the reflected light spot with respect to the center O of the sensor 18c changes depending on the inclination direction of the reflecting surface.
  • FIG. 7A is a plan view of a reflective surface having a three-dimensional shape similar to FIG. 6A
  • FIG. 7B is a cross-sectional view taken along the line VIIb-VIIb of FIG. 7A
  • 7C to 7E are diagrams showing each reflected light spot on the sensor 18c when the inspection light imaged at the sampling point A (uppermost point) on the reflecting surface in FIG. 7A is reflected at the sampling point AC.
  • 8A shows a state in which the inspection light is reflected at the sampling point AC on the reflection surface in FIG. 7B
  • FIG. 8B shows the inspection light imaged at the sampling point A on the reflection surface in FIG. It is a figure showing the change of the reflected light spot on the sensor 18c at the time of scanning -C.
  • the distance from the center O of the sensor 18c to the center of gravity G of the reflected light spot varies depending on the tilt angle of the reflecting surface.
  • the beam (inspection light L1-L3) irradiated perpendicularly to the sampling point AC is at a reflection angle ⁇ 2 that is symmetric with respect to the incident angle ⁇ 1 with respect to the tangential plane of the reflection surface at the sampling point AC.
  • the incident angle ⁇ 1 and the reflection angle ⁇ 2 correlate with distances B1 ′ and B2 ′ (FIG. 8B) from the center O of the sensor 18c to the center G of the reflected light spot.
  • the ellipticity of the reflected light spot reflected at the sampling points B and C where the reflection positions F4 and F5 are shifted from the imaging position F3 is Z of the reflection positions F4 and F5 with respect to the imaging position F3. Varies depending on the axial distance.
  • the three-dimensional surface of the sample is obtained using a look-up table or an arithmetic expression to be described later.
  • Shape information can be calculated.
  • the number of pixels and the size of the sensor 18c are set to values necessary and sufficient to calculate the center G of the reflected light spot and the ellipticity in this way.
  • the output information from the sensor 18c which is basic information for the processing device 30 to be described later to calculate the three-dimensional shape information, may be an output addition value (including waveform data and the like) of each pixel column. It may be binarized information. Based on the above principle, an example of a method for obtaining a three-dimensional shape including a tilt angle, a tilt direction and a height of the sample surface such as a bump shape on the sample will be described below.
  • FIG. 9 is a flowchart showing a process for obtaining three-dimensional shape information of the sample surface at each sampling point based on the output information of the sensor 18c of the sensor unit 18a.
  • the tilt angle and the tilt direction are calculated numerically will be described.
  • the tilt angle may be expressed in degrees such as large, medium, and small.
  • an example of outputting information related to an angle such as the degree of an angle and information related to a direction instead of a numerical value will be described.
  • the processing device 30 associates the measurement information in the memory 31 (FIG. 1) in association with the coordinate information of the sampling point converted from the R- ⁇ coordinate to the XY coordinate by the coordinate conversion circuit 33a (FIG. 18).
  • Store step x1).
  • the processing device 30 measures the center of gravity G of the reflected light spot incident on the sensor 18c and the major axis and minor axis dimensions of the reflected light spot based on the output information of each pixel (steps x2 and x3). For example, when the reflected light spot is projected on the sensor 18c as shown in FIG. 10, the center of gravity G of the reflected light spot specifies the pixels in the projection range of the spot (all the pixels on which the reflected light is incident). It is obtained by specifying the center point.
  • the center of gravity G may be obtained based on the distribution of the light receiving pixels obtained from the number of pixels.
  • An image of the reflected spot may be generated based on the output of the sensor 18c, and the center of gravity G may be calculated based on image processing.
  • various center-of-gravity calculation methods such as a method of calculating the center of gravity after extracting the outline of a spot and a method of obtaining the center of gravity G by generating a distance image are used. be able to.
  • the processing device 30 determines the distance and direction between the center of gravity of the spot obtained in step x2 and the reference position Q (the center of gravity of the reflected light spot on the sensor when the reflecting surface is horizontal and orthogonal to the inspection light).
  • Vector is obtained (step x4).
  • Various methods can be applied for obtaining vector information. For example, an X coordinate shift ( ⁇ X) and a Y coordinate shift ( ⁇ Y) between the reference position Q and the center of gravity G of the reflected light spot are obtained, and the reference position Q and the reflection are calculated by an arithmetic expression for obtaining a diagonal line stored in the memory 31 in advance. The distance between the center of gravity G of the light spot is obtained.
  • the direction of the center of gravity G of the reflected light spot with respect to the reference position Q (for example, a relative angle with respect to the X axis) is calculated.
  • a relative angle with respect to a specific reference line other than the X axis may be output, or information other than a numerical value may be output.
  • information other than numerical values for example, information in a rough direction such as in which quadrant of four quadrants centered on the reference position Q the center of gravity G of the reflected light spot exists can be exemplified.
  • the processing device 30 obtains the ellipticity of the spot from information such as the size of each spot in the XY directions or the number of light receiving pixels obtained in step x3 (step x5).
  • the processing device 30 inputs the position information and ellipticity of the center of gravity G obtained as described above into a lookup table or an arithmetic expression registered in advance in a storage medium such as the memory 31.
  • a lookup table is information indicating the relationship between the center of gravity of the reflected light spot and the tilt angle and direction of the reflecting surface, and the correlation between the ellipticity of the reflected light spot and the height of the reflecting surface.
  • the processing device 30 stores the above information in the memory 31 in association with the XY coordinate information related to the sampling point (step x7).
  • the processing device 30 uses the XY coordinates of the sampling points and the height information (Z coordinates) registered for each sampling point to obtain the information on the inclination angle and the inclination direction of each sampling point.
  • a three-dimensional image is constructed by original arrangement (step x8).
  • the noise component can be removed from the information regarding the inclination direction and the inclination angle.
  • the shape of the sample surface can be expressed with higher resolution by performing the moving average process in accordance with the inclination angle and the inclination direction.
  • a bump surface shape model can be created instead of using the moving average method, and the noise component can be removed by fitting this model with each piece of information at each sampling point.
  • FIG. 11A is a diagram showing an example of a surface shape model of a measurement target (a bump in this example) on the sample surface.
  • the bump surface can be expressed smoothly regardless of noise.
  • the present invention is not limited to this, and for example, only the tilt angle, only the tilt direction, or the tilt angle and the tilt direction. These two pieces of information may be output.
  • the bumps are represented at the locations where the bumps are formed (dotted lines) as illustrated in FIG.
  • FIG. 11B shows an example in which the sampling points developed in the XY coordinates and the inclination angle and the inclination direction of each sampling point are displayed as vectors.
  • the sampling point with a larger inclination angle has a longer arrow.
  • the direction of the arrow indicates the inclination direction (downward direction) of each sampling point.
  • the sampling points AD existing at a predetermined interval on the slope portion of the sample surface are scanned at a pitch equal to or smaller than the size of the illumination spot L4.
  • Sa is a tangential plane in contact with the sample at each sampling point AD, and the surface shape of the sample can be obtained by polygonal line approximation by obtaining a large number of tangential planes Sa.
  • the curved surface shape Sb of the sample surface can be estimated as shown in FIG. 12B by calculating a recent curve using a processing device 30 (described later) using a plurality of points (three or more points) at predetermined intervals. it can.
  • a bright field observation image of the sample surface can be acquired based on the output of the sensor unit 18a.
  • the sensor has a plurality of pixels
  • two-dimensional image data can be acquired by recording the total luminance of the pixels with respect to the reflected light at each coordinate point.
  • the cubic processing of the sample surface is performed by performing arithmetic processing described later.
  • the original shape can be measured as a physical quantity.
  • the calculation of 3D shapes based on sensor output information using such correlations can be applied even when the measurement target is, for example, a plane solid, a spherical surface, a curved surface, or other shapes. It can be measured as a high physical quantity.
  • the stage 11 is provided with calibration chips 11A-11C (FIG. 2).
  • the calibration chip 11A-11C is installed at a position that can be scanned by at least one sensor unit 18a on the outer periphery of the sample S even when the largest sample S that can be inspected by the appearance inspection apparatus is installed on the stage 11. ing.
  • FIG. 13A is a schematic diagram showing a side surface shape of an example of a calibration chip
  • FIGS. 13B to 13D are schematic diagrams of reflected light spots on the sensor 18c when the inspection light is imaged at each sampling point AC in FIG. 13A.
  • the calibration chip 11A illustrated in FIG. 13A requires at least three inclined surfaces having different inclination angles. This is for deriving an approximate function described later.
  • the inclination angles ⁇ of the inclined surfaces 11a1-11a3 are different angles, for example, 5 degrees, 10 degrees, and 15 degrees, and are known angles.
  • the horizontal distance L11a taken in the inclination direction of the slopes 11a1-11a3 is also a known length.
  • the slopes 11a1-11a3 are not limited to flat surfaces, but may be curved surfaces or spherical surfaces, and the cross-sectional shape of the calibration tip 11A is not limited to the saw blade shape shown in FIG. 13A.
  • the same data is prepared on each inclined surface 11a1-11a3 of the calibration chip 11A.
  • a sampling point A-C at the height (imaging position F) is set.
  • the sampling light A-C is irradiated with inspection light, and the reflected light obtained from the imaging position F is received by the sensor unit 18a.
  • the inspection light forms an image on the horizontal plane, a circular spot is formed at the center O of the sensor 18c.
  • the reflected light spot from the center O on the sensor 18c depends on the inclination angle of the inclined surface.
  • the center of gravity G moves. Therefore, when the inspection light is imaged at the sampling point AC, the center G of the reflected light spot is shifted from the center O on the sensor 18c as shown in FIGS. 13B to 13D in accordance with the inclination angle ⁇ of the inclined surfaces 11a1-11a3.
  • the deviation amount of the center of gravity G of the reflected light spot from the center O is plotted using a look-up table or an arithmetic expression to derive an approximate function (step x6 in FIG. 9 described above).
  • the approximate function is associated with the coordinate information and registered in the memory 31 of the processing device 30 (step x7).
  • the reference data of the correlation between the inclination angle of the reflection surface reflected by the reflected light and the gravity center G of the reflected light spot incident on the sensor 18c can be created.
  • the calibration chip 11A has a three-dimensional shape.
  • a three-dimensional shape obtained by a locus that is rotated and moved only by an amount can be exemplified.
  • the XY coordinates are fixed by making the optical axis of the inspection light coincide with the sampling point A, for example, and in this state, the stage is moved in the Z-axis direction within the set range, and each sampling point A ⁇ shown in FIG.
  • the approximate function deriving step is performed for C.
  • reference data for the correlation between the height of the reflection surface of the reflected light and the ellipticity of the reflected light spot incident on the sensor 18c can be created.
  • the reference data may be created from data collected for a plurality of points (for example, sampling points B and C).
  • the known shape information (inclination angle, direction or height of the slope) of the calibration chip and the sensor for the calibration chip Reference data obtained from the output information 18c is obtained. By using this reference data, the three-dimensional shape of the sample surface can be measured with high accuracy from the output information of the sensor 18c.
  • FIG. 14A is a plan view of the first calibration chip
  • FIG. 14B is a side view.
  • the first calibration chip 11B is a known three-dimensional chip having a plurality of inclined surfaces 11b1-11b12 having different inclination directions and inclination angles.
  • This first calibration chip 11B is shaped like a polygon of a solid whose four sides of a triangle are curved so that the top is a horizontal plane based on a quadrangular pyramid.
  • the slopes 11b1-11b4 are the lowest slopes and have the greatest gradient.
  • the slopes 11b5-11b8 are the second slope from the bottom and the second largest slope.
  • the slopes 11b9-11b12 are the third (top) slopes from the bottom and have the smallest slope.
  • the upper part of the slope 11b9-11b12, that is, the top of the first calibration chip 11B is formed by a horizontal surface 11b13.
  • the inclined surfaces 11b9, 11b5, 11b1 are arranged in this order on the (+) side in the Y-axis direction, for example, with respect to the horizontal surface 11b13.
  • the slopes 11b10, 11b6, 11b2 are arranged in this order on the (+) side in the R-axis direction (or X-axis direction), for example, with respect to the horizontal surface 11b13.
  • the inclined surfaces 11b11, 11b7, 11b3 are arranged in this order on the ( ⁇ ) side in the Y-axis direction, for example, with respect to the horizontal surface 11b13.
  • the inclined surfaces 11b12, 11b8, 11b4 are arranged in this order on the ( ⁇ ) side in the R-axis direction (or X-axis direction), for example, with respect to the horizontal surface 11b13.
  • the slopes 11b1-11b12 and the horizontal surface 11b13 are set larger in width in plan view than the diameter of the beam spot L0 (FIG. 14A) of the inspection light emitted from the light source.
  • the slope of the first calibration chip 11B has three steps is illustrated, it is sufficient that the slope has at least three steps, and may have four or more steps.
  • FIG. 15A is a plan view of the second calibration chip
  • FIG. 15B is a side view.
  • the second calibration chip 11C is a known three-dimensional chip having a plurality of horizontal surfaces 11c1-11c5 having different heights.
  • the second calibration chip 11C has, for example, a shape in which plates having similar horizontal planes and different thicknesses are concentrically stacked from the bottom in the descending order to form a pyramid shape.
  • the second calibration chip 11C can be manufactured by attaching shim tape as a plate. Since the shim tape has a very small tolerance, the height of the horizontal planes 11c1-11c5 can be accurately obtained. It becomes higher at regular intervals in the order of the horizontal planes 11c1-11c5.
  • the horizontal planes 11c1-11c5 are set to have a width larger than the diameter of the beam spot L0 (FIG. 15A) of the inspection light emitted from the light source.
  • the horizontal plane may be at least three levels and may be four levels or six levels or more.
  • the three-dimensional shape and the sensor output information are calibrated using the known shape information of the calibration chip as in the case of using the calibration chip 11A, but like the first calibration chip 11B and the second calibration chip 11C.
  • the first calibration chip specializes in data collection related to angle information of the reflection surface
  • the second calibration chip specializes in data collection related to height information of the reflection surface. Therefore, it is easy to create, and it is possible to calibrate in a short time since there is no need to adjust the height and direction in the process of data collection.
  • control device 20 includes a memory 21, a host CPU 22, an alignment circuit 23, a sensor output calibration circuit 24, a coordinate calibration circuit 25, a coordinate detection circuit 26, a measurement information collection circuit 27, a transfer circuit 28, and the like. It is configured.
  • the memory 21 is a storage device that stores a control program for the inspection machine 10, constants necessary for controlling the inspection machine 10, various correction values necessary for information processing, data collected along with the operation of the inspection machine 10, and the like.
  • the host CPU 22 is a circuit that controls the entire appearance inspection apparatus, communicates with each circuit of the control apparatus 20, the inspection machine 10 and the processing apparatus 30, and instructs each circuit and inspection machine 10 of the control apparatus 20 and processing apparatus. Exchange information with 30.
  • the alignment circuit 23 is based on a photographed image of the sample S by the camera 17 or the optical microscope 15, and the rotational position shift amount in the ⁇ direction with respect to the R axis of the sample S held on the stage 11, and the rotation center of the sample S and the sample S. It is a circuit which specifies the amount of center position deviation from the center of.
  • the rotational position deviation amount and the center position deviation amount calculated by the alignment circuit 23 are used as a coordinate correction value for correcting an error in the coordinate information of the measurement information caused by the variation in the position of the sample S during loading by the transport device 14. , 31 are stored. The calculation principle of the coordinate correction value by the alignment circuit 23 will be described later.
  • the sensor output calibration circuit 24 is a circuit that calculates the output correction value of the pixel of the sensor 18c based on the scanning information of the calibration chip.
  • the first calibration chip 11B can be suitably used as a calibration chip to be photographed for processing of the sensor output calibration circuit 24, but only one calibration chip having three or more different angles or the second calibration chip.
  • the chip 11C can also be used.
  • the output correction value calculated by the sensor output calibration circuit 24 is stored in the memories 21 and 31 as a correction value for correcting an output error of each sensor unit 18a due to variations in output level between pixels. The calculation principle of the output correction value by the sensor output calibration circuit 24 will be described later.
  • the coordinate calibration circuit 25 is a circuit that three-dimensionally measures the position of each sensor unit 18a based on the image of the calibration chip obtained by the sensor unit 18a. In the coordinate calibration circuit 25, based on the measured position of each sensor unit 18a, a coordinate correction value for correcting an error of coordinate information associated with the measurement information related to each sensor unit 18a caused by a manufacturing error or an assembly error. ( ⁇ X1, ⁇ Y1, ⁇ Z1 in FIG. 3) is calculated. The coordinate calibration circuit 25 also has a function of calculating a three-dimensional deviation amount of the imaging position of the inspection light between two different optical systems in each sensor unit 18a.
  • the shift amount of the imaging position of the two types of optical systems in the sensor unit 18a is calculated as a coordinate correction value for correcting the coordinate error of the measurement information caused by this. Further, the coordinate calibration circuit 25 calculates the positional relationship between the three-dimensional measuring device 18 and the camera 17 or the optical microscope 15 based on the captured image of the calibration chip by the three-dimensional measuring device 18 and the camera 17 or the optical microscope 15. It also has functions. In the coordinate calibration circuit 25, a coordinate correction value for correcting an error in measurement information caused by a manufacturing error of the three-dimensional measuring device 18, the camera 17, or the optical microscope 15 is calculated based on the calculated positional relationship.
  • At least one of the exemplified calibration chip 11A, the first calibration chip 11B, and the second calibration chip 11C can be used as a calibration chip to be photographed for the calculation of the above coordinate correction values by the coordinate calibration circuit 25.
  • Each coordinate correction value calculated by the coordinate calibration circuit 25 is stored in the memories 21 and 31. The calculation principle of each coordinate correction value by the coordinate calibration circuit 25 will be described later.
  • the coordinate detection circuit 26 is a circuit that outputs the coordinate information input from the stage driving device 12 as synchronization information associated with the output of the sensor unit 18a.
  • the sensor output after the coordinate information is added is the measurement information.
  • the coordinate detection circuit 26 collects measurement information by setting coordinate information at the same time of each drive axis input from each coordinate detection encoder of the R drive device 12r, the Y drive device 12y, the Z drive device 12z, and the ⁇ drive device 12t. Output to the circuit 27.
  • the measurement information collecting circuit 27 includes a signal adjustment circuit 27a, an AD converter 27b, and an FPGA 27c.
  • the signal adjustment circuit 27a is a circuit that adjusts the output of the sensor unit 18a prior to the input to the AD converter 27b.
  • the AD converter 27b is a circuit that converts the output of the sensor unit 18a from an analog signal to a digital signal.
  • the FPGA 27c includes a non-linearity correction circuit 27d, sensor output calculation circuits 27e and 27f, and a transfer information extraction circuit 27g.
  • the nonlinearity correction circuit 27d is a circuit that numerically corrects the nonlinearity of the dark current of the sensor unit 18a.
  • the sensor output calculation circuits 27e and 27f are circuits for calculating the total luminance (total output at the same time) of each pixel of the sensor unit 18a, the output ratio of each pixel (output ratio of each pixel at the same time), and the like. .
  • the transfer information extraction circuit 27g measures the measurement information of the designated area based on the coordinate information of the designated area input from the host CPU 22 accordingly. Is a circuit for extracting.
  • the designated area is an area designated including the measurement object for which measurement information is desired to be obtained directly, and includes the manufacturing information (design information, etc.) of the sample S and image information (thumbnail image) obtained in advance by the optical microscope 15 or the like. It is specified with a margin for the measurement object on the sample information. In the case of the present embodiment, when one or a plurality of bumps of a wafer with bumps is used as a measurement object, the designated area including the bumps becomes the designated area.
  • the transfer information extraction circuit 27g includes a sample deviation correction circuit 27i, a focus deviation correction circuit 27j, a sensor position deviation correction circuit 27k, and a designation information extraction circuit 27m.
  • the sample deviation correction circuit 27i is a circuit that corrects coordinate information associated with the measurement information of the sensor unit 18a based on the rotational position deviation amount and the center position deviation amount of the sample S calculated by the alignment circuit 23. is there.
  • the defocus correction circuit 27j is a circuit that corrects the coordinate information associated with the measurement information of the sensor unit 18a based on the deviation amount of the imaging position of the inspection light calculated by the coordinate calibration circuit 25.
  • the sensor position deviation correction circuit 27k based on the amount of position deviation between the sensor units 18a calculated by the coordinate calibration circuit 25, corrects the deviation of the coordinate information associated with the measurement information of each sensor unit 18a due to the positional relationship between the sensors. It is a circuit to correct.
  • the sensor position deviation correction circuit 27k corrects the coordinate information associated with the measurement information of the sensor unit 18a based on the positional relationship between the camera 17 or the optical microscope 15 calculated by the coordinate calibration circuit 25 and the sensor unit 18a. The process to perform is also executed.
  • the designated information extraction circuit 27m is a circuit that extracts the measurement information of the designated area from the measurement information obtained by scanning in the polar coordinate system based on the coordinate information of the designated area input from the host CPU 22.
  • the designated region is a region designated in advance based on the manufacturing information (including design information) of the sample S, or a region designated later on the operation terminal 40 or the like in the manufacturing information or the image information by the camera 17 or the optical microscope 15. It is.
  • the designated area is, for example, a rectangular area, and can be specified by information of the origin of the XY coordinate system in the sample S and two points (Xs, Ys) and (Xe, Ye) that form a diagonal of the rectangle.
  • the entire surface of the circular sample S can be set as the designated region (in other words, the region is not partially designated). It is also conceivable that the inspection area can be designated as a circle in the polar coordinate system instead of a rectangle. The principle of extracting measurement information of the designated area by the designated information extracting circuit 27m will be described later.
  • the transfer circuit 28 is a circuit that serially transmits the measurement information extracted by the designated information extraction circuit 27m to the processing device 30.
  • the processing device 30 has a different configuration from the control device 20, the measurement information is transmitted to the processing device 30 via a network (such as a LAN).
  • FIG. 18 is a functional block diagram of the processing apparatus.
  • the processing device 30 includes a memory 31 (FIG. 1), a designation information combination circuit 32a, and a duplication processing circuit 32b.
  • the processing device 30 also includes a coordinate conversion circuit 33a, a measurement object determination circuit 33b, an effective measurement information extraction circuit 34, an output correction circuit 35a, a measurement circuit 35b, a sensor positional deviation correction circuit 35c, a feature analysis circuit 36, and an output circuit 37. I have.
  • the memory 31 is a storage device that stores the processing program of the processing device 30, necessary constants, various correction values necessary for information processing, various information input from the control device 20, and the like.
  • a lookup table necessary for measuring the surface shape of the sample S is stored in the memory 31.
  • a lookup table may be stored in the memory 21.
  • the look-up table predefines the relationship between the output ratio of each pixel of the sensor unit 18a and the height and inclination of the reflection surface of the inspection light on the surface of the sample S.
  • the measurement information obtained by scanning the first calibration chip 11B (FIGS. 14A and 14B) with the sensor unit 18a, and the second calibration chip 11C (FIGS.
  • the designated information combining circuit 32a is a circuit that combines the measurement information of the designated area extracted by the designated information extraction circuit 27m to set the measurement information of one designated area.
  • the duplication processing circuit 32b is a circuit that adjusts duplicate data when there is an overlap in the scanning range of the sensor unit 18a of the adjacent sensor unit 18a. As an adjustment method, only the data of any one of the sensor units 18a among the duplicate data is adopted, the large value of the total luminance is selected (or the small value is selected) for the data of the same coordinate, or the average is calculated between the values of the same coordinate. Various methods such as taking are considered.
  • the coordinate conversion circuit 33a converts the coordinate information associated with the measurement information of each sensor unit 18a from the polar coordinate system (R, ⁇ ) at the time of scanning to the orthogonal coordinate system (X, Y) on the sample S. It is.
  • the measurement object determination circuit 33b is a circuit that specifies measurement information of the measurement object included in the designated area.
  • the measurement information of the measurement object can be identified by matching the coordinate information (X, Y) after coordinate conversion associated with the measurement information with the known coordinate information (X, Y) of the measurement object in the sample S. .
  • manufacturing information including design information of the sample S can be used. For example, when the sample S is loaded, the camera 17 or the optical microscope 15 is used. It can also be grasped from the photographed image of the sample S.
  • the effective measurement information extraction circuit 34 is a circuit that determines the validity of the measurement information of the specified measurement object and extracts only valid data. For example, a threshold value is set for the total luminance of each pixel of the sensor unit 18a and recorded in the memories 21 and 31, and only the measurement information of each point whose total luminance is equal to or greater than the threshold value is extracted as valid data. Data whose total pixel luminance is less than the threshold value is estimated to be ineffective data affected by vignetting of the sensor 18c and is discarded.
  • the output correction circuit 35a is a circuit that corrects variations in the output level between pixels of the sensor unit 18a using the output correction value calculated by the sensor output calibration circuit 24.
  • the measurement circuit 35b calculates at least one of height information and inclination information of the surface of the three-dimensional sample S from the measurement information input from the sensor unit 18a. Circuit.
  • the sensor position deviation correction circuit 35c detects an error in measurement information (height information) caused by the variation in the height direction of the installation height between the sensor units 18a. It is a circuit to correct.
  • the feature analysis circuit 36 is a circuit that collates and classifies the shape of the protrusion detected based on the measurement information obtained by the measurement circuit 35b in accordance with the operation requested by the operator.
  • the output circuit 37 is a circuit that creates and outputs a measurement result file in a designated format of measurement information of the measurement object of the sample S obtained through the processing of each circuit described above.
  • the measurement result file is recorded in the memories 21 and 31, is read by the host CPU 22 according to the operation, and is output to the monitor of the operation terminal 40 or other output device (printer or the like).
  • the measurement result file can be output as, for example, height and inclination map data, and the data of the entire surface of the sample S can be acquired, or can be acquired limited to the data of the designated region.
  • the measurement result file may include various correction values and individual outputs of each pixel.
  • the first calibration chip 11B is scanned by each sensor unit 18a. It is assumed that the illuminance of the inspection light is constant. At that time, first, the inspection light is irradiated onto the central horizontal surface 11b13 of the first calibration chip 11B, and the stage 11 is moved in the Z-axis direction to form an image on the horizontal surface 11b13. Thereafter, for example, the stage 11 is reciprocated in the XY coordinate system to scan the first calibration chip 11B, and the measurement results of each pixel are collected simultaneously.
  • the sensor output calibration circuit 24 corrects this variation if there is a variation exceeding the threshold value (set value) in the pixel output for the same surface, and sets a correction coefficient so that the pixel output deviation is less than or equal to the threshold value for each slope. Calculate and record in the memories 21 and 31. The above process is similarly executed for each sensor unit 18a.
  • the correction coefficient only needs to be obtained prior to the measurement operation (sample inspection) by the sensor unit 18a, and the correction coefficient calculated once can be shared in subsequent measurements. However, since the state of the optical system can change as the usage time of the appearance inspection apparatus elapses, it is desirable to calculate the correction coefficient every certain period or every certain number of measurements. When measurement accuracy is given the highest priority, the correction coefficient can be obtained before each measurement. Further, in the above calculation of the correction coefficient of the sensor output, the case where the first calibration chip 11B is scanned in the XY coordinate system is exemplified. However, the correction coefficient is obtained based on the measurement information scanned in the R ⁇ polar coordinate system. it can. Although it is preferable to use the first calibration chip 11B for pixel output calibration, it is also conceivable to use the calibration chip 11A or the second calibration chip 11C exemplified above.
  • the optical axis of the sensor unit 18a is deviated from the design.
  • a Z coordinate where the shape of the reflected light spot is estimated to be circular is searched for, and this Z coordinate is set as the imaging position.
  • the distance between the center of gravity of the circular spot and the center of the sensor 18c can be calculated as a correction value for correcting an output error caused by the deviation of the optical axis and reflected in the measurement information.
  • the coordinate calibration circuit 25 has a function of calculating the positional relationship between the three-dimensional measuring device 18 and the optical microscope 15 (or the camera 17).
  • the coordinate calibration circuit 25 collates the image obtained by the optical microscope 15 (or the camera 17) with the image obtained by the sensor unit 18a. Coordinates for correcting the positional error of the calibration information on the image and correcting the coordinate error of the measurement information caused by the manufacturing error of the three-dimensional measuring device 18, the camera 17, or the optical microscope 15. Calculated as a correction value.
  • This correction value only needs to be obtained prior to the measurement operation (sample inspection) by the sensor unit 18a, and the correction coefficient calculated once can be shared by subsequent measurements. However, since the state of the optical system can change as the usage time of the appearance inspection apparatus elapses, it is desirable to calculate the correction coefficient every certain period or every certain number of measurements. When measurement accuracy is given the highest priority, the correction coefficient can be obtained before each measurement. Further, at least one of the calibration chip 11A, the first calibration chip 11B, and the second calibration chip 11C can be used as the calibration chip that is scanned in calculating the coordinate correction value.
  • the coordinate correction value can be obtained based on the measurement information scanned in the R ⁇ polar coordinate system.
  • the image acquisition of the calibration chip by the optical microscope 15 (or the camera 17) can be combined with the image acquisition at the time of sample alignment.
  • the image acquisition operation of the calibration chip by the sensor unit 18a can be combined with the image acquisition operation during other calibration operations.
  • This correction value only needs to be obtained prior to the measurement operation (sample inspection) by the sensor unit 18a, and the correction coefficient calculated once can be shared by subsequent measurements. However, since the state of the optical system can change as the usage time of the appearance inspection apparatus elapses, it is desirable to calculate the correction coefficient every certain period or every certain number of measurements. When measurement accuracy is given the highest priority, the correction coefficient can be obtained before each measurement. Further, at least one of the first calibration chip 11B and the second calibration chip 11C can be used as a calibration chip to be scanned in calculating the coordinate correction values ( ⁇ X1, ⁇ Y1, ⁇ Z1).
  • the coordinate correction value can be obtained based on the measurement information scanned in the R ⁇ polar coordinate system.
  • the image acquisition operation of the calibration chip by the sensor unit 18a can be combined with the image acquisition operation during other calibration operations.
  • the coordinate calibration circuit 25 has a function of calculating a three-dimensional deviation amount of the imaging position of the inspection light of two different optical systems in the same sensor unit 18a.
  • this function is executed, for example, the same calibration chip is simultaneously scanned with two types of optical systems of the same sensor unit 18a, and two height maps of the calibration chip obtained at the respective outputs are collated.
  • the shift amount of the imaging position of each optical system is calculated as a coordinate correction value for correcting the coordinate error of measurement information caused by this.
  • This correction value only needs to be obtained prior to the measurement operation (sample inspection) by the sensor unit 18a, and the correction coefficient calculated once can be shared by subsequent measurements. However, since the state of the optical system can change as the usage time of the appearance inspection apparatus elapses, it is desirable to calculate the correction coefficient every certain period or every certain number of measurements. When measurement accuracy is given the highest priority, the correction coefficient can be obtained before each measurement. Further, at least one of the calibration chip 11A, the first calibration chip 11B, and the second calibration chip 11C can be used as the calibration chip that is scanned in calculating the coordinate correction value.
  • the coordinate correction value can be obtained based on the measurement information scanned in the R ⁇ polar coordinate system.
  • the image acquisition operation of the calibration chip by the sensor unit 18a can be combined with the image acquisition operation during other calibration operations.
  • -Sample alignment- 19A and 19B are explanatory diagrams of the concept of sample alignment.
  • chips are formed in a matrix in the X-axis direction and the Y-axis direction.
  • the alignment circuit 23 calculates the inclination ( ⁇ coordinate) between the X axis of the XY coordinate system of the sample S (the short side of the chip extending to the left and right in FIG. 19A) and the R axis on this image as the rotational position deviation amount of the sample S.
  • the stage 11 may be rotated so that the X axis of the XY coordinate system of the sample S is parallel to the R axis (the rotational position deviation may be zero).
  • a corresponding pattern Tp is designated in each of the three chips T1-T3, the stage 11 is rotated by ⁇ 1, and an image of the sample S is acquired by the camera 17 or the optical microscope 15. Thereafter, the stage 11 is rotated by ⁇ 2 ( ⁇ ⁇ 1), and an image of the sample S is acquired in the same manner. At that time, the stage rotation direction when moving to ⁇ 1 and the stage rotation direction when moving to ⁇ 2 are made the same, and reciprocation is avoided, and an improvement in accuracy is expected.
  • the alignment circuit 23 specifies the rotation center (R, Y, ⁇ ) of the sample S based on the triangulation principle from the positional relationship of each of the three patterns Tp on the images of ⁇ 1 and ⁇ 2, and the rotation center of the sample S and the sample
  • the positional relationship (R, ⁇ ) with the center of S is calculated as the center position deviation amount.
  • feature points such as corners of the notch can be used instead of the pattern Tp.
  • the identification processing of the rotational position deviation and the center position deviation of the sample S described above is executed by the alignment circuit 23 every time the sample S is loaded on the appearance inspection device by the transport device 14.
  • FIG. 20A is a diagram illustrating an example of a designated area and a measurement object in the sample
  • FIG. 20B is an explanatory diagram of a concept of extraction of the designated area and the measurement object.
  • the chip T shown in these drawings is one of chips formed on the sample S.
  • the inspection area is designated by the operation terminal 40 or the like as described above. Assume that the area is designated as designated areas M1-M3 in a certain chip T as shown in the left diagram (a) of FIG. 20A and FIG. 20B.
  • the designated area M3 When the designated area M3 is enlarged as a representative, the designated area M3 includes a plurality of bumps N1 as shown in the central view (b) of FIG. 20A.
  • the designated area M3 is a rectangular area defined by two points (Xs, Ys) and points (Xe, Ye) that form a diagonal in the XY coordinate system of the sample S.
  • 20A illustrates the case where at least one (6 in the example) reference measurement point N2 is designated by the operation terminal 40 or the like around the arrangement of the bumps N1.
  • the bump N1 is an object to be measured, and a plurality of measurement points N3 are measured for each bump N1 as shown in the enlarged right view (c) of FIG. 20A.
  • the measurement points N3 are, for example, points arranged in a grid pattern. Based on the measurement information of a plurality of measurement points N3 surrounded by the outline of each bump N1 in plan view, the height and shape of each bump N1 are accurately calculated by multipoint fitting in the measurement circuit 35b. By outputting and confirming this measurement result, it can be inspected whether each bump N1 is formed as intended.
  • the coordinates of the contour of each bump N1 are specified by the manufacturing information of the sample S, the image of the optical microscope 15 or the camera 17, and the like.
  • the projection amount of the bump N1 from the measurement point is accurately calculated in the measurement circuit 35b by subtracting the height of the nearest measurement point N2 measured from the height of the bump N1 measured by the sensor unit 18a. it can.
  • the control device 20 When such a partial measurement of the sample S is performed, not all the measurement information is output from the control device 20 to the processing device 30, but only the information on the designated area extracted by the designated information extraction circuit 27m is processed. 30 is output.
  • the designated information extraction circuit 27m As a specific example of processing of the designated information extraction circuit 27m at that time, first, the coordinates of the designated area are converted into the polar coordinate system (R, ⁇ ), and measurement information corresponding to the coordinates in the designated area is extracted in the polar coordinate system.
  • a data group of measurement information in the same designated area is a collection of information on an arc for each R coordinate (scanning number of rotations).
  • the measurement information corresponding to the designation area is identified based on the coordinate information, the start code ds and the end code de are given as identification information, and a data string for each R coordinate is extracted, and only these data strings are extracted.
  • the data is output to the processing device 30.
  • (R, ⁇ ) coordinate information is added only to the start code ds, and for the subsequent data d1,...,
  • the R coordinate data is shared with the start code ds and only the ⁇ coordinate is used. If the data structure is provided, the amount of data transmitted to the processing device 30 can be suppressed.
  • the present embodiment by evaluating the output information of each pixel of the sensor unit 18a, not only the height information of the surface of the sample S but also the tilt direction or tilt angle can be measured. Not only can the height information of the sample surface be obtained, but also the tilt information can be obtained, so that the three-dimensional shape of the sample surface can be accurately measured.
  • the polar coordinates of R ⁇ can measure the three-dimensional shape of the surface of the sample S with high accuracy and high speed. Moreover, at any one measurement point on the sample S, any or all of the information on the height, the inclination direction, and the inclination angle can be obtained at the same time only by the output of the sensor unit 18a, and various measurement transfer information can be obtained. Regardless, the device configuration is simple. This is also an advantage.
  • the first calibration chip 11B it becomes a reference for the relationship between the gravity center G of the reflected light spot estimated from the output information of each pixel of the sensor 18c and the inclination direction and inclination angle of the sample surface. Correlation can be accurately obtained.
  • the second calibration chip 11C the correlation that is a reference for the relationship between the ellipticity of the reflected light spot shape estimated from the output information of each pixel of the sensor 18c and the height of the sample surface is accurately determined. Can be requested. The same applies to the case where one calibration chip 11A is used.
  • a lookup table is created in advance based on the evaluation.
  • Such a high-precision look-up table is read from, for example, the memory 31, and the measurement circuit 35b calculates the height and inclination of the three-dimensional shape of the sample surface.
  • Such a high-precision look-up table can greatly contribute to the measurement accuracy of the surface shape of the sample.
  • the stage S is scanned in the R direction by the radial interval of the layout of the sensor unit 18a, so that the sample S can be widened. Can be scanned.
  • coordinate information including the positions of sensors is highly managed, high-precision measurement with little variation in measurement accuracy due to individual differences of sensors even if the measurement range is shared by a plurality of sensor units 18a. Information can be obtained.
  • the designated information extraction circuit 27m it is possible to measure only a part of the designated area designated from the entire sample S by the designated information extraction circuit 27m. Therefore, when performing the sample inspection, the amount of calculation related to the data processing of the control device 20 and the processing device 30 can be greatly reduced. This also contributes to the improvement of the inspection speed, and has the merit of suppressing the calculation capability required for the control device 20 and the processing device 30.
  • the designated area since the advanced coordinate management is performed as described above, when measuring only the designated area, the designated area can be set with the thumbnail image of the sample S and the inspection can be executed, and good operability is ensured. be able to.
  • the designated information extracting circuit 27m In order to obtain the effect (6), only the measurement information of the designated area in the sample S can be processed by the designated information extracting circuit 27m. However, in order to obtain the essential effect (1), the designated information extracting circuit 27m Not necessarily required. For example, if the control device 20 or the processing device 30 has sufficient computing power and no special time is required for all measurement information, the specified information extraction circuit 27m can be omitted.
  • the configuration including a plurality of sensor units 18a has been described as an example.
  • the plurality of sensor units 18a are not necessarily required.
  • the entire surface of the sample S may be scanned by one sensor unit 18a.
  • the sensor output calibration circuit 24 corrects the error in the output level between the pixels of each sensor unit 18a.
  • the sensor output calibration circuit 24 is not necessarily required to obtain the effect (1). is not.
  • the sensor output calibration circuit 24 can be omitted when the sensor output configuration is low, such as when the sensor 18c whose pixel output level is adjusted is selected and used in the manufacturing stage of the appearance inspection apparatus.
  • the output calibration by the sensor output calibration circuit 24 it is conceivable to suppress variations in output level by physical adjustment of the circuit of each pixel.
  • the first calibration chip 11B and the second calibration chip 11C are provided in order to obtain the effect (3), this point is not necessarily essential for obtaining the effect (1).
  • a similar effect can be obtained by placing a sample for a configuration on which a calibration chip is formed on the stage 11 and measuring the calibration chip. It is not always necessary to prepare a plurality of types and shapes of calibration chips, and the shape can be changed as appropriate according to the relationship data to be obtained.
  • the configuration in which various coordinate correction values are calculated by the coordinate calibration circuit 25 and the alignment circuit 23 in relation to the effect (2) has been described as an example, but this point is also indispensable for obtaining the effect (1). is not.
  • the positioning accuracy of the sample S at the time of loading is significantly improved by improving the accuracy of the transport device 14, the necessity for sample alignment is reduced, and the alignment circuit 23 may be omitted.
  • the coordinate calibration circuit 25 may be omitted if the manufacturing accuracy of the appearance inspection device and sensors is remarkably improved and the manufacturing error is reduced to a level that can be ignored. If the manufacturing error is accurately measured at the manufacturing stage of the appearance inspection apparatus and sensors, the coordinate calibration circuit 25 can be omitted by using the data.
  • Designated information combination circuit 33a ... Coordinate conversion circuit, 35a ... Output correction circuit, 35b ... Measurement circuit, 37 ... Output circuit, G ... center of gravity of reflected light spot, N1 ... bump, M1-M3 ... designated area, S ... sample

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Abstract

検査光を出射する光源と、試料を保持するステージと、前記試料を前記検査光が走査するように前記ステージを駆動するステージ制御装置と、複数の画素を有し前記試料からの反射光を受光するセンサと、前記センサからの出力情報、及び入射する反射光が反射した反射面の傾斜角度又は傾斜方向の相関関係である第1基準データを予め登録したメモリと、前記第1基準データに基づき、前記センサの出力情報から前記試料の表面の傾斜角度又は傾斜方向を演算し出力する処理装置を備える。

Description

外観検査装置
 本発明は試料表面の三次元形状を測定する外観検査装置に関する。
 共焦点光学系を用いた試料表面上のバンプ高さを測定する検査装置がある(特許文献1)。バンプ頂部に予め焦点を合わせ、頂部で反射光輝度が最大となる性質を利用し、輝度の変化量から高さを測定することができると開示されている。本方式では、頂部に焦点を合わせた場合と試料表面に焦点を合わせた場合に得られる少なくとも2種類の反射光輝度情報を用いて試料表面の高さのみを算出する。
特開2017-9514号公報
 需要が膨大な半導体集積回路の分野では、製造工程における試料検査の速度向上が重要な課題である。回路の微細化の進行に伴って検査精度についても絶えず改善が要求され、また要求される検査項目の多様化も見込まれる。
 本発明は、試料の表面形状について、高さだけでなく傾斜角度や傾斜方向といった多様な三次元形状情報を精度良く高速に測定することができる外観検査装置を提供することを目的とする。
 上記目的を達成するために、本発明は、検査光を出射する光源と、試料を保持するステージと、前記試料を前記検査光が走査するように前記ステージを駆動するステージ制御装置と、複数の画素を有し前記試料からの反射光を受光するセンサと、前記センサからの出力情報、及び入射する反射光が反射した反射面の傾斜角度又は傾斜方向の相関関係である第1基準データを予め登録したメモリと、前記第1基準データに基づき、前記センサの出力情報から前記試料の表面の傾斜角度及び傾斜方向の少なくとも一方を演算し出力する処理装置を備える。
 本発明によれば、試料表面の三次元形状を精度良く高速に測定することができる。
本発明の一実施形態に係る外観検査装置の全体構成を表す模式図 図1の外観検査装置に備えられたアライメント装置と三次元測定装置との位置関係を表した模式図 設計位置に対するセンサユニットの位置ずれの様子を表した図 図3のセンサユニットに備えられたセンサユニットのシリンドリカルレンズを通過した反射光の断面形状の変化を表す図 反射光の入射方向から見たセンサユニットのセンサの模式図 三次元形状の反射面の平面図 図6AのVIb-VIb線による断面図 図6Aの反射面のサンプリング点Aにおける反射光を受光したセンサの反射光スポットを表す模式図 図6Aの反射面のサンプリング点Bにおける反射光を受光したセンサの反射光スポットを表す模式図 図6Aの反射面のサンプリング点Cにおける反射光を受光したセンサの反射光スポットを表す模式図 三次元形状の反射面の平面図 図7AのVIIb-VIIb線による断面図 図7Aの反射面のサンプリング点Aで結像する検査光がサンプリング点Aで反射した場合のセンサ上の反射光スポットを表す図 図7Aの反射面のサンプリング点Aで結像する検査光がサンプリング点Bで反射した場合のセンサ上の反射光スポットを表す図 図7Aの反射面のサンプリング点Aで結像する検査光がサンプリング点Cで反射した場合のセンサ上の反射光スポットを表す図 図7Bの反射面のサンプリング点A-Cで検査光が反射する様子を表した図 図7Bの反射面のサンプリング点Aで結像する検査光でサンプリング点A-Cを走査した場合のセンサ18c上の反射光スポットの変化を表す図 センサユニットの出力に基づいて各サンプリング点における試料表面の三次元形状の形状情報を求める工程を示すフローチャート センサに入射する反射光スポットの重心と楕円率の演算方法の説明図 試料表面の計測対象の表面形状モデルの図 傾斜情報のみから試料の表面形状を推定する概念図 試料表面のサンプリング点で検査光が反射する様子を表した図 傾斜方向情報から試料の表面形状を推定する概念図 較正チップの一例の側面形状を表す模式図 図13Aのサンプリング点Aで検査光が結像した場合のセンサにおける反射光スポットの模式図 図13Aのサンプリング点Bで検査光が結像した場合のセンサにおける反射光スポットの模式図 図13Aのサンプリング点Cで検査光が結像した場合のセンサにおける反射光スポットの模式図 図1の外観検査装置に備えられた第1較正チップの平面図 図1の外観検査装置に備えられた第1較正チップの側面図 図1の外観検査装置に備えられた第2較正チップの平面図 図1の外観検査装置に備えられた第2較正チップの側面図 図1の外観検査装置に備えられた測定情報収集回路と関係回路の接続関係を表した図 図1の外観検査装置に備えられた測定情報収集回路及び転送回路の機能ブロック図 図1の外観検査装置に備えられた処理装置の機能ブロック図 試料アライメントの概念の説明図 試料アライメントの概念の説明図 試料における指定領域及び測定対象物の一例を表した図 試料における指定領域及び測定対象物の抽出の概念の説明図
 以下に図面を用いて本発明の実施形態を説明する。
 -外観検査装置(概略)-
 図1は本発明の一実施形態に係る外観検査装置の全体構成を表す模式図、図2は検査機におけるアライメント装置と三次元測定装置との位置関係を表した模式図である。本実施形態に係る外観検査装置は、例えば半導体ウェハやMEMS、フラットディスプレイ用のガラス基板、プリント基板等の平板状の試料を検査対象とし、これら試料の製造工程の各段階における試料表面の三次元形状の測定に適用可能である。半導体ウェハを試料とする場合、パターン、バンプ、異物、ウェハ表面のうねり等の検査に用いることができる。以下の例では、表面にバンプが形成されたウェハを試料Sとしてバンプの形状を測定する場合を適宜例に挙げて説明する。図示した外観検査装置は、検査機10、制御装置20及び処理装置30を備えている。
 -検査機-
 検査機10は、ステージ11、ステージ駆動装置12、ステージ制御装置13、搬送装置14、光学顕微鏡15、アライメント装置16、カメラ17、三次元測定装置18等を備えている。
 ・ステージ
 ステージ11は試料Sを載せて保持する検査台であり、ステージ駆動装置12上に設けられている。ステージ駆動装置12は、R駆動装置12r、Y駆動装置12y、Z駆動装置12z、θ駆動装置12tを備えている。R駆動装置12rは、水平方向に直線的に延びるR軸に沿ってステージ11を移動させる駆動装置である。Y駆動装置12yは、R軸に直交して水平方向に直線的に延びるY軸に沿ってステージ11を移動させる駆動装置である。Z駆動装置12zは、鉛直方向に直線的に延びるZ軸に沿ってステージ11を移動させる駆動装置である。θ駆動装置12tは、鉛直な回転軸を中心にしてθ方向にステージ11を回転させる駆動装置である。これら駆動装置によりステージ11が4軸方向に動作し、光学顕微鏡15やカメラ17、三次元測定装置18に対するステージ11の位置が調整可能である。本実施形態では、回転ステージを想定して記載しているが、XYステージによる走査であっても同様の方法用いることができる。
 R駆動装置12r、Y駆動装置12y、Z駆動装置12z及びθ駆動装置12tはそれぞれスピンドル駆動制御エンコーダを備えている。これらR駆動装置12r、Y駆動装置12y、Z駆動装置12z及びθ駆動装置12tは、制御装置20からの指令信号に応じてステージ制御装置13から出力される指令値によりそれぞれ駆動される。ステージ制御装置13は、制御装置20からの指令に従い、R駆動装置12r及びθ駆動装置12tに指令して極座標系で螺旋状に試料Sを検査光で走査することができる。Z駆動装置12zについては、AF制御装置19から出力される指令値により試料Sの基準面に合焦するようにAF制御することもできる。また、R駆動装置12r、Y駆動装置12y、Z駆動装置12z及びθ駆動装置12tには、それぞれ座標検出エンコーダが備わっており、ステージ11のR座標、Y座標、Z座標、θ座標の値が制御装置20(例えば座標検出回路26)に随時に出力される。
 ・搬送装置
 搬送装置14は、外観検査装置に備えられたカセット(不図示)に収納された試料Sをステージ11に載せたり、ステージ11上の試料Sをカセットに戻したりする装置であり、制御装置20からの指令信号により駆動されて試料Sを搬送する。搬送装置14は、図2に示すロード位置P1(R1,Y1)において試料Sをステージ11に置いたりステージ11から取り上げたりする。
 ・光学顕微鏡
 光学顕微鏡15は、試料Sの拡大観察画像を取得する装置であり、制御装置20からの指令信号に従って、R駆動装置12r、Y駆動装置12y、Z駆動装置12z及びθ駆動装置12tと適宜協働して試料Sを走査し、例えば明視野画像を取得する。光学顕微鏡15で得られた画像データは制御装置20(例えばホストCPU22)に出力される。図2に示したように、本実施形態においては、三次元測定装置18による走査開始位置P2(R2,Y1)とロード位置P1の間に光学顕微鏡15が位置している。ロード位置P1から走査開始位置P2までR軸に沿ってステージ11が移動する動線上で光学顕微鏡15による画像が取得できるように配慮したレイアウトである。
 ・アライメント装置
 アライメント装置16は、ステージ11に載置された試料Sの外縁部をセンシングする偏芯検出センサ16aを備えている。ステージ11を回転させながら偏芯検出センサ16aで試料Sの外縁部を検出することにより、試料Sの中心及びノッチ(不図示)の位置のプリアライメントが行われる。アライメント装置16は制御装置20からの指令により駆動され、取得したデータを制御装置20(例えばホストCPU22)に出力する。
 ・カメラ
 カメラ17は試料Sやステージ11の撮影画像を取得する例えばカラーCCDカメラであり、例えば光学顕微鏡15に設けられている。カメラ17は制御装置20からの指令により駆動され、取得したデータを制御装置20(例えばホストCPU22)に出力する。
 ・三次元測定装置
 本実施形態では、センサに入射する反射光スポットの形状情報やセンサ基準位置から反射光重心のベクトル情報が、試料表面の(局部的な)傾斜角度、傾斜方向又は高さといった三次元形状を示す情報と相関関係があることに着目した。この相関関係に基づき所定の演算処理を行うことで試料表面の三次元形状を物理量として測定することを可能にする。
 三次元測定装置18は、試料表面の高さ情報及び傾斜情報の少なくとも一方を含む三次元表面形状を測定する装置であり、本実施形態では、図2に示したように、アライメント装置16、光学顕微鏡15と共にR軸方向に並べて配置してある。光学顕微鏡15を用いてアライメントを行うようにしても良い。この三次元測定装置18には、少なくとも1つ(本実施形態では例示的に8つ)のセンサユニット18aが備わっている。センサユニット18aはR軸に沿って一定の間隔Wで並べて配置してあり、ステージ11の回転中心からの距離がそれぞれ異なる。図2において実線で示した試料S上に一部のチップのみ一点鎖線で示したように、チップ付きウェハの場合、ウェハ上のXY直交座標系でチップはX軸方向及びY軸方向に並べてマトリクス状に形成されている。同図ではR軸をX軸と平行にした状態を表してある。これらのチップの表面形状を測定するときは、例えば最も外周(図2では最も左)に配置されたセンサユニット18aの光源(不図示)からの検査光がチップの形成領域の外接円S1上に照射されるようにステージ11を移動させる。この位置を走査開始位置P2(R2,Y1)として、ステージ11をθ方向に回転させながらR軸方向(ここでは左方向)に移動させることで、センサユニット18aにより試料Sの表面を走査することができる。走査開始位置P2から走査終了位置P3(R3,Y1)までの距離をセンサユニット18aの間隔Wと同じかそれより僅かに大きくとることで、試料Sの形成領域の全面を各センサユニット18aで分担して走査することができる。図2に破線で表した外接円S1の各同心円間のドーナツ状の各領域が各センサユニット18aの走査領域である。
 本実施形態における各センサユニット18aは、試料表面の三次元形状情報を物理量として測定するために、異なる光路の反射光を受光する2種類の光学系を一対備えている。2種類の光学系は測定対象に応じ選択的に用いる。1つのセンサユニット18a内の2種類の光学系の間には、製作誤差等により互いの結像位置(焦点)にずれが生じる場合がある。本実施形態においては、このセンサ内の微視的な結像位置ずれが高精度に較正される(後述)。
 図3は設計位置に対するセンサユニットの位置ずれの様子を表した図である。同図において左側のセンサユニット18aは設計通り正確に制作及び組付けがされているものとする。それに対し、右側のセンサユニット18aは結像位置F1が、X軸方向(ΔX1)、Y軸方向(ΔY1)及びZ軸方向(ΔZ1)にずれている。このように検査装置には製造誤差が伴われ、本実施形態の外観検査装置においても各センサユニット18aに設計位置との誤差があり、センサユニット18a同士の位置関係に微視的なばらつきが生じる場合がある。本実施形態においては、この微視的なセンサ間の位置関係のばらつきを高精度に較正する(後述)。
 図4はシリンドリカルレンズを通過した反射光の断面形状の変化を表す図である。センサユニット18aの光学系は、検査光が結像位置F1で反射すればセンサ18c(図5等)に入射する反射光Lのスポット形状は円形となるように調整されている(スポットL1)。センサユニット18aには、試料Sで反射した反射光Lのセンサに向かう光路上にシリンドリカルレンズ18bが備えられている。シリンドリカルレンズ18bは半円筒状に形成されており、反射光Lの断面内のαβ直交座標系(図4)でα軸方向にのみレンズ効果を発揮する。そのため、検査光の反射位置(検査光光軸と試料Sの表面との交点)と結像位置F1とのZ軸方向のずれによって、センサに入射する反射光のスポット形状が横長の楕円になったり縦長の楕円になったりする(スポットL2,L3)。また、検査光の反射位置と結像位置F1とのZ軸方向のずれ量が大きいほど、反射光のスポット形状は短軸に対して長軸が長い楕円形状となる。つまりセンサ18cに入射する反射光のスポット形状の楕円率は、結像位置F1に対する反射位置のZ軸方向の距離に依存して変化する。なお、楕円率とは、円形の像におけるXY各軸の長軸と短軸から求められる比率、又は離心率、扁平率のような楕円の程度を示すパラメータをいう。
 図5は反射光の入射方向から見たセンサユニットのセンサの模式図である。センサ18cは複数の画素を備えている。本実施形態では、複数の画素を格子状に配置した例を示している。センサ18cにはCCDを用いることができるが、TDI、CMOSセンサ、フォトダイオードアレイ等を用いることもできる。センサユニット18aはセンサ18cの各画素の信号強度を出力する。但し、各画素の信号を処理してセンサ18c上の基準位置(後述)とセンサ18cで受光した反射光スポットの位置、又は反射光スポットの形状に関する情報を生成し、これを各画素の信号強度に変えて出力するようにしても良い。その場合のセンサ18cの出力情報としては、例えばセンサ18cの中心Oと反射光スポットの重心Gの位置情報、及び反射光スポットの楕円率の少なくとも一方が挙げられる。検査光が反射した反射面が水平である場合、その反射光はセンサ18cの基準位置に入射する。本実施形態においてはセンサ18cの中心Oを基準位置として説明するが、基準位置は中心Oでなくても良い。センサ18cの基準位置は、検査開始時に任意に設定可能である。そして、反射面が結像位置F1に一致していれば、センサ18cに入射する反射光のスポットは円形(スポットL1)になる。例えば結像位置F1よりも反射面が低い(センサユニット18aから遠い)場合、センサ18cに入射する反射光のスポットは横長の楕円形(スポットL2)になる。反対に結像位置F1よりも反射面が高い(センサユニット18aに近い)場合、センサ18cに入射する反射光のスポットは縦長の楕円形(スポットL3)になる。
 図6Aは三次元形状の反射面の平面図、図6Bは図6AのVIb-VIb線による断面図、図6Cは図6Aの反射面のサンプリング点Aにおける反射光を受光したセンサ18cの反射光スポットを表す模式図である。図6A及び図6Bに示した反射面のモデルは試料表面における斜面を含むバンプ等の突起物であるとする。また図6D及び図6Eはそれぞれサンプリング点B,Cにおける反射光をそれぞれ受光したセンサ18cの反射光スポットを表す模式図である。三次元形状の反射面の最上点であるサンプリング点Aで反射した反射光スポットの重心Gは、図6Cに示したようにセンサ18cの中心Oに入射する。反射位置がサンプリング点Aからそれぞれ傾斜方向の異なるサンプリング点B,Cに変化した場合、反射光スポットの重心Gは図6D及び図6Eに示すようにセンサ18cの中心Oからずれる。反射面が斜面を含む三次元形状である場合、反射面の傾斜方向に依存して、センサ18cの中心Oに対する反射光スポットの重心Gのベクトルが変化する。
 図7Aは図6Aと同様の三次元形状の反射面の平面図、図7Bは図7AのVIIb-VIIb線による断面図である。図7C-図7Eは図7Aの反射面のサンプリング点A(最上点)で結像する検査光がサンプリング点A-Cで反射した場合のセンサ18c上の各反射光スポットを表す図である。また、図8Aは図7Bの反射面のサンプリング点A-Cで検査光が反射する様子を表した図、図8Bは図7Bの反射面のサンプリング点Aで結像する検査光でサンプリング点A-Cを走査した場合のセンサ18c上の反射光スポットの変化を表す図である。センサ18cの中心Oから反射光スポットの重心Gまでの距離は反射面の傾斜角度に依存して変化する。図8Aに示すようにサンプリング点A-Cに鉛直に照射されたビーム(検査光L1-L3)は、サンプリング点A-Cにおける反射面の接平面に対し入射角θ1と対称な反射角θ2で反射する(反射光L1’-L3’)。この入射角θ1及び反射角θ2がセンサ18cの中心Oから反射光スポットの重心Gまでの距離B1’,B2’(図8B)に相関する。入射角θ1及び反射角θ2が大きいほど距離B1’,B2’が大きくなる。また、図7Bに示したように反射位置F4,F5が結像位置F3からずれたサンプリング点B,Cで反射した反射光スポットの楕円率は、結像位置F3に対する反射位置F4,F5のZ軸方向の距離に依存して変化する。
 上記のようにセンサ18cの中心Oから反射光スポットの重心Gまでのベクトル、反射光スポットの楕円率の少なくとも一方を基にして、後述するルックアップテーブルや演算式を用いて試料表面の三次元形状情報が算出できる。センサ18cの画素数及びサイズは、このように反射光スポットの重心Gと楕円率を算出するために必要十分な値に設定されている。後述する処理装置30が三次元形状情報を算出するための基礎情報となるセンサ18cからの出力情報は、各画素列の出力加算値(波形データ等を含む)でも良く、センサ出力の各画素を2値化した情報でも良い。以上の原理に基づき、試料上のバンプ形状等といった試料表面の傾斜角度、傾斜方向及び高さを含む三次元形状を求める方法の一例を次に説明する。
 図9はセンサユニット18aのセンサ18cの出力情報に基づいて各サンプリング点における試料表面の三次元形状情報を求める工程を示すフローチャートである。以下の説明では傾斜角度と傾斜方向を数値で求める例について説明するが、例えば傾斜角度は、大、中、小のように程度で表現するようにしても良い。このように数値ではなく、角度の程度等といった角度に関する情報や方向に関する情報を出力する例について説明する。
 まず、処理装置30(後述)は座標変換回路33a(図18)によってR-θ座標からX-Y座標に変換されたサンプリング点の座標情報と関連付けて、メモリ31(図1)に測定情報を記憶させる(ステップx1)。
 処理装置30は、各画素の出力情報に基づいてセンサ18cに入射する反射光スポットの重心Gと、反射光スポットの長軸と短軸の寸法を測定する(ステップx2,x3)。反射光スポットの重心Gは、例えば図10のようにセンサ18cに反射光スポットが投影されている場合、スポットの投影範囲の画素(反射光が入射した全ての画素)を特定し、投影範囲の中央の点を特定することで求められる。また、同図に示すようにX軸方向に並ぶ各画素列(Y軸方向に延びる画素列)における受光画素数と、Y軸方向に並ぶ各画素列(X軸方向に延びる画素列)における受光画素数とから求めた受光画素の分布を基に重心Gを求めても良い。センサ18cの出力に基づいて反射スポットの画像を生成し、画像処理に基づいて重心Gを演算するようにしても良い。画像処理を用いて重心Gを求める場合、例えばスポットの輪郭を抽出した上でその重心を演算する手法の他、距離画像を生成することによって重心Gを求める手法等、様々な重心算出法を用いることができる。スポットの長軸及び短軸も同様であり、画像処理によって寸法を求めるようにしても良いし、スポットが投影されている画素のX軸方向とY軸方向の分布を求めるようにしても良い。
 次に、処理装置30はステップx2で求められたスポット重心と、基準位置Q(反射面が水平で検査光に直交する場合のセンサ上の反射光スポットの重心位置)との間の距離と方向(ベクトル)を求める(ステップx4)。ベクトル情報の求め方も様々な手法を適用できる。例えば基準位置Qと反射光スポットの重心GのX座標のずれ(ΔX)とY座標のずれ(ΔY)を求め、例えばメモリ31に予め記憶された対角線を求める演算式等で基準位置Qと反射光スポットの重心Gの間の距離を求める。更にatan(ΔY/ΔX)を求めることによって、基準位置Qに対する反射光スポットの重心Gの方向(例えばX軸に対する相対角)を算出する。方向に関してはX軸以外の特定の基準線に対する相対角を出力するようにしても良いし、数値以外の情報を出力するようにしても良い。数値以外の情報としては、例えば基準位置Qを中心とする4象限のうちのどの象限に反射光スポットの重心Gが存在するかというような大まかな方向の情報が例示できる。
 また、処理装置30ではステップx3で求められたスポットのXY各軸方向の寸法、或いは受光画素数等の情報から、スポットの楕円率を求める(ステップx5)。
 以上のようにして求められた重心Gの位置情報や楕円率を、処理装置30は予めメモリ31等の記憶媒体に登録されているルックアップテーブルや演算式に入力する。これによって、試料表面について、ビーム照射点の傾斜角度に関する情報、傾斜方向に関する情報、及び高さに関する情報が導き出される(ステップx6)。ルックアップテーブルは反射光スポットの重心位置と反射面の傾斜角度及び傾斜方向との関係や、反射光スポットの楕円率と反射面の高さとの相関関係を示す情報であり、このルックアップテーブルを参照することによって、正確なビーム照射点の形状が求められる。
 次に、処理装置30は、以上のような情報をサンプリング点に関するXY座標情報に関連付けてメモリ31に記憶させる(ステップx7)。
 更に本実施形態では、処理装置30は、サンプリング点のXY座標、及びサンプリング点毎に登録された高さの情報(Z座標)を用いて、各サンプリング点の傾斜角度と傾斜方向の情報を三次元的に配列することによって三次元像を構築する(ステップx8)。この際、サンプリング点間を移動するように移動平均処理を行うことによって、傾斜方向や傾斜角度に関する情報についてノイズ成分を除去することもできる。サンプリング点の高さ情報だけを演算する場合と異なり、傾斜角度や傾斜方向も合わせて移動平均処理を行うことによって試料表面の形状をより高分解能に表現することができる。また、移動平均法を用いる代わりにバンプの表面形状モデルを作成しておき、このモデルを各サンプリング点の各情報とフィッティングさせることによってノイズ成分を除去することもできる。
 図11Aは試料表面上の計測対象(この例ではバンプ)の表面形状モデルの一例を示す図である。このようなバンプ表面の立体形状モデルを用意しておくことで、ノイズによらずバンプ表面を滑らかに表現することが可能となる。移動平均法を用いる場合、例えば走査方向(サンプリング順)にのみ移動平均処理を行うのではなく、走査軌跡と直交する方向にも移動平均処理を行うことが好ましい。サンプリング点の付近のXY両方向の複数点の情報を移動平均処理の基礎情報に含めれば、より滑らかな表面を再現できる。
 なお、本実施形態では傾斜角度、傾斜方向及び高さの3つの情報を出力する例について説明したが、これに限られることはなく、例えば傾斜角度のみ、傾斜方向のみ、或いは傾斜角度と傾斜方向の2つの情報を出力するようにしても良い。例えば傾斜方向のみの分布によっても、図11Bに例示するようにバンプが形成された個所(点線)にバンプが表現されるため、バンプの概形を把握できる。
 図11BはXY座標展開されたサンプリング点と、各サンプリング点の傾斜角度と傾斜方向をベクトル表示した例を示している。同図では傾斜角度が大きいサンプリング点ほど矢印が長い。矢印の方向は各サンプリング点の傾斜方向(下り方向)を示している。このように可視化することによって、点線の位置にバンプのような突起物が存在することを視認することができる。同図に示すように複数のサンプリング点におけるセンサ18cが出力したベクトル情報の分布を求めれば、主に方向成分から試料表面の三次元形状を推定できる(傾斜方向情報だけでも推定できる)。
 また、センサ18cの中心Oと反射光スポットの重心Gの位置情報を基に試料表面の各サンプリング点の傾斜角度のみを算出し、試料表面の三次元形状を推定することもできる(図12A、図12B)。この場合、例えば図12Aに示すように試料表面の斜面部分に所定間隔で存在するサンプリング点A-Dを、照明スポットL4のサイズと同等又はそれより小さいピッチで走査する。Saは各サンプリング点A-Dで試料に接する接平面であり、多数の接平面Saを得ることで試料の表面形状が折線近似によりに得られる。加えて、所定間隔の複数点(3点以上)を用いて処理装置30(後述)で近時曲線を演算することで、図12Bに示したように試料表面の曲面形状Sbを推定することもできる。
 なお、センサユニット18aの出力を基に試料表面の例えば明視野観察画像を取得することもできる。センサには複数の画素があるが、画素の総輝度を各座標点の反射光について記録することで二次元画像データが取得できる。
 以上の通り、センサ18cが出力する情報が、試料表面の三次元形状(傾斜角度、方向又は高さ)と相関関係があることを利用して、後述する演算処理を行うことで試料表面の三次元形状を物理量として測定することができる。こうした相関関係を用いたセンサ出力情報に基づく三次元形状の演算は、測定対象が例えば平面立体、球面、曲面その他の形状であってもでも同様に適用できるため、幅広い種類の三次元形状を精度高く物理量として測定できる。
 -較正チップ-
 上記ステージ11には、較正チップ11A-11C(図2)が設置されている。較正チップ11A-11Cは、本外観検査装置で検査可能なもののうち最大の試料Sをステージ11に設置した状態でも、試料Sより外周でかつ少なくとも1つのセンサユニット18aで走査可能な位置に設置されている。
 図13Aは較正チップの一例の側面形状を表す模式図、図13B-図13Dは図13Aの各サンプリング点A-Cで検査光が結像した場合のセンサ18cにおける反射光スポットの模式図である。図13Aに例示した較正チップ11Aは、傾斜角の異なる斜面を少なくとも3つ要する。後述する近似関数を導出するためである。図13Aに例示した較正チップ11Aでは、斜面11a1-11a3の傾斜角θは、例えば5度、10度、15度というように異なる角度であって既知の角度である。斜面11a1-11a3の傾斜方向にとった水平方向の距離L11aも既知の長さである。斜面11a1-11a3は平面に限らず曲面や球面でも良く、較正チップ11Aの断面形状は図13Aに示したようなノコギリ刀形状に限定されない。
 センサ18cに入射する反射光の反射面の傾斜角度とセンサ18c上の反射光スポットの重心Gの位置の相関関係の基準データを作成する場合、まず較正チップ11Aの各斜面11a1-11a3上に同じ高さ(結像位置F)のサンプリング点A-Cを設定する。そして、サンプリング点A-Cに検査光を照射し結像位置Fから得られる反射光をセンサユニット18aで受光する。検査光が水平面で結像した場合はセンサ18cの中心Oに円形スポットができるところ、検査光が斜面で結像した場合は斜面の傾斜角に応じてセンサ18c上で中心Oから反射光スポットの重心Gが移動する。従って検査光がサンプリング点A-Cで結像した場合、斜面11a1-11a3の傾斜角θに応じて図13B-図13Dのようにセンサ18c上で反射光スポットの重心Gが中心Oからずれる。この中心Oからの反射光スポットの重心Gのずれ量をルックアップテーブルや演算式を用いてプロットし、近似関数を導出する(前述した図9のステップx6)。この近似関数を座標情報に関連付けて処理装置30のメモリ31に登録する(同ステップx7)。
 以上により、反射光が反射した反射面の傾斜角度とセンサ18cに入射する反射光スポットの重心Gの相関関係の基準データを作成することができる。
 なお、図13Aは較正チップ11Aの二次元的な側面図を示しているが、較正チップ11Aは立体形状である。例えば図13Aに示した側面を奥行き方向に所定角度で所定距離だけ平行移動させた軌跡で得られる立体形状、或いは同図の側面をこの側面図の左右いずれかに存在する鉛直軸周りに所定角度だけ回転移動させた軌跡で得られる立体形状が例示できる。この較正チップ11Aを用いて先に説明した試料表面の形状測定手順(図9)を実行して既知の情報と関連付けることで、反射面の傾斜情報と反射光スポットの重心Gとの相関関係の基準データを作成することができる。
 また、検査光の光軸を例えばサンプリング点Aに一致させてXY座標を固定し、その状態でステージを設定範囲でZ軸方向に移動させ、較正チップ11Aの図13Aに示す各サンプリング点A-Cについて上記近似関数導出ステップを行う。これにより反射光の反射面の高さとセンサ18cに入射する反射光スポットの楕円率の相関関係の基準データを作成することができる。基準データは複数点について(例えばサンプリング点B,Cについても)収集したデータから作成しても良い。
 較正チップ11Aのように傾斜角の異なる3つ以上の斜面を備える較正チップが1つあれば、その較正チップの既知の形状情報(斜面の傾斜角、方向又は高さ)と較正チップについてのセンサ18cの出力情報とから得た基準データが得られる。この基準データを用いることで、センサ18c出力情報から試料表面の三次元形状が高精度に測定できる。
 図13A-図13Dで説明した基準データの作成方法の他に、複数の較正チップを用いた基準データの作成方法もある。図14Aは第1較正チップの平面図、図14Bは側面図である。第1較正チップ11Bは、傾斜方向と傾斜角度の異なる複数の斜面11b1-11b12を持つ既知の立体形状のチップである。この第1較正チップ11Bは、四角錐をベースにして頂部が水平面となるように三角形の4つの側面を曲面化した立体をポリゴン化したような形状をしている。斜面11b1-11b4は最も下側の斜面で最も勾配が大きい。斜面11b5-11b8は下から2番目の斜面で勾配も2番目に大きい。斜面11b9-11b12は下から3番目(最も上)の斜面で勾配は最も小さい。斜面11b9-11b12の上部つまり第1較正チップ11Bの頂部は水平面11b13で形成されている。水平面11b13に対して、斜面11b9,11b5,11b1は例えばY軸方向の(+)側にこの順で並んでいる。同様に、水平面11b13に対して、斜面11b10,11b6,11b2は例えばR軸方向(又はX軸方向)の(+)側にこの順で並んでいる。水平面11b13に対して、斜面11b11,11b7,11b3は例えばY軸方向の(-)側にこの順で並んでいる。水平面11b13に対して、斜面11b12,11b8,11b4は例えばR軸方向(又はX軸方向)の(-)側にこの順で並んでいる。斜面11b1-11b12及び水平面11b13は光源から出射される検査光のビームスポットL0(図14A)の直径よりも、平面視で幅が大きく設定されている。第1較正チップ11Bの斜面を3段とした場合を例示しているが、斜面は少なくとも3段あれば良く4段以上としても良い。この第1較正チップ11Bをセンサユニット18aで走査することで、検査光反射面の傾斜方向及び傾斜角度とセンサ18cに入射する反射光スポットの重心との関係の基準データを作成することができる。
 図15Aは第2較正チップの平面図、図15Bは側面図である。第2較正チップ11Cは、高さの異なる複数の水平面11c1-11c5を持つ既知の立体形状のチップである。この第2較正チップ11Cは、例えば水平面が相似形状で厚みが異なるプレートを大きな順に下から同心状に重ねてピラミッド型に形成したような形状をしている。簡易的にはプレートとしてシムテープを張り合わせることで第2較正チップ11Cを製作できる。シムテープは公差が極めて小さいので水平面11c1-11c5の高さを正確に出すことができる。水平面11c1-11c5の順で一定間隔ずつ高くなっていく。水平面11c1-11c5は光源から出射される検査光のビームスポットL0(図15A)の直径よりも幅が大きく設定されている。第2較正チップ11Cの水平面を5段とした場合を例示しているが、水平面は少なくとも3段あれば良く4段又は6段以上にしても良い。この第2較正チップ11Cをセンサユニット18aで走査することで、検査光反射面の高さとセンサ18cに入射する反射光スポットの楕円率との関係の基準データを作成することができる。
 較正チップの既知の形状情報を用いて三次元形状とセンサ出力情報の較正を行う点は較正チップ11Aを用いた場合と同様であるが、第1較正チップ11Bと第2較正チップ11Cのように目的の異なる2種類の較正チップを用いる場合には次のメリットがある。第1較正チップは反射面の角度情報に関するデータ取集に、第2較正チップは反射面の高さ情報に関するデータ取集にそれぞれ特化している。そのため作成が容易であり、またデータ収集の過程で高さや方向の調整のステップが不要であるため短時間で較正できる。
 -制御装置-
 図1に示したように、制御装置20は、メモリ21、ホストCPU22、アライメント回路23、センサ出力較正回路24、座標較正回路25、座標検出回路26、測定情報収集回路27、転送回路28等で構成されている。
 メモリ21は、検査機10の制御プログラム、検査機10の制御に必要な定数、情報処理に必要な各種補正値、検査機10の動作に伴って収集されるデータ等を記憶する記憶装置である。ホストCPU22は外観検査装置の装置全体を制御する回路であり、制御装置20の各回路、検査機10や処理装置30と通信し、制御装置20の各回路や検査機10に指令したり処理装置30との間で情報を授受したりする。
 アライメント回路23は、カメラ17又は光学顕微鏡15による試料Sの撮影画像を基に、ステージ11に保持された試料SのR軸に対するθ方向の回転位置ずれ量、及び試料Sの回転中心と試料Sの中心との中心位置ずれ量を特定する回路である。アライメント回路23で算出された回転位置ずれ量と中心位置ずれ量は、搬送装置14によるロード時の試料Sの位置のばらつきに起因する測定情報の座標情報の誤差を補正する座標補正値としてメモリ21,31に記憶される。アライメント回路23による座標補正値の算出原理については後述する。
 センサ出力較正回路24は、較正チップの走査情報を基にセンサ18cの画素の出力補正値を算出する回路である。センサ出力較正回路24の処理のために撮影する較正チップには、第1較正チップ11Bを好適に用いることができるが、3つ以上の異なる角度を有する1つの較正チップだけで、又は第2較正チップ11Cを用いることもできる。センサ出力較正回路24で演算された出力補正値は画素間の出力レベルのバラつきによる各センサユニット18aの出力の誤差を補正する補正値として、メモリ21,31に記憶される。センサ出力較正回路24による出力補正値の算出原理については後述する。
 座標較正回路25は、センサユニット18aで得られた較正チップの画像を基に、各センサユニット18aの位置を三次元的に測定する回路である。座標較正回路25では、測定した各センサユニット18aの位置を基に、製作誤差や組立誤差に起因して生じる各センサユニット18aに係る測定情報に関連付けられた座標情報の誤差を補正する座標補正値(図3のΔX1,ΔY1,ΔZ1)が算出される。また、座標較正回路25には、各センサユニット18a内の2種類の異なる光学系間の検査光の結像位置の三次元的なずれ量を算出する機能も備わっている。座標較正回路25では、センサユニット18a内の2種類の光学系の結像位置のずれ量が、これに起因して生じる測定情報の座標誤差を補正する座標補正値として算出される。更に座標較正回路25には、三次元測定装置18とカメラ17又は光学顕微鏡15とによる較正チップの撮影画像を基に、三次元測定装置18とカメラ17又は光学顕微鏡15との位置関係を算出する機能も備わっている。座標較正回路25では、算出した位置関係を基に、三次元測定装置18、カメラ17又は光学顕微鏡15の製作誤差等に起因する測定情報の誤差を補正する座標補正値が算出される。座標較正回路25による以上の各座標補正値の算出のために撮影する較正チップには、例示した較正チップ11A、第1較正チップ11B及び第2較正チップ11Cの少なくとも1つを用いることができる。座標較正回路25で演算された各座標補正値はメモリ21,31に記憶される。座標較正回路25による各座標補正値の算出原理については後述する。
 座標検出回路26は、センサユニット18aの出力に関連付ける同期情報として、ステージ駆動装置12から入力された座標情報を出力する回路である。座標情報を付加されて以降のセンサ出力が測定情報である。座標検出回路26は、R駆動装置12r、Y駆動装置12y、Z駆動装置12z及びθ駆動装置12tの各座標検出エンコーダから入力された各駆動軸の同一時刻の座標情報をセットとして、測定情報収集回路27に出力する。
 図16は測定情報収集回路と関係回路の接続関係を表した図、図17は測定情報収集回路の機能ブロック図である。測定情報収集回路27は、同図に示したように、信号調整回路27a、AD変換機27b及びFPGA27cを備えている。信号調整回路27aは、センサユニット18aの出力をAD変換機27bへの入力に先行して調整する回路である。AD変換機27bは、センサユニット18aの出力をアナログ信号からデジタル信号に変換する回路である。
 FPGA27cは、非直線性補正回路27d、センサ出力演算回路27e,27f、転送情報抽出回路27gを含んでいる。非直線性補正回路27dは、センサユニット18aの暗電流の非直線性を数値的に補正する回路である。センサ出力演算回路27e,27fは、センサユニット18aの各画素の総輝度(同一時刻の出力の総和)、各画素の出力の比率(同一時刻の各画素の出力比率)等を算出する回路である。
 転送情報抽出回路27gは、試料Sにおける検査領域が操作端末40(図1)により指定されている場合、それに応じてホストCPU22から入力される指定領域の座標情報を基に、指定領域の測定情報を抽出する回路である。指定領域は直接的に測定情報を得たい測定対象物を含んで指定した領域であり、試料Sの製造情報(設計情報等)や光学顕微鏡15等で事前に取得した画像情報(サムネイル画像)の試料情報上で測定対象物に対してマージンをとって指定されている。本実施形態の場合、バンプ付きウェハの1つ又は複数のバンプを測定対象物としたとき、このバンプを含んで指定した領域が指定領域となる。この転送情報抽出回路27gは、試料ずれ補正回路27i、焦点ずれ補正回路27j、センサ位置ずれ補正回路27k、指定情報抽出回路27mを備えている。
 試料ずれ補正回路27iは、アライメント回路23で演算された試料Sの回転位置ずれ量と中心位置ずれ量を基に、センサユニット18aの測定情報に同期して関連付けられた座標情報を補正する回路である。
 焦点ずれ補正回路27jは、座標較正回路25で演算された検査光の結像位置のずれ量を基に、センサユニット18aの測定情報に関連付けられた座標情報を補正する回路である。
 センサ位置ずれ補正回路27kは、座標較正回路25で演算されたセンサユニット18a間の位置ずれ量を基に、各センサユニット18aの測定情報に関連付けられた座標情報のセンサ間の位置関係によるずれを補正する回路である。このセンサ位置ずれ補正回路27kには、座標較正回路25で演算されたカメラ17又は光学顕微鏡15とセンサユニット18aとの位置関係を基に、センサユニット18aの測定情報に関連付けられた座標情報を補正する処理も実行する。
 指定情報抽出回路27mは、ホストCPU22から入力された指定領域の座標情報を基に、極座標系の走査により得られた測定情報から指定領域の測定情報を抽出する回路である。指定領域は、試料Sの製造情報(設計情報を含む)を基に予め指定された領域、又は製造情報、カメラ17若しくは光学顕微鏡15による画像情報において操作端末40等で事後的に指定された領域である。指定領域は例えば矩形の領域であり、試料SにおけるXY座標系の原点と、矩形の対角をなす2点(Xs,Ys)、(Xe,Ye)の情報で特定できる。なお、円形の試料Sの全面を指定領域とする(言い換えれば部分的に領域を指定しない)こともできる。また、検査領域を矩形ではなく極座標系で円形に指定できるようにすることも考えられる。指定情報抽出回路27mによる指定領域の測定情報の抽出原理については後述する。
 転送回路28は、指定情報抽出回路27mで抽出された測定情報を処理装置30にシリアル伝送する回路である。処理装置30が制御装置20と別構成である場合、ネットワーク(LAN等)を介して処理装置30に測定情報が伝送される。
 -処理装置-
 図18は処理装置の機能ブロック図である。同図に示したように、処理装置30は、メモリ31(図1)、指定情報結合回路32a、重複処理回路32bを含んでいる。処理装置30はまた、座標変換回路33a、測定対象物判定回路33b、有効測定情報抽出回路34、出力補正回路35a、測定回路35b、センサ位置ずれ補正回路35c、特徴解析回路36、出力回路37を備えている。
 メモリ31は、処理装置30の処理プログラムや必要な定数、情報処理に必要な各種補正値、制御装置20から入力される各種情報等を記憶する記憶装置である。特に本実施形態では、試料Sの表面形状の計測に必要なルックアップテーブルがメモリ31に格納されている。メモリ21にルックアップテーブルを記憶させても良い。ルックアップテーブルは、センサユニット18aの各画素の出力比率と、試料Sの表面における検査光の反射面の高さ及び傾斜との関係を予め規定したものである。ルックアップテーブルには、第1較正チップ11B(図14A、図14B)をセンサユニット18aで走査して得られた測定情報と、第2較正チップ11C(図15A、図15B)をセンサユニット18aで走査して得られた測定情報とが反映されている。第1較正チップ11B及び第2較正チップ11Cの場合に限らず、1つの較正チップ11Aを走査した場合も同様である。なお、本実施形態では画素の出力比率から高さ情報等を算出するための情報としてルックアップテーブルを例示するが、出力比率から高さ情報等が正確に算出できる相関データが事前に与えられていれば良い。従って、出力比率と高さ及び傾斜との関係を論理的又は近似的に規定した数式を相関データとして用意した構成に変更することもできる。
 指定情報結合回路32aは、指定情報抽出回路27mで抽出された指定領域の測定情報を結合し、1つの指定領域の測定情報のセットにする回路である。重複処理回路32bは、隣接するセンサユニット18aのセンサユニット18aの走査範囲に重複分がある場合に重複したデータを調整する回路である。調整方法としては、重複データのうちいずれかのセンサユニット18aのデータのみを採用する、同一座標のデータについて総輝度の大値選択(又は小値選択)する、或いは同一座標の値同士で平均をとる等、種々考えられる。
 座標変換回路33aは、各センサユニット18aの測定情報に同期して関連付けられた座標情報を走査時の極座標系(R,θ)から試料S上の直交座標系(X,Y)に変換する回路である。測定対象物判定回路33bは、指定領域に含まれる測定対象物の測定情報を特定する回路である。測定対象物の測定情報は、測定情報に関連付けられた座標変換後の座標情報(X,Y)を、試料Sにおける測定対象物の既知の座標情報(X,Y)に突き合せることで識別できる。試料Sにおける測定対象物の既知の座標情報(X,Y)には、試料Sの製造情報(設計情報を含む)を用いることもできるし、例えば試料Sのロード時にカメラ17若しくは光学顕微鏡15による試料Sの撮影画像から把握しておくこともできる。
 有効測定情報抽出回路34は、特定した測定対象物の測定情報の有効性を判定し、有効なデータのみを抽出する回路である。例えばセンサユニット18aの各画素の総輝度について閾値を設定してメモリ21,31に記録しておき、各点の測定情報のうち総輝度が閾値以上のもののみを有効データとして抽出する。画素の総輝度が閾値未満のデータは、センサ18cのケラレ等の影響を受けた有効性の乏しいデータと推定されて破棄される。
 出力補正回路35aは、センサ出力較正回路24で算出された出力補正値を用いて、センサユニット18aの画素間の出力レベルのバラつきを補正する回路である。測定回路35bは、メモリ31から読み出したルックアップテーブルを基に、センサユニット18aから入力された測定情報から三次元的な形状の試料Sの表面の高さ情報、傾斜情報の少なくとも一方を演算する回路である。測定回路35bで算出される情報によれば、測定座標の反射面の高さの他、反射面が水平面であるのか斜面であるのか、斜面であれば傾斜角度がどの程度なのかが識別できる。センサ位置ずれ補正回路35cは、座標較正回路25で得られた座標補正値を基に、センサユニット18a同士の設置高さの高さ方向のバラつきに起因する測定情報(高さ情報)の誤差を補正する回路である。
 特徴解析回路36は、オペレータの要求操作に応じて、測定回路35bで得られた測定情報を基に検出された突起物の形状をデータベースと照合して分類したりする回路である。出力回路37は、以上の各回路の処理を経て得られた試料Sの測定対象物の測定情報の指定形式の測定結果ファイルを作成し出力する回路である。測定結果ファイルはメモリ21,31に記録され、操作に応じてホストCPU22により読み出され、操作端末40のモニタ或いはその他の出力装置(プリンタ等)に出力される。測定結果ファイルは、例えば高さ及び傾斜のマップデータとして出力することができ、試料Sの全面のデータを取得することもできるし、指定領域のデータに限定して取得することもできる。また測定結果ファイルには、各種補正値や各画素の個々の出力等を含めるようにしても良い。
 -センサ出力較正-
 センサ出力較正回路24で各センサユニット18aのセンサ18cの各画素の出力補正値を算出する場合、例えば各センサユニット18aで第1較正チップ11Bを走査する。検査光の照度は一定であることを前提とする。その際、まず第1較正チップ11Bの中央の水平面11b13に検査光を照射し、Z軸方向にステージ11を移動させて水平面11b13に結像させる。その後、例えばXY座標系でステージ11を往復移動させて第1較正チップ11Bを走査し、各画素の測定結果を同時に収集する。これにより水平面11b13に対して傾斜方向と傾斜角度の異なる12の斜面の測定値が画素のそれぞれで得られる。センサ出力較正回路24は、同一面について画素の出力に閾値(設定値)を超えるばらつきがあるようなら、このばらつきを補正して各斜面について画素の出力偏差が閾値以下に収まるような補正係数を算出し、メモリ21,31に記録する。以上の処理を各センサユニット18aについて同様に実行する。
 なお、補正係数はセンサユニット18aによる測定動作(試料検査)に先行して得られていれば良く、一度算出した補正係数はその後の測定で共用することができる。但し、外観検査装置の使用時間の経過に伴って光学系の状態が変化し得るので、一定期間又は一定の測定回数毎に補正係数を算出することが望ましい。測定精度が最優先される場合には、毎回測定前に補正係数を求めるようにすることもできる。また、上記のセンサ出力の補正係数を算出するに当たって第1較正チップ11BをXY座標系で走査する場合を例示したが、Rθ極座標系で走査した測定情報を基にしても補正係数を求めることはできる。画素の出力較正には第1較正チップ11Bを用いることが好ましいが、先に例示した較正チップ11A又は第2較正チップ11Cを用いることも考えられる。
 また、水平面11b13を測定した際に画素の出力が全て一致するZ座標が見つからない場合、センサユニット18aの光軸が設計に対してずれているものと推測される。この場合、画素の出力比率を見ながら反射光スポットの形状が円形と推定されるZ座標を探し、このZ座標を結像位置とする。その際の円形スポットの重心とセンサ18cの中心との距離を光軸のずれに起因する出力誤差を補正する補正値として算出し、測定情報に反映させるようにすることもできる。
 -検査装置間の位置較正-
 座標較正回路25には、前述した通り三次元測定装置18と光学顕微鏡15(又はカメラ17)の位置関係を算出する機能が備わっている。座標較正回路25で三次元測定装置18と光学顕微鏡15(又はカメラ17)の位置関係を算出する場合、後述する試料アライメントの後、光学顕微鏡15(又はカメラ17)で較正チップを含む領域の画像を取得する。その後、ステージ11を移動させて、少なくとも1つのセンサユニット18aで同一領域の画像を得る。座標較正回路25は、光学顕微鏡15(又はカメラ17)で得た画像とセンサユニット18aで得た画像を照合する。そして、画像上の較正チップの位置を合わせて2つの画像間のずれを、三次元測定装置18、カメラ17又は光学顕微鏡15の製作誤差等に起因して生じる測定情報の座標誤差を補正する座標補正値として算出する。
 なお、この補正値はセンサユニット18aによる測定動作(試料検査)に先行して得られていれば良く、一度算出した補正係数はその後の測定で共用することができる。但し、外観検査装置の使用時間の経過に伴って光学系の状態が変化し得るので、一定期間又は一定の測定回数毎に補正係数を算出することが望ましい。測定精度が最優先される場合には、毎回測定前に補正係数を求めるようにすることもできる。また、上記の座標補正値を算出するに当たって走査する較正チップには、較正チップ11A、第1較正チップ11B及び第2較正チップ11Cの少なくとも1つを用いることができる。また、XY座標系で較正チップを走査する場合を例示したが、Rθ極座標系で走査した測定情報を基にしても座標補正値を求めることはできる。光学顕微鏡15(又はカメラ17)による較正チップの画像取得は、試料アライメント時の画像取得と兼ねることができる。センサユニット18aによる較正チップの画像取得動作は、他の較正動作時の画像取得動作と兼ねることができる。
 -センサユニットの位置較正-
 座標較正回路25では各センサユニット18aの三次元位置情報を基に、各センサユニット18aの測定情報に関連付けられた座標情報の誤差を補正する座標補正値(図3のΔX1,ΔY1,ΔZ1)が算出される。座標補正値(ΔX1,ΔY1,ΔZ1)を算出する際、まず個々のセンサユニット18aで較正チップをXY座標系で走査する。これにより得られた高さマップを較正チップの既知の形状データと照合し、個々のセンサユニット18aについて位置ずれ量を座標補正値(ΔX1,ΔY1,ΔZ1)として算出する。較正チップの既知の形状データには、較正チップの製造情報(設計情報を含む)を用いることができる。
 なお、この補正値はセンサユニット18aによる測定動作(試料検査)に先行して得られていれば良く、一度算出した補正係数はその後の測定で共用することができる。但し、外観検査装置の使用時間の経過に伴って光学系の状態が変化し得るので、一定期間又は一定の測定回数毎に補正係数を算出することが望ましい。測定精度が最優先される場合には、毎回測定前に補正係数を求めるようにすることもできる。また、座標補正値(ΔX1,ΔY1,ΔZ1)を算出するに当たって走査する較正チップには、第1較正チップ11B及び第2較正チップ11Cの少なくとも1つを用いることができる。また、XY座標系で較正チップを走査する場合を例示したが、Rθ極座標系で走査した測定情報を基にしても座標補正値を求めることはできる。センサユニット18aによる較正チップの画像取得動作は、他の較正動作時の画像取得動作と兼ねることができる。
 -センサユニットの結像位置較正-
 座標較正回路25には、前述した通り同一のセンサユニット18aにおける2種類の異なる光学系の検査光の結像位置の三次元的なずれ量を算出する機能が備わっている。この機能を実行する場合、例えば同一のセンサユニット18aの2種類の光学系で同一の較正チップを同時に走査し、それぞれの出力で得られる較正チップの2つの高さマップを照合する。各光学系の結像位置のずれ量が、これに起因して生じる測定情報の座標誤差を補正する座標補正値として算出される。
 なお、この補正値はセンサユニット18aによる測定動作(試料検査)に先行して得られていれば良く、一度算出した補正係数はその後の測定で共用することができる。但し、外観検査装置の使用時間の経過に伴って光学系の状態が変化し得るので、一定期間又は一定の測定回数毎に補正係数を算出することが望ましい。測定精度が最優先される場合には、毎回測定前に補正係数を求めるようにすることもできる。また、上記の座標補正値を算出するに当たって走査する較正チップには、較正チップ11A、第1較正チップ11B及び第2較正チップ11Cの少なくとも1つを用いることができる。また、XY座標系で較正チップを走査する場合を例示したが、Rθ極座標系で走査した測定情報を基にしても座標補正値を求めることはできる。センサユニット18aによる較正チップの画像取得動作は、他の較正動作時の画像取得動作と兼ねることができる。
 -試料アライメント-
 図19A及び図19Bは試料アライメントの概念の説明図である。これらの図に示した試料Sには、X軸方向及びY軸方向にマトリクス状にチップが形成されている。搬送装置14により試料Sを外観検査装置にロードした際に、この試料Sの画像をカメラ17又は光学顕微鏡15で取得する。アライメント回路23は、この画像上で試料SにおけるXY座標系のX軸(図19Aにおいて左右に延びるチップの短辺)とR軸との傾斜(θ座標)を試料Sの回転位置ずれ量として算出する。このとき、試料SにおけるXY座標系のX軸がR軸と平行になるようにステージ11を回転させても良い(回転位置ずれ量をゼロにしても良い)。
 次に、3つのチップT1-T3においてそれぞれ対応するパターンTpを指定しておき、ステージ11をθ1だけ回転させてカメラ17又は光学顕微鏡15で試料Sの画像を取得する。その後、ステージ11をθ2(≠θ1)だけ回転させて同じ要領で試料Sの画像を取得する。その際、θ1に移動する際のステージ回転方向とθ2に移動する際のステージ回転方向を同一とし、往復動作を避けることで精度向上が期待される。アライメント回路23は、これらθ1,θ2の画像上の各3つのパターンTpの位置関係から三角測量の原理で試料Sの回転中心(R,Y,θ)を特定し、試料Sの回転中心と試料Sの中心との位置関係(R,θ)を中心位置ずれ量として算出する。なお、パターンの形成されていないウェハを試料Sとする場合には、ノッチの各角のような特徴点がパターンTpの代わりに利用できる。
 以上の試料Sの回転位置ずれと中心位置ずれの特定処理は、搬送装置14によって試料Sが外観検査装置にロードされる度にアライメント回路23により実行される。
 -指定領域及び測定対象物の抽出-
 図20Aは試料における指定領域及び測定対象物の一例を表した図、図20Bは指定領域及び測定対象物の抽出の概念の説明図である。まず特定の測定対象物の測定の概要を説明すると、これらの図に示したチップTは試料Sに形成されたチップの1つである。試料Sの特定の一部を検査する場合、前述したように操作端末40等で検査領域を指定する。図20Aの左図(a)及び図20Bに示したようにあるチップT内で指定領域M1-M3のように領域指定がされているとする。代表して指定領域M3を拡大すると、図20Aの中央図(b)に示したように指定領域M3には複数のバンプN1が含まれている。指定領域M3は、試料SにおけるXY座標系で対角をなす2つの点(Xs,Ys)及び点(Xe,Ye)で定義される矩形の領域である。図20Aの中央図(b)においては、バンプN1の配列の周囲に少なくとも1つ(例では6つ)の基準となる測定点N2が操作端末40等により指定された場合を例示している。この例ではバンプN1が測定対象物であり、図20Aの右図(c)に拡大して示したように個々のバンプN1について複数の測定点N3を測定する。図20Aの右図(c)に一部例示したように、測定点N3は例えば格子状に配列された点である。平面視において各バンプN1の輪郭に囲われた複数の測定点N3の測定情報を基に、測定回路35bで多点フィッティングにより各バンプN1の高さや形状が正確に演算される。この測定結果を出力して確認することで、意図した通りに各バンプN1が形成されているかが検査できる。各バンプN1の輪郭の座標は、試料Sの製造情報や光学顕微鏡15又はカメラ17の画像等で特定される。
 なお、試料Sの表面におけるバンプN1が形成されていない部分(例えば測定点N)を基準とし、バンプN1の高さ、つまり測定点N2からのバンプN1の突出量を測定したい場合がある。この場合、センサユニット18aにより測定されたバンプN1の高さから、測定された最も近い測定点N2の高さを差し引くことで、測定回路35bにおいて測定点からのバンプN1の突出量が正確に算出できる。
 このような試料Sの部分的な測定をする場合、制御装置20から全ての測定情報を処理装置30に出力するのではなく、指定情報抽出回路27mで抽出された指定領域の情報のみが処理装置30に出力される。その際の指定情報抽出回路27mの処理の具体例としては、まず指定領域の座標を極座標系(R,θ)に変換し、極座標系で指定領域内の座標に該当する測定情報を抽出する。同一の指定領域の測定情報のデータ群は、R座標(走査周回数)毎の円弧上の情報の集まりである。指定情報抽出回路27mでは、指定領域に該当する測定情報が座標情報を基に識別され、開始コードds及び終了コードdeを識別情報として与えR座標毎のデータ列を抽出し、これらデータ列のみを処理装置30に出力する。
 例えば図20Bの例で指定領域M2の測定情報としては、
 {ds(R1,θ),d11(θ)…d1n(θ),de(θ)}
 {ds(R2,θ),d21(θ)…d2n(θ),de(θ)}
 …
 {ds(Rm,θ),dm1(θ)…dmn(θ),de(θ)}
といったように、R座標がR1からRmまでの複数のデータ列が抽出されて送信される。同一R座標のデータ列が転送される最小単位である。単一のデータ列については、開始コードdsのみに(R,θ)の座標情報を付加し、これに後続するデータd1…についてはR座標のデータを開始コードdsと共用してθ座標のみを有するデータ構成とすれば、処理装置30に送信するデータ量が抑えられる。
 -効果-
 (1)本実施形態によれば、センサユニット18aの各画素の出力情報を評価することにより、試料Sの表面の高さ情報だけでなく、傾斜方向又は傾斜角度を測定することができる。単に試料表面の高さ情報を得るだけでなく、傾斜情報を併せて得ることができるので、試料表面の三次元形状を精度良く測定することができる。
 (2)Rθの極座標系で走査した場合は、XY座標系で往復走査する場合(例えば1m/s)に比べて極めて高速で試料Sを走査することができる。このように、Rθの極座標を本実施形態によれば、試料Sの表面の三次元形状を精度良く高速に測定することができる。しかも試料S上の一測定点について、センサユニット18aの出力のみで、高さ、傾斜方向、傾斜角度の情報のいずれか又は全部を同時に得ることができ、多様な測定移情報が得られるにも関わらず装置構成がシンプルである。この点もメリットである。
 (2)試料Sを螺旋状の軌跡で走査する場合、R方向一方側のへのステージ移動とθ方向一方側へのステージ回転でスキャン動作が完結する。従ってXY座標系でステージを往復動作させる場合に比べて、スキャン動作制御の容易化とステージ機構の小型化による安価でスペース効率の優れた装置が実現できる。
 (3)また、第1較正チップ11Bを測定することで、センサ18cの各画素の出力情報から推定される反射光スポットの重心Gと試料表面の傾斜方向及び傾斜角度との関係の基準となる相関関係を正確に求めることができる。加えて、第2較正チップ11Cを測定することで、センサ18cの各画素の出力情報から推定される反射光スポットの形状の楕円率と試料表面の高さとの関係の基準となる相関関係を正確に求めることができる。1つの較正チップ11Aを用いる場合も同様である。このように第1較正チップ11B及び第2較正チップ11Cのセンサユニット18aによる測定情報を基に、高さ情報と傾斜情報のファクターを分離して画素の出力情報との相関関係を評価し、その評価に基づいてルックアップテーブルが予め作成してある。このような高精度なルックアップテーブルを例えばメモリ31から読み出し、測定回路35bで試料表面の三次元形状の高さや傾斜が算出される。このような高精度なルックアップテーブルも試料の表面形状の測定精度に大きく貢献し得る。
 (4)センサ出力較正回路24によりセンサユニット18aの画素間の出力レベルの誤差を補正することができるので、測定情報の高い信頼性を確保することができる。
 (5)ステージ11の回転中心からの距離が異なる複数のセンサユニット18aを備えたことで、センサユニット18aのレイアウトの径方向間隔分だけステージ11をR方向に走査することで試料Sを広域に走査することができる。上記の通りセンサ類の位置を含めて座標情報が高度に管理されているため、複数のセンサユニット18aで測定範囲を分担してもセンサの個体差による測定精度のばらつきが殆どない高精度な測定情報を得ることができる。
 (6)更には、指定情報抽出回路27mによって試料Sの全体から指定した一部の指定領域のみを測定することができる。従って試料検査を実施するに当たって制御装置20や処理装置30のデータ処理に関する演算量が大幅に軽減できる。この点も検査速度の向上に貢献し、また制御装置20や処理装置30に要求する演算能力を抑えられるメリットがある。また、上記の通り高度な座標管理がなされているので、指定領域のみを測定するに当たって試料Sのサムネイル画像等で指定領域を設定して検査を実行することができ、良好な操作性を確保することができる。
 -変形例-
 効果(6)を得るために指定情報抽出回路27mにより試料Sにおける指定領域の測定情報のみがデータ処理できる構成としたが、本質的な効果(1)を得る上では、指定情報抽出回路27mは必ずしも必要ない。例えば制御装置20や処理装置30の演算能力に余裕があり、全ての測定情報に特別時間を要さない場合には指定情報抽出回路27mは省略可能である。
 また効果(5)を得るためにセンサユニット18aを複数備えた構成を例に挙げて説明したが、効果(1)を得る上では、センサユニット18aが複数である必要は必ずしもない。複数のセンサユニット18aで分担して走査時間を短縮するメリットが小さい場合には、1つのセンサユニット18aで試料Sを全面走査する構成としても良い。
 効果(4)を得るためにセンサ出力較正回路24により各センサユニット18aの画素間の出力レベルの誤差を補正する構成としたが、効果(1)を得る上でセンサ出力較正回路24は必ずしも必須ではない。例えば外観検査装置の製作段階で画素の出力レベルが調整されているセンサ18cを選んで用いた場合等、センサ出力の構成の必要性が低い場合にはセンサ出力較正回路24は省略可能である。また、センサ出力較正回路24による出力較正に代えて、各画素の回路の物理的な調整により出力レベルのばらつきを抑えることも考えられる。
 効果(3)を得るために第1較正チップ11Bや第2較正チップ11Cを備える構成としたが、この点も効果(1)を得る上で必ずしも必須ではない。例えば較正チップを形成した構成用の試料をステージ11に載せて、その較正チップを測定することでも近い効果を得ることができる。較正チップの種類や形状についても、複数種用意する必要は必ずしもなく、また形状も求めたい関係データに応じて適宜変更可能である。
 また、効果(2)に関連して座標較正回路25やアライメント回路23で各種の座標補正値を算出する構成を例に挙げて説明したが、この点も効果(1)を得る上で必ずしも必須ではない。例えば搬送装置14の精度向上によりロード時の試料Sの位置決め精度が将来的に著しく向上した場合には、試料アライメントの必要性は低下し、アライメント回路23が省略できる可能性がある。座標較正回路25についても、外観検査装置やセンサ類の製作精度が著しく向上して製作誤差が無視できるレベルにまで小さくなれば省略可できる可能性がある。また外観検査装置やセンサ類の製作段階で製作誤差が精度良く計測されていれば、そのデータを利用することで座標較正回路25が省略され得る。
11…ステージ、11B…第1較正チップ(較正チップ)、11A…較正チップ、11C…第2較正チップ(較正チップ)、12r…R駆動装置、12t…θ駆動装置、13…ステージ制御装置、18b…シリンドリカルレンズ、18c…センサ、23…アライメント回路、24…センサ出力較正回路、25…座標較正回路、27i…試料ずれ補正回路(座標補正回路)、27j…焦点ずれ補正回路(座標補正回路)、27k…センサ位置ずれ補正回路(座標補正回路)、27m…指定情報抽出回路、31…メモリ、32a…指定情報結合回路、33a…座標変換回路、35a…出力補正回路、35b…測定回路、37…出力回路、G…反射光スポットの重心位置、N1…バンプ、M1-M3…指定領域、S…試料

Claims (12)

  1.  検査光を出射する光源と、
     試料を保持するステージと、
     前記試料を前記検査光が走査するように前記ステージを駆動するステージ制御装置と、
     複数の画素を有し前記試料からの反射光を受光するセンサと、
     前記センサからの出力情報、及び入射する反射光が反射した反射面の傾斜角度又は傾斜方向の相関関係である第1基準データを予め登録したメモリと、
     前記第1基準データに基づき、前記センサの出力情報から前記試料の表面の傾斜角度又は傾斜方向を演算し出力する処理装置を有する外観検査装置。
  2.  請求項1の外観検査装置において、
     前記メモリは、前記センサからの出力情報及び前記反射面の高さの相関関係である第2基準データを予め記憶しており、
     前記処理装置は、前記センサの出力情報から反射光スポットの楕円率を算出し、前記第2基準データに基づき前記試料の表面の高さを算出する外観検査装置。
  3.  請求項1の外観検査装置において、
     前記センサからの出力情報は、前記センサ上の基準位置と前記センサで受光した反射光スポットの位置又は形状に関する情報であることを特徴とする外観検査装置。
  4.  請求項3の外観検査装置において、
     傾斜角度が異なる3つ以上の斜面を持ち、前記ステージに設置された既知の立体形状の較正チップを備え、
     前記処理装置は、前記較正チップを測定し算出した前記センサからの出力情報と、前記較正チップの形状情報との関係を基に前記相関関係を算出する外観検査装置。
  5.  請求項1の外観検査装置において、
     傾斜方向と傾斜角度の異なる複数の斜面を持ち前記ステージに設置された既知の立体形状の第1較正チップ、及び
     高さの異なる複数の水平面を持ち前記ステージに設置された既知の立体形状の第2較正チップを備え、
     前記相関関係は、前記第1較正チップを測定して得た前記センサ上の反射光スポットの重心位置と前記試料の表面の傾斜方向及び傾斜角度との関係と、前記第2較正チップを測定して得た前記反射光スポットの楕円率と前記試料の表面の高さとの関係とを基に作成されたルックアップテーブルである外観検査装置。
  6.  請求項1の外観検査装置において、前記センサの出力に関連付けられた極座標系の座標情報を前記試料の直交座標系の座標情報に変換する座標変換回路を備えている外観検査装置。
  7.  請求項1の外観検査装置において、
     前記ステージに設置された既知の立体形状の較正チップと、
     前記較正チップの測定情報を基に前記センサの複数の画素の出力補正値を算出するセンサ出力較正回路と、
     前記センサの画素間の出力のずれを前記出力補正値で補正する出力補正回路と
    を備えている外観検査装置。
  8.  請求項1の外観検査装置において、
     前記ステージに設置された既知の立体形状の較正チップと、
     前記ステージの回転中心からの距離が異なる複数の前記センサと、
     前記複数のセンサで得られた前記較正チップの画像を照合し、前記複数のセンサの位置関係を測定して座標補正値を算出する座標較正回路と、
     各センサの出力に関連付けられた座標情報のセンサ間の位置関係によるずれを前記座標補正値で補正する座標補正回路と
    を備えている外観検査装置。
  9.  請求項1の外観検査装置において、画像を基に前記ステージに保持された試料の前記R軸に対するθ方向の回転位置ずれ量、及び前記試料の回転中心と前記試料の中心との中心位置ずれ量を特定するアライメント回路を備えている外観検査装置。
  10.  請求項9の外観検査装置において、前記回転位置ずれ量と前記中心位置ずれ量を基に、測定情報に関連付けられた座標情報を補正する座標補正回路を備えている外観検査装置。
  11.  請求項1の外観検査装置において、
     前記試料の製造情報又は画像情報を基に、極座標系の走査により得られた測定情報から前記試料の指定領域の測定情報を抽出する指定情報抽出回路と、
     前記指定情報抽出回路で抽出された前記指定領域の測定情報を結合する指定情報結合回路と、
     前記指定情報結合回路で結合された前記指定領域の測定情報を前記極座標系から直交座標系に変換する座標変換回路と
    を備えている外観検査装置。
  12.  請求項11の外観検査装置において、表面にバンプが形成されたウェハが前記試料であり、前記バンプを含んで指定した領域が前記指定領域である外観検査装置。
PCT/JP2018/011604 2018-03-23 2018-03-23 外観検査装置 WO2019180899A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2018/011604 WO2019180899A1 (ja) 2018-03-23 2018-03-23 外観検査装置
TW108107739A TW201940840A (zh) 2018-03-23 2019-03-08 外觀檢查裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/011604 WO2019180899A1 (ja) 2018-03-23 2018-03-23 外観検査装置

Publications (1)

Publication Number Publication Date
WO2019180899A1 true WO2019180899A1 (ja) 2019-09-26

Family

ID=67986882

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/011604 WO2019180899A1 (ja) 2018-03-23 2018-03-23 外観検査装置

Country Status (2)

Country Link
TW (1) TW201940840A (ja)
WO (1) WO2019180899A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112753213A (zh) * 2020-04-26 2021-05-04 深圳市大疆创新科技有限公司 目标定位方法、可移动平台、存储介质
CN114083245A (zh) * 2021-12-17 2022-02-25 成都中电锦江信息产业有限公司 基于虚拟面基准的大型阵面加工方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0534120A (ja) * 1991-08-02 1993-02-09 Olympus Optical Co Ltd 面形状測定方法及び装置
JPH10122831A (ja) * 1996-08-30 1998-05-15 Matsushita Electric Ind Co Ltd 表面検査装置
JPH11287622A (ja) * 1998-03-31 1999-10-19 Ngk Spark Plug Co Ltd バンプ付基板の検査装置、検査方法及びバンプ付基板の製造方法
JP2001091222A (ja) * 1999-09-17 2001-04-06 Dainippon Screen Mfg Co Ltd 膜厚測定装置の校正方法および膜厚測定装置および校正用部材
JP2005241621A (ja) * 2003-08-20 2005-09-08 Sunx Ltd 光学測定装置及び光学測定装置における距離算出方法
JP2009180689A (ja) * 2008-02-01 2009-08-13 Nikon Corp 三次元形状測定装置
WO2016016972A1 (ja) * 2014-07-30 2016-02-04 有限会社ワイ・システムズ 表面形状の測定方法および測定装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0534120A (ja) * 1991-08-02 1993-02-09 Olympus Optical Co Ltd 面形状測定方法及び装置
JPH10122831A (ja) * 1996-08-30 1998-05-15 Matsushita Electric Ind Co Ltd 表面検査装置
JPH11287622A (ja) * 1998-03-31 1999-10-19 Ngk Spark Plug Co Ltd バンプ付基板の検査装置、検査方法及びバンプ付基板の製造方法
JP2001091222A (ja) * 1999-09-17 2001-04-06 Dainippon Screen Mfg Co Ltd 膜厚測定装置の校正方法および膜厚測定装置および校正用部材
JP2005241621A (ja) * 2003-08-20 2005-09-08 Sunx Ltd 光学測定装置及び光学測定装置における距離算出方法
JP2009180689A (ja) * 2008-02-01 2009-08-13 Nikon Corp 三次元形状測定装置
WO2016016972A1 (ja) * 2014-07-30 2016-02-04 有限会社ワイ・システムズ 表面形状の測定方法および測定装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112753213A (zh) * 2020-04-26 2021-05-04 深圳市大疆创新科技有限公司 目标定位方法、可移动平台、存储介质
CN114083245A (zh) * 2021-12-17 2022-02-25 成都中电锦江信息产业有限公司 基于虚拟面基准的大型阵面加工方法

Also Published As

Publication number Publication date
TW201940840A (zh) 2019-10-16

Similar Documents

Publication Publication Date Title
TWI440847B (zh) 檢測方法
JP4418841B2 (ja) 作業装置及びその校正方法
KR101379538B1 (ko) 접합 기판의 회전 어긋남량 계측 장치, 접합 기판의 회전 어긋남량 계측 방법 및 접합 기판의 제조 방법
KR101273094B1 (ko) 광삼각법을 이용한 3차원 형상 측정기를 사용하여 pcb 범프 높이 측정 방법
JP2016173371A (ja) 基板検査方法
JPH11317429A (ja) 直接プローブ・センシングのための改良された方法および装置
TWI454656B (zh) 窄洞之深度測量
JP2007256091A (ja) レンジファインダ校正方法及び装置
US10739132B2 (en) Flatness detection method, flatness detection device, and flatness detection program
JP2011007710A (ja) 検査装置、検査方法および検査プログラム
WO2019180899A1 (ja) 外観検査装置
KR101545186B1 (ko) 사전 정의된 목표 영상을 이용한 웨이퍼 패턴 결함 위치 보정 방법
JP6461555B2 (ja) バンプ検査装置
Li et al. Stereo vision based automated solder ball height and substrate coplanarity inspection
CN115035031A (zh) Pin针的缺陷检测方法、装置、电子设备及存储介质
JP2008196974A (ja) 突起物の高さ測定装置及び高さ測定方法
JP2009139285A (ja) 半田ボール検査装置、及びその検査方法、並びに形状検査装置
JP2007163429A (ja) 3次元距離測定方法およびその装置
JP2011169816A (ja) 半導体装置の接合傾き測定装置
JP4578538B2 (ja) 非接触三次元測定方法
KR101647688B1 (ko) 마스크 내 다이 크기 및 개수 자동 획득 방법
JP2005274309A (ja) 三次元物体の検査方法および検査装置
JP5708501B2 (ja) 検出方法および検出装置
JP4061265B2 (ja) 突起の高さ測定方法および測定装置
Dong et al. Height inspection of wafer bumps without explicit 3-D reconstruction

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18910587

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18910587

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP