WO2013046998A1 - 基板に形成された形状を計測するための装置 - Google Patents

基板に形成された形状を計測するための装置 Download PDF

Info

Publication number
WO2013046998A1
WO2013046998A1 PCT/JP2012/070949 JP2012070949W WO2013046998A1 WO 2013046998 A1 WO2013046998 A1 WO 2013046998A1 JP 2012070949 W JP2012070949 W JP 2012070949W WO 2013046998 A1 WO2013046998 A1 WO 2013046998A1
Authority
WO
WIPO (PCT)
Prior art keywords
substrate
measuring
shape formed
bright field
field detection
Prior art date
Application number
PCT/JP2012/070949
Other languages
English (en)
French (fr)
Inventor
神宮 孝広
Original Assignee
株式会社 日立ハイテクノロジーズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 日立ハイテクノロジーズ filed Critical 株式会社 日立ハイテクノロジーズ
Publication of WO2013046998A1 publication Critical patent/WO2013046998A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N21/95684Patterns showing highly reflecting parts, e.g. metallic elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/56Measuring geometric parameters of semiconductor structures, e.g. profile, critical dimensions or trench depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N2021/95638Inspecting patterns on the surface of objects for PCB's
    • G01N2021/95646Soldering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N2021/95638Inspecting patterns on the surface of objects for PCB's
    • G01N2021/95661Inspecting patterns on the surface of objects for PCB's for leads, e.g. position, curvature
    • G01N2021/95669Inspecting patterns on the surface of objects for PCB's for leads, e.g. position, curvature for solder coating, coverage

Definitions

  • the present invention relates to an apparatus and method for measuring a substrate.
  • the substrates include various substrates such as silicon wafers.
  • evaluation and measurement include, for example, obtaining various shapes and defects formed in the process of forming bumps, obtaining shapes of bumps, and evaluating (classifying) what defects are.
  • the pre-process includes wafer oxidation, photoresist application to the wafer, pattern formation by exposure, etching, oxidation / diffusion / CVD / ion implantation, planarization, electrode formation, and inspection.
  • the necessary semiconductor elements are formed on the wafer by the pre-process.
  • the post-process includes the process of cutting out the wafer processed in the pre-process for each chip, the process of fixing the cut-out chip to the package substrate, and the molding process.
  • flip chip bonding may be used in which protruding electrodes called bumps are formed on the chip, and the chip package substrate is connected via the bumps.
  • the shape of the bumps, the presence or absence of defects on the bumps, etc. are important because they affect the electrical characteristics between the chip and the substrate, that is, the electrical characteristics of the semiconductor.
  • the shape of bumps and the like are important because they affect the electrical characteristics of the resultant. Therefore, it is necessary to evaluate the shape formed on the substrate, for example, the process of forming the bumps and measuring the formed bumps (these can be generically called bump measurement).
  • the present invention is characterized in that bumps are evaluated using design criteria information.
  • the invention is characterized by the use of a shutter having a transparent ferroelectric.
  • the present invention is characterized by using an imaging optical system inclined at a predetermined angle with respect to the substrate.
  • the present invention is characterized in that the bumps are evaluated by a plurality of imaging optical systems (for example, bright field optical systems).
  • imaging optical systems for example, bright field optical systems
  • the structure of the bump measurement system of a present Example. A figure explaining image processing. The figure explaining the detail of evaluation part 128. The figure explaining the evaluation item in a 1st process, and what kind of information the evaluation item is obtained from. The figure (continuation) explaining what evaluation item and evaluation item in a 1st process are obtained from information. The figure explaining what evaluation item in a 2nd process and its evaluation item are obtained from information. The figure (continuation) explaining what evaluation item and evaluation item in a 2nd process are obtained from information. The figure explaining the evaluation item in a 3rd process, and what kind of information the evaluation item is obtained from. The figure (continuation) explaining what evaluation item in the 3rd process and its evaluation item can be obtained from.
  • FIG. 6 is a diagram for explaining reading of an image.
  • FIG. 6 is a view for explaining the positional relationship of the field of view of the one-dimensional line sensor 106, the second one-dimensional line sensor 107, the two-dimensional sensor 118, and the two-dimensional sensor 123.
  • FIG. 7 is a diagram for explaining a second embodiment.
  • FIG. 10 is a flowchart for explaining the third embodiment.
  • FIG. 8 is a diagram for explaining a fourth embodiment.
  • the figure explaining Example 4 (the 2). Diagram for explaining the fifth embodiment The figure explaining Example 5 (the 2).
  • the figure explaining Example 5 (the 3).
  • the figure explaining Example 5 (the 4).
  • the configuration of the bump measurement system of this embodiment will be described with reference to FIG.
  • the bump measurement system of this embodiment includes a stage 1300 for fixing and scanning a substrate, an upper bright field detection system 1000 disposed along the normal direction of the substrate, and a first oblique angle with respect to the substrate.
  • the first oblique bright field detection system 1100, and the second oblique bright field detection system 1200 disposed at a second oblique angle with respect to the substrate.
  • the configuration of the upper bright field detection system 1000 will be described.
  • Light from the illumination system 101 passes through the lens 10 and the half mirror 102 and is illuminated onto the substrate via the objective lens 103.
  • Light from the substrate (for example, specular light) is collected by the objective lens 103.
  • the collected light passes through the variable aperture 104 and is imaged by the imaging lens 105.
  • the beam splitter 106 is disposed on the imaging side of the imaging lens 105, and the light passing through the imaging lens 105 is split into two.
  • the branched light is detected by a first one-dimensional line sensor 106 (SCU) and a second one-dimensional line sensor 107 (SCD) disposed at a focal position different from that of the one-dimensional line sensor 106.
  • SCU first one-dimensional line sensor 106
  • SCD second one-dimensional line sensor 107
  • the first one-dimensional line sensor 106 and the second one-dimensional line sensor 107 are not necessarily required.
  • a movable total reflection mirror 108 for observing the obtained image, a lens 109, and an observation camera 110 are disposed on the image forming side of the image forming lens 105.
  • the illumination system 101 is a lamp light source 1400 for switching between illumination method 1: bright field epi-illumination / dark field illumination by a lamp (bulb) and illumination method 2: parallel illumination by a multipoint light source by LEDs. , A multipoint LED light source 1500, and a switching mechanism 1600.
  • a first oblique bright field detection system 1100 disposed at a first oblique angle with respect to the substrate will be described.
  • the light from the light source 111 is branched by the half mirror 112.
  • One branched light is further reflected by the total reflection mirror 113, and enters the first oblique bright field detection system 1100 through the lens 20.
  • the incident light is reflected by the half mirror 114 and illuminated by the objective lens 115 onto the substrate at a first oblique angle.
  • Light from the substrate (for example, specular light) is collected by the objective lens 115.
  • the collected light will be imaged by the imaging lens 116.
  • An optical shutter 117 made of a transparent ferroelectric ceramic material (hereinafter referred to as PLZT) is disposed on the imaging side of the imaging lens 116.
  • PLZT transparent ferroelectric ceramic material
  • the bump measurement system of this embodiment has an optical shutter 117 and a power supply for driving an optical shutter 122 described later.
  • PLZT plays a role as a shutter by application of a voltage.
  • the function of PLZT as a shutter depends on the frequency to which a voltage is applied, and high speed response is possible.
  • a liquid crystal shutter or a mechanical shutter may be adopted as an alternative to PLZT.
  • the light passing through the optical shutter 117 is imaged by a two-dimensional sensor 118 (SB) (for example, a time delay integration type sensor which is one of charge storage type sensors).
  • SB two-dimensional sensor 118
  • a time delay integration type sensor which is one of charge storage type sensors.
  • the second oblique bright field detection system 1200 disposed at a second oblique angle to the substrate will be described.
  • the light from the light source 111 is branched by the half mirror 112. Another branched light enters the second oblique bright field detection system 1200 through the lens 30.
  • the incident light is reflected by the half mirror 119 and illuminated by the objective lens 120 onto the substrate at a second oblique angle.
  • Light from the substrate (for example, specular light) is collected by the objective lens 120.
  • the collected light is imaged by the imaging lens 121.
  • An optical shutter 122 configured of PLZT is disposed on the imaging side of the imaging lens 121.
  • the light passing through the optical shutter 122 is imaged by a two-dimensional sensor 123 (SF) (for example, a time delay integration sensor).
  • SF two-dimensional sensor 123
  • SF time delay integration sensor
  • At least one of the upper bright field detection system 1000, the first oblique bright field detection system 1100, and the second oblique bright field detection system 1200 illuminates the substrate with P-polarized light, and The p-polarized light may be blocked by a polarization filter. In such a case, a clearer image may be obtained. That is, the bump measurement system of the present embodiment can change the combination of the illumination polarization and the polarization blocked by the polarization filter on the imaging optical system side, and the image of the measurement object and the desired defect can be obtained more clearly. Is also included in
  • variable apertures 104, 40, 50 can change the depth of focus according to the nature (the position in the Z direction, the size, etc.) of the defect to be detected.
  • variable apertures 104, 30, 50 can change the focal depth so as to focus according to the unevenness of the substrate read from design reference information described later.
  • the first oblique bright field detection system 1100 is disposed on the side opposite to the traveling direction with respect to the scanning direction of the X axis of the stage 1300
  • the second oblique bright field detection system 1200 is the X axis of the stage 1300. It is disposed on the side of the traveling direction with respect to the scanning direction of.
  • the upper bright field detection system 1000, the first oblique bright field detection system 1100, and the second oblique bright field detection system 1200 scan the X axis of the stage 1300. It can also be expressed as being disposed along the X-axis scan direction of the stage 1300, which is disposed on the direction.
  • the upper bright field detection system 1000, the first oblique bright field detection system 1100, and the second oblique bright field detection system 1200 may be disposed on the Y-axis scanning direction of the stage 1300.
  • At least one of the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200 can change its inclination based on design standard information described later in the entire system. is there. That is, the first oblique angle and the second oblique angle can be arbitrarily changed. More specifically, at least one of the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200 is responsive to the design reference information (e.g. The angle, the aspect ratio of the hole) the first oblique angle, and the second oblique angle can be arbitrarily changed. Furthermore, it becomes possible to observe the inner sidewall of the hole described later.
  • the design reference information e.g. The angle, the aspect ratio of the hole
  • At least one of the two-dimensional sensor 118 and the two-dimensional sensor 123 can move back and forth with respect to the detection optical axis based on design standard information described later. That is, it is possible to change the focus arbitrarily. More specifically, at least one of the two-dimensional sensor 118 and the two-dimensional sensor 123 moves back and forth relative to the detection optical axis according to at least one of the height and the distance of the bump to be detected. It is a thing.
  • the two-dimensional sensor 118 is for accumulating charge in synchronization with the opening and closing of the optical shutter 117. This means that the start of charge accumulation of the two-dimensional sensor 118 is controlled by the opening operation of the optical shutter 117, and the end of charge accumulation is controlled by the closing operation of the optical shutter 117.
  • the charge accumulation time of the charge accumulation of the two-dimensional sensor 118 means that it corresponds to the time from opening to closing of the optical shutter 117.
  • the two-dimensional sensor 123 is for accumulating charge in synchronization with the opening and closing of the optical shutter 122.
  • the start of charge accumulation of the two-dimensional sensor 123 is controlled by the opening operation of the optical shutter 122, and the end of charge accumulation is controlled by the closing operation of the optical shutter 122.
  • the charge accumulation time of the charge accumulation of the two-dimensional sensor 123 means that it corresponds to the time from opening to closing of the optical shutter 122. Furthermore, the images obtained by the two-dimensional sensor 118 and the two-dimensional sensor 123 can be read out independently.
  • two images are obtained from the first oblique bright field detection system 1100.
  • One image is obtained from the first oblique bright field detection system 1100.
  • the second oblique bright field detection system 1200 can obtain one image. That is, in the bump measurement system of this embodiment, four images can be obtained from one inspection area.
  • the bump measurement system of the present embodiment uses at least one or more of these four images to obtain information on bumps.
  • first one-dimensional line sensor 106 SCU
  • second one-dimensional line sensor 107 The imaging of the first one-dimensional line sensor 106 (SCU) and the second one-dimensional line sensor 107 is such that the position of the first bump (1st bump) of the first die (1st die) to start imaging is from the chip origin.
  • the first image and the second image are obtained by recognizing based on the design value and imaging the 1st bump.
  • the next bump (2nd bump) is imaged not by the chip origin but by matching the stage movement amount with the design pitch from the imaging position of the 1st bump. The same applies to the Nth bump. Furthermore, for the 1st bump of the next die (2nd die), the distance from the last bump position of the 1st die to the 1st bump of the 2nd die is obtained, and the amount of movement of the stage is adjusted to this distance.
  • the image obtained by the observation camera 110 is sent to the alignment processing unit 125 for obtaining information for positioning the substrate.
  • Information for positioning the substrate can be obtained from the image obtained by the observation camera 110.
  • the information for positioning the substrate is once transmitted to the host CPU 126 and then to the mechanical control unit 127.
  • the stage is driven up and down based on the information for positioning the substrate. This enables so-called autofocus.
  • the processing amount of image processing depends on the density of bumps and shapes to be evaluated and the arrangement method. Therefore, the stage 1300 of the present embodiment changes the speed according to the density of the shapes formed on the bumps and the substrate surface and the manner of arrangement. For example, the lower the density, the higher the speed of the stage 1300, and the higher the density, the lower the speed of the stage 1300.
  • the first image obtained by the first one-dimensional line sensor 106 (SCU), the second image obtained by the second one-dimensional line sensor 107 (SCD), the first oblique bright field detection system 1100 , And the fourth image obtained from the second oblique bright field detection system 1200 are sent to the evaluation unit 128. Coordinate values from the stage are also sent to the evaluation unit 128 via the stage synchronous imaging control unit 124. By associating the four images with the coordinate values, it is possible to know which area is being inspected. It is also possible to select which area to test.
  • the four images sent to the examination area selection unit 127 are sent to the evaluation unit 128.
  • bump evaluation is performed using at least one of the four images.
  • defect determination to evaluate the presence or absence of defects of bumps (or paste materials to be bumps), dimension measurement of defects, defect classification, height measurement of paste materials to be bumps, paste materials
  • the depth formation of the hole (hole) to be filled, the angle measurement of the wall of the hole, and the volume estimation of the paste material are included.
  • the evaluation result is sent to the host CPU 126 and displayed to the operator as a map by the monitor 129.
  • the evaluation result is simultaneously transmitted to the management system 131 via the I / F unit 130 and used for yield control.
  • the substrate transfer device 132 is also connected to the host CPU 126, and transfer of the substrate is performed by the substrate transfer device 132 based on the information from the host CPU.
  • the bump measurement system of this embodiment takes an image of the substrate before actual measurement, and performs the following operation.
  • the first image (or the second image) obtained by the first one-dimensional line sensor 106 (SCU) is sent to the hole position recognition unit 50 for recognizing the hole position.
  • the hole position recognition unit 50 performs pattern matching on the first image and an outline that defines the shape of a normal hole, thereby recognizing the hole in the first image and obtaining the size of the hole. Then, the size of the obtained hole, the moving speed of the stage 1300, the range of the field of view of the first oblique bright field detection system 1100 and the range of the second oblique bright field detection system 1200, the upper bright field detection system 1000 From the positional relationship between the position of the visual field, the position of the visual field of the first oblique bright field detection system 1100, and the visual field of the second oblique bright field detection system 1200, at least one of the optical shutter 117 and the optical shutter 122 is selected. Generate a trigger signal to drive one.
  • the outline is defined, for example, for each process to be measured (for example, the first to fourth processes described later), for each object (for example, a hole or a bump), and for each orientation to obtain an image. It is also possible to make the desired size and shape using the interface of. That is, the bump measurement system of the present embodiment can be expressed as using a plurality of types of contours, and can also be expressed as the design standard information includes a plurality of types of contours. Also, when referring to contours in the following description, the description includes using multiple types of contours.
  • the process of generating the trigger signal is described as follows using FIG. First, the dimension of the obtained hole (in particular, the dimension in the moving direction of the stage 1300) is W 1 [m].
  • the moving speed of the stage 1300 is v [m / s].
  • the range of the visual field of the first oblique bright field detection system 1100 and the visual field of the second oblique bright field detection system 1200 (in particular, the range in the direction in which the stage 1300 moves) is W 2 [m].
  • the start time T open1 of T is the generation time of the trigger signal for the opening operation of the optical shutter 117.
  • the end time T close1 of T is a generation time of a trigger signal for closing the optical shutter 117.
  • the trigger signal for the opening operation of the optical shutter 122 if there is a spacing of ⁇ D between the field of view of the first oblique bright field detection system 1100 and the field of view of the two oblique bright field detection system 1200, the trigger signal for the opening operation of the optical shutter 122.
  • the generated trigger signal is sent to the stage synchronous imaging control unit 124.
  • the trigger signal drives at least one of the optical shutter 117 and the optical shutter 122, and further the optical shutter 117 and the two-dimensional sensor 118 in synchronization with the opening and closing of at least one of the optical shutter 122, two-dimensional At least one of the sensors 123 will change the accumulation time.
  • the above procedure for obtaining this trigger signal does not have to use an actual substrate. That is, it is also possible to obtain a trigger signal by performing simulation with the processing device in the evaluation unit 128 after obtaining design standard information.
  • the design standard information can include, for example, the following information. (1) The position of the hole (or bump) on the substrate.
  • the trigger signal obtained by the above-described procedure is stored in association with the movement signal of the stage 1300. That is, if the movement amount of the stage 1300 (which may be expressed as the movement amount of the substrate) is known, the trigger signal is automatically output. Note that at least one of the optical shutter 117 and the optical shutter 122 may be applied to the upper bright field detection system 1000.
  • FIG. 3 is a diagram for explaining the details of the evaluation unit 128.
  • the first image obtained by the first one-dimensional line sensor 106 (SCU), the second image obtained by the second one-dimensional line sensor 107 (SCD), the first oblique bright field detection system 1100 , And the fourth image obtained from the second oblique bright field detection system 1200 are sent to the buffer unit 300.
  • the buffer unit 300 from the first image, the second image, the third image, and the fourth image, information related to the distance between the detectors, the third image, and the fourth image are effective regions.
  • the image of the bump (including the image around the bump if necessary) is cut out using the information on the position in the sensor and the position information. That is, an image of four types of bumps can be obtained for one bump.
  • the image of the cut out bump is sent to the feature quantity extraction unit 310.
  • the feature amount extraction unit 310 extracts feature amounts such as information on luminance in an image, for example.
  • the image of the cut out bump is sent to the 3D image combining unit 320.
  • the 3D image combining unit 320 creates a 3D (three-dimensional) image of the bump using information on the first oblique angle, the second oblique angle, the depth of focus of each detection optical system, and the distance between focal planes. Ru.
  • the image obtained by Example 5 mentioned later may be used.
  • the feature amount and the 3D image are sent to the processing unit 330 in the evaluation unit 128.
  • the processing unit 330 uses the feature amount, 3D image, design reference information (eg, outlines of normal holes described later, bump array, hole depth, bump size, etc.), and a threshold to evaluate the bumps.
  • design reference information eg, outlines of normal holes described later, bump array, hole depth, bump size, etc.
  • a threshold e.g. outlines of normal holes described later, bump array, hole depth, bump size, etc.
  • a threshold e.g., outlines of normal holes described later, bump array, hole depth, bump size, etc.
  • the evaluation result obtained by the bump evaluation is sent to the result file generation unit 340.
  • the result file generation unit 340 organizes useful information by the worker such as defect position, size, classification result, 3D image, statistical data, and transmits the organized information to the host CPU 126.
  • the bump formation process can be roughly divided into four steps.
  • the first step is a step of forming a copper base to be a root of the bump.
  • the second step is a step of forming a wall around the copper pedestal formed in the first step, and forming a hole for filling the paste material to be a bump of a bump.
  • the third step is a step of filling the hole with the paste material.
  • the fourth step is a step of removing the wall formed in the second step.
  • the bumps can be appropriately evaluated for each of the four processes.
  • bump evaluation is performed by comparing various information to be described later with design reference information (eg, outline of normal hole, bump arrangement, hole depth, bump size, etc.).
  • FIG. 4 and FIG. 5 are diagrams for explaining the evaluation item in the first step and the information obtained from the evaluation item.
  • the particle 400 (foreign substance) is derived from the first image obtained by the first one-dimensional line sensor 106 (SCU) and the dark image in the second image obtained by the second one-dimensional line sensor 107 (SCD). It is judged. This dark image is due to the scattering of the illumination light.
  • Residue 410 is determined from the contrast of the first image obtained by the first one-dimensional line sensor 106 (SCU) and the second image obtained by the second one-dimensional line sensor 107 (SCD) Be done.
  • the contrast includes, for example, the contrast due to scattering when the illumination light is illuminated on the residue 410, the contrast due to the difference in reflectance between the residence 410 and other areas, and the contrast due to interference in the case of the residence thin film 410. It should be noted that if the residue 410 has a certain thickness, the end of the residue 410 should be a dark image. This dark image information is also used.
  • the surface roughness 420 is the contrast of the first image obtained by the first one-dimensional line sensor 106 (SCU) and the second image obtained by the second one-dimensional line sensor 107 (SCD) Obtained from
  • Chipping 430 strip
  • Dent concave
  • Projection Projection
  • Chipping 430 (cut end) in the substrate normal direction is a first image obtained by the first one-dimensional line sensor 106 (SCU), and a second image obtained by the second one-dimensional line sensor 107 (SCD) As shown in FIG. 5 image 500, the end is displayed dark.
  • Chipping 430 (cut end) in the substrate oblique direction displays Chipping 430 in the obtained image 510 brightly if the Chipping 430 is opposed to the first oblique bright field detection system 1100 (second oblique line). The same applies to the bright field detection system 1200). Also, if the Chipping 430 is not facing the first oblique bright field detection system 1100 (if it is approximately 90 ° to the projection on the substrate of the first oblique bright field detection system), obtained The Chipping 430 in the image 520 is displayed dark (the same applies to the second oblique bright field detection system 1200).
  • the contour extraction (the image 60 of the actually obtained copper base and the reference ellipse 61 which is one of the design reference information) Chipping 430 can be determined by obtaining the difference between The determination using the contour extraction is performed when the above-described Chipping 430 is opposed to the first oblique bright field detection system 1100 and the Chipping 430 is not opposed to the first oblique bright field detection system 1100. Can also be applied.
  • the Dent 440 (dent) has a thick outline as shown in the images 540 to 560 in FIG. 5, and the entire Dent 440 (dent) is displayed dark.
  • Projection 450 (protrusion) has a thin outline as shown in FIG. 5 images 570 to 590 and a bright central portion. Therefore, it becomes possible to distinguish Dent 440 (dent) and Projection 450 (protrusion) by utilizing this difference.
  • Cracking 460 is the first image obtained by the first one-dimensional line sensor 106 (SCU) and the illumination light in the second image obtained by the second one-dimensional line sensor 107 (SCD). It is judged from the dark image by scattering.
  • Cu Die Height 470 (the height of the copper pedestal), as shown in FIG. 4 image 471, image 472, is a third image obtained from the first oblique bright field detection system 1100 and a second oblique light. It is judged from the shape of the fourth image obtained from the visual field detection system 1200. Furthermore, Geometry ( ⁇ x, ⁇ y) 480 (shape of copper base), Alignment 481 (angle from a certain direction), pitch 482 are obtained by the first one-dimensional line sensor 106 (SCU) as shown in the image 483 of FIG. It can be obtained from at least one of the first image and the second image obtained by the second one-dimensional line sensor 107 (SCD).
  • SCU first one-dimensional line sensor 106
  • threshold processing using a predetermined threshold is performed on the image 483 for Geometry (.phi.x, .phi.y) 480, and the threshold is equal to or less than (or less than) the predetermined threshold.
  • the copper pedestal is recognized as a copper pedestal or by performing pattern matching with an outline that defines the shape of a normal copper pedestal. Then, the length in the X direction and the length in the Y direction of the copper pedestal are recognized as Geometry ( ⁇ x, ⁇ y) 480.
  • the alignment of the alignment 481 may be the center position of the image of the adjacent copper pedestal (it may be the position of the center of gravity if it is determined by the pattern matching described above that the copper pedestal or bump is not a circle). Is obtained from the positional difference ⁇ x, ⁇ y.
  • the pitch 482 is obtained by comparing the center position of the copper pedestal in the obtained image with the center position on the design reference information.
  • FIG. 6 and FIG. 7 are diagrams for explaining the evaluation item in the second step and the information obtained from the evaluation item.
  • the residue 601 (residue) resulting from the formation of the holes is the first image obtained by the first one-dimensional line sensor 106 (SCU) and the second image obtained by the second one-dimensional line sensor 107 (SCD). It is judged from the dark image by the scattering of the illumination light in the image of.
  • Side Wall Crack 602 and Blunt Prominence 603 are obtained from the third image obtained from the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200. It can be obtained using the fourth image. This will be described specifically. Side Wall Crack 602 and Blunt Prominence 603 are obtained from the third image obtained from the first oblique bright field detection system 1100 and the fourth image obtained from the second oblique bright field detection system 1200. It is judged by the difference between the image of the hole and the outline of the normal hole which is one of the design reference data, the height of the hole wall, and the contrast distribution of the abnormal part.
  • An image 701 in FIG. 7 is an image obtained from the first oblique bright field detection system 1100
  • an image 702 is an image obtained from the second oblique bright field detection system 1200.
  • Side Wall Crack 602. (1) The outline of the obtained hole deviates from the outline of the normal hole. (2) In the image 701, there is a dark portion outside the outline of the normal hole. (3) The size of the dark part is larger than a certain reference. (4) In the image 702, there is a bright portion outside the outline of the normal hole. (5) The height of the hole wall is lower than a certain standard.
  • Blunt Prominence 603 is determined.
  • the outline of the obtained hole deviates from the outline of the normal hole.
  • (3) The size of the dark part is smaller than a certain reference.
  • the height of the hole wall is higher than a certain standard.
  • Geometry ( ⁇ x) 604, Geometry ( ⁇ y) 605 shape of the wall of the formed hole), Alignment 606 (angle from a certain direction), Offset ( ⁇ x) 607 (deviation in the x direction), Offset ( ⁇ y) 608 ( Shift in y direction), Pitch 4609 is a first image obtained by the first one-dimensional line sensor 106 (SCU) as shown in the image 610 of FIG. 6, and a second one-dimensional line sensor 107 (SCD) It can be obtained from at least one (preferably two) of the obtained second images.
  • SCU first one-dimensional line sensor 106
  • SCD second one-dimensional line sensor 107
  • threshold processing using a predetermined threshold is performed on the image 610 for Geometry ( ⁇ x, ⁇ y) 604, and the threshold is equal to or less than (or less than) the predetermined threshold.
  • the copper pedestal is recognized as a copper pedestal or by performing pattern matching with an outline that defines the shape of a normal copper pedestal. Then, the length in the X direction and the length in the Y direction of the copper pedestal are recognized as Geometry ( ⁇ x, ⁇ y) 604.
  • the alignment 606 is obtained from the difference ⁇ x, ⁇ y in the positions of the centers of the images of the adjacent copper pedestals.
  • the pitch 482 is obtained by comparing the center position of the copper pedestal in the obtained image with the center position on the design reference information.
  • Offset ( ⁇ x) 607 (deviation in the x direction) and Offset ( ⁇ y) 608 (displacement in the y direction)
  • the center position of the copper pedestal in the first image and the copper pedestal in the second image It can be obtained from comparison with the center position of.
  • the center position of the copper pedestal in the first image actually obtained and the center position of the copper pedestal in the second image on the design reference information It can also be obtained from the comparison of
  • the center position of the copper pedestal in the first image on the design reference information and the center of the copper pedestal in the second image actually obtained It can also be obtained from comparison with position.
  • FIG. 8 and FIG. 9 are diagrams for explaining the evaluation items in the third step and information from which the evaluation items can be obtained.
  • Paste Residue 801 (residue due to application of paste material) is obtained by the first image obtained by the first one-dimensional line sensor 106 (SCU) and by the second one-dimensional line sensor 107 (SCD) It is judged from the dark image due to the scattering of the illumination light in the second image.
  • Miss Filling 802 (in a state where the predetermined paste filling amount is not satisfied) and Over Filling 803 (overfilling of paste material) are the first image obtained by the first one-dimensional line sensor 106 (SCU), the second 1 A second image obtained by the two-dimensional line sensor 107 (SCD), a third image obtained by the first oblique bright field detection system 1100, and a second image obtained by the second oblique bright field detection system 1200 It is determined from the fourth image.
  • An area 901 in FIG. 9 is a view for explaining the discrimination between the Miss Filling 802 and the Over Filling 803 using the detection result of the upper bright field detection system 1000.
  • the part of Miss Filling 802 is displayed dark (codes 902 and 903), and the part of Over Filling 803 is displayed bright (codes 904 and 905).
  • sharp outlines differ between the image obtained in Focus Position Upper (the focal position is upper) and the image obtained in Focus Position Lower (the focal position is lower).
  • An area 906 in FIG. 9 is a diagram for explaining the discrimination between the Miss Filling 802 and the Over Filling 803 using the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200.
  • it is determined as Over Filling 803.
  • In the image 907 there is a bright portion outside the outline of the normal hole.
  • FIG. 10 and FIG. 11 are diagrams for explaining the evaluation items in the fourth step and information from which the evaluation items can be obtained.
  • Particle 1001 and DFR Residue 1002 are obtained with the first image obtained with the first one-dimensional line sensor 106 (SCU), the second one-dimensional line sensor 107 (SCD) It is judged from the dark image due to the scattering of the illumination light in the second image. Also, classification is possible using feature quantities.
  • Dent 1003 (dent), Projection 1004 (protrusion) is a first image obtained by the first one-dimensional line sensor 106 (SCU), a second image obtained by the second one-dimensional line sensor 107 (SCD) In the meantime, it is determined from the third image obtained from the first oblique bright field detection system 1100 and the fourth image obtained from the second oblique bright field detection system 1200.
  • a region 1005 in FIG. 11 is a diagram for explaining the discrimination between Dent 1003 (dent) and Projection 1004 (protrusion) using the detection result of the upper bright field detection system 1000.
  • the portion of Dent 1003 (dent) is displayed dark (1006, 1007), and the portion of Projection 1004 is displayed bright (reference numerals 1008, 1009).
  • the sharpened outlines differ between the image obtained in Focus Position Upper (the focus position is upper) and the image obtained in Focus Position Lower (the focus position is lower).
  • the size of the bright portion appearing in the image differs depending on the location of the focal position.
  • the bright part of the image obtained by Focus Position Lower (the focus position is lower) is larger than the light part of the image obtained by the Focus Position Upper (the focus position is upper).
  • discrimination between Dent 1003 (dent) and Projection 1004 (protrusion) becomes possible by paying attention to the detection result of the upper bright field detection system 1000, in particular, the contrast and the contour.
  • the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200 can also discriminate between Dent 1003 (dent) and Projection 1004 (protrusion).
  • a region 1010 in FIG. 11 uses the at least one of the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200 to discriminate between Dent 1003 (dent) and Projection 1004 (protrusion). It is a figure explaining.
  • the images 1011 and 1012 are at least one of the images obtained by the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200. In the case of Dent 1003 (dent), a unique contrast 1120 is displayed inside the reference outline 1110.
  • a unique contrast 1130 is displayed outside the reference outline 1110.
  • the discrimination between Dent 1003 (dent) and Projection 1004 (protrusion) described above is performed using the detection result of the upper bright field detection system 1000, the first oblique bright field detection system 1100, and the second oblique bright field It is better to combine the discrimination using the detection result of the detection system 1200 since the discrimination accuracy is higher.
  • SOD Height1013 (Copper pedestal to paste apex height), Cu Die Height1014 (Copper pedestal height) were obtained from the first oblique bright field detection system 1100, as shown in FIG. 10 area 1015. It can be obtained from at least one of the third image and the fourth image obtained from the second oblique bright field detection system 1200.
  • the first oblique angle and the second oblique angle are reflected in the SOD Height 1013 and the Cu Die Height 1014 in the area 1015 in FIG. Therefore, in the present embodiment, the true SOD Height 1013 and the Cu Die Height 1014 are obtained in consideration of the first oblique angle and the second oblique angle in the SOD Height 1013 and the Cu Die Height 1014 in the area 1015 of FIG.
  • the quality of the protrusion 1022 of the formed bump can be determined by comparing it with the outline 1023 of the normal bump to be used as a reference.
  • the bump measurement system performs threshold processing using a predetermined threshold on the image obtained for Geometry ( ⁇ x, ⁇ y) 1016, and the threshold is equal to or higher than the predetermined threshold (or
  • the copper pedestal is recognized by recognizing the area of the following as a copper pedestal or performing pattern matching with an outline that defines the shape of a normal copper pedestal. Then, the length in the X direction and the length in the Y direction of the copper pedestal are recognized as Geometry ( ⁇ x, ⁇ y) 1016.
  • Offset ( ⁇ x) 1019 (displacement in the x direction) and Offset ( ⁇ y) 1020 (displacement in the y direction)
  • the center position of the bumps in the first image and the center position of the bumps in the second image It can be obtained from the comparison of For Offset ( ⁇ x) 1019 and Offset ( ⁇ y) 1020, it is also possible to compare the center position of the bump in the first image actually obtained with the center position of the bump in the second image on the design reference information. You can get it.
  • the center position of the bump in the first image on the design reference information is compared with the center position of the bump in the second image actually obtained. It can also be obtained from
  • FIG. 12 is a view for explaining the side wall measurement and the filling failure measurement of the paste material.
  • the effective areas 1207 and 1208 and their depth of focus are the height 1203 from the top of the copper pedestal 1201 to the top of the wall 1202 read from the design reference data, It is determined in consideration of the aspect ratio of the hole width 1204, the height 1203 and the hole width 1204. The same applies to the first oblique angle and the second oblique angle.
  • the inclination of the wall is obtained by the first image obtained by the first one-dimensional line sensor 106 (SCU) and the hole obtained by the second image obtained by the second one-dimensional line sensor 107 (SCD). It can be obtained by the difference between the shape (which may be the ellipticity of a hole) and the third image obtained from the effective area of the first oblique bright field detection system 1100.
  • the fourth image obtained from the effective region of the second oblique bright field detection system 1200 is obtained by the first image obtained by the first one-dimensional line sensor 106 (SCU) and the hole obtained by the second image obtained by the second one-dimensional line sensor 107 (SCD).
  • the paste filling failure is caused by the third image obtained from the effective area of the first oblique bright field detection system 1100 and the second oblique bright field, as in the areas 1205 and 1206 of FIG. It is reflected in the fourth image obtained from the effective area of the detection system 1200. That is, filling of paste from the third image obtained from the effective area of the first oblique bright field detection system 1100 and the fourth image obtained from the effective area of the second oblique bright field detection system 1200 It becomes possible to estimate a defect.
  • the first one-dimensional line sensor 106 (SCU) and the second one-dimensional line sensor 107 (SCD) have different focal positions so that defects in the upper and lower parts of the holes having different focal positions can be detected respectively.
  • the first one-dimensional line sensor 106 (SCU) is used for detecting a defect in the upper portion of the hole
  • the second one-dimensional line sensor 107 (SCD) is used for detecting a defect in the lower portion of the hole.
  • a bright field epi-illumination / dark-field illumination system by a lamp can be adopted.
  • the ratio can be changed from 100: 0 to 0: 100).
  • FIG. 13 is a diagram for explaining reading of an image in the present embodiment.
  • Trigger signals 1301 and 1302 for controlling the exposure of the two-dimensional sensor 118 and two-dimensional sensor 123 are for reading out the signals of the first one-dimensional line sensor 106 (SCU) and the second one-dimensional line sensor 107 (SCD) are synchronized with the trigger signals 1303 and 1304 of FIG.
  • the trigger signal 1301 is a trigger signal corresponding to the t1st bump separated by ⁇ xforg from the alignment mark in the 1st die 1309 (or shot).
  • the trigger signal 1302 is a trigger signal corresponding to a 2nd bump that is separated from the 1st bump by a distance Px.
  • the opening times of the optical shutters 117 and 122 are synchronized with the trigger signal 1303. Further, the closing time of the optical shutters 117 and 122 can be set to an arbitrary time so as to correspond to the measurement object having a low reflectance (area 1305). This means that the open time of the optical shutters 117 and 122 can be controlled, which means that the charge accumulation time of the two-dimensional sensor 118 and the two-dimensional sensor 123 can be varied. Furthermore, as described above, the two-dimensional sensor 118 and the two-dimensional sensor 123 may be of a time delay integration type. In that case, the two-dimensional sensor 118 and the two-dimensional sensor 123 shift charge in synchronization with the scanning of the stage 1300.
  • the shift timing in this case is changed according to the first oblique angle and the second oblique angle based on the one-dimensional line sensor 106 (SCU) and the second one-dimensional line sensor 107 (SCD).
  • the number of additions is determined based on the two-dimensional sensor 118 and the two-dimensional sensor 123 (FIG. 13 area 1306). Further, it is possible to invalidate read data at the time of addition scanning (FIG. 13 area 1307). Further, after the exposure of the two-dimensional sensor 118 and the two-dimensional sensor 123 is finished, the shift trigger is changed to read out data (area 1308).
  • FIG. 14 is a diagram for explaining the positional relationship of the field of view of the one-dimensional line sensor 106, the second one-dimensional line sensor 107, the two-dimensional sensor 118, and the two-dimensional sensor 123.
  • the visual field 1401 of the one-dimensional line sensor 106, the visual field 1402 of the second one-dimensional line sensor 107, the visual field 1403 of the two-dimensional sensor 118 can be expressed as the effective area described above), and the two-dimensional sensor The 123 views 1404 are at different positions.
  • the X axis and the Y axis in FIG. 14 are the scanning directions of the stage 1300, respectively. That is, the stage 1300 moves the substrate in the X-axis and Y-axis directions in FIG. In the present embodiment, stage 1300 moves the substrate in the direction of arrow 1405. That is, the bumps 1406 are temporally imaged in order of the two-dimensional sensor 118, the one-dimensional line sensor 106, the one-dimensional line sensor 107, and the two-dimensional sensor 123. The one-dimensional line sensor 106 and the one-dimensional line sensor 107 are on the same coordinate on the X-axis, so that the bumps are simultaneously imaged in time.
  • a plurality of temporally different images can be obtained for the bumps 1406. That is, images for the same bump will be stored at different addresses in memory.
  • the distance between each field of view is known, from the relationship between the distance between each field of view and the scanning speed, it may be known how much time difference a plurality of obtained images are captured by each sensor it can. Therefore, in the present embodiment, a plurality of images captured for the same bump and having a time difference are read from the memory in consideration of this time difference.
  • At least one of the one-dimensional line sensor 106 and the one-dimensional line sensor 107 lags behind the time taken by the two-dimensional sensor 118 by the time 1407 to perform imaging. Further, the two-dimensional sensor 123 performs imaging with a delay of 1408 with respect to the time taken by the two-dimensional sensor 118. Therefore, in the present embodiment, an image captured from the memory is read in consideration of the time differences 1407 and 1408.
  • each visual field has positional deviations 1409, 1410, and 1411 in a distance, but the size of each visual field is larger than the expected positional deviation, which is preferable. Is sufficiently large, the effects of the misalignments 1409, 1410 and 1411 can be substantially ignored.
  • a dark field optical system is also within the scope of the disclosure of this specification, the surface of the substrate is often rough in the post-process of semiconductor manufacture. Therefore, in the case of a dark field optical system sensitive to surface roughness, noise may be increased. Therefore, a bright field optical system is suitable for the evaluation of bumps.
  • the second embodiment is an embodiment using, for example, parallel illumination light from a multipoint light emission source using LEDs.
  • a second multipoint emission light source 1506 and a second multipoint emission light source 1506 are provided around the objective lens 120 of the second oblique bright field detection system 1200.
  • a multipoint light source 1507 is provided.
  • the first multipoint light source 1506 has a plurality of LEDs 1506.
  • the second multipoint light source 1507 has a plurality of LEDs 1505.
  • the first multipoint light source 1506 and the second multipoint light source 1507 emit light.
  • the end of the portion of dotted line 1507 is more emphasized and imaged. This is effective when obtaining the shape of the bump mentioned above.
  • the above-described multi-point light emitting light source includes an upper bright field detection system 1000 disposed in the normal direction of the substrate and a first oblique bright field detection system 1100 disposed at a first oblique angle with respect to the substrate. It may be adopted. Alternatively, at least one of the first multipoint emission light source 1506 and the second multipoint emission light source 1507 may selectively emit light. Further, as indicated by a dotted line 1503, a part of the multipoint light emission source may emit light. In this way, it is possible to emphasize and capture an end of an arbitrary place.
  • Example 3 is an embodiment for obtaining the dimensions of the bumps from an image obtained from at least one of the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200 described above. .
  • FIG. 16 is a diagram for explaining this embodiment
  • FIG. 17 is a flowchart for explaining this embodiment.
  • FIG. 16 (a) is an image of a bump obtained from at least one of the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200.
  • the evaluation unit 128 first receives an image of a bump from at least one of the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200 (Step 3100 in FIG. 17).
  • the evaluation unit 128 obtains the radius r of the bottom surface of the bump from the distance between the end 3001 and the end 3002 of the bump (Step 3200 in FIG. 17).
  • the curvature of the bottom surface of the obtained image of the bump may be used.
  • the evaluation unit 128 obtains a line segment 3004 connecting the end 3002 and the vertex 3003. Then, obtain the angle theta 1 (step in FIG. 17 3300).
  • L 1 is not a true height.
  • the true height L 0 can be obtained from sin ⁇ 2 (step 3500 in FIG. 17). According to this embodiment, the height of the bumps can be known.
  • this embodiment has a plurality of illumination units outside the illumination range of at least one of the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200. It is.
  • FIG. 18A is a view for explaining the bump measurement system of the present embodiment from the y direction
  • FIG. 18B is a view for explaining the bump measurement system of the present embodiment from the z direction.
  • a plurality of light sources for example, the light sources A to G in FIG. 18B
  • an object to be measured design standard information Arbitrary light sources can be made to emit light at arbitrary times and times depending on the design values of the dimensions and roughness of the bumps, the steps of the process of forming the bumps, and the like.
  • the light source A and the light source G have the same elevation angle but different azimuth angles.
  • the light source B and the light source F have the same elevation angle but different azimuth angles.
  • the light source C and the light source E have the same elevation angle but different azimuth angles. In other words, although the light source A and the light source C have the same azimuth angle, the elevation angle of the light source C is higher than that of the light source A.
  • the light source E and the light source F have the same azimuth angle, but the elevation angle of the light source E is higher than that of the light source F.
  • a polarizing filter 4001 is disposed for each light source, and it is possible to illuminate the bumps 4002 with arbitrary polarized light (for example, P polarized light, S polarized light).
  • arbitrary polarized light for example, P polarized light, S polarized light.
  • the wavelength of each light source may not be the same, and the wavelength of each light source may be different. That is, in the present embodiment, the bump 4002 may be illuminated with light of a first wavelength and light of a second wavelength different from the first wavelength.
  • FIG. 19A shows a first variation.
  • the light sources 4003 to 4009 facing the at least one of the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200 (the light sources 4003 to 4009 are arranged at the same elevation angle Lights up).
  • the light sources 4010 to 4013 disposed at an elevation angle higher than the light sources 4003 to 4009 emit light.
  • the light sources 4010 to 4013 illuminate the bumps 4002 from the same direction as at least one of the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200. According to the present embodiment, it is possible to obtain a clearer image (in particular, the contour is sharp) according to the state of the bumps.
  • At least one of the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200 images a bump with a certain depth of focus.
  • the image outside of the depth of focus is not sharper than the image within the depth of focus. It is more suitable for evaluation of bumps if a sharp image is obtained in more parts of the bumps.
  • the present embodiment is an embodiment taking this point into consideration, and is characterized in that images are obtained at different positions in a predetermined area, and the obtained images are synthesized. More specifically, imaging is performed a plurality of times at different positions of one bump, a plurality of images are obtained, and the plurality of obtained images are combined.
  • the optical shutter repeats the opening and closing operation plural times at different positions of one bump to obtain a plurality of images and combine the plurality of images obtained. .
  • FIG. 20 is a diagram for explaining the bump measurement system of this embodiment from the y direction.
  • the bumps 5005 are conveyed in the direction of the arrow 5004.
  • the optical shutter 117 and the optical shutter 122 are selected. At least one of them opens and closes after a predetermined time. Since the areas 5006, 5007, and 5008 on the bumps are temporally imaged in the order of 5006, 5007, and 5008, the above-described opening and closing operation is performed also for the areas 5007, 5008.
  • three sharp images obtained with different positions of the bumps are obtained.
  • the evaluation unit 128 combines the three images. That is, the evaluation unit 128 combines the three images in the x-axis direction. This makes it possible to obtain a sharper image.
  • the present embodiment can also be applied to bumps of different sizes.
  • FIG. 21 is a view for explaining this embodiment. For example, in the present embodiment, the case of imaging a relatively wide bump in the x direction shown in FIG. 21 (a) and the case of imaging a bump having a relatively narrow width in the x direction shown in FIG. 21 (b) It is possible to change the imaging interval (which can also be expressed as the interval from the time when the optical shutter opens to the time when it opens next). In this embodiment, the interval P 2 is shorter than P 1.
  • the number of times of imaging may be changed.
  • the case of imaging a relatively wide bump in the x direction shown in FIG. 22 (a) and the case of imaging a bump having a relatively narrow width in the x direction shown in FIG. 22 (b) It is also possible to change the number of times of imaging (which can also be expressed as the number of times the optical shutter opens and closes).
  • the bump measurement system captures a total of five times, and in the case of FIG. 22A, a total of four times.
  • an imaging pause time during which imaging is not performed may be provided from when a certain bump is imaged to the next bump. During this imaging pause time, at least one of the optical shutter 117 and the optical shutter 122 will be kept closed. In this way, the amount of unnecessary data can be reduced, and the load on the evaluation unit 128 can be reduced.
  • the time at which at least one of the optical shutter 117 and the optical shutter 122 is opened, closed, opened and closed, imaging interval, imaging frequency, imaging pause time is design reference information (for example, on the substrate)
  • the operator can arbitrarily change it according to the coordinates of the bumps, the dimensions of the bumps, the speed at which the bumps are transported, the depth of focus, and the like.
  • this invention is not limited to an Example.
  • any two of the three detection optical systems described above can be adopted, and the number of detection optical systems may be further increased.
  • the present invention may be used for evaluation other than bumps, or the contents disclosed in the present specification may be applied to the pre-semiconductor manufacturing process.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

 バンプの評価項目は今後多岐に及ぶことが予想される。従来技術においては、この点に関する配慮がなされていなかった。 本発明は、基板の法線方向に配置された上方明視野検出系、基板に対して第1の斜角で配置された第1の斜方明視野検出系、基板に対して第2の斜角で配置された第2の斜方明視野検出系、を備える。これら複数の明視野検出系から得られた画像を用いてバンプの評価を行う。本発明によれば、従来よりも得られる情報量が多くなるので、より精度の高いバンプ評価を行うことが可能となる。

Description

基板に形成された形状を計測するための装置
 本発明は、基板を計測するための装置、及び方法に関する。基板にはシリコンウェハ等様々な基板が含まれる。また、評価、計測には、例えばバンプの形成過程において形成される様々な形状、欠陥を得ること、バンプの形状を得ること、欠陥がいかなるものかを評価(分類)することが含まれる。
 様々な電子製品に用いられる半導体はウェハに対して様々な処理を施すことで製造される。この半導体製造工程は大きく前工程、後工程に分けられる。まず、前工程について説明する。前工程には、ウェハの酸化、ウェハへのフォトレジストの塗布、露光によるパターン形成、エッチング、酸化・拡散・CVD・イオン注入、平坦化、電極形成、検査が含まれる。前工程によって、ウェハ上に必要な半導体素子の作りこみが行われる。次に、後工程について説明する。後工程には、前工程によって処理されたウェハをチップごとに切り出す工程、切り出したチップをパッケージ基板へ固定する工程、モールド工程が含まれる。
 ここで、チップをパッケージ基板へ固定する工程は、バンプと呼ばれる突起電極をチップに形成し、このバンプを介してチップ・パッケージ基板を接続するフリップチップボンディングが使用されることがある。フリップチップボンディングにおいて、バンプの形状、バンプ上の欠陥の有無等は、チップ・パッケージ基板間の電気特性、すなわち半導体の電気特性に影響を与えるため重要である。さらに、TSV(Si貫通ビア)を使用した3次元積層型DRAMや、メモリとCPUとを組み合わせたモジュールチップの生産工程でもバンプの形状等は結果物の電気特性に影響を与えるため重要である。よって、基板に形成された形状を評価すること、例えば、バンプの形成過程、及び形成されたバンプを計測すること(これらを総称してバンプ計測と称することもできる)が必要となる。
 従来技術としては、特許文献1乃至3の光学式の評価装置が提案されている。
米国特許第7286218号公報 米国特許第7064821号公報 米国特許第7126699号公報
 バンプの評価項目は今後多岐に及ぶことが予想される。従来技術においては、この点に関する配慮が十分ではなかった。
 本発明は、設計基準情報を用いてバンプを評価することを特徴とする。
 本発明は、透明強誘電体を有するシャッタを使用することを特徴とする。
 本発明は、基板に対して所定の角度傾斜した結像光学系を使用することを特徴とする。
 本発明は、複数の結像光学系(例えば、明視野光学系)にて、バンプを評価することを特徴とする。
 本発明によれば、従来よりも精度の高いバンプの評価を行うことが可能となる。本発明によれば、従来よりも高速なバンプの評価を行うことが可能となる。
本実施例のバンプ計測システムの構成。 画像処理を説明する図。 評価部128の詳細を説明する図。 第1工程での評価項目とその評価項目がどのような情報から得られるかを説明する図。 第1工程での評価項目とその評価項目がどのような情報から得られるかを説明する図(続き)。 第2工程での評価項目とその評価項目がどのような情報から得られるかを説明する図。 第2工程での評価項目とその評価項目がどのような情報から得られるかを説明する図(続き)。 第3工程での評価項目とその評価項目がどのような情報から得られるかを説明する図。 第3工程での評価項目とその評価項目がどのような情報から得られるかを説明する図(続き)。 第4工程での評価項目とその評価項目がどのような情報から得られるかを説明する図。 第4工程での評価項目とその評価項目がどのような情報から得られるかを説明する図(続き)。 側壁計測、及びペースト材の充填不良計測を説明する図。 画像の読み出しを説明する図。 1次元ラインセンサ106、第2の1次元ラインセンサ107、2次元センサ118、及び2次元センサ123の視野の位置関係を説明する図。 実施例2を説明する図。 実施例3を説明する図。 実施例3を説明するフローチャート。 実施例4を説明する図。 実施例4を説明する図(その2)。 実施例5を説明する図 実施例5を説明する図(その2)。 実施例5を説明する図(その3)。 実施例5を説明する図(その4)。 トリガ信号を生成する処理を説明する図。
 以下図面を用いて実施例を説明する。
 本実施例のバンプ計測システムの構成について図1を用いて説明する。本実施例のバンプ計測システムは、基板を固定して走査するためのステージ1300、基板の法線方向に沿って配置された上方明視野検出系1000、基板に対して第1の斜角で配置された第1の斜方明視野検出系1100、基板に対して第2の斜角で配置された第2の斜方明視野検出系1200、を備える。
 まず、上方明視野検出系1000の構成について説明する。照明系101からの光はレンズ10、ハーフミラー102を経由し、対物レンズ103を経由して基板上に照明される。基板からの光(例えば正反射光)は対物レンズ103によって集光される。集光された光は可変開口104を経由し、結像レンズ105によって結像されることになる。なお、結像レンズ105の結像側にはビームスプリッタ106が配置されており、結像レンズ105を経由した光は2つに分岐されることになる。分岐された光は、第1の1次元ラインセンサ106(SCU)、及び1次元ラインセンサ106とは異なる焦点位置に配置された第2の1次元ラインセンサ107(SCD)で検出される。ここで、第1の1次元ラインセンサ106、及び第2の1次元ラインセンサ107は必ずしも双方が必要という訳ではなく、例えば、計測対象、検出すべき欠陥、計測する項目の数に応じて、いずれか1つを使用するようにしても良い。なお、結像レンズ105の結像側には、得られた像を観察するための可動式全反射ミラー108、レンズ109、観察カメラ110が配置されている。なお、照明系101は後述する照明方式1:ランプ(バルブ)による明視野落射照明/暗視野照明と、照明方式2:LEDによる多点発光光源による平行照明との切り替えのために、ランプ光源1400、多点LED光源1500、及び切り替え機構1600を有する。
 次に、基板に対して第1の斜角で配置された第1の斜方明視野検出系1100について説明する。光源111からの光はハーフミラー112によって分岐される。分岐された1つの光はさらに全反射ミラー113によって反射され、レンズ20を介して第1の斜方明視野検出系1100に入射する。入射した光は、ハーフミラー114によって反射され、対物レンズ115によって基板上に第1の斜角で照明される。基板からの光(例えば正反射光)は対物レンズ115によって集光される。集光された光は、結像レンズ116によって結像されることになる。なお、結像レンズ116の結像側には透明強誘電体セラミックス系の材料(以降はPLZTと称す)によって構成された光学的シャッタ117が配置される。ここで、PLZTを用いた光学的シャッタについて概説する。本実施例のバンプ計測システムは、光学的シャッタ117、後述する光学的シャッタ122を駆動するための電源を有する。この電源から電圧が印加されるとPLZTの複屈折率は変化する。つまり、PLZTは電圧の印加によってシャッタとしての役割を果たすことになる。また、PLZTのシャッタとしての機能は電圧を印加する周波数に依存しており、高速応答が可能である。なお、PLZTの代替えとして液晶式のシャッタや機械式のシャッタを採用しても良い。
 光学的シャッタ117を経由した光は2次元センサ118(SB)(例えば電荷蓄積型センサの1種である時間遅延積分型センサ)によって撮像されることになる。なお、ここで、2次元センサ118を使用した撮像に当たっては、センサの全画素を使用するのではなく、設計基準情報に応じて一部の任意の画素の集合を選択的に使用することが可能である。この任意の画素の集合は、有効領域と表現することができる。
 基板に対して第2の斜角で配置された第2の斜方明視野検出系1200について説明する。光源111からの光はハーフミラー112によって分岐される。分岐されたもう1つの光は、レンズ30を介して第2の斜方明視野検出系1200に入射する。入射した光は、ハーフミラー119によって反射され、対物レンズ120によって基板上に第2の斜角で照明される。基板からの光(例えば正反射光)は対物レンズ120によって集光される。集光された光は、結像レンズ121によって結像されることになる。なお、結像レンズ121の結像側にはPLZTによって構成された光学的シャッタ122が配置される。光学的シャッタ122を経由した光は2次元センサ123(SF)(例えば時間遅延積分型センサ)によって撮像されることになる。なお、ここで、2次元センサ123を使用した撮像に当たっては、センサの全画素を使用するのではなく、設計基準情報に応じて一部の任意の画素の集合を選択的に使用することが可能である。この任意の画素の集合は、有効領域と表現することができる。
 上方明視野検出系1000、第1の斜方明視野検出系1100、及び第2の斜方明視野検出系1200の少なくとも1つについては、P偏光を基板に照明し、基板からの光のうちP偏光を偏光フィルタによって遮光するようにしても良い。そのようにすれば、より鮮明な像を得られる場合もある。つまり、本実施例のバンプ計測システムは、照明偏光と結像光学系側の偏光フィルタにて遮光する偏光との組み合わせを変更可能であり、計測対象、及び所望の欠陥の像をより鮮明に得られる場合も含むということである。
 ここで、可変開口104、40、50は検出しようとする欠陥の性質(Z方向の位置、サイズ等)に応じて焦点深度を変えることができる。また、可変開口104、30、50は後述する設計基準情報から読み出した基板の凹凸に応じて合焦するように焦点深度を変えることができる。
 なお、第1の斜方明視野検出系1100はステージ1300のX軸の走査方向に対して進行方向反対側に配置されており、第2の斜方明視野検出系1200はステージ1300のX軸の走査方向に対して進行方向側に配置されている。これは言い換えるなら、基板上方から見た場合に、上方明視野検出系1000、第1の斜方明視野検出系1100、第2の斜方明視野検出系1200は、ステージ1300のX軸の走査方向上に配置されている、ステージ1300のX軸の走査方向に沿って配置されていると表現することもできる。
 なお、上方明視野検出系1000、第1の斜方明視野検出系1100、第2の斜方明視野検出系1200をステージ1300のY軸の走査方向上に配置しても良い。
 また、第1の斜方明視野検出系1100、及び第2の斜方明視野検出系1200の少なくとも1つは系全体で、後述する設計基準情報に基づいて、その傾きを変えることが可能である。つまり、第1の斜角、及び第2の斜角は任意に変更することができる。より具体的には、第1の斜方明視野検出系1100、及び第2の斜方明視野検出系1200の少なくとも1つは、設計基準情報に応じて(例えば、検出すべきバンプの面の角度、ホールのアスペクト比)第1の斜角、及び第2の斜角を任意に変更することができる。さらに、後述するホールの内側側壁を観察することも可能になる。
 また、2次元センサ118、及び2次元センサ123の少なくとも1つは、後述する設計基準情報に基づいて、検出光軸に対して前後に動くことが可能である。つまり、焦点を任意に変更することが可能になる。より、具体的には、2次元センサ118、及び2次元センサ123の少なくとも1つは、検出すべきバンプの高さ、及び距離の少なくとも1つに応じて、検出光軸に対して前後に動くものである。
 さらに、2次元センサ118は光学的シャッタ117の開閉に同期して電荷を蓄積するものである。これは、2次元センサ118の電荷蓄積の開始は光学的シャッタ117の開動作によって制御され、電荷蓄積の終了は光学的シャッタ117の閉動作によって制御されることを意味する。そして、2次元センサ118の電荷蓄積の電荷蓄積時間は、光学的シャッタ117が開いてから閉じるまでの時間に対応していることを意味している。さらに、2次元センサ123は光学的シャッタ122の開閉に同期して電荷を蓄積するものである。これは、2次元センサ123の電荷蓄積の開始は光学的シャッタ122の開動作によって制御され、電荷蓄積の終了は光学的シャッタ122の閉動作によって制御されることを意味する。そして、2次元センサ123の電荷蓄積の電荷蓄積時間は、光学的シャッタ122が開いてから閉じるまでの時間に対応していることを意味している。さらに、2次元センサ118、2次元センサ123で得られた画像はそれぞれ独立して読みだすことができる。
 次に、画像処理について説明する。上述したように、第1の斜方明視野検出系1100からは2つの画像(第1の画像、第2の画像)が得られる。第1の斜方明視野検出系1100からは1つの画像が得られる。第2の斜方明視野検出系1200は1つの画像が得られる。つまり、本実施例のバンプ計測システムでは、1つの検査領域から4つの画像が得られることになる。本実施例のバンプ計測システムは、この4つの画像のうち少なくとも1つ以上を用いてバンプに関する情報を得るものである。
 より、具体的に図2を用いて説明する。まず、各検出系がどのように画像を取得するか説明する。まず、第1の1次元ラインセンサ106(SCU)、及び第2の1次元ラインセンサ107の撮像について説明する。第1の1次元ラインセンサ106(SCU)、及び第2の1次元ラインセンサ107の撮像は、撮像を始める最初のダイ(1stダイ)の最初のバンプ(1stバンプ)の位置をチップ原点からの設計値に基づいて認識し、1stバンプを撮像することにより第1の画像、第2の画像を得る。
 次のバンプ(2ndバンプ)はチップ原点からではなく、1stバンプの撮像位置からの設計ピッチにステージ移動量を合わせることで撮像を行う。N番目のバンプについても同様である。さらに、次のダイ(2ndダイ)の1stバンプについては、1stダイの最後のバンプ位置から2ndダイの1stバンプまでの間隔を得ておいて、この間隔にステージの移動量を合わせる。
 観察カメラ110にて得られた画像は、基板を位置決めするための情報を得るアライメント処理部125へ送られる。観察カメラ110にて得られた画像から基板を位置決めするための情報が得られる。基板を位置決めするための情報は、一旦ホストCPU126へ送信された後、メカ制御部127へ送信される。基板を位置決めするための情報に基づき、ステージは上下に駆動する。これにより、いわゆるオートフォーカスが可能となる。
 なお、画像処理の処理量は評価すべきバンプや形状の密度や配置の仕方に依存する。よって、本実施例のステージ1300は、バンプや基板表面に形成された形状の密度や配置の仕方に応じ、その速度を変更する。例えば、密度が低ければステージ1300の速度はより速くなるし、密度が高ければステージ1300の速度は遅くなる。
 第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像、第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像は、評価部128へ送られる。ステージからの座標値もステージ同期撮像制御部124を経由して、評価部128へ送られる。上記4つの画像と座標値とを関連づけることでいずれの領域を検査しているか知ることができる。また、いずれの領域を検査すべきか選択することもできる。
 検査領域選択部127へ送信された4つの画像は評価部128へ送られる。ここで、4つの画像の少なくとも1つを使用して、バンプの評価が行われる。ここで、バンプの評価には、バンプ(又はバンプとなるべきペースト材料)の欠陥の有無を評価する欠陥判定、欠陥の寸法計測、欠陥分類、バンプとなるべきペースト材料の高さ計測、ペースト材料を充填すべき穴(ホール)の深さ形成、ホールの壁の角度計測、ペースト材料の体積推定が含まれる。評価結果はホストCPU126へ送信され、モニタ129によってマップとして作業者へ表示される。
 また、評価結果は、同時にI/F部130を介してマネジメントシステム131へ送信され、歩留まり管理に使用される。ホストCPU126には基板搬送装置132も接続されており、基板の搬送はホストCPUからの情報に基づいて基板搬送装置132によって行われる。
 次に、光学的シャッタ117、及び光学的シャッタ122の少なくとも1つを駆動するためのトリガ信号について説明する。本実施例のバンプ計測システムは、実際の計測に前に基板を撮像し、以下の動作を行う。まず、第1の1次元ラインセンサ106(SCU)で得られた第1の画像(第2の画像でも良い)は、ホール位置を認識するためのホール位置認識部50へ送られる。
 ホール位置認識部50では、第1の画像と正常なホールの形状を規定した輪郭線とをパターンマッチングすることで、第1の画像中からホールを認識し、ホールの寸法を得る。そして、得られたホールの寸法、ステージ1300の移動速度、第1の斜方明視野検出系1100の視野の範囲及び第2の斜方明視野検出系1200の範囲、上方明視野検出系1000の視野の位置と第1の斜方明視野検出系1100の視野の位置と第2の斜方明視野検出系1200の視野との位置関係から、光学的シャッタ117、及び光学的シャッタ122の少なくとも1つを駆動するためのトリガ信号を生成する。なお、この輪郭線は、例えば計測する工程毎(例えば、後述する第1乃至第4工程)、対象毎(例えば、ホール、バンプ)、像を得る方位毎に規定されており、作業者が各種のインターフェースを用いて所望の寸法や形状とすることも可能である。つまり、本実施例のバンプ計測システムは複数の種類の輪郭線を使用すると表現することもできるし、設計基準情報には複数の種類の輪郭線が含まれると表現することもできる。また、以降の説明で輪郭線について言及する場合、その説明は複数の種類の輪郭線を使用することを含むものである。
 このトリガ信号を生成する処理は、さらに具体的には図24を用いて以下のように説明される。まず得られたホールの寸法(特にステージ1300が動く方向の寸法)をW1 [m]とする。ステージ1300の移動速度をv [m/s]とする。第1の斜方明視野検出系1100の視野及び第2の斜方明視野検出系1200の視野の範囲(特にステージ1300が動く方向の範囲)をW2 [m]とする。このときホールが第1の斜方明視野検出系1100の視野を通過する時間T1 [s]は例えば、T1 = (W1+W2)/vとして表現される。このTの開始時刻Topen1が、光学的シャッタ117の開動作のためのトリガ信号の発生時刻となる。また、このTの終了時刻Tclose1が、光学的シャッタ117の閉動作のためのトリガ信号の発生時刻となる。さらに、第1の斜方明視野検出系1100の視野と2の斜方明視野検出系1200の視野との間にΔDの間隔がある場合、光学的シャッタ122の開動作のためのトリガ信号の発生時刻Topen2は例えばTopen2 = Tclose1+ΔT = Tclose1 + (ΔD-W1-W2)/vとして表現される。光学的シャッタ122の閉動作のためのトリガ信号の発生時刻Tclose2は例えば Tclose2 = Topen2 + (W1+W2)/vとして表現される。さらに、ホールやバンプはある間隔Pをもって基板上に形成されているので、図24に記載したホール以降のホールを撮像するためのトリガ信号はこの間隔Pも考慮して決定される。
 生成されたトリガ信号は、ステージ同期撮像制御部124へ送られる。このトリガ信号によって、光学的シャッタ117、及び光学的シャッタ122の少なくとも1つは駆動され、さらに光学的シャッタ117、及び光学的シャッタ122の少なくとも1つの開閉に同期して2次元センサ118、2次元センサ123の少なくとも1つは蓄積時間を変えることになる。
 また、このトリガ信号を得る上記の手順は実際の基板を使用しなくても良い。つまり、設計基準情報を得ておいて、評価部128内の処理装置でシミュレーションを行うことでトリガ信号を得ることも可能であるということである。ここで、設計基準情報とは、例えば、以下の情報を挙げることができる。(1)基板上のホール(バンプでも良い)の位置。(2)ホールの寸法(3)ホールとホールとの間隔(4)上方明視野検出系1000の視野の位置と第1の斜方明視野検出系1100の視野の位置と第2の斜方明視野検出系1200の視野との位置関係(5)上方明視野検出系1000の視野の範囲、第1の斜方明視野検出系1100の視野の範囲、第2の斜方明視野検出系1200の視野の範囲(視野数や実視野と表現することもできる)(6)ステージ1300の移動速度。
 上述した手順により得られたトリガ信号はステージ1300の移動信号と対応づけて記憶されることになる。つまり、ステージ1300の移動量から(基板の移動量と表現しても良い)が分かれば、トリガ信号は自動的に出力されるということである。なお、光学的シャッタ117、及び光学的シャッタ122の少なくとも1つは上方明視野検出系1000に適用しても良い。
 次に、評価部128の詳細について説明する。図3は評価部128の詳細を説明する図である。第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像、第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像は、バッファ部300へ送られる。バッファ部300では、第1の画像、第2の画像、第3の画像、第4の画像それぞれから、各検出器間の距離に関する情報、第3の画像、第4の画像については有効領域のセンサ内での場所に関する情報、位置情報を使用して、バンプの画像(必要に応じてバンプ周辺の画像も含む)が切りだされる。つまり、1つのバンプについて4種類のバンプの画像が得られる。
 切りだされたバンプの画像は特徴量抽出部310に送られる。特徴量抽出部310では、例えば画像内の輝度に関する情報等の特徴量が抽出される。
 同時に、切りだされたバンプの画像は3D像合成部320へ送られる。3D像合成部320では、第1の斜角、第2の斜角の大きさ、各検出光学系の焦点深度、焦点面の間隔の情報を用いてバンプの3D(3次元)像が作成される。なお、3D像の作成に当たっては、後述する実施例5により得られた像を使用される場合もある。
 特徴量、及び3D像は評価部128内の処理部330へ送られる。処理部330では、特徴量、3D像、設計基準情報(例:後述する正常ホールの輪郭線、バンプ配列、ホール深さ、バンプサイズ等)、閾値を使用して、バンプの評価を行う。ここで、バンプ評価には、バンプ(又はバンプとなるべきペースト材料)の欠陥(後述するParticle,Residue,Chipping,Dent,Projection,Cracking等)の有無を評価する欠陥判定、欠陥の寸法計測、欠陥分類、バンプとなるべきペースト材料の高さ(後述するSOD Height)計測、ペースト材料を充填すべき穴(ホール)の寸法(後述するGeometry)計測、ホールの壁の角度計測、ペースト材料の体積推定が含まれる。さらに、これらのバンプ評価は、全て座標と対応づけて行われる。ここで、設計基準情報は既定の値ではなく、作業者が任意に変更しても良い。
 バンプ評価によって、得られた評価結果は、結果ファイル生成部340へ送られる。結果ファイル生成部340では、欠陥位置、サイズ、分類結果、3D像、統計データ等作業者によって有益な情報を整理し、整理した情報をホストCPU126へ送信する。
 次にバンプ評価についてさらに詳細に説明する。本実施例のバンプ計測システムは評価を行うバンプ形成プロセスごとに評価すべき項目を変更することが可能である。バンプ形成プロセスは大きく4つの工程に分けられる。第1工程はバンプの根元をとなるべき銅の台を形成する工程である。第2工程は第1工程で形成した銅の台の周囲に壁を形成し、バンプの突起となるべきペースト材料を充填するための穴(ホール)を形成する工程である。第3工程はホールにペースト材料を充填する工程である。第4工程は第2工程で形成した壁を除去する工程である。本実施例のバンプ計測システムでは、例えばこの4工程についてそれぞれ適切にバンプの評価を行うことができる。以降、詳細を説明するが、バンプ評価は後述する様々な情報と設計基準情報(例:正常ホールの輪郭線、バンプ配列、ホール深さ、バンプサイズ等)とが比較されることにより行われる。
 まず、第1工程でのバンプ評価について説明する。図4、及び図5は第1工程での評価項目とその評価項目がどのような情報から得られるかを説明する図である。
 Particle400(異物)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像中の暗像から判断される。この暗像は、照明光の散乱に起因するものである。
 Residue410(残留物)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像のコントラストから判断される。コントラストには、例えばResidue410に照明光が照明された際の散乱によるコントラスト、Residue410と他の領域とで反射率が異なることによるコントラスト、Residue410が透過性薄膜では干渉によるコントラストが含まれる。なお、Residue410に有る程度の厚さがあれば、Residue410の端部は暗像となるはずである。この暗像の情報も使用される。
 Surface Roughness420(表面粗さ)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像のコントラストから得られる。
 Chipping430(切れ端),Dent(へこみ),Projection(突起)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像でのコントラスト、及びその位置、及び第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像から判断される。
 基板法線方向のChipping430(切れ端)は第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像では図5画像500に示すように端部が暗く表示される。
 また、基板斜方でのChipping430(切れ端)は、Chipping430が第1の斜方明視野検出系1100に対向していれば、得られた画像510でのChipping430は明るく表示される(第2の斜方明視野検出系1200でも同様である)。また、Chipping430が第1の斜方明視野検出系1100に対向してなければ(第1の斜方明視野検出系の基板上の射影に対して概略90°方向にあれば)、得られた画像520でのChipping430は暗く表示される(第2の斜方明視野検出系1200でも同様である)。また、Chipping430が第1の斜方明視野検出系1100とは正反対の方向にある場合でも、輪郭抽出(実際に得られた銅の台の画像60と設計基準情報の1種である基準楕円61との差分を得ること)を行うことでChipping430を判定することができる。なお、輪郭抽出を用いた判定は、上述したChipping430が第1の斜方明視野検出系1100に対向している場合、Chipping430が第1の斜方明視野検出系1100に対向していない場合にも適用することができる。
 Dent440(へこみ)は、図5画像540~560に示す通り輪郭が太く、Dent440(へこみ)全体が暗く表示される。Projection450(突起)は、図5画像570~590に示すように輪郭は細く、中心部は明るく表示される。よって、この差異を利用することで、Dent440(へこみ),Projection450(突起)を判別することが可能となる。
 Cracking460(ひび)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像中の照明光の散乱による暗像から判断される。
 Cu Die Height470(銅の台の高さ)は、図4画像471、画像472に示す通り、第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像の形状から判断される。さらに、Geometry(φx,φy)480(銅の台の形状)、Alignment481(ある方向からの角度)、pitch482は、図4画像483に示すように第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像の少なくとも1つから得ることができる。
 より具体的に説明するなら、本実施例のバンプ計測システムは、Geometry(φx,φy)480については画像483に対して所定の閾値を使用した閾値処理を行い、所定の閾値以上(又は以下)の領域を銅の台として認識するか、正常な銅の台の形状を規定した輪郭線とのパターンマッチングを行うことで銅の台を認識する。そして、銅の台のX方向の長さ、Y方向の長さをGeometry(φx,φy)480として認識する。Alignment481については、隣り合う銅の台の画像の中心位置(前述したパターンマッチングにより銅の台やバンプが円でないと判断された場合は重心の位置である場合もある。以降の処理でも同様である。)の位置の差Δx、Δyから得られる。pitch482は、得られた画像中での銅の台の中心位置と設計基準情報上の中心位置とを比較することで得られる。
 次に、第2工程でのバンプ評価について説明する。図6、及び図7は第2工程での評価項目とその評価項目がどのような情報から得られるかを説明する図である。
 ホールの形成に起因するResidue601(残留物)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像中の照明光の散乱による暗像から判断される。
 Side Wall Crack602、及びBlunt Prominence603(広がりを持った滑らかな盛り上がり)は、第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像を使用して得ることができる。具体的に説明する。Side Wall Crack602、及びBlunt Prominence603は、第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像から得られたホールの画像と設計基準データの1種である正常ホールの輪郭線との差分、ホール壁の高さ、及び異常部分のコントラスト分布により判断される。
 まず、Side Wall Crack602を判断する場合について説明する。図7画像701は第1の斜方明視野検出系1100から得られた画像であり、画像702は第2の斜方明視野検出系1200から得られた画像である。ここで、以下の場合はSide Wall Crack602と判断する。(1)得られたホールの輪郭線が正常ホールの輪郭線からはずれる。(2)画像701において、正常ホールの輪郭線より外側に暗部がある。(3)暗部の大きさはある基準よりも大きい。(4)画像702において、正常ホールの輪郭線より外側に明部がある。(5)ホール壁の高さはある基準より低い。
 一方、以下の場合には、Blunt Prominence603であると判断される。(1)得られたホールの輪郭線が正常ホールの輪郭線からはずれる。(2)画像703において、正常ホールの輪郭線より外側に明部がある。(3)暗部の大きさはある基準よりも小さい。(4)画像704において、正常ホールの輪郭線より外側に明部がある。(5)ホール壁の高さはある基準より高い。
 Geometry(φx)604,Geometry(φy)605(形成されたホールの壁の形状)、Alignment606(ある方向からの角度)、Offset(Δx)607(x方向でのずれ),Offset(Δy)608(y方向でのずれ),Pitch4609は、図6画像610に示すように第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像の少なくとも1つ(望ましくは2つ)から得ることができる。
 より具体的に説明するなら、本実施例のバンプ計測システムは、Geometry(φx,φy)604については画像610に対して所定の閾値を使用した閾値処理を行い、所定の閾値以上(又は以下)の領域を銅の台として認識するか、正常な銅の台の形状を規定した輪郭線とのパターンマッチングを行うことで銅の台を認識する。そして、銅の台のX方向の長さ、Y方向の長さをGeometry(φx,φy)604として認識する。Alignment606については、隣り合う銅の台の画像の中心の位置の差Δx、Δyから得られる。pitch482は、得られた画像中での銅の台の中心位置と設計基準情報上の中心位置とを比較することで得られる。
 Offset(Δx)607(x方向でのずれ),Offset(Δy)608(y方向でのずれ)については、第1の画像中の銅の台の中心位置と第2の画像中の銅の台の中心位置との比較から得ることができる。Offset(Δx)607,Offset(Δy)608については、実際に得られた第1の画像中の銅の台の中心位置と設計基準情報上の第2の画像中の銅の台の中心位置との比較からも得ることができる。また、Offset(Δx)607,Offset(Δy)608については、設計基準情報上の第1の画像中の銅の台の中心位置と実際に得られた第2の画像中の銅の台の中心位置との比較からも得ることができる。
 次に第3工程でのバンプ評価について説明する。図8、及び図9は第3工程での評価項目とその評価項目がどのような情報から得られるかを説明する図である。
 まず、Paste Residue801(ペースト材の塗布に起因する残留物)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像中の照明光の散乱による暗像から判断される。
 Miss Filling802(既定のペースト充填量を満たしていない状態)、Over Filling803(ペースト材の過充填)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像、第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像から判断される。
 より具体的に説明する。図9の領域901は上方明視野検出系1000の検出結果を使用して、Miss Filling802・Over Filling803間の判別を説明する図である。まず、Miss Filling802の部分は暗く表示される(符号902、903)、Over Filling803の部分は明るく表示される(符号904、905)。さらに、Focus Position Upper(焦点位置が上方)で得られた画像と、Focus Position Lower(焦点位置が下方)で得られた画像では、鮮明となる輪郭線が異なる。これは、例えば、Focus Position Upper(焦点位置が上方)で得られた画像ではOver Filling803の頂点付近の像の輪郭が鮮明に得られるし、Focus Position Lower(焦点位置が下方)で得られた画像ではOver Filling803の底面付近の像の輪郭が鮮明に得られることを示している。また、Miss Filling802については、例えば、Focus Position Lower(焦点位置が下方)で得られた画像での方がより像の輪郭が鮮明に得られることを示している。このように、コントラスト、及び輪郭の少なくとも1つ(望ましくは両方)に着目することで、Miss Filling802・Over Filling803間の判別が可能となる。
 第1の斜方明視野検出系1100、第2の斜方明視野検出系1200でも、Miss Filling802・Over Filling803間の判別は可能である。図9の領域906は、第1の斜方明視野検出系1100、第2の斜方明視野検出系1200を使用して、Miss Filling802・Over Filling803間の判別を説明する図である。ここで、以下の場合はOver Filling803と判断する。(1)画像907において、正常ホールの輪郭線より外側に明部がある。(2)画像908において、正常ホールの輪郭線より内側に明部がある。一方、以下の場合には、Miss Filling802であると判断される。(1)画像909において、正常ホールの輪郭線より内側に暗部がある。(2)画像910において、正常ホールの輪郭線より内側に暗部がある。なお、上述したMiss Filling802・Over Filling803間の判別は、上方明視野検出系1000の検出結果を使用した判別、第1の斜方明視野検出系1100、第2の斜方明視野検出系1200の検出結果を使用した判別を組み合わせる方が判別の精度は高くなるので、組み合わせた方が良い。
 次に第4工程でのバンプ評価について説明する。図10、及び図11は第4工程での評価項目とその評価項目がどのような情報から得られるかを説明する図である。
 Particle1001及びDFR Residue1002(壁の除去に起因する残留物)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像中の照明光の散乱による暗像から判断される。また、分類は特徴量を使用することで可能である。
 Dent1003(へこみ),Projection1004(突起)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像間、第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像から判断される。
 より、具体的に説明する。図11の領域1005は、上方明視野検出系1000の検出結果を使用して、Dent1003(へこみ),Projection1004(突起)間の判別を説明する図である。まず、Dent1003(へこみ)の部分は暗く表示される(1006、1007)、Projection1004の部分は明るく表示される(符号1008、1009)。さらに、Focus Position Upper(焦点位置が上方)で得られた画像と、Focus Position Lower(焦点位置が下方)で得られた画像とでは、鮮明になる輪郭が異なる。さらに、Projection1004においては、焦点位置の場所によって、画像に現れる明部の大きさが異なる。より具体的には、Focus Position Upper(焦点位置が上方)で得られた画像の明部よりもFocus Position Lower(焦点位置が下方)で得られた画像の明部の方が大きい画像となる。このように、上方明視野検出系1000の検出結果、特にコントラスト、輪郭に着目することで、Dent1003(へこみ),Projection1004(突起)間の判別が可能となる。
 第1の斜方明視野検出系1100、第2の斜方明視野検出系1200でも、Dent1003(へこみ),Projection1004(突起)間の判別が可能である。図11の領域1010は、第1の斜方明視野検出系1100、第2の斜方明視野検出系1200の少なくとも1つを使用して、Dent1003(へこみ),Projection1004(突起)間の判別を説明する図である。画像1011、1012は、第1の斜方明視野検出系1100、第2の斜方明視野検出系1200で得られた画像の少なくとも1つである。Dent1003(へこみ)であれば、基準とする輪郭線1110の内側に特異なコントラスト1120が表示される。また、Projection1004(突起)であれば、基準とする輪郭線1110の外側に特異なコントラスト1130が表示される。なお、上述したDent1003(へこみ),Projection1004(突起)間の判別は、上方明視野検出系1000の検出結果を使用した判別、第1の斜方明視野検出系1100、第2の斜方明視野検出系1200の検出結果を使用した判別を組み合わせる方が判別の精度は高くなるので、組み合わせた方が良い。
 SOD Height1013(銅の台からペースト頂点までの高さ)、Cu Die Height1014(銅の台の高さ)は、図10領域1015に示す通り、第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像の少なくとも1つから得ることができる。なお、図10領域1015のSOD Height1013、Cu Die Height1014は、第1の斜角、第2の斜角が反映されている。そこで、本実施例では、図11領域1015のSOD Height1013、Cu Die Height1014に、第1の斜角、第2の斜角を考慮して、真のSOD Height1013、Cu Die Height1014を得る。さらに、図10領域1021に示すように、形成されたバンプの突起1022の良否は、基準とすべき正常バンプの輪郭線1023と比較することで行うことができる。
 Geometry(φx)1016,Geometry(φy)1017(形成されたホールの壁の形状)、Offset(Δx)1019(x方向でのずれ),Offset(Δy)1020(y方向でのずれ),図10画像1030に示すように第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像の少なくとも1つから得ることができる。
 より具体的に説明するなら、本実施例のバンプ計測システムは、Geometry(φx,φy)1016については得られた画像に対して所定の閾値を使用した閾値処理を行い、所定の閾値以上(又は以下)の領域を銅の台として認識するか、正常な銅の台の形状を規定した輪郭線とのパターンマッチングを行うことで銅の台を認識する。そして、銅の台のX方向の長さ、Y方向の長さをGeometry(φx,φy)1016として認識する。
 Offset(Δx)1019(x方向でのずれ),Offset(Δy)1020(y方向でのずれ)については、第1の画像中のバンプの中心位置と第2の画像中のバンプの中心位置との比較から得ることができる。Offset(Δx)1019,Offset(Δy)1020については、実際に得られた第1の画像中のバンプの中心位置と設計基準情報上の第2の画像中のバンプの中心位置との比較からも得ることができる。また、Offset(Δx)1019,Offset(Δy)1020については、設計基準情報上の第1の画像中のバンプの中心位置と実際に得られた第2の画像中のバンプの中心位置との比較からも得ることができる。
 次に、第2工程、第3工程での側壁計測、及びペースト材の充填不良計測について説明する。図12は側壁計測、及びペースト材の充填不良計測を説明する図である。前述したように2次元センサ118、123を使用した撮像に当たっては、センサの全画素を使用するのではなく、一部の任意の画素の集合を選択的に使用することが可能である。この任意の画素の集合は、有効領域と表現することができる。側壁計測、及びペースト材の充填不良計測について、この有効領域1207、1208、及びそれらの焦点深度は、設計基準データから読みだした銅の台1201の頂上から壁1202の頂上までの高さ1203、ホールの幅1204、高さ1203とホールの幅1204とのアスペクト比を考慮して決定される。第1の斜角、第2の斜角、についても同様である。
 壁の傾きは、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像によって得られたホールの形状(ホールの楕円率でも良い)と第1の斜方明視野検出系1100の有効領域から得られた第3の画像との差分により得ることができる。また、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像によって得られたホールの形状(ホールの楕円率でも良い)と第2の斜方明視野検出系1200の有効領域から得られた第4の画像との差分により得ることもできる。
 さらに、ペーストの充填不良は、図12の領域1205、1206のように、特に第1の斜方明視野検出系1100の有効領域から得られた第3の画像、及び第2の斜方明視野検出系1200の有効領域から得られた第4の画像に反映される。つまり、第1の斜方明視野検出系1100の有効領域から得られた第3の画像、及び第2の斜方明視野検出系1200の有効領域から得られた第4の画像からペーストの充填不良を推定することが可能となる。
 次にホール上部、下部での欠陥検出について説明する。本実施例では、焦点位置の異なるホール上部、下部での欠陥をそれぞれ検出できるよう、第1の1次元ラインセンサ106(SCU)、第2の1次元ラインセンサ107(SCD)を、異なる焦点位置に配置する。例えば、本実施例では、第1の1次元ラインセンサ106(SCU)をホール上部の欠陥検出用とし、第2の1次元ラインセンサ107(SCD)をホール下部での欠陥検出用とする。さらに本実施例ではホール底まで照明光を到達させるために、例えば、ランプ(バルブ)による明視野落射照明/暗視野照明方式を採用することもできる(この際、明視野、暗視野の照明光量比は100:0~0:100まで変更可能とする。)。
 次に、画像の読み出しについて説明する。図13は本実施例での画像の読み出しを説明する図である。2次元センサ118、及び2次元センサ123の露光を制御するトリガ信号1301、1302は、第1の1次元ラインセンサ106(SCU)、第2の1次元ラインセンサ107(SCD)の信号を読み出すためのトリガ信号1303、1304と同期している。ここで、トリガ信号1301は、1stダイ1309(又はショット)におけるアライメントマークからΔxforgだけ離れたt1stバンプに対応したトリガ信号である。また、トリガ信号1302は、1stバンプから距離Pxだけ離れた2ndバンプに対応したトリガ信号である。光学的シャッタ117、122の開く時刻は、トリガ信号1303に同期している。また、光学的シャッタ117、122の閉じる時刻は反射率が低い計測対象にも対応できるよう任意の時刻に設定可能である(領域1305)。これにより、光学的シャッタ117、122の開いている時間を制御できる訳であるが、これは、2次元センサ118、及び2次元センサ123の電荷蓄積時間が可変となることを意味している。さらに、前述したように、2次元センサ118、及び2次元センサ123は、時間遅延積分型の場合もある。その場合、2次元センサ118、及び2次元センサ123は、ステージ1300の走査に同期して電荷をシフトする。この場合のシフトタイミングは、1次元ラインセンサ106(SCU)、第2の1次元ラインセンサ107(SCD)を基準にして、第1の斜角、第2の斜角に応じて変更される。なお、加算回数は2次元センサ118、及び2次元センサ123に基づいて決定される(図13領域1306)。また、加算走査時の読み出しデータを無効とすることも可能である(図13領域1307)。また、2次元センサ118、及び2次元センサ123の露光終了後は、シフトトリガを変更しデータの読み出しを行う(領域1308)。
 次に、1次元ラインセンサ106、1次元ラインセンサ107、2次元センサ118、及び2次元センサ123の視野の位置関係について説明する。図14は、1次元ラインセンサ106、第2の1次元ラインセンサ107、2次元センサ118、及び2次元センサ123の視野の位置関係を説明する図である。本実施例では、1次元ラインセンサ106の視野1401、第2の1次元ラインセンサ107の視野1402、2次元センサ118の視野1403(前述した有効領域と表現することもできる)、及び2次元センサ123の視野1404はそれぞれ異なる位置にある。なお、図14でのX軸、Y軸はそれぞれステージ1300の走査方向である。つまり、ステージ1300は基板を図14のX軸、及びY軸方向に移動させる。本実施例では、ステージ1300は基板を矢印1405の方向に移動させる。つまり、バンプ1406は時間的に2次元センサ118、1次元ラインセンサ106、1次元ラインセンサ107、2次元センサ123の順に撮像される。なお、1次元ラインセンサ106、1次元ラインセンサ107についてはX軸上では同一座標上にあるので、時間的には同時にバンプを撮像する。つまり、本実施例では、バンプ1406について、時間的に異なる複数の像が得られることになる。つまり、同じバンプについての像がメモリ内の異なるアドレスに保存されることになる。ここで、各視野間の距離が既知であれば、各視野間の距離と走査速度との関係から、得られる複数の画像がどれだけの時間差を持って各センサによって撮像されるか知ることができる。よって、本実施例では、同じバンプについて撮像され、かつ時間差を有する複数の画像を、この時間差を考慮してメモリから読み出す。
 より具体的に説明する。例えば、1次元ラインセンサ106、及び1次元ラインセンサ107のうち少なくとも1つは、2次元センサ118が撮像する時間に対して時間1407だけ遅れて撮像する。また、2次元センサ123は、2次元センサ118が撮像する時間に対して時間1408だけ遅れて撮像する。よって、本実施例では、この時間差1407、1408を考慮してメモリから撮像した画像を読み出す。
 さらに、Y軸方向について考えると、各視野は、距離的に位置ずれ1409、1410、1411を有している場合も考えられるが、各視野の大きさを予想される位置ずれよりも大きく、望ましくは十分大きくしておけば、この位置ずれ1409、1410、1411の影響は実質的に無視できる。
 本実施例によれば、従来よりも得られる情報が多くなるので、より詳細なバンプの評価を行うことが可能になる。なお、暗視野光学系を採用することも本明細書の開示の範囲内であるが、半導体製造の後工程では基板の表面は荒れていることが多い。よって、表面粗さに鋭敏な暗視野光学系では、ノイズが多くなってしまう場合もある。よって、バンプの評価には明視野光学系が好適である。
 次に実施例2について説明する。実施例2では主に実施例1とは異なる部分について説明する。本実施例2は、例えば、LEDによる多点発光光源による平行照明光を用いる実施例である。
 図15を用いて本実施例を説明する。本実施例では、第2の斜方明視野検出系1200の対物レンズ120の周囲に第1の多点発光光源1506、第1の多点発光光源1506よりも外周側に配置された第2の多点発光光源1507を有する。ここで、第1の多点発光光源1506はLED1506を複数有する。第2の多点発光光源1507はLED1505を複数有する。そして、バンプ1501や銅の台1502を撮像する場合は、第1の多点発光光源1506、及び第2の多点発光光源1507が発光する。この場合、点線1507の部分の端部がより強調されて撮像されることになる。これは、上述したバンプの形を得る場合等に有効である。
 なお、上述した多点発光光源は、基板の法線方向に配置された上方明視野検出系1000、基板に対して第1の斜角で配置された第1の斜方明視野検出系1100に採用しても良い。また、第1の多点発光光源1506、及び第2の多点発光光源1507の少なくとも1つの選択的に発光させても良い。また、点線1503のように、多点発光光源の1部を発光させるようにしても良い。このようにすることで、任意の場所の端部を強調して撮像することが可能となる。
 次に、実施例3について説明する。本実施例は、上述した第1の斜方明視野検出系1100、及び第2の斜方明視野検出系1200のうち少なくとも1つから得られた画像から、バンプの寸法を得る実施例である。
 図16は本実施例を説明する図であり、図17は本実施例を説明するフローチャートである。図16(a)は第1の斜方明視野検出系1100、及び第2の斜方明視野検出系1200のうち少なくとも1つから得られたバンプの画像である。
 評価部128は、まず第1の斜方明視野検出系1100、及び第2の斜方明視野検出系1200のうち少なくとも1つからバンプの画像を受け取る(図17のステップ3100)。評価部128はバンプの端部3001、端部3002の距離からバンプの底面の半径rを得る(図17のステップ3200)。なお、半径rを得るに当たっては、得られたバンプの画像の底面の曲率が使用される場合もある。そして、評価部128は、端部3002と頂点3003とを結ぶ線分3004を得る。そして、角度θ1を得る(図17のステップ3300)。θ1が得られれば、L1=r・tanθ1となるので、L1を得ることができる(図17のステップ3400)。ここで、第1の斜方明視野検出系1100、及び第2の斜方明視野検出系1200のうち少なくとも1つは基板に対して、傾斜しているのでL1は真の高さではない。しかし、L1を得ることができれば、角度θ2は予め設計基準情報から得ておくことができるので(結果的に角度θ2は入射角と同じ値となる。)、L0=L1/sinθ2から真の高さL0を得ることができる(図17のステップ3500)。本実施例によれば、バンプの高さを知ることができる。
 次に実施例4について説明する。本実施例は、本実施例は、第1の斜方明視野検出系1100、及び第2の斜方明視野検出系1200のうち少なくとも1つの照明範囲よりも外側に複数の照明ユニットを有するものである。
 図18(a)は本実施例のバンプ計測システムをy方向から説明する図であり、図18(b)は本実施例のバンプ計測システムをz方向から説明する図である。本実施例では、図18(b)に示すようにバンプ4002を囲むように複数の光源(例えば、図18(b)の光源A-G)を配置し、計測すべき対象(設計基準情報(バンプの寸法や粗さの設計値、バンプを形成するプロセスの段階等)と表現することもできる)に応じて、任意の光源を任意の時刻、時間に発光できるようになっている。例えば、光源Aと光源Gとは仰角は同じであるが、方位角が異なる。光源Bと光源Fとは、仰角は同じであるが、方位角が異なる。光源Cと光源Eとは、仰角は同じであるが、方位角が異なる。別の表現をするなら、光源Aと光源Cとは方位角は同じであるが、仰角は光源Cの方が光源Aよりも高い。また、光源Eと光源Fとは方位角は同じであるが、仰角は光源Eの方が光源Fよりも高い。
 さらに、図18(a)に示すように、各光源には偏光フィルタ4001が配置されており、任意の偏光(例えばP偏光、S偏光)をバンプ4002に照明することが可能である。もちろん前述したように、P偏光を基板に照明し、基板からの光のうちP偏光を偏光フィルタによって遮光するよう構成することもできる。さらに、各光源の波長は同じでなくてもよく、各光源の波長は異なっても良い。つまり、本実施例では、第1の波長の光と第1の波長とは異なる第2の波長の光を、バンプ4002へ照明しても良いということである。
 前述したように、本実施例の複数の光源は各々任意の時刻、時間に発光可能であるが、具体的な説明するなら図19のように説明することができる。図19(a)は第1のバリエーションである。図19(a)では、第1の斜方明視野検出系1100、及び第2の斜方明視野検出系1200のうち少なくとも1つと対向する光源4003乃至4009(光源4003乃至4009は同じ仰角で配置されている)を発光させる。図19(b)では、光源4003乃至4009よりも高い仰角に配置された光源4010乃至4013を発光させる。なお、光源4010乃至4013は第1の斜方明視野検出系1100、及び第2の斜方明視野検出系1200のうち少なくとも1つと同じ向きからバンプ4002へ照明する。本実施例によれば、バンプの状態に応じてより鮮明な(特に輪郭が鮮明な)画像を得ることができる。
 次に実施例5について説明する。第1の斜方明視野検出系1100、及び第2の斜方明視野検出系1200のうち少なくとも1つは、ある焦点深度を持ってバンプを撮像する。このことは、1つの側面としては、焦点深度外の像は焦点深度内の像よりも鮮鋭ではないことを意味している。バンプのより多くの部分で鮮鋭な像が得られた方が、よりバンプの評価に好適である。本実施例は、この点に配慮した実施例であり、所定の領域内の異なる位置で画像を得て、得られた画像を合成することを特徴とする。より具体的には、1つのバンプの異なる位置で複数回撮像し、複数の画像を得て、得られた複数の画像を合成することを特徴とする。本実施例は、他の表現としては、1つのバンプの異なる位置で光学的シャッタが複数回開閉動作を繰り返し、複数の画像を得て、得られた複数の画像を合成すると表現することもできる。
 図20は本実施例のバンプ計測システムをy方向から説明する図である。バンプ5005は矢印5004の方向に搬送される。バンプ上の領域5006が第1の斜方明視野検出系1100、及び第2の斜方明視野検出系1200のうち少なくとも1つの焦点深度内に入ると、光学的シャッタ117、及び光学的シャッタ122の少なくとも1つは開き、所定の時間経過後閉じる。バンプ上の領域5006、5007、5008は、時間的に5006→5007→5008の順に撮像されることになるので、上述した開閉動作が領域5007、5008についても行われることになる。図20では、バンプの異なる位置得られた3枚の鮮鋭な画像が得られる。そして、評価部128はこの3枚の画像を合成する。つまり、評価部128はこの3枚の画像をx軸方向において合成するということである。これにより、より鮮鋭な像を得ることが可能になる。本実施例は、さらに寸法の異なるバンプに応用することも可能である。図21は本実施例を説明する図である。例えば、本実施例では、図21(a)に示すx方向に比較的幅広なバンプを撮像する場合と、図21(b)に示すx方向に比較的狭い幅を有するバンプを撮像する場合とで、撮像する間隔(光学的シャッタが開く時刻から、次回開く時刻までの間隔と表現することもできる)を変更することが可能である。本実施例の場合、間隔P2はP1よりも短くなる。
 さらに、図22に示すように、撮像回数を変更しても良い。例えば、本実施例では、図22(a)に示すx方向に比較的幅広なバンプを撮像する場合と、図22(b)に示すx方向に比較的狭い幅を有するバンプを撮像する場合とで、撮像する回数(光学的シャッタが開閉する回数と表現することもできる)を変更することも可能である。本実施例では、例えば、バンプ計測システムは、図22(a)の場合は計5回撮像するし、図22(a)の場合は計4回撮像する。
 さらに、図23に示すようにあるバンプから次のバンプを撮像するまでの間、撮像を行わない撮像休止時間を設けても良い。この撮像休止時間中は、光学的シャッタ117、及び光学的シャッタ122の少なくとも1つは閉状態を維持することになる。このようにすれば、不要なデータの量を削減することができ、評価部128の負荷を減らすことが可能になる。
 光学的シャッタ117、及び光学的シャッタ122の少なくとも1つが開く時刻、閉じる時刻、開いてから閉じるまでの時間、撮像する間隔、撮像する回数、撮像休止時間は、設計基準情報(例えば、基板上のバンプの座標、バンプの寸法、バンプが搬送される速度、焦点深度の深さ等)に応じて、作業者が任意に変更可能である。
 以上、本発明の複数の実施例を説明したが、本発明は実施例に限定されない。例えば、上述した3つの検出光学系のうちいずれか2つを採用することも可能であるし、検出光学系をさらに増やしても良い。また、本発明はバンプ以外の評価に利用しても良いし、半導体製造前工程に本明細書に開示される内容を適用しても良い。
1000 上方明視野検出系
1100 第1の斜方明視野検出系
1200 第2の斜方明視野検出系
1300 ステージ

Claims (17)

  1.  基板に形成された形状を計測するための装置において、
     前記基板に対して第1の斜角で配置された第1の斜方明視野検出光学系を有し、
     さらに、前記第1の斜方明視野検出光学系は、透明強誘電体セラミックス系の材料を有する第1のシャッタを有し、
     さらに、前記第1の斜方明視野検出光学系で得られた画像と設計基準情報とを使用して、前記基板に形成された形状を計測することを特徴とする基板に形成された形状を計測するための装置。
  2.  請求項1に記載の基板に形成された形状を計測するための装置において、
     前記設計基準情報は、正常な形状の輪郭線を含むことを特徴とする基板に形成された形状を計測するための装置。
  3.  請求項2に記載の基板に形成された形状を計測するための装置において、
     前記設計基準情報は、複数の種類の輪郭線を含むことを特徴とする基板に形成された形状を計測するための装置。
  4.  請求項3に記載の基板に形成された形状を計測するための装置において、
     前記設計基準情報は、計測する工程ごとに用意された複数の輪郭線を含むことを特徴とする基板に形成された形状を計測するための装置。
  5.  請求項3に記載の基板に形成された形状を計測するための装置において、
     前記設計基準情報は、計測する対象ごとに用意された複数の輪郭線を含むことを特徴とする基板に形成された形状を計測するための装置。
  6.  請求項3に記載の基板に形成された形状を計測するための装置において、
     前記輪郭線の寸法、および形状の少なくとも1つは任意に変更可能であることを特徴とする基板に形成された形状を計測するための装置。
  7.  請求項2に記載の基板に形成された形状を計測するための装置において、
     前記処理部は、前記形状の寸法を得ることを特徴とする基板に形成された形状を計測するための装置。
  8.  請求項2に記載の基板に形成された形状を計測するための装置において、
     さらに、
     前記基板に対して第2の斜角で配置された第2の斜方明視野検出光学系を有し、
     さらに、前記第2の斜方明視野検出光学系は、透明強誘電体セラミックス系の材料を有する第2のシャッタを有し、
     さらに、前記処理部は、前記第2の斜方明視野検出光学系で得られた画像と前記設計基準情報とを使用して、前記基板に形成された形状を計測することを特徴とする基板に形成された形状を計測するための装置。
  9.  請求項8に記載の基板に形成された形状を計測するための装置において、
     前記第1の斜方明視野検出光学系、及び前記第2の斜方明視野検出光学系のうち少なくとも1つはP偏光を照明し、
     さらに、前記第1の斜方明視野検出光学系、及び前記第2の斜方明視野検出光学系のうち少なくとも1つは前記基板からの光のうちP偏光を遮光する偏光フィルタを有することを特徴とする基板に形成された形状を計測するための装置。
  10.  請求項8に記載の基板に形成された形状を計測するための装置において、
     前記基板の法線方向に配置された上方明視野検出光学系を有し、
     前記処理部は、前記第1の斜方明視野検出光学系、前記第2の斜方明視野検出光学系、及び前記上方明視野検出光学系で得られた画像を使用して前記基板に形成された形状を計測することを特徴とする基板に形成された形状を計測するための装置。
  11.  請求項2に記載の基板に形成された形状を計測するための装置において、
     前記第1の斜方明視野検出光学系は、前記基板上の所定の領域内の第1の場所で第1の画像を得て、前記所定の領域内の第2の場所で第2の画像を得て、
     前記処理部は、前記第1の画像と前記第2の画像とを合成することを特徴とする基板に形成された形状を計測するための装置。
  12.  請求項11に記載の基板に形成された形状を計測するための装置において、
     前記第1の斜方明視野検出光学系は、前記設計基準情報に基づいて、前記第1の画像と前記第2の画像とを得る間隔を変更すること特徴とする基板に形成された形状を計測するための装置。
  13.  請求項11に記載の基板に形成された形状を計測するための装置において、
     前記第1の斜方明視野検出光学系は、前記設計基準情報に基づいて、前記第1の画像、及び前記第2の画像の少なくとも1つを得る際に前記シャッタが開いてから閉じるまでの時間を変更することを特徴とする基板に形成された形状を計測するための装置。
  14.  請求項11に記載の基板に形成された形状を計測するための装置において、
     前記第1の斜方明視野検出光学系は、前記設計基準情報に基づいて、前記所定の領域内で画像を得る回数を変更することを特徴とする基板に形成された形状を計測するための装置。
  15.  請求項2に記載の基板に形成された形状を計測するための装置において、
     前記第1の斜方明視野検出光学系の照明範囲外に複数の照明ユニットを有することを特徴とする基板に形成された形状を計測するための装置。
  16.  請求項15に記載の基板に形成された形状を計測するための装置において、
     前記照明ユニットは、光源と偏光フィルタとを有することを特徴とする基板に形成された形状を計測するための装置。
  17.  請求項15に記載の基板に形成された形状を計測するための装置において、
     前記設計基準情報に基づいて、前記複数の照明ユニットの中から所定の照明ユニットを選択することを特徴とする基板に形成された形状を計測するための装置。
PCT/JP2012/070949 2011-09-29 2012-08-20 基板に形成された形状を計測するための装置 WO2013046998A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-213678 2011-09-29
JP2011213678A JP2015025656A (ja) 2011-09-29 2011-09-29 基板に形成された形状を計測するための装置

Publications (1)

Publication Number Publication Date
WO2013046998A1 true WO2013046998A1 (ja) 2013-04-04

Family

ID=47995049

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/070949 WO2013046998A1 (ja) 2011-09-29 2012-08-20 基板に形成された形状を計測するための装置

Country Status (2)

Country Link
JP (1) JP2015025656A (ja)
WO (1) WO2013046998A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018059878A (ja) * 2016-10-07 2018-04-12 トピー工業株式会社 圧延材の疵検出システム
CN113167570A (zh) * 2018-12-10 2021-07-23 株式会社新川 封装装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI724370B (zh) * 2019-02-01 2021-04-11 由田新技股份有限公司 用於量測孔狀結構的自動光學檢測系統以及方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5636004A (en) * 1979-09-03 1981-04-09 Hitachi Ltd Detecting method of configuration and apparatus thereof
JPH05172756A (ja) * 1991-12-20 1993-07-09 Matsushita Electric Ind Co Ltd 半田の外観検査用観察装置
JPH07307599A (ja) * 1994-05-10 1995-11-21 Shigeki Kobayashi 検査装置及び製品製造方法
JPH0933446A (ja) * 1995-07-19 1997-02-07 Fujitsu Ltd 表面欠陥検査装置
JP2000337823A (ja) * 1999-05-27 2000-12-08 Mitsubishi Heavy Ind Ltd 表面検査装置及び表面検査方法
JP2001082931A (ja) * 1999-09-09 2001-03-30 Toshiba Corp 穴深さ測定方法及び穴深さ測定装置
JP2003315014A (ja) * 2002-04-19 2003-11-06 Fujitsu Ltd 検査方法及び検査装置
JP2007192759A (ja) * 2006-01-23 2007-08-02 Hitachi High-Technologies Corp 欠陥検査装置およびその方法
JP2008076151A (ja) * 2006-09-20 2008-04-03 I-Pulse Co Ltd 検査装置および検査方法
JP2008085252A (ja) * 2006-09-29 2008-04-10 Renesas Technology Corp 半導体集積回路装置の製造方法
JP2009139285A (ja) * 2007-12-07 2009-06-25 Univ Nihon 半田ボール検査装置、及びその検査方法、並びに形状検査装置
JP2010175282A (ja) * 2009-01-27 2010-08-12 Kokusai Gijutsu Kaihatsu Co Ltd 高さ測定装置
JP2011154223A (ja) * 2010-01-28 2011-08-11 Hitachi High-Technologies Corp パターンマッチング用画像作成方法、及びパターンマッチング用画像作成装置

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5636004A (en) * 1979-09-03 1981-04-09 Hitachi Ltd Detecting method of configuration and apparatus thereof
JPH05172756A (ja) * 1991-12-20 1993-07-09 Matsushita Electric Ind Co Ltd 半田の外観検査用観察装置
JPH07307599A (ja) * 1994-05-10 1995-11-21 Shigeki Kobayashi 検査装置及び製品製造方法
JPH0933446A (ja) * 1995-07-19 1997-02-07 Fujitsu Ltd 表面欠陥検査装置
JP2000337823A (ja) * 1999-05-27 2000-12-08 Mitsubishi Heavy Ind Ltd 表面検査装置及び表面検査方法
JP2001082931A (ja) * 1999-09-09 2001-03-30 Toshiba Corp 穴深さ測定方法及び穴深さ測定装置
JP2003315014A (ja) * 2002-04-19 2003-11-06 Fujitsu Ltd 検査方法及び検査装置
JP2007192759A (ja) * 2006-01-23 2007-08-02 Hitachi High-Technologies Corp 欠陥検査装置およびその方法
JP2008076151A (ja) * 2006-09-20 2008-04-03 I-Pulse Co Ltd 検査装置および検査方法
JP2008085252A (ja) * 2006-09-29 2008-04-10 Renesas Technology Corp 半導体集積回路装置の製造方法
JP2009139285A (ja) * 2007-12-07 2009-06-25 Univ Nihon 半田ボール検査装置、及びその検査方法、並びに形状検査装置
JP2010175282A (ja) * 2009-01-27 2010-08-12 Kokusai Gijutsu Kaihatsu Co Ltd 高さ測定装置
JP2011154223A (ja) * 2010-01-28 2011-08-11 Hitachi High-Technologies Corp パターンマッチング用画像作成方法、及びパターンマッチング用画像作成装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018059878A (ja) * 2016-10-07 2018-04-12 トピー工業株式会社 圧延材の疵検出システム
CN113167570A (zh) * 2018-12-10 2021-07-23 株式会社新川 封装装置
CN113167570B (zh) * 2018-12-10 2023-01-24 株式会社新川 封装装置

Also Published As

Publication number Publication date
JP2015025656A (ja) 2015-02-05

Similar Documents

Publication Publication Date Title
US7126699B1 (en) Systems and methods for multi-dimensional metrology and/or inspection of a specimen
TWI575625B (zh) 檢測晶圓之系統及方法
TWI551855B (zh) 檢測晶圓之系統與方法以及由該系統讀取的程式儲存裝置
TWI658524B (zh) 檢測晶圓之系統及方法
TWI558996B (zh) 捕捉從多重方向反射之光線的系統與方法
US8817249B2 (en) Device and method for inspecting moving semiconductor wafers
CN105143862B (zh) 检测系统
JP5712079B2 (ja) 欠陥検査装置および欠陥検査方法
US20100014075A1 (en) Method and Apparatus for Inspecting Defects
JP2018516451A (ja) 検査ツールの検査感度を高めるシステム及び方法
JP2011211035A (ja) 検査装置並びに欠陥分類方法及び欠陥検出方法
JP5725501B2 (ja) 検査装置
US20220276607A1 (en) Digital Holography Microscope (DHM), and Inspection Method and Semiconductor Manufacturing Method Using the DHM
TW201224442A (en) Scratch detection method and apparatus
US10317344B2 (en) Speed enhancement of chromatic confocal metrology
WO2013046998A1 (ja) 基板に形成された形状を計測するための装置
JP2010528314A (ja) 立体形状測定装置
JP2019049520A (ja) マルチモードシステムおよび方法
JP6684992B2 (ja) 突起検査装置及びバンプ検査装置
JP4844694B2 (ja) 検査装置及び欠陥分類方法
JP5114808B2 (ja) 検査装置及び欠陥検査方法
US20080151259A1 (en) Synchronized wafer mapping
JP2005098970A (ja) 異物識別方法及び異物識別装置
JP2010212359A (ja) ウエハの検査方法、ウエハ検査装置および半導体集積回路装置の製造方法
CN114144662A (zh) 半导体装置中的内部裂痕的组合透射及反射光的成像

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12837333

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12837333

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP