WO2009127574A1 - Inspektionssystem und -verfahren für die optische untersuchung von objektkanten, insbesondere von waferkanten - Google Patents

Inspektionssystem und -verfahren für die optische untersuchung von objektkanten, insbesondere von waferkanten Download PDF

Info

Publication number
WO2009127574A1
WO2009127574A1 PCT/EP2009/054216 EP2009054216W WO2009127574A1 WO 2009127574 A1 WO2009127574 A1 WO 2009127574A1 EP 2009054216 W EP2009054216 W EP 2009054216W WO 2009127574 A1 WO2009127574 A1 WO 2009127574A1
Authority
WO
WIPO (PCT)
Prior art keywords
defect
image
edge
fragment
fragments
Prior art date
Application number
PCT/EP2009/054216
Other languages
English (en)
French (fr)
Inventor
Dirk Bugner
Mladen Nikolov
Frank Laube
Sergei Sitov
Dietrich Drews
Original Assignee
Nanophotonics Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanophotonics Ag filed Critical Nanophotonics Ag
Publication of WO2009127574A1 publication Critical patent/WO2009127574A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9501Semiconductor wafers
    • G01N21/9503Wafer edge inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8822Dark field detection
    • G01N2021/8825Separate detection of dark field and bright field

Definitions

  • the invention relates to an inspection system and an inspection method for the optical examination of object edges, in particular of wafer edges.
  • the optical inspection process of semiconductor wafers for defects is an important part of the manufacturing process of computer chips.
  • the inspection usually includes both the planar Waferober- and bottom and its edges area.
  • the present invention relates to the inspection of the edge regions.
  • Wafer edge inspection systems often employ an assembly consisting of a digital camera and a suitable illumination system that acquires a digital image from the wafer edge, which is then fed to a manual or automatic evaluation, using the results of the evaluation to conform to the specifications of Chip manufacturer to decide on the usability of the wafer and perform a sorting according to quality criteria.
  • a disadvantage of the inhomogeneous illumination of the edge regions is that a large part of the available resolution of the book contents is not available for the defect detection.
  • a further disadvantage is that some defects in the region of the edge in the dark field are not sufficiently visible and thus can be overlooked in quality control.
  • US Pat. No. 5,822,055 discloses a method and an inspection system in which a bright field image and a dark field image of a wafer surface are respectively generated by means of two separate detectors and signal processing paths and compared with a respective comparison image by subtraction. The bright field difference signal and the dark field difference signal are then correlated such that a defect detector can discriminate noise, graininess, or streaks based on complex threshold functions of both quantities.
  • the inventors have made it their task to improve the inspection system or the inspection process to the effect that from the recorded image content more information can be obtained via the defects, among other things, to increase the security of the assignment of detected defects to certain defect classes.
  • the inspection method according to the invention provides:
  • defect / fragment property physically measurable size of defect or fragment (eg: expansion, aspect ratio, roundness, center of gravity, ...); - (extended) statistical defect property
  • Defect property which can be derived from the statistical analysis of defect fragment properties of fragments associated with a defect
  • DefekWfragment- property information on a storage medium for example in the form of a table or a program code stored information on a property (eg: value range for the extent, aspect ratio, roundness, centroid, ...);
  • Property information in the form of a frequency distribution function of a property value in a defect class
  • the digital objects of the object edges generated by the (at least one) digital camera can detect specific defect characteristics or properties on the basis of which the defect can be assigned to predefined defect classes. Which he- Finders have recognized that a defect is usually not depicted as a single contiguous area but as an accumulation of multiple defect fragments. The inventors have further recognized that, depending on the illumination situation, different sections of the defects are illuminated, thus showing different defect fragments. In order to obtain as complete a picture as possible of the defect, therefore, according to the invention, first of all image information from different illumination situations is obtained separately and then combined to generate a uniform and more complete image of the defect.
  • the summarization of the image information preferably comprises:
  • the inspection system according to the invention has the following features:
  • At least one stationary digital camera arranged to record a digital image of the object edge while rotating the turntable, a first stationary illumination device, which is arranged relative to the digital camera and the object edge such that a BfId of the object edge can be generated under bright-field illumination,
  • a second stationary illumination device which is arranged relative to the digital camera and the object edge such that an image of the object edge can be generated under dark-field illumination
  • a first image processing device configured to assign contiguous pixels in the bright field to a defect fragment as a function of the pixel contents, to assign contiguous pixel points in the dark field image to a defect fragment in dependence on the Bifdyak contents and to align and combine the defect fragments from the bright field image and the dark field image in a common virtual edge image.
  • the invention firstly identifies the defect fragments in both illumination situations (helffield and darkfield) separately from one another by producing contiguous pixels whose contents (intensity, gray or color values) within a predetermined value range (intensity, gray scale). or Farbwertintervalls) are assigned to the same defect fragment. Thereafter, the (at least) two object edge images are combined in a virtual edge image so that the sum of the information from the bright field image and the dark field image results in a more comprehensive image of the entire defect.
  • the method steps of image processing can be implemented individually or jointly both as software and as hardware or in combination of software and hardware.
  • Dfe at least one digital camera is preferably a line scan camera which is arranged such that the single image line recorded with the line scan camera lies in a plane that is perpendicular to the plane of the object or the object edge.
  • a camera sequentially captures a plurality of image lines of the object edge in different angular positions of the object.
  • the triggering of the camera for example, by means of a synchronization pulse by the drive motor (eg stepping motor) take place.
  • the individual image lines are then combined to form a (panoramic) image of the object edge.
  • the frames are picked up sequentially in two revolutions of the turntable or the object, wherein in one revolution the bright-field illumination is activated and in the other circulation the dark-end humidification is activated.
  • the order is the same.
  • contiguous pixels in the bright field image are combined to form a defect fragment if the bi-point content lies within a certain first value range.
  • contiguous BNd points in the dark field image are combined into a defect fragment if the pixel contents are within a certain second range of values. Due to the different lighting situations, different distributions of the bi-point content regularly result, so that the first and second value ranges or regularly fall apart. overall suitable value ranges or interval limits can be determined or determined manually or automatically by means of histogram analysis, for example.
  • defect fragments determined in this way have properties which can be analyzed by means of an analysis device connected downstream of the first image processing device, by extracting corresponding property values from the image information.
  • the most meaningful defect fragment properties by means of which the classification, that is to say the assignment to a defect mass, is to be determined or "determined.”
  • the calculation of softness is preceded by the calculation of the contour energy.
  • the contour energy is a measure of the "restlessness" of the contour.
  • the changes in direction of the connecting sections of successive contour points are summed up, the contribution to the contour energy being greater, the sharper the angle included between the connecting sections:
  • X n , Y n are the coordinates of the n-th contour point on a detected defect fragment edge in the virtual edge image and N is the number of contour points.
  • the softness is the contour energy normalized over the circumference: __. ,. contour energy
  • Kurtosis and skewness are statistics known quantities and calculate according to the following formulas:
  • adjacent defect fragments are assigned to a defect by means of a second image processing device if the adjacent defect fragments have predetermined pitch and / or shape relationships.
  • the simplest way of doing this is to use the distance relationship and in particular the minimum distance between two contour points of the defect fragments. This implies that a fragment edge was previously determined for each defect fragment.
  • the so-called projected distance can be determined.
  • the two defects are projected onto the axes of the image coordinate system and the distance is determined by coordinates.
  • an assignment can be made if, as an alternative or in addition to the distance relationships, form relationships are used.
  • form relationships For this purpose, for example, the parallelism of sections of the fragment edges of two defect fragments is used.
  • the parallelism is first determined according to an advantageous development of the invention and then checked whether the determined parallelism does not fall below a predetermined Parateiliticiansmindestwert. A more detailed explanation of this embodiment takes place in the figure description.
  • the notch of a wafer is identified in the bright field image and in the dark field image, respectively, and both images are aligned with one another in a first coordinate direction of the virtual edge image on the basis of this information.
  • the edge of a wafer is also identified in the horizontal field image and in the dark field image, and both images are aligned with one another using this information in a second coordinate direction of the virtual edge image.
  • the first and second coordinate directions are preferably perpendicular to each other.
  • the notch can be identified, for example, by a pattern recognition, ie a comparison of the image data with a template, or by a rule-based analysis, ie by the assessment of the mapping of the notch according to predetermined geometric features, such as the opening angle.
  • the wafer edge can be found, for example, by means of a Hough transformation.
  • the notch typically defines the origin of the coordinate coordinate system in the horizontal direction, while the wafer edge (provided with an offset) represents the origin of the image coordinate system in the vertical direction, as will be explained in more detail with reference to the description of the figures.
  • the virtual edge image is created by transforming the defect fragments (or their edges) into a common coordinate system.
  • the virtual edge image thus represents a mixed bright field dark field image of the wafer edge.
  • the full resolution of the bright field image and the dark field image is nevertheless utilized in each case. It therefore possible to gain a higher information content.
  • the assembly of the defect fragments in the virtual image makes the unit of a defect much clearer than in a single edge image.
  • the assembly of the defect fragments into a uniform defect is the basis for the determination of defect properties in addition to the defect fragment properties mentioned above.
  • Some defect properties which have proved useful for examining various defects are shown in Tables 2 and 3 below. It distinguishes between defect properties and extended, so-called statistical defect properties. This allows the total number of Increases available properties and thus the assignment accuracy to a defect class can be improved.
  • a further development of the inspection system provides that at least one first and one second stationary digital camera are set up for simultaneous recording of digital images of the upper object edge and the lower object edge, wherein fixed illumination device are respectively arranged relative to the digital cameras and the object edges such that images of the upper and lower object edges are generated under bright field illumination and under dark field illumination, and wherein the first image processing means is arranged to associate contiguous pixels to a defect fragment in all images and to align and summarize the defect fragments from all images in a common virtual edge image.
  • this includes an arrangement in which a first and stationary digital camera for capturing a digital image of the upper object edge and a second fixed digital camera for capturing a digital image of the lower object edge are provided.
  • a first and stationary digital camera for capturing a digital image of the upper object edge and a second fixed digital camera for capturing a digital image of the lower object edge are provided.
  • the complete edge of the object including the apex can be inspected.
  • the expenditure on equipment due to the second digital camera slightly larger.
  • the illumination conditions for the bright field and the dark field photography for both the upper object edge and the lower object edge can be equally optimized.
  • Separate first and second lighting devices may be provided respectively for the upper and the lower object edges.
  • the lighting devices of the upper and lower edges can each also be combined, for example, by providing a bright-field illumination device spanning arcuately around the edge of the object and a dark-field lighting device that extends arcuately around the edge of the object.
  • arrangements of the invention are also included which comprise more than one camera per object edge or more than two cameras for the entire object edge. Accordingly, the number of generated edge images, which are combined into a virtual total bitd, can also be larger. Dfeses is useful, for example, if a higher resolution is desired, which leads to a reduction of the image field if the sensor of the camera remains the same.
  • Each camera then generates, for example, a strip-shaped section as a dark field and as a bright field image. From the image strips of all cameras, which preferably overlap somewhat, a closed bright and dark field image of the entire object edge or the object edge can be assembled.
  • FIG. 1 shows a schematically simplified illustration of an inspection device including the inspection system according to the invention
  • FIG. 2A shows a side view of an embodiment of the inspection system according to the invention for producing a laundry edge image
  • Figure 2B is a plan view of the inspection system of Figure 2A;
  • FIG. 2C shows a side view of another embodiment of the inspection system according to the invention with two cameras
  • FIG. 3A shows a first representation of the allocation of adjacent defect fragments on the basis of distance relationships
  • FIG. 3B shows a second illustration of the assignment of adjacent defect fragments on the basis of form relationships
  • Figure 4A is an illustration of the virtual edge image taken with the upper digital camera
  • Figure 4B is an illustration of the virtual edge image taken with the lower digital camera
  • FIG. 4C shows a representation of a virtual edge image of the upper and lower edge with defect determined and composed by the method according to the invention
  • FIG. 5 is a flow chart of an extended inspection procedure
  • FIG. 6 shows a flow chart of a comparison of determined defect properties with stored property information of a predefined defect class
  • FIG. 7 shows an exemplary diagram of two property value distributions of different defect classes
  • FIG. 8 is a flowchart of a defect classification.
  • FIG. 1 gives an overview of the steps carried out according to the method according to the invention, including a subsequent analysis and evaluation, as well as the features of the corresponding inspection system in a schematized representation.
  • one or more images are generated from the object surface by means of a digital camera 101.
  • image processing devices 102 Connected to the digital camera are image processing devices 102, more precisely a first and at least one second image processing device 102, which receive the biosdata from the digital camera and associate contiguous pixels in the image with a defect fragment and adjacent defect fragments with a defect.
  • the image information obtained in this way is forwarded to an analysis device 103 with one or more defect analysis devices.
  • One or more analyzes are carried out there, whereby the image processing and the defect analysis do not have to be processed strictly consecutively, but interpenetration can first be followed by a first defect analysis on the first image processing and then a second defect analysis on the second image processing, etc. Also, these process steps can be partially executed in parallel.
  • the results of the defect analysis ie the property values of the defects and defect fragments, are forwarded to the evaluation device 104 connected to the defect analysis device 103, where the defect of a predefined defect class is assigned on the basis of the determined defect property values.
  • the evaluation device 104 is in turn subdivided into a comparison device 105 connected to the defect analysis device 103 and a classification device 106 connected to the comparison device 105, and furthermore has a memory device 107 which is accessed by the comparison device 105.
  • FIGs 2A and 2B show in simplified representation an embodiment of the inspection system according to the invention for inspecting an upper edge portion of a semiconductor wafer 201.
  • the inspection system is in another embodiment with two cameras for simultaneously inspecting upper and lower edge portions of the wafer wafer 201 (also briefly referred to as upper and lower object edge) also shown in simplified form.
  • the wafer 201 rests on a turntable 200 (shown only in FIG. 2C), which is driven by a motor, preferably by means of a stepping motor, and sets the wafer 201 in rotation during the measurement.
  • a motor control (not shown) outputs a control pulse, which can be used on the one hand to control the rotational movement and on the other hand to synchronize the recording of the object edge with the rotational movement.
  • the inspection system according to FIG. 2C furthermore has an upper and a lower biofixing device 210 or 220 in symmetrical arrangement with respect to the center plane E of the wafer 201.
  • Both image generation devices each have a digital camera 212 or 222, preferably a line camera, a first illumination device 214, 218 or 224, 228 for generating bright field illumination and a second illumination device 216 or 226 for generating a dark field illumination of the upper or the lower edge portion of the wafer 201.
  • the representation and the arrangement of the illumination devices and the digital cameras in FIG. 2C, as well as the illustration of the edge region of the wafer 201 should only be understood as a schematic simplification and should only serve to explain the principle.
  • the upper digital camera 212 captures a top of the top surface 230 of the wafer 201, the top edge region or Bevel 232, and at least a portion of the end edge region or apex 234.
  • the bottom digital camera 222 correspondingly captures a portion of the planar bottom surface 236 of the wafer 201 lower edge region or Bevel 238 and also at least part of the frontal edge region or apex 234th
  • a combined illumination field illumination device can also be provided which, for example, spans the object edge in an arc-shaped manner.
  • Such lighting devices have the advantage that they illuminate the object edge regardless of their geometry, in particular so rounded edges evenly.
  • the side view according to FIG. 2A shows, by way of example, such an arcuate illumination device 204 as a bright field light source, which, however, uniformly illuminates only the upper edge region.
  • the ring could, for example, continue to be pulled around at the lower end.
  • two separate lighting devices of this type could be provided, which are arranged mirror-inverted around the wafer edge.
  • a radial fan of light rays 205 is radiated by the illuminator 204 toward the center thereof where the upper edge of the wafer 201 is located.
  • the light rays 205 which are incident on the wafer are Ferbante reflected so that from each point of the wafer edge, a reflected light beam 206 falls into the lens 203 of the camera 202, which focuses the incident radiation by means of a lens system 207 in the image plane of the camera 202 and so generates an image of the wafer edge.
  • the camera 202 is swiveled out by the same angle from the radial plane R with respect to the wafer 201 as the illumination device 204. Only this geometry ensures that the light 206 reflected at the edge of the wafer 201 enters the lens 203.
  • a controller (not shown) is provided for the lighting devices, which preferably controls them in such a way that the bright field illumination is activated sequentially in one revolution and the dark-tilt illumination in another revolution.
  • a circumferential edge image is generated during the rotation of the wafer 201 about its central axis A, wherein first a series of line images is recorded under brightfield and under Dunkeifeidbeleuchtung. The line images are then combined to form a panoramic image of the wafer edge (Kantenbiid). This will be explained with reference to FIGS. 4A to 4C.
  • At least four edge images are generated by means of the inspection system shown in FIG. 2C, in each edge image the notch of the wafer (not shown) and the wafer edge are identified by means of suitable image processing methods and can be aligned with one another.
  • the edge images from the upper digital camera 212 and the lower digital camera 222 can then be processed by means of the image processing ⁇ inraum together to form an overall image of the wafer edge (virtual edge image).
  • FIGS. 3A and 3B the assignment of two defect fragments to a defect is illustrated on the basis of two criteria selected by way of example.
  • two defect fragments 301 and 302 are examined for membership of the same defect on the basis of defined distance criteria.
  • the projected distance 305 would be determined from the projected vertical distance 303 and the projected horizontal distance 304.
  • the assignment to a common defect takes place when the distance projected in this way is smaller than a predefined limit value.
  • the fragments are subjected to shape anafyse, whereby a "force of attraction" is determined between two fragments 301 'and 302'
  • a high attraction force is present when the abscisions, preferably the minimum section 303 ', between the defect edges are small and there are a large number of parallel tangents 304 1 , 305 '
  • the attractive force can be calculated according to the following formula:
  • FIG. 4A shows an edge image of the object edge recorded with the upper digital camera 212.
  • the upper camera detects the planar wafer top side 430 (at least in the edge region), the upper bevel 432 and the apex 434.
  • the evaluatable image area ends with the lower wafer edge 435.
  • the center of the apex 434 can be determined become. This is determined as the center of the coordinate system in the vertical direction, so here along the horizontal coordinate axis X.
  • the Notch 440 is also included. Its center determines the center of the coordinate system in the horizontal direction. Along this line the vertical coordinate axis Y runs.
  • defect fragment edge 442 is shown by way of example. It remains unclear whether it is a BiSd under brightfield or under darkfield lighting.
  • FIG. 4B shows an edge image of the object edge recorded with the lower digital camera 222.
  • the bottom camera captures the flat wafer base 436 (also only in the edge region), the lower level 438 and the apex 434.
  • the evaluable image area ends here with the upper wafer edge 437.
  • the Wafer edge again the center of Apex 434 be determined. This is determined as before the center of the coordinate system in the vertical direction and is represented by the horizontal coordinate axis X.
  • the notch 440 is also included in this image, determines the center of the coordinate system in the horizontal direction, and is represented by the vertical coordinate axis Y.
  • FIG. 4C shows the virtual result from the summary of all four recorded edge images, the virtual edge image.
  • the virtual edge image defines its coordinate origin through the center of the notch 440 and through the center of the apex 434.
  • the X and Y axes are for orientation located.
  • the virtual edge image includes all the wafer zones: the flat top 430, the top bevel 432, the apex 434, the bottom bevel 438 and the flat bottom 436.
  • defect fragments 441 which result from the dark field recording, as well as defect fragments 443, which result from the healing field recording.
  • the defect is demarcated by the formation of an enveloping defect rim 450, which includes all defect fragments associated with this defect.
  • the method described with reference to FIG. 1 will be explained in more detail with reference to FIG.
  • the first image processing device also called “defect tracer”
  • Each bi-point associated with each (edge) image whose contents are within a certain range of values is identified in step 501 and assigned to a defect fragment.
  • the range of values depends on the lighting system used and must therefore be fixed manually or automatically.
  • the defect fragments found in this way are assigned a defect by means of the second binding processing device in step 502 if they have predetermined spacing and / or shape relationships.
  • the assignment of adjacent defect fragments to a defect preferably takes place via the amount alier defect fragments, ie the defect fragments, which were obtained from all (four) edge recordings in order to achieve a complete representation of the total defect from the sum of light and Du ⁇ kelfeldfragme ⁇ ten.
  • Summarizing the defect fragments in the virtual image has clear advantages over summarizing the fragments in the individual light or dark field images. In fact, the unity of a defect is much easier to see because of the different optical exposure methods.
  • the entire defect is then examined by means of the second analysis device in step 503 for the presence of certain defect properties. More specifically, the values of predetermined defect characteristics are determined in this step.
  • the defect fragments are examined by the first analyzer in step 505 for the presence of certain defect fragment properties. More specifically, the values of predetermined defect fragment characteristics are determined in this step. Subsequently, the defect fragments are subjected to a further analysis with respect to the above-mentioned extended defect properties by means of a third analysis device in step 507. In this case, only such defect fragments are jointly investigated, which were assigned to a common defect. In this step, statistical values are derived (for example, by averaging or summation or other linkage of defect fragment property values).
  • a last step 509 the defect of a predefined defect class is assigned by means of an evaluation device on the basis of a comparison of the determined defect fragment property values and the determined defect property values (including the extended defect property values) with stored defect property information or defect fragment property information. This process of classification will be explained below with reference to FIGS. 6 to 8.
  • the affiliation check for any (defect) class begins at 601 with the input parameters passed by the analyzer.
  • step 602 a query is first of all made as to whether the defect under investigation has already been assigned to another defect class. If this is the case, all subsequent steps of the evaluation for the defect class currently being investigated can be skipped.
  • step 603 it is first queried whether mandatory conditions, ie, property information and / or their links, which are responsible for the assignment of the defect to the defect class currently being investigated Defective class must be met, (preferably in a memory device in tabular form or implemented in a program code) are deposited. If such compelling conditions exist, then in step 604, by means of a first comparison device, a check of the determined defect property values for fulfillment of the compelling conditions follows. In step 605, a fail discrimination occurs. If the comparison shows that the mandatory conditions are not all fulfilled, no further query / evaluation takes place with respect to this defect class and the defect is not assigned to this class.
  • mandatory conditions ie, property information and / or their links
  • step 606 If the mandatory conditions are fulfilled, however, a further distinction is made in step 606. If no property value distribution is stored for the defect class investigated here, then in step 607 a classification flag is output with which the affiliation of the defect to the defect class investigated in the present case is affirmed. Such a classification flag causes examination of the next defect class that at the beginning in the query step 602 all subsequent test steps can be skipped and the overall test procedure is shortened. As an alternative to the evaluation illustrated in FIG. 6, the classification flag from step 607 can also be used such that a jump command is issued directly to the end of the affiliation check of all defect classes.
  • step 606 If the query in step 606 indicates that a property value distribution, ie property information in the form of a frequency distribution function of the property value, is stored for this defect class, then in step 610 the determined defect property values are compared with the stored property value distributions in a second comparison facility and a corresponding one in step 611 Probability value, which is the probability of existence represented a defect of this defect class.
  • a frequency distribution function can be determined empirically and preferably stored again in a storage medium in functional or tabular form.
  • the comparison or the evaluation in step 610 takes place in such a way that the corresponding determined defect property value is inserted into each of the property value distributions stored for the currently examined defect class and the associated function value (the property probabilities) is retrieved.
  • a plurality of property value distributions are stored for a defect class, then in the evaluation step 610 a plurality of property probabilities are obtained, which in step 611 are combined to form an overall probability value.
  • the combination is preferably a multiplication or averaging of the individual property probabilities.
  • the affiliation check shown in FIG. 6 summarizes for each defect class one of the following three results:
  • a defect is clearly assigned to the examined defect class in step 607 and thus classified, the defect remains unclassified if it has already been classified in a previous comparison with another defect class ⁇ step 602) or if it is determined in steps 604 and 605 that at least one of the mandatory conditions is not met, or if in steps 603 and 609 it is ascertained that neither imperative conditions nor property value distributions are stored for this defect class (this case is defect-independent and leads in each case to the fact that no defect can be assigned to the defect class)
  • the defect is assigned a probability value for the examined defect class.
  • FIG. 8 four affiliation tests of the type described above are shown cascaded one behind the other for four exemplary defect classes (particles, scratches, outbreak, surface defect).
  • defect classes particles, scratches, outbreak, surface defect.
  • other classifications are possible besides the mentioned defect classes. For example, it is possible to differentiate between finer and coarser particles (dust and splinters). Surface defects may further be divided into ripples, inhomogeneities, roughnesses or prints, etc.
  • a case distinction in step 806 provides for an immediate termination of the classification if the defect of a defect class under investigation has already been unambiguously assigned and thus classified in step 607. This can be determined by the classification flag, if not, a case distinction is again made in step 808 as to whether probability values were output in steps 610 and 611 for at least one of the defect classes. is this is not the case, then the defect is assigned to a given defect class (default). The classification is finished afterwards. However, steps 808 and 810 are optional.
  • Step 808 may be omitted if it is ensured that at least one property information from the group of compelling conditions and property value distributions is stored for each predefined defect class.
  • Step 810 only ensures that a defect that could not otherwise be classified, for example because it does not satisfy the mandatory conditions of any defect class, does not remain unclassified. Thus, such defects can be adequately taken into account, for example in a downstream sorting, which were not taken into account in the defect class definition or deposited for the incorrect parameters.
  • the different probability values of the different defect classes are evaluated by the classification means, which is connected to the second comparison device, in step 809, i. and output a classification FJag for the defect class for which the highest probability value was output.
  • the latter step is explained for two different defect classes with different property value distribution on the basis of a single defect property value with reference to FIG. If, for example, a frequency or property value distribution according to curve 701 is stored for defect class 1 and a frequency distribution according to curve 702 for defect class 2, then by assigning the corresponding determined defect property value of 5.5 to each of the two property value distributions, the assigned property probability for the defect class is obtained 1 of 0.05 and that for the defect class 2 of 0.25.
  • This simple assignment rule of a functional value (property probability) to a defect property value is by no means the only one possible. Also, to determine a probability value, for example, up to the defect property value may be integrated over the property value distribution.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

Die Anmeldung betrifft ein Inspektionssystem und ein Inspektionsverfahren für die optische Untersuchung von Objektkanten, insbesondere von Waferkanten. Das Inspektionsverfahren sieht die Schritte vor: Aufnehmen eines digitalen Bildes von der Objektkante mittels Digitalkamera (101, 202, 212, 222) unter Hellfeldbeleuchtung, Aufnehmen eines digitalen Bildes von der Objektkante mittels Digitalkamera (101, 202, 212, 222) unter Dunkelfeldbeleuchtung und Zusammenfassen der Bildinformation aus dem Hellfeldbild und dem Dunkelfeldbild. Das Zusammenfassen der Bildinformation umfasst vorzugsweise ein Zuordnen zusammenhängender Bildpunkte in dem Hellfeldbild zu einem Defektfragment (301, 301', 302, 302', 441,.442, 443, 444, 446) in Abhängigkeit von den Bildpunktinhalten, ein Zuordnen zusammenhängender Bildpunkte in dem Dunkelfeldbild zu einem Defektfragment in Abhängigkeit von den Bildpunktinhalten, und ein Zusammenfassen der Defektfragmente aus dem Hellfeldbild und dem DunkelfeldbiId in einem gemeinsamen virtuellen Kantenbild.

Description

Inspektionssystem und -verfahren für die optische Untersuchung von Objektkanten, insbesondere von Waferkanten
Beschreibung
Die Erfindung betrifft ein inspektionssystem und ein Inspektionsverfahren für die optische Untersuchung von Objektkanten, insbesondere von Waferkanten.
Das optische Inspektionsverfahren von Halbleiterwafern auf Defekte ist ein wichtiger Teil des Herstellungsprozesses von Computerchips. Die Inspektion umfasst in der Regel sowohl die ebene Waferober- und Unterseite als auch dessen Kanten bereich. Die vorliegende Erfindung betrifft die Inspektion der Kantenbereiche.
Inspektionssysteme für Waferkanten verwenden häufig eine Anordnung bestehend aus einer Digitalkamera und einem geeigneten Beleuchtungssystem, mit der ein digitales Bild von der Waferkante aufgenommen wird, welches anschließend einer manuellen oder automatischen Auswertung zugeführt wird, wobei die Ergebnisse der Auswertung dazu verwendet werden, nach den Vorgaben des Chipherstellers über die Verwertbarkeit des Wafers zu entscheiden und eine Sortierung nach Qualitätskriterien durchzuführen.
Femer ist beispielsweise aus der DE 10 313 202 B3 bekannt, das Bild der Waferkante bei einer kombinierten Hell-/Dunkelfeldbeieuchtung aufzunehmen. Um die Kosten des Inspektionssystems zu senken wird außerdem vorgeschlagen mittels einer Digitalkamera die obere Waferkante und gleichzeitig unter Verwendung eines Planspiegels die untere Waferkante in einer Aufnahme abzubilden. Tatsächlich entstehen so Hellfeldbilder nur im Bereich der ebenen Waferoberseite sowie im Be- reich der direkten Reflexion auf der Spiegelαberfläche. Die Kantenbereiche (oberer und unterer Bevei sowie Apex) liegen im Bereich des Dunkelfelds, wobei der obere Beve! unter streifenden Lichteinfall der Hellfeldlichtquelle abgebildet wird und der Apex sowie der untere Bevei völlig im Schatten der Hellfeldlichtquelle liegen. Ferner werden alle Kantenbereiche direkt oder indirekt über den Planspiegel mittels zweier Dunkelfeidiichtqueilen angeleuchtet. Der Lichteinfallswinkei des unteren Kantenbereiches des Wafers ist dabei aber ein anderer ist als jener auf dessen Oberseite.
Im Ergebnis sind die Beleuchtungsverhältnisse auf der Oberseite und der Unterseite des Wafers also sehr unterschiedlich. Nachteilig an der inhomogenen Ausleuchtung der Kantenbereiche ist, dass ein großer Teil der zur Verfügung stehenden Auflösung der Büdinhalte nicht für die Defekterkennung zur Verfügung steht. Nachteilig ist weiterhin, dass manche Defekte im Bereich der Kante im Dunkelfeld nicht ausreichend sichtbar sind und damit in der Qualitätskontrolle übersehen werden können.
Aus dem Patent US 5,822,055 sind ein Verfahren und ein Inspektionssystem bekannt, bei welchen mittels zwei getrennter Detektoren und Signalverarbeitungswege jeweils ein Hellfeldbild und ein Dunkelfeldbild einer Waferoberfläche erzeugt und mit jeweils einem Vergleichsbild durch Differenzbildung verglichen wird. Das Hellfeld-Differenzsignal und das Dunkelfeld-Differenzsignal werden danach dergestalt korreliert, dass ein Defektdetektor anhand komplexer Schwellwertfunktionen beider Größen Defekte von Rauschen, Körnigkeit oder Schlieren unterscheiden kann.
Demgegenüber haben es sich die Erfinder zur Aufgabe gemacht, das Inspektionssystem bzw. das Inspektionsverfahren dahingehend zu verbessern, dass aus den aufgenommenen Bildinhalten mehr Information über die Defekte gewonnen werden kann, um unter anderem die Sicherheit der Zuordnung der erkannten Defekte zu bestimmten Defektklassen zu erhöhen.
Die Aufgabe wird durch ein Inspektionssystem mit den Merkmalen des Anspruchs 1 und ein Inspektionsverfahren mit den Merkmaien des Anspruchs 10 gelöst. Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche.
Das Inspektionsverfahren sieht erfindungsgemäß vor:
- Aufnehmen eines digitalen Bildes von der Objektkante mittels Digitalkamera unter Helifeldbeieuchtung,
- Aufnehmen eines digitalen Bildes von der Objektkante mittels Digitalkamera unter Dunkelfeldbeleuchtung,
- Zusammenfassen der Bildinformation aus dem Hellfeldbild und dem Dunkelfeldbild.
Es werden hierin die nachfolgenden Begriffsdefinitionen verwendet, sofern sich nicht vereinzelt abweichende Bezeichnungen aus dem unmittelbaren Textzusammenhang ergeben:
- (Oberflächen-) Defekt physische Veränderung in oder auf der Oberfläche (einschließlich Fremdpartikel); der Begriff wird auch für das Bild derselben Verwendet;
- (Defekt-) Fragment als zusammenhängend ermittelter Teil eines Defekts;
- (Defekt-/fragment-) Eigenschaft physikalisch messbare Größe des Defektes bzw. des Fragmentes (Bsp.: Ausdehnung, Aspektverhältnis, Rundheit, Fiächen- schwerpunkt, ...); - (erweiterte) statistische Defekteigenschaft
Defekteigeπschaft, die sich aus der statistischen Untersuchung von Defθktfragmenteigenschaften der einem Defekt zugeordneten Fragmente ableiten lassen;
- (Defekt-/fragment-) Eigenschaftswert der eine gemessene Eigenschaft repräsentierende Parameter;
- (DefekWfragment-) Eigenschaftsinformation auf einem Speichermedium beispielsweise in Form einer Tabelle oder eines Programmcodes hinterlegte Information zu einer Eigenschaft (Bsp.: Wertebereich für die Ausdehnung, Aspektverhältnis, Rundheit, Flächenschwerpunkt, ...);
- Defektklasse
Zusammenfassung von Defekten, zu denen eine oder mehrere identischen Eigenschaftsinformationen hinterfegt sind;
- zwingende Kondition
Eigenschaftsinformationen und/oder deren Verknüpfungen, welche für die Zuordnung eines Defektes zu einer Defektklasse zwingend eingehalten werden müssen;
- Eigenschaftswertverteiiung
Eigenschaftsinformation in Form einer HäufigkeitsverteiJungs- funktion eines Eigenschaftswertes in einer Defektklasse;
- Eigenschaftswahrscheinlichkeit
Funktionswert, ermittelt aus dem Eigenschaftswert und der Eigenschaftswertverteilung;
- Wahrscheinlichkeitswert
Verknüpfung aller Eigenschaftswahrscheinlichkeiten eines Defektes in einer Defektklasse.
Die mittels (der wenigstens einen) Digitalkamera erzeugten digitalen Biider der Objθktkanten lassen je nach Beleuchtungssituation bestimmte Defektmerkmale oder Eigenschaften erkennen, aufgrund derer der Defekt vordefinierten Defektklassen zugeordnet werden kann. Die Er- finder haben erkannt, dass ein Defekt in der Regel nicht als ein einzelnes zusammenhängendes Gebiet sondern als Ansammlung mehrerer Defektfragmente abgebildet wird. Die Erfinder haben weiterhin erkannt, dass je nach Beieuchtungssituation unterschiedliche Abschnitte der Defekte ausgeleuchtet werden, sich also verschiedene Defektfragmente zeigen. Um ein möglichst vollständiges Bild des Defektes zu erhalten, werden deshalb erfindungsgemäß zunächst Bildinformationen aus verschiedenen Beleuchtungssituationen getrennt gewonnen und anschließend zusammengefasst, um eine einheitliches und vollständigeres Bild des Defektes zu generieren.
Das Zusammenfassen der Bildinformation umfasst dabei bevorzugt:
- das Zuordnen zusammenhängender Bildpunkte in dem Hellfeidbild zu einem Defektfragment in Abhängigkeit von den Biϊdpunktinhalten,
- das Zuordnen zusammenhängender Bildpunkte in dem Dunkelfeldbild zu einem Defektfragment in Abhängigkeit von den Bildpunktinhalten und
- das Zusammenfassen der Defektfragmente aus dem Hellfeldbild und dem Dunkelfeldbild in einem gemeinsamen virtuellen Kantenbild.
Dementsprechend weist das erfindungsgemäße Inspektionssystem die folgenden Merkmale auf:
- einen motorisch angetriebenen Drehtisch zur drehbaren Halterung des Objekts,
- wenigstens eine ortsfeste Digitalkamera, die zum Aufnehmen eines digitalen Bildes der Objektkante unter Drehung des Drehtisches eingerichtet ist, - eine erste ortsfeste Beleuchtungseinrichtung, die relativ zur Digitalkamera und Objektkante so angeordnet ist, dass ein BfId der Objektkante unter Hellfeldbeleuchtung erzeugt werden kann,
- eine zweite ortsfeste Beleuchtungseinrichtung, die relativ zur Digitalkamera und Objektkante so angeordnet ist, dass ein Bild der Objektkante unter Dunkelfeidbeleuchtung erzeugt werden kann, und
- eine erste Bildverarbeitungseinrichtung, eingerichtet zum Zuordnen zusammenhängender Bildpunkte in dem Hellfeldbifd zu einem Defektfragment in Abhängigkeit von den Bildpunktinhalten, zum Zuordnen zusammenhängender Biidpunkte in dem Dunkelfeldbild zu einem Defektfragment in Abhängigkeit von den Bifdpunktinhalten und zum Ausrichten und Zusammenfassen der Defektfragmente aus dem Hellfeldbild und dem Dunkelfeldbild in einem gemeinsamen virtuellen Kantenbild.
Auf diese Weise sieht die Erfindung vor, zunächst die Defektfragmente in beiden Beieuchtungssituationen (Helffeld und Dunkelfeld) getrennt voneinander zu identifizieren, indem zusammenhängende Bildpunkte, deren Inhalte (Intensitäts-, Grau- oder Farbwerte) innerhalb eines vorher festgelegten Wertebereichs (Intensitäts-, Grau- oder Farbwertintervalls) liegen, demselben Defektfragment zugeordnet werden. Danach werden die (wenigstens) zwei Objektkantenbilder in einem virtuellen Kantenbild zusammengefasst, so dass durch die Summe der Informationen aus dem Hellfeldbild und dem Dunkelfeldbild sich ein umfassenderes Bild des gesamten Defektes ergibt.
Die Verfahrensschritte der Bildverarbeitung (Zusammenfassen der Bildinformation, insbesondere Zuordnen der Bildpunkte zu einem Defektfragment und Zusammenfassen der Defektfragmente in einem gemeinsamen virtuellen Kantenbild) können einzeln oder gemeinsam sowohl als Software als auch als Hardware oder in Kombination aus Software und Hardware implementiert sein. Dfe wenigstens eine Digitalkamera ist vorzugsweise eine Zeilenkamera, die so angeordnet ist, dass die mit der Zeilenkamera aufgenommene einzelne Bildzeile in einer Ebene liegt, welche senkrecht zu der Ebene des Objekts bzw. des Objektrandes angeordnet ist. Während sich das Objekt zusammen mit dem Drehtisch dreht, werden mit einer solchen Kamera sequentiell mehrere Biidzeilen der Objektkante in unterschiedlichen Winkelstellungen des Objekts aufgenommen. Hierzu kann die Auslösung der Kamera beispielsweise mittels eines Synchronisationsimpulses durch den Antriebsmotor (z.B. Schrittmotor) erfolgen. Die einzelnen Bildzeilen werden anschließend zu einem (Panorama-)Biid der Objektkante zusammengefügt.
Vorzugsweise werden die Bifdzeiien sequentiell in zwei Umfäufen des Drehtisches bzw. des Objektes aufgenommen, wobei in dem einen Umlauf die Hellfeidbeieuchtung und in dem anderen Umlauf die Dunkel- feidbeSeuchtung aktiviert ist. Die Reihenfolge ist gleich. Alternativ ist es auch möglich (wenngleich zeitaufw ndiger), die Hellfeld- und Dunkelfeldbilder in einem einzigen Umlauf des Drehtisches aufzunehmen. Hierzu werden nach jedem Stellschritt des Drehtisches zwei Aufnahmen gemacht, wobei die Beleuchtung abwechselnd zwischen Hellfeld- und Dunkelfeldbeleuchtung umgeschaltet wird.
Bevorzugt werden zusammenhängende Bildpunkte in dem Hellfeldbild zu einem Defektfragment zusammengefasst, wenn die Biidpunktinhalte innerhalb eines bestimmten ersten Wertebereiches liegen. Entsprechend werden zusammenhängende BNdpunkte in dem Dunkeifeldbild zu einem Defektfragment zusammengefasst, wenn die Bildpunktinhalte innerhalb eines bestimmten zweiten Wertebereiches liegen. Aufgrund der unterschiedlichen Beleuchtungssituationen ergeben sich regelmäßig verschiedene Verteilungen der Biidpunktinhalte, so dass die ersten und zweiten Wertebereiche oder regelmäßig auseinander fallen. Ge- eignete Wertebereiche oder Intervailgrenzen können beispielsweise manuell oder automatisch mittels Histogrammauswertung ermittelt bzw. festgelegt werden.
Die so ermittelten Defektfragmente weisen Eigenschaften auf, welche mittels einer der ersten Bildverarbeitungseinrichtung nachgeschalteten Analyseeinrichtung analysiert werden können, indem entsprechende Eigenschaftswerte aus der Bildinformation extrahiert werden. Hierzu werden zunächst die aussagekräftigsten Defektfragmenteigenschaften, anhand derer die Klassifikation, also die Zuordnung zu einer Defekt- Masse von Statten gehen soll, festgelegt oder „bestimmt". Einige „bestimmte" Defektfragmenteigenschaften sind in der folgenden Tabelle 1 zusammengestellt:
Tabelle 1: Defektfragmenteigenschaften
Figure imgf000010_0001
Figure imgf000011_0001
Jedes der obigen Verhältnisse zweier Werte a und b wird dabei wie folgt berechnet
Verhältnis = Formel 1 a + b
Die Rundheit wird wie folgt berechnet:
Rundheit = M≡i- Formel 2
Fläche
Der Berechnung der Weichheit ist das Berechnen der Konturenergie vorangestellt. Die Konturenergie ist ein Maß für die „Unruhe" der Kontur. Zur Berechnung wird über die Richtungsänderungen der Verbindungsstrecken aufeinander folgender Konturpunkte aufsummiert, wobei der Beitrag zur Konturenergie umso größer ist, je spitzer der zwischen den Verbindungsstrecken eingeschlossene Winkel ist:
((Xn, -XJ - (Xn -Xn+1) )2 +
Konturenergie — 2_. Formel 3 π=t ( (Yn, - YJ - (Yn ~ Yn+1) ):
Hierin sind Xn, Yn die Koordinaten des n-ten Konturpunktes auf einem ermittelten Defektfragmentrand in dem virtuellen Kantenbild und N ist die Anzahl der Konturpunkte.
Die Weichheit ist die Konturenergie normiert über den Umfang: __. , . Konturenergie
Weichheit = ~— Forme! 4
Umfang
Kurtosis und Schiefe („Skewness") sind aus der Statistik bekannte Größen und berechnen nach folgenden Formeln:
Kurtosis = ^-~ - 3 , Formel 5
Skewness = ~ , Formel 6 σ
mit dem dritten bzw. vierten Moment der Verteilung μ3 = E(x-μ)3 bzw. μ4 = E(x-μ)4 (E: Erwartungswert, μ: Mittelwert und x: Funktionswert) und der Standardabweichung σ.
Die Berechnungen repräsentieren die genannten Eigenschaften nur beispielhaft und können in dem einen oder anderen Fall durch ähnliche Formeln ersetzt werden.
Weitere Informationen, die zu einer verbesserten Klassifizierung eines identifizierten Defektes beitragen können, lassen sich anhand der Eigenschaften des ganzen Defektes bestimmen. Hierzu ist gemäß einer vorteilhaften Weiterbildung der Erfindung vorgesehen, dass mittels einer zweiten Bildverarbeitungseinrichtung benachbarte Defektfragmente einem Defekt zugeordnet werden, wenn die benachbarten Defektfragmente vorbestimmte Abstands- und/oder Formzusammenhänge aufweisen.
Bevorzugt geschieht dies, indem der Abstand zweier Defektfragmente in der Bildebene ermittelt und geprüft wird, ob der ermittelte Abstand einen vorbestimmten Abstandshöchstwert nicht überschreitet. Am einfachsten ist es hierfür den Abstandzusammenhang und insbesondere den minimalsten Abstand zweier Konturpunkte der Defektfragmente heranzuziehen. Dies bedingt, dass zuvor zu jedem Defektfragment ein Fragmentrand ermittelt wurde.
Alternativ kann der so genannte projizierte Abstand ermittelt werden. Hierzu werden die beiden Defekte auf die Achsen des Bildkoordinatensystems projiziert und der Abstand koordinatenweise ermittelt.
Genauer kann eine Zuordnung erfolgen, wenn alternativ oder zusätzlich zu den Abstandszusammenhängen Formzusammenhänge herangezogen werden. Hierzu dient beispielsweise die Parallelität von Abschnitten der Fragmentränder zweier Defektfragmente. Die Parallelität wird gemäß einer vorteilhaften Weiterbildung der Erfindung zunächst ermittelt und anschließend geprüft, ob die ermittelte Parallelität einen vorbestimmten Paraileiitätsmindestwert nicht unterschreitet. Eine nähere Erläuterung dieser Ausführungsform erfolgt in der Figurenbeschreibung.
Gemäß einer anderen vorteilhaften Weiterbildung des Jnspektionsver- fahrens wird die Notch eines Wafers jeweils in dem Hellfeldbild und in dem Dunkelfeldbild identifiziert und beide Bilder anhand dieser Information in einer ersten Koordinatenrichtung des virtuellen Kantenbildes zueinander ausgerichtet.
Entsprechend wird auch der Rand eines Wafers jeweils in dem HeIJ- feldbiid und in dem Dunkelfeldbiid identifiziert und beide Bilder anhand dieser Information in einer zweiten Koordinatenrichtung des virtuellen Kantenbildes zueinander ausgerichtet. Die erste und zweite Koordinatenrichtung sind vorzugsweise senkrecht zu einander. Die Identifizierung der Notch kann beispielsweise erfolgen durch eine Mustererkennung, d.h. einen Vergleich der Bilddaten mit einer Vorlage, oder durch eine regelbasierte Analyse, d.h. durch die Beurteilung der Abbildung der Notch nach vorbestimmten geometrischen Merkmalen, wie z.B. dem Öffnungswinkel. Die Waferkante kann beispielsweise mittels einer Hough-Transformation gefunden werden.
Die Notch definiert typischerweise den Ursprung des Biidkoordinaten- systems in horizontaler Richtung, während die Waferkante (mit einem Offset versehen) den Ursprung des Bildkoordinatensystems in vertikaler Richtung darstellt, wie anhand der Figurenbeschreibung noch näher erläutert werden wird.
Das virtuelle Kantenbild entsteht durch Transformation der Defektfragmente (oder deren Ränder) in ein gemeinsames Koordinatensystem. Das virtuelle Kantenbild repräsentiert demnach ein gemischtes Hellfeld- Dunkelfeldbild der Waferkante. Zur Ermittlung der Defektfragmenteigenschaften wird dennoch jeweils die volle Auflösung des Hellfeldbildes und des Dunkelfeldbildes ausgenutzt. Es deshalb möglich einen höheren Informationsgehalt zu gewinnen.
Durch das Zusammenfügen der Defektfragmente in dem virtuellen Bild ist bedingt durch die unterschiedlichen optischen Belichtungsmethoden die Einheit eines Defektes deutlich besser ersichtlich als in einem einzelnen Kantenbild. Das Zusammensetzen der Defektfragmente zu einem einheitlichen Defekt ist die Grundlage für die Ermittlung von Defekteigenschaften zusätzlich zu den oben genannten Defektfragmenteigenschaften. Einige Defekteigenschaften, die sich zur Untersuchung verschiedenartiger Defekte als nützlich erwiesen haben, sind den nachfolgenden Tabellen 2 und 3 zu entnehmen. Darin wird zwischen Defekteigenschaften und erweiterten, so genannten statistischen Defekteigenschaften unterschieden. Hierdurch kann die Gesamtzahl der zur Verfügung stehenden Eigenschaften erhöht und damit die Zuordnungsgenauigkeit zu einer Defektklasse verbessert werden.
Tabelle 2: Defekteigenschaften aus der Umhüllung
Figure imgf000015_0001
Tabelle 3: Erweiterte Defekteigenschaften
Figure imgf000015_0002
Figure imgf000016_0001
Nachfolgend wird nicht zwischen den genannten Eigenschaftstypen unterschieden. Soweit sich aus dem Kontext der Beschreibung nicht ergibt, dass die „Defekteigenschaften", die „Defektfragmenteigenschaften" oder die „erweiterten Defekteigenschaften" im Sinne obiger Begriffsdefinitionen gemeint sind, werden also vorgenannte Eigenschaften zur Vereinfachung unter dem Begriff „Defekteigenschaften" zusammen- gefasst.
Eine erfindungsgemäße Weiterbildung des inspektionssystems sieht vor, dass wenigstens eine erste und eine zweite ortsfeste Digitalkamera zum simultanen Aufnehmen digitaler Bilder der oberen Objektkante und der unteren Objektkante eingerichtet sind, wobei ortsfeste Beleuchtungseinrichtung jeweils relativ zu den Digitalkameras und den Objektkanten so angeordnet sind, dass Bilder der oberen und der unteren Objektkante unter Hellfeldbeleuchtung und unter Dunkelfeldbeleuchtung erzeugt werden, und wobei die erste Biidverarbeitungseinrichtung zum Zuordnen zusammenhängender Bildpunkte zu einem Defektfragment in allen Bildern und zum Ausrichten und Zusammenfassen der Defektfragmente aus allen Bildern in einem gemeinsamen virtuellen Kantenbild eingerichtet ist.
Insbesondere schließt dies eine Anordnung ein, bei der eine erste und ortsfeste Digitalkamera zum Aufnehmen eines digitalen Bildes der oberen Objektkante und eine zweite ortsfeste Digitaikamera zum Aufnehmen eines digitalen Bildes der unteren Objektkante vorgesehen sind. Auf diese Weise kann in einem bzw. zwei Umläufen mit nur zwei Digitalkameras der vollständige Rand des Objektes einschließlich der Apex inspiziert werden. Anders als in der DE 10 313 202 B3 ist hierfür zwar der apparative Aufwand aufgrund der zweiten Digitaikamera etwas größer. Jedoch können auf diese Weise die Beleuchtungsbedingungen für die Hellfeld- und die Dunkelfeidaufnahme sowohl für die obere Objektkante als auch die untere Objektkante gleichermaßen optimiert werden können. Es können separate erste und zweite Beleuchtungseinrichtun- gen jeweils für die obere und die untere Objektkante vorgesehen sein. Die Beleuchtungseinrichtungen der Ober- und Unterkante können aber jeweils auch zusammengefasst werden, indem beispielsweise eine den Objektrand bogenförmig umspannende Hellfeldbeleuchtungseinrichtung und eine den Objektrand bogenförmig umspannende Dunkelfeldbe- ieuchtungseinrichtung vorgesehen ist.
Grundsätzlich sind auch Anordnungen von der Erfindung eingeschlossen, welche mehr als eine Kamera je Objektkante bzw. mehr als zwei Kameras für den gesamten Objektrand umfassen. Dementsprechend kann auch die Anzahl der erzeugten Kantenbilder, die zu einem virtuellen Gesamtbitd zusammengefasst werden, größer sein. Dfeses ist zum Beispiel dann sinnvoll, wenn eine höhere Auflösung angestrebt wird, die bei gleich bleibendem Sensor der Kamera zu einer Verkleinerung des Bildfeldes führt. Jede Kamera erzeugt dann beispielsweise einen streifenförmigen Ausschnitt als Dunkelfeld- und als Hellfeldbild. Aus den Bildstreifen aller Kameras, die sich vorzugsweise etwas überlappen, kann ein geschlossenes Hell und Dunkelfeldbild der gesamten Objektkante bzw. des Objektrandes zusammengesetzt werden.
Weitere Aufgaben, Merkmale und Vorteile Erfindung werden nachfolgend anhand eines Ausführungsbeispiels mit Hilfe der Zeichnungen näher erläutert.
Es zeigen: Figur 1 eine schematisch vereinfachte Darstellung einer Inspekti- onsvorrichtung einschließlich dem erfindungsgemäßen Inspektionssystem;
Figur 2A eine Seitenansicht einer Ausführungsform des erfindungsgemäßen Inspektionssystems zur Erzeugung eines Wa- ferkantenbildes;
Figur 2B eine Draufsicht auf das Inspektionssystemgemäß Fig. 2A;
Figur 2C eine Seitenansicht einer anderen Ausführungsform der erfind ungsgemäßen Inspektionssystems mit zwei Kameras;
Figur 3A eine erste Darstellung der Zuordnung benachbarter Defektfragmente anhand von Abstandszusammenhängen;
Figur 3B eine zweite Darstellung der Zuordnung von benachbarten Defektfragmenten anhand von Formzusammenhängen;
Figur 4A eine Illustration des virtuellen Kantenbildes aufgenommen mit der oberen Digitafkamera;
Figur 4B eine Illustration des virtuellen Kantenbildes aufgenommen mit der unteren Digitalkamera;
Figur 4C eine Darstellung eines nach dem erfindungsgemäßen Verfahren ermittelten und zusammengesetzten virtuellen Kantenbildes der oberen und unteren Kante mit Defekt;
Figur 5 ein Ablaufdiagramm eines erweiterten Inspektionsverfahrens; Figur 6 ein Ablaufdiagramm eines Vergleiches ermittelter Defekteigenschaften mit hinterlegten Eigenschaftsinformationen einer vordefinierten Defektkiasse;
Figur 7 ein beispielhaftes Diagramm zweier Eigenschaftswertverteilungen unterschiedlicher Defektklassen und
Figur 8 ein Ablaufdiagramm einer Defektklassifikation.
Figur 1 gibt eine Übersicht über die nach dem erfindungsgemäßen Verfahren ausgeführten Schritte einschließlich einer nachgeschaiteten Analyse und Auswertung sowie die Merkmale des entsprechenden Inspektionssystems in einer schematisierten Darstellung. Demgemäß werden mittels einer Digitalkamera 101 eines oder mehrere Bilder von der Objektoberfläche erzeugt. Mit der Digitalkamera verbunden sind Bildverarbeitungseinrichtungen 102, genauer eine erste und wenigstens eine zweite Bildverarbeitungseinrichtung 102, die die Biiddaten von der Digitaikamera erhalten und einerseits zusammenhängende Bildpunkte in dem Bild einem Defektfragment und andererseits benachbarte Defektfragmente einem Defekt zuordnen. Die so gewonnene Bildinforma- tion wird an eine Analyseeinrichtung 103 mit einer oder mehreren Defektanalyseeinrichtung weitergeben. Dort werden eine oder mehrere Analysen ausgeführt, wobei die Bildverarbeitung und die Defektanalyse nicht streng aufeinander folgend abgearbeitet werden müssen, sondern auch ineinander greifend zuerst eine erste Defektanalyse auf die erste Bildverarbeitung und anschließend eine zweite Defektanaiyse auf die zweite Bildverarbeitung, usw., folgen kann. Auch können diese Prozessschritte teilweise parallel ausgeführt werden. Die Ergebnisse der Defektanalyse, also die Eigenschaftswerte der Defekte und Defektfragmente, werden an die mit der Defektanalyseeinrichtung 103 verbundene Auswerteeinrichtung 104 weitergegeben, wo der Defekt einer vordefinierten Defektklasse anhand der ermittelten Defekteigenschaftswerte zugeordnet wird. Die Auswerteeinrichtung 104 ist ihrerseits in eine mit der Defektanalyseeinrichtung 103 verbundene Vergleichseinrichtung 105 und ein mit der Vergleichseinrichtung 105 verbundenes Klassifizierungsmittel 106 unterteilt und weist ferner eine Speichereinrichtung 107, auf die die Vergleichseinrichtung 105 zugreift.
Die Figuren 2A und 2B zeigen in vereinfachter Darstellung eine Ausführungsform des erfindungsgemäßen Inspektionssystems zur Inspektion eines oberen Kantenabschnittes eines Halbleiterwafers 201. In der Seitenansicht von Figur 2C ist das Inspektionssystem in einer anderen Ausführungsform mit zwei Kameras zur simultanen Inspektion eines oberen und eines unteren Kantenabschnittes des Hafbfeiterwafers 201 (kurz auch als obere und untere Objektkante bezeichnet) ebenfalls vereinfacht gezeigt. Der Wafer 201 liegt auf einem Drehtisch 200 (nur in Figur 2C dargestellt) auf, welcher motorisch, vorzugsweise mittels Schrittmotor, angetrieben ist und den Wafer 201 während der Messung in Rotation versetzt. Eine Motorsteuerung (nicht dargestellt) gibt einen Steuerimpuls aus, der einerseits dazu genutzt werden kann, die Drehbewegung zu steuern und andererseits die Aufnahme der Objektkante mit der Drehbewegung zu synchronisieren.
Das Inspektionssystem gemäß Figur 2C weist ferner eine obere und eine untere Biiderzeugungseinrichtung 210 bzw. 220 in symmetrischer Anordnung bezüglich der Mittelebene E des Wafers 201 auf. Beide BiI- derzeugungse/nrichtungeπ verfügen jeweils über eine Digitalkamera 212 bzw. 222, vorzugsweise eine Zeilenkamera, eine erste Beieuch- tungseinrichtung 214, 218 bzw. 224, 228 zur Erzeugung einer Hellfeldbeleuchtung sowie eine zweite Beleuchtungseinrichtung 216 bzw. 226 zur Erzeugung einer Dunkelfeldbeleuchtung des oberen bzw. des unteren Kantenabschnittes des Wafers 201. Es wird in diesem Zusammenhang nochmals gesondert darauf hingewiesen, dass die Darstellung und Anordnung der Beleuchtungseinrichtungen und der Digitalkameras in Figur 2C wie auch die Darsteliung des Kantenbereichs des Wafers 201 nur als schematische Vereinfachung zu verstehen ist und nur als Erläuterung des Prinzips dienen soll. Die obere Digitalkamera 212 er- fasst einen Teit der Oberseite 230 des Wafers 201 , den oberen Kantenbereich oder Bevel 232 und wenigstens einen Teil des stirnseitigen Kantenbereichs oder Apex 234. Die untere Digitaikamera 222 erfasst entsprechend einen Teil der ebenen Unterseite 236 des Wafers 201 , den unteren Kantenbereich oder Bevel 238 sowie ebenfalls zumindest einen Teil des stirnseitigen Kantenbereichs oder Apex 234.
Anstelle der separaten Helifeldbeleuchtungseinrichtungen für die obere und die untere Objektkante kann auch eine zusammengefasste HeII- feldbeleuchtungseinrichtung vorgesehen werden, die die Objektkante beispielsweise bogenförmig umspannt. Dasselbe gilt entsprechend für die Dunkelfeldbeieuchtungseinrichtung. Derartige Beleuchtungseinrichtungen haben den Vorteil, dass sie die Objektkante unabhängig von deren Geometrie, insbesondere also auch abgerundete Kanten, gleichmäßig beleuchten.
Die Seitenansicht gemäß Figur 2A zeigt beispielhaft eine solche bogenförmige Beleuchtungseinrichtung 204 als Hellfeldlichtquelle, die allerdings nur den oberen Kantenbereich gleichmäßig ausleuchtet. Zur gleichmäßigen Beleuchtung der gesamten Objektkante mittels einer Beleuchtungseinrichtung könnte der Ring beispielsweise am unteren Ende weiter herumgezogen werden. Auch könnten zwei separate Be- leuchtungseinrichtungen dieser Art vorgesehen sein, die spiegelbildlich um die Waferkante geschwenkt angeordnet sind. Ein radialer Fächer von Lichtstrahlen 205 wird von der Beleuchtungseinrichtung 204 in Richtung dessen Zentrums abgestrahlt, in dem sich die obere Kante des Wafers 201 befindet. Aufgrund der starken Krümmung im Bereich der Waferkante werden die einfalfenden Lichtstrahlen 205 an der Wa- ferkante so reflektiert, dass von jedem Punkt der Waferkante ein reflektierter Lichtstrahl 206 in das Objektiv 203 der Kamera 202 fällt, welches die einfallende Strahlung mit Hilfe eines Linsensystems 207 in die Bildebene der Kamera 202 fokussiert und so ein Bild der Waferkante erzeugt.
In der entsprechenden Draufsicht gemäß Figur 2B ist zu erkennen, dass bei dieser beispielhaften Anordnung zur Erzeugung eines Heflfeld- Bildes der Waferkante, die Kamera 202 um denselben Winkel aus der radialen Ebene R bezüglich des Wafers 201 herausgeschwenkt ist wie die Beleuchtungseinrichtung 204. Erst diese Geometrie stellt sicher, dass das an der Kante des Wafers 201 reflektierte Licht 206 in das Objektiv 203 eintritt.
Ferner ist eine Steuerung (nicht dargestellt) für die Beleuchtungseinrichtungen vorgesehen, die diese vorzugsweise so ansteuert, dass sequentiell in einem Umlauf die Hellfeldbeleuchtung und in einem anderen Umlauf die Dunkeifeidbeleuchtung aktiviert ist. Ein umlaufendes Kantenbild wird während der Rotation des Wafers 201 um seine Mittelachse A erzeugt, wobei zunächst eine Serie von Zeilenbildern unter Hellfeld- und eine unter Dunkeifeidbeleuchtung aufgenommen wird. Die Zeilenbilder werden anschließend zu einem Panoramabild der Waferkante (Kantenbiid) zusammengesetzt. Dies wird anhand der Figuren 4A bis 4C erläutert.
Mittels des in Figur 2C gezeigten Inspektionssystems werden mindestens vier Kantenbilder erzeugt, in jedem Kantenbild werden die Notch des Wafers (nicht dargestellt) und die Waferkante mitteis geeigneter Bildverarbeitungsverfahren erkannt und können zueinander ausgerichtet werden. Die Kantenbilder aus der oberen Digitalkamera 212 und der unteren Digitalkamera 222 können dann mittels der Bildverarbeitungs- θinrichtung zu einem Gesamtbild der Waferkante (virtuelles Kantenbild) zusammengefügt.
In den Figuren 3A und 3B ist anhand zweier beispielhaft ausgewählter Kriterien das Zuordnen zweier Defektfragmente zu einem Defekt illustriert. Gemäß Figur 3A werden zwei Defektfragmente 301 und 302 anhand von festgelegten Abstandskriterien auf Zugehörigkeit zu demselben Defekt untersucht. Hierbei wϊrd der projizierte Abstand 305 aus dem projizierten Vertikalabstand 303 und dem projizierten Horizontalabstand 304 ermittelt. Die Zuordnung zu einem gemeinsamen Defekt erfolgt dann, wenn der so projizierte Abstand kleiner als ein vordefinierter Grenzwert ist.
Gemäß Figur 3B werden die Fragmente einer Formanafyse unterzogen, wobei eine „Anziehungskraft" zwischen zwei Fragmenten 301 ' und 302' ermittelt wird. Eine hohe Anziehungskraft liegt dann vor, wenn die Absfände, vorzugsweise der minimale Absfand 303', zwischen den Defekträndern gering sind und eine hohe Anzahl paralleler Tangenten 3041, 305' vorliegen. Die Anziehungskraft kann gemäß folgender Formel berechnet werden:
Figure imgf000023_0001
Mit den folgenden Platzhaltern: i: Defektfragment i j Defektfragment j lij.- Konturpunkt
T1(I1) : Tangentenvektor des Konturpunktes I von Defektfragment i
TJ [IJ ) : Tangentenvektor des Konturpunktes I von Defektfragment j r(lj,lj): Abstand der Konturpunkte I von Defektfragment i zu j dl . Umlaufintegral über alle Konturpunkte Ii = 1 ... L1 von Defekt-
fragment i dh Um lauf integral über alle Konturpunkte Sj = 1 ... Lj von Defekt-
fragment j
In Figur 4A ist ein Kantenbild der mit der oberen Digitalkamera 212 aufgenommenen Objektkante dargestellt. Die obere Kamera erfasst die ebene Waferoberseite 430 (zumindest im Kantenbereich), den oberen Bevel 432 sowie die Apex 434. Der auswertbare Bildbereich endet mit der unteren Waferkante 435. Anhand der unteren Waferkante 435 kann bei bekannter Geometrie der Waferkante die Mitte der Apex 434 bestimmt werden. Diese wird als Mitte des Koordinatensystems in vertikaler Richtung bestimmt, deshalb verläuft hier entlang die horizontale Koordinatenachse X.
Die Notch 440 wird ebenfalls aufgenommen. Deren Mitte bestimmt die Mitte des Koordinatensystems in horizontaler Richtung. Hier entlang verläuft die vertikale Koordinatenachse Y.
Ferner ist exemplarisch ein Defektfragmentrand 442 dargestellt. Hierbei bleibt offen, ob es sich um ein BiSd unter Hellfeld- oder unter Dunkelfeldbeleuchtung handelt.
In Figur 4B ist ein Kantenbild der mit der unteren Digitalkamera 222 aufgenommenen Objektkante dargestellt. Auch hier kann dahin stehen, ob es sich um ein Bild unter Hellfeld- oder unter Dunkeifeidbeleuchtung handelt. Die untere Kamera erfasst die eben Waferunterseite 436 (auch nur im Kantenbereich), den unteren Bevel 438 sowie die Apex 434. Der auswertbare Bildbereich endet hier mit der oberen Waferkante 437. Anhand der oberen Waferkante 437 kann bei bekannter Geometrie der Waferkante abermals die Mitte der Apex 434 bestimmt werden. Diese wird wie zuvor afs Mitte des Koordinatensystems in vertikaler Richtung bestimmt und wird durch die horizontale Koordinatenachse X repräsentiert.
Die Notch 440 wird auch in diesem Bild aufgenommen, bestimmt die Mitte des Koordinatensystems in horizontaler Richtung und wird durch die vertikale Koordinatenachse Y repräsentiert.
Schließfich sind auch in diesem Kantenbild exemplarisch zwei Defektfragmentränder 444, 446 dargestellt.
Figur 4C zeigt das virtuelle Ergebnis aus der Zusammenfassung aus allen vier aufgenommenen Kantenbildern, das virtuelle Kantenbild, Das virtuelle Kantenbild definiert seinen Koordinatenursprung durch die Mitte der Notch 440 und durch die Mitte der Apex 434. Die X- bzw. Y- Achse sind zur Orientierung eingezeichnet.
Das virtuelle Kantenbild beinhaltet sämtliche Waferzonen: die ebene Oberseite 430, den oberen Bevel 432, die Apex 434, den unteren Bevel 438 sowie die eben Unterseite 436.
Exemplarisch dargestellt ist ein vollständiger Defekt bestehend aus Defektfragmenten 441 , die aus der Dunkelfeldaufnahme resultieren, sowie aus Defektfragmenten 443, die aus der Heilfeldaufnahme resultieren. Der Defekt wird durch Bildung eines einhüllenden Defektrandes 450, der alle diesem Defekt zugeordnete Defektfragmente einschließt, abgegrenzt.
Das unter Bezugnahme auf Figur 1 andeutungsweise beschriebene Verfahren wird anhand von Figur 5 näher erläutert. Mittels der ersten Bildverarbeitungseinrichtung (auch „defect tracer" genannt) werden in jedem (Kanten-)Bild zusammenhängende Biidpunkte, deren Inhalte innerhalb eines bestimmten Wertebereiches liegen, in Schritt 501 identifiziert und einem Defektfragment zugeordnet. Der Wertebereich ist jeweils abhängig von dem eingesetzten Beleuchtungssystem und muss dementsprechend manuell oder automatisch festgefegt werden.
Die so aufgefundenen Defektfragmente werden mittels der zweiten Bifdverarbeitungseinrichtung in Schritt 502 einem Defekt zugeordnet, wenn diese vorbestimmte Abstands- und/oder Formzusammenhänge aufweisen. Die Zuordnung benachbarter Defektfragmente zu einem Defekt erfolgt vorzugsweise über die Menge alier Defektfragmente, also der Defektfragmente, die aus allen (vier) Kantenaufnahmen gewonnen wurden, um eine möglichst lückenlose Darstellung des gesamten Defekts aus der Summe der Hell- als auch aus Duπkelfeldfragmeπten zu erzielen. Das Zusammenfassen der Defektfragmente im virtuellen Bild hat deutliche Vorteile gegenüber einem Zusammenfassen der Fragmente in den individuellen Hell- oder DunkeJfeldaufnahmen. (m zu- sammengefassten virtuellen Bild ist die Einheit eines Defekts aufgrund der verschiedenen optischen Belichtungsmethoden nämlich erheblich besser erkennbar.
Der gesamte Defekt wird dann mittels der zweiten Analyseeinrichtung in Schritt 503 auf das Vorliegen bestimmter Defekteigenschaften hin untersucht. Genauer gesagt werden die Werte vorher bestimmter Defekteigenschaften in diesem Schritt ermittelt.
Im Grunde parallel zu den Schritten 502 und 503 werden die Defektfragmente mittel der ersten Analyseeinrichtung in Schritt 505 auf das Vorliegen bestimmter Defektfragmenteigenschaften hin untersucht. Genauer gesagt werden die Werte vorher bestimmter Defektfragmenteigenschaften in diesem Schritt ermittelt. Anschließend werden die Defektfragmente mittels einer dritten Anaiy- seeinrichtung in Schritt 507 einer weiteren Analyse hinsichtlich der oben genannten erweiterten Defekteigenschaften unterzogen. Hierbei werden nur solche Defektfragmente gemeinschaftlich untersucht, welche einem gemeinsamen Defekt zugeordnet wurden. In diesem Schritt werden statistische Werte (beispielsweise durch Mittelwert- oder Summenbildung oder andere Verknüpfungen von Defektfragmenteigenschaft- swerten) hergeleitet.
In einem letzten Schritt 509 wird mittels einer Auswerteeinrichtung anhand eines Vergleichs der ermittelten Defektfragmenteigenschaftswerte und der ermittelten Defekteigenschaftswerte (einschließlich der erweiterten Defekteigenschaftswerte) mit hinterlegten Defekteigenschaftsinformationen bzw. Defektfragmenteigenschaftsinformationen, der Defekt einer vordefinierten Defektklasse zugeordnet. Dieser Vorgang der Klassifizierung wird nachfolgend anhand der Figuren 6 bis 8 erläutert.
Bei der Erläuterung der Auswertung oder Zugehörigkeitsprüfung der mittels der Analyseeinrichtungen gewonnenen Eigenschaftswerte anhand von Ffgur 6 wird nicht zwischen den Defekteigenschaftswerten und Defektfragmenteigenschaftswerten unterschieden. Die Zugehörigkeitsprüfung bezüglich einer (beliebigen) Defektklasse beginnt bei 601 mit den Eingangsparametern, die von der Analyseeinrichtung übergeben werden. In Schritt 602 erfolgt zunächst eine Abfrage, ob der untersuchte Defekt bereits einer anderen Defektklasse zugeordnet wurde. Wenn dies zutrifft, können sämtliche nachfolgenden Schritte der Auswertung für die aktuell untersuchte Defektklasse übersprungen werden.
Hat noch keine Klassifizierung stattgefunden, wird in Schritt 603 zunächst abgefragt, ob zu der aktuell untersuchten Defektklasse zwingende Konditionen, d. h. also Eigenschaftsinformationen und/oder deren Verknüpfungen, welche für die Zuordnung des Defektes zu dieser Defektklasse zwingend eingehalten werden müssen, (vorzugsweise in einer Speichereinrichtung in tabellarischer Form oder implementiert in einem Programmcode) hinterlegt sind. Sind solche zwingende Konditionen vorhanden, dann folgt in Schritt 604 mittels einer ersten Vergleichseinrichtung eine Prüfung der ermitteften Defekteigenschaftswerte auf Erfüllung der zwingenden Konditionen. In Schritt 605 findet darauf hin eine Failunterscheidung statt. Ergibt der Vergleich, dass die zwingenden Konditionen nicht allesamt erfüllt sind, findet keine weitere Abfrage/Auswertung bezüglich dieser Defektklasse statt und der Defekt wird dieser Klasse nicht zugeordnet.
Sind die zwingenden Konditionen indes erfüllt, findet in Schritt 606 erneut eine Failunterscheidung statt. Ist für die vorliegend untersuchte Defektklasse keine Eigenschaftswertverteiiung hinterlegt, so wird in Schritt 607 ein Kiassifikationsflag ausgegeben, mit welchem die Zugehörigkeit des Defekts zu der vorliegend untersuchten Defektklasse bejaht wird. Ein solcher Klasstfikationsflag bewirkt bef der Prüfung bezüglich der nächsten Defektklasse, dass eingangs in dem Abfrageschritt 602 alle nachfolgenden Prüfschritte übersprungen werden können und das Prüfungsverfahren insgesamt abgekürzt wird. Alternativ zu der in Figur 6 dargestellten Auswertung kann das Kiassifikationsflag aus Schritt 607, auch so eingesetzt werden, dass ein Sprungbefehl unmittelbar an das Ende der Zugehörigkeitsprüfung aller Defektklassen erteilt wird.
Ergibt die Abfrage in Schritt 606, dass eine Eigenschaftswertverteilung, also eine Eigenschaftsinformation in Form einer Häufigkeitsverteilungsfunktion des Eigenschaftswertes, zu dieser Defektkiasse hinterlegt ist, dann werden in Schritt 610 in einer zweiten Vergleichseinrichtung die ermittelten Defekteigenschaftswerte mit den hinterlegten Eigenschaftswertverteilungen verglichen und in Schritt 611 ein entsprechender Wahrscheinlichkeitswert, der die Wahrscheinlichkeit für das Vorliegen eines Defekts dieser Defektklasse repräsentiert, ausgegeben. Eine solche Häufigkeitsverteilungsfunktion kann empirisch ermittelt und vorzugsweise abermals in einem Speichermittei in funktionaler oder tabellarischer Form hinterlegt werden. Der Vergleich bzw. die Auswertung in Schritt 610 erfolgt dergestalt, dass in jede der für die aktuell geprüfte Defektklasse hinterlegten Eigenschaftswertverteilungen der entsprechende ermittelte Defekteigenschaftswert einsetzt und der zugehörige Funktionswert (die Eigenschaftswahrscheinlichkeiten) abgerufen wird. Sind mehrere Eigenschaftswertverteilungen für eine Defektklasse hinterlegt, so erhält man in dem Auswerteschritt 610 mehrere Eigenschaftswahrscheinlichkeiten, welche in Schritt 611 zu einem gesamten Wahrscheinlichkeitswert verknüpft werden. Die Verknüpfung ist vorzugsweise eine Multiplikation oder Mittelwertbildung der einzelnen Eigenschaftswahrscheinlichkeiten.
Der Vollständigkeit halber sei noch der Fall erwähnt, in dem für eine Defektklasse keine zwingenden Konditionen hinterlegt sind. Jn diesem Fall führt nach Abfrage in Schritt 603 die weitere Zuordnung unmittelbar zu der Abfrage in Schritt 609, ob eine oder mehrere Eigenschaftswertverteilungen für diese Defektkfasse hinterlegt sind. Ist auch dies nicht der Fall, findet keinerlei Klassifikation statt und es wird zur Prüfung der nächsten Defektklasse übergegangen. Ist eine Eigenschaftswertverteilung hinterlegt, so führt dies abermals zum Vergleich der ermittelten Defekteigenschaftswerte mit den hinterlegten Eigenschaftswertverteilungen in der zweiten Vergleichseinrichtung in Schritt 610.
Die in Figur 6 dargestellte Zugehörigkeitsprüfung führt für jede Defektklasse zusammengefasst zu einem der drei folgenden Ergebnisse:
ein Defekt wird der untersuchten Defektklasse in Schritt 607 eindeutig zugeordnet und somit klassifiziert, der Defekt bleibt unklassifiziert, wenn er bereits in einem vorausgegangenen Vergleich mit einer anderen Defektklasse klassifiziert wurde {Schritt 602) oder wenn in den Schritten 604 und 605 festgestellt wird, dass wenigstens eine der zwingenden Konditionen nicht erfüllt ist, oder wenn in den Schritten 603 und 609 festgestellt wird, dass zu dieser Defektklasse weder zwingende Konditionen noch Eigenschaftswertverteilungen hinterlegt sind (dieser Fall ist defektunabhängig und führt in jedem Fall dazu, dass der Defektklasse kein Defekt zugeordnet werden kann)
dem Defekt wird für die untersuchte Defektklasse ein Wahrscheinlichkeitswert zugeordnet.
In Figur 8 sind vier Zugehörigkeitsprüfungen der zuvor beschriebenen Art kaskadiert hintereinander für vier beispielhafte Defektklassen (Partikel, Kratzer, Ausbruch, Flächendefekt) dargestellt. Neben den genannten Defektklassen sind selbstverständlich auch weitere Klassifikationen möglich. Es kann beispielsweise zwischen feineren und gröberen Partikeln (Staub und Splitter) unterschieden werden. Flächendefekt können ferner in Welligkeiten, Inhomogenitäten, Rauhigkeiten oder Abdrücke unterteilt werden, etc.
An die Zugehörigkeitsprüfungen aller Defektklassen mittels der Auswer- teeinrichtungen schließt sich die anhand von Figur 8 erläuterte eigentliche Klassifizierung durch ein Klassifizierungsmittel an. Eine Fallunter- scheidung in Schritt 806 sorgt für eine sofortige Beendigung der Klassifizierung, wenn der Defekt einer untersuchten Defektklasse in Schritt 607 bereits eindeutig zugeordnet und somit klassifiziert wurde. Dies kann anhand des Klassifikationsflags festgestellt werden, ist dies nicht der Fall, wird abermals eine Fallunterscheidung in Schritt 808 dahingehend getroffen, ob Wahrscheinlichkeitswerte in den Schritten 610 und 611 für wenigstens eine der Defektklassen ausgegeben wurden. Ist dies nicht der Fall, dann wird der Defekt einer vorgegebenen Defektklasse zugeordnet (Default). Die Klassifikation ist danach beendet. Die Schritte 808 und 810 sind allerdings optional. Auf Schritt 808 kann verzichtet werden, wenn sichergestellt ist, dass zu jeder vordefinierten De- fektkiasse wenigstens eine Eigenschaftsinformation aus der Gruppe zwingender Konditionen und Eigenschaftswertverteilungen hinterlegt ist. Schritt 810 stellt nur sicher, dass ein Defekt, der anderweitig nicht klassifiziert werden konnte, weil er beispielsweise die zwingenden Konditionen keiner Defektklasse erfüllt, nicht unklassifiziert bleibt. Somit können auch solche Defekte beispielsweise bei einer nachgeschalteten Sortierung adäquat berücksichtigt werden, die bei der Defektklassendefinition nicht berücksichtigt oder für die unzutreffende Parameter hinterlegt wurden.
Liegt wenigstens ein Wahrscheinlichkeitswert vor (oder wird auf die Fallunterscheidung bei 808 verzichtet) werden durch das Klassifizie- rungsmittei, weiches mit der zweiten Vergleichseinrichtung verbunden ist, die unterschiedlichen Wahrscheintichkeitswerte der verschiedenen Defektklassen in Schritt 809 ausgewertet, d.h. verglichen und ein Klas- sifikations-FJag für diejenige Defektklasse ausgeben, für welche der höchste Wahrscheinlichkeitswert ausgegeben wurde.
Letzterer Schritt wird für zwei verschiedene Defektklassen mit unterschiedlicher Eigenschaftswertverteiiung anhand eines einzigen Defekteigenschaftswertes anhand von Figur 7 erläutert. Ist beispielsweise für die Defektklasse 1 eine Häufigkeits- oder Eigenschaftswertverteilung gemäß Kurve 701 und für die Defektklasse 2 eine Häufigkeitsverteilung gemäß Kurve 702 hinterlegt, dann erhält man durch Einsetzen des entsprechenden ermittelten Defekteigenschaftswertes von 5,5 in jede der beiden Eigenschaftswertverteilung die zugeordnete Eigenschaftswahrscheinlichkeit für die Defektklasse 1 von 0,05 und die für die Defektlasse 2 von 0,25. Diese einfache Zuordnungsvorschrift eines Funktions- wertes (Eigenschaftswahrscheinlichkeit) zu einem Defekteigenschaftswert ist keineswegs die einzig mögliche. Auch kann zur Ermittlung eines Wahrscheiniichkeitswertes beispielsweise bis zu dem Defekteigenschaftswert über die Eigenschaftswertverteilung aufintegriert werden.
Bezugszeichenliste
101 Digitaikamera
102 Bildverarbeitungseinrichtung
103 Defektanaiyseeinrichtung
104 Auswerteeinrichtung
105 Vergieichseinrichtung
106 Klassifizierungsmittel
107 Speichereinrichtung
200 Drehtisch
201 Wafer
202 Digitalkamera
203 Objektiv
204 Beleuchtungseinrichtung
205 (einfallende) Lichtstrahlen
206 (reflektierte) Lichtstrahlen
207 Linsensystem
210 Bilderzeugungseinrichtung
220 Bilderzeugungseinrichtung
212 Digitalkamera
214 Beleuchtungseinrichtung
216 Beleuchtungseinrichtung
222 Digitalkamera
224 Beleuchtungseinrichtung
226 Beleuchtungseinrichtung
218 Umlenkspiegel
228 Umlenkspiegei
230 ebene (Wafer-)Oberseite
232 oberer Kantenbereich (Bevel)
234 stirnseitiger Kantenbereich (Apex) 236 ebene (Wafer-)Unterseite
238 unterer Kantenbereich (Bevel)
301 Defektfragment 301' Defektfragment
302 Defektfragment 302' Defektfragment
303 projizierter Vertikalabstand 303' Abstand
304 projizierter Horizontalabstand 304' Tangente
305 projizierter Abstand 305' Tangente
430 ebene (Wafer-)Oberseite
432 oberer Bevel
434 Apex
436 ebene (Wafer-)Unterseite
438 unterer Bevel
440 Noten
441 , 442, 443, 444, 446 Defektfragment
450 Defektrand
A Drehachse
E Wafer-/Objektebene
X horizontale Koordinatenachse
Y vertikale Koordinatenachse

Claims

Patentansprüche
1. Inspθktionssystem für die optische Untersuchung von Objektkanten, insbesondere von Waferkanten, mit:
- einem motorisch angetriebenen Drehtisch (200) zur drehbaren Halterung des Objekts (201),
- wenigstens einer ortsfesten Digitalkamera (101 , 202, 212, 222), die zum Aufnehmen eines digitalen Bildes der Objektkante unter Drehung des Drehtisches (200) eingerichtet ist,
- einer ersten ortsfesten Beieuchtungseinrichtung (204, 214, 224), die relativ zur Digitalkamera (202, 212, 222) und Objektkante so angeordnet ist, dass ein Bild der Objektkante unter Hellfeldbeleuchtung erzeugt werden kann,
- einer zweiten ortsfesten Beleuchtungseinrichtung (216, 226), die relativ zur Digitalkamera (212, 222) und Objektkante so angeordnet ist, dass ein Bild der Objektkante unter Dunkelfeldbeleuchtung erzeugt werden kann, und
- einer ersten Bildverarbeitungseinrichtung (102), eingerichtet zum Zuordnen zusammenhängender Bildpunkte in dem Hellfeldbild zu einem Defektfragment (301 , 301 ', 302, 302', 441 , 442, 443, 444, 446) in Abhängigkeit von den Bildpunktinhalten, zum Zuordnen zusammenhängender Bildpunkte in dem Dunkelfefdbild zu einem Defektfragment in Abhängigkeit von den Bildpunktinhalten und zum Ausrichten und Zusammenfassen der Defektfragmente aus dem Hellfeldbild und dem Dunkelfeldbild in einem gemeinsamen virtuellen Kantenbiid.
2. Inspektionssystem nach Anspruch 1 , dadurch gekennzeichnet, dass die erste Bildverarbeitungseinrichtung (102) eingerichtet ist, zusammenhängende Bildpunkte in dem Hellfeldbild zu einem Defektfragment (301 , 301', 302, 302', 441 , 442, 443, 444, 446) zusammenzufassen, wenn die Bildpunktinhalten innerhalb eines bestimmten ersten Wertebereiches liegen, und zusammenhängende Bildpunkte in dem Dunkeifeldbild zu einem Defektfragment zusammenzufassen, wenn die Bildpunktinhalten innerhalb eines bestimmten zweiten Wertebereiches liegen.
3. Inspektionssystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die erste Bildverarbeitungseinrichtung (102) eingerichtet ist, zu jedem Defektfragment (301 , 301', 302, 302', 441 , 442, 443, 444, 446) einen Fragmentrand zu ermitteln.
4. Inspektionssystem nach einem der vorstehenden Ansprüche, gekennzeichnet durch
- eine zweite Biidverarbeitungseinrichtung (102), eingerichtet zum Zuordnen von benachbarten Defektfragmenten (301 , 301 \ 302, 302', 441 , 442, 443, 444, 446) zu einem Defekt, wenn die benachbarten Defektfragmente vorbestimmte Abstands- und/oder Formzusammenhänge aufweisen.
5. inspektionssystem nach Anspruch 4, dadurch gekennzeichnet, dass die zweite Biidverarbeitungseinrichtung (102) ein Ab- standsanalysemϊüel, welches eingerichtet ist, den Abstand (303') zweier Defektfragmente(301 , 301 ', 302, 302', 441 , 442, 443, 444, 446) in der Bildebene zu ermitteln, und ein Vergleichsmittel um- fasst, welches eingerichtet ist zu prüfen, ob der ermittelte Abstand (303') einen vorbestimmten Abstandshöchstwert nicht überschreitet.
6. Inspektionssystem nach Anspruch 4 oder 5 in Verbindung mit Anspruch 3, dadurch gekennzeichnet, dass die zweite Bildverarbeitungseinrichtung (102) ein Formana- lysemsttei, welches eingerichtet ist, die Parallelität von Abschnitten der Fragmentränder zweier Defektfragmente (301 , 301 ', 302, 3021, 441 , 442, 443, 444, 446) zu ermitteln, und ein Vergleichsmittel umfasst, welches eingerichtet ist zu prüfen, ob die ermittelte Parallelität einen vorbestimmten Parallelitätsmindestwert nicht unterschreitet.
7. Inspektionssystem nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die erste Bildverarbeitungseinrichtung (102) ein Notcher- kennungsmittel umfasst, weiches eingerichtet ist, die Noten (440) eines Wafers (201) jeweils in dem HeSIfeldbitd und in dem Dun- kelfeldbiid zu identifizieren und beide Bilder anhand dieser Information in einer ersten Koordinatenrichtung zueinander auszurichten.
8. Inspektionssystem nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die erste Bildverarbeitungseinrichtung (102) ein Raπder- kennungsmittel umfasst, welches eingerichtet ist, den Rand eines Wafers (201) jeweils in dem Hellfeldbild und in dem Dunkelfeldbild zu identifizieren und beide Bilder anhand dieser Information in einer zweiten Koordinatenrichtung zueinander auszurichten.
9. Inspektionssystem nach einem der vorstehenden Ansprüche, gekennzeichnet durch wenigstens eine erste und eine zweite ortsfeste Digitalkamera (202, 212, 222), die zum simultanen Aufnehmen digitaler Bilder der oberen Objektkante und der unteren Objektkante eingerichtet sind, wobei ortsfeste Beleuchtungseinrichtung (204, 214, 216) jeweils relativ zu den Digitaikameras (202, 212, 222) und den Objektkanten so angeordnet sind, dass Bilder der oberen und der unteren Objektkante unter Helifeldbeleuchtung und unter Dunkelfeidbeleuchtung erzeugt werden, und wobei die erste Bildverarbeitungseinrichtung (102) zum Zuordnen zusammenhängender Bildpunkte zu einem Defektfragment (301 , 301', 302, 302', 441, 442, 443, 444, 446) in allen Bildern und zum Ausrichten und Zusammenfassen der Defektfragmente aus allen Bildern in einem gemeinsamen virtuellen Kantenbild eingerichtet ist.
10. Inspektionsverfahren für die optische Untersuchung von Objektkanten, insbesondere von Waferkanten, mit den Schritten:
- Aufnehmen eines digitalen Bildes von der Objektkante mittels Digitalkamera (202, 212, 222) unter Hellfeldbeleuchtung,
- Aufnehmen eines digitalen Bildes von der Objektkante mittels Digitalkamera (212, 222) unter Dunkelfeldbeleuchtung und
- Zusammenfassen der Biidinformation aus dem Hellfeidbild und dem Dunkelfeldbild.
11. Inspektionsverfahren nach Anspruch 10 , dadurch gekennzeichnet, dass das Zusammenfassen der Bildinformation umfasst
- Zuordnen zusammenhängender Bildpunkte in dem Hellfeldbild zu einem Defektfragment (301 , 30T1 302, 302\ 441 , 442, 443, 444, 446) in Abhängigkeit von den Bildpunktinhalten,
- Zuordnen zusammenhängender BiJdpunkte in dem Dunkei- feidbiid zu einem Defektfragment in Abhängigkeit von den Biidpunktinhalten und - Zusammenfassen der Defektfragmente aus dem HeJlfeldbild und dem Dunkelfeldbild in einem gemeinsamen virtuellen Kantenbild.
12. inspektionsverfahren nach Anspruch 11 , dadurch gekennzeichnet, dass zusammenhängende Bildpunkte in dem Helifeldbild zu einem Defektfragment (301, 301', 302, 302', 441, 442, 443, 444, 446) zusammengefasst werden, wenn die Bildpunktinhalten innerhalb eines bestimmten ersten Wertebereiches liegen, und dass zusammenhängende Bildpunkte in dem Dunkeifeldbild zu einem Defektfragment zusammengefasst werden, wenn die Bildpunktinhalten innerhalb eines bestimmten zweiten Wertebereiches liegen.
13. Inspektionsverfahren nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass zu jedem Defektfragment (301, 301', 302, 302', 441, 442, 443, 444, 446) einen Fragmentrand ermittelt wird.
14. (nspektionsverfahren nach einem der Ansprüche 11 bis 13, dadurch gekennzeichnet, dass benachbarte Defektfragmente (301 , 301', 302, 302', 441 , 442, 443, 444, 446) einem Defekt zugeordnet werden, wenn die benachbarten Defektfragmente vorbestimmte Abstands- und/oder Formzusammenhänge aufweisen.
15. Inspektionsverfahren nach Anspruch 14, dadurch gekennzeichnet, dass der Abstand (303') zweier Defektfragmente (301 , 301 ', 302, 302', 441, 442, 443, 444, 446) in der Bildebene ermittelt und ge- prüft wird, ob der ermittelte Abstand (303') einen vorbestimmten Abstandshöchstwert nicht überschreitet.
16. Inspektionsverfahren nach Anspruch 14 oder 15 in Verbindung mit Anspruch 12, dadurch gekennzeichnet, dass die Parallelität von Abschnitten der Fragmentränder zweier Defektfragmente (301 , 301 \ 302, 302', 441 , 442, 443, 444, 446) ermittelt und geprüft wird, ob die ermittefte Parallelität einen vorbestimmten Parallelitätsmindestwert nicht unterschreitet.
17. inspektionsverfahren nach einem der Ansprüche 10 bis 16, dadurch gekennzeichnet, dass die Notch (440) eines Wafers (201 ) jeweils in dem Hellfeldbild und in dem Dunkelfeldbild identifiziert und beide Bilder anhand dieser Information in einer ersten Koordinatenrichtung zueinander ausgerichtet werden.
18. Inspektionsverfahren nach einem der vorstehenden Ansprüche 10 bis 17, dadurch gekennzeichnet, dass der Rand eines Wafers (201 ) jeweils in dem Hellfeldbild und in dem Dunkelfeidbifd identifiziert und beide Biider anhand dieser Information in einer zweiten Koordinatenrichtung zueinander ausgerichtet werden.
19. Inspektionsverfahren nach einem der Ansprüche 10 bis 18, dadurch gekennzeichnet, dass mittels wenigstens zweier Digitalkameras (101 , 201, 212, 222) jeweils ein digitales Helifeldbild und ein digitales Dunkelfeldbild der oberen Objektkante und der unteren Objektkante simultan aufgenommen werden, wobei die Bildinformationen aus allen Bildern in einem gemeinsamen virtuellen Kantenbild zu- sammengefasst werden.
PCT/EP2009/054216 2008-04-14 2009-04-08 Inspektionssystem und -verfahren für die optische untersuchung von objektkanten, insbesondere von waferkanten WO2009127574A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE200810001171 DE102008001171B4 (de) 2008-04-14 2008-04-14 Inspektionssytem und -verfahren für die optische Untersuchung von Objektkanten, insbesondere von Waferkanten
DE102008001171.1 2008-04-14

Publications (1)

Publication Number Publication Date
WO2009127574A1 true WO2009127574A1 (de) 2009-10-22

Family

ID=40852495

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2009/054216 WO2009127574A1 (de) 2008-04-14 2009-04-08 Inspektionssystem und -verfahren für die optische untersuchung von objektkanten, insbesondere von waferkanten

Country Status (2)

Country Link
DE (1) DE102008001171B4 (de)
WO (1) WO2009127574A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9719943B2 (en) 2014-09-30 2017-08-01 Kla-Tencor Corporation Wafer edge inspection with trajectory following edge profile
JP2020516904A (ja) * 2017-04-18 2020-06-11 コーニング インコーポレイテッド 基板エッジ試験装置、システム、及び方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2977939B1 (fr) 2011-07-11 2013-08-09 Edixia Procede d'acquisition de plusieurs images d'un meme objet a l'aide d'une seule camera lineaire

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10352936A1 (de) * 2003-05-19 2004-12-30 Micro-Epsilon Messtechnik Gmbh & Co Kg Verfahren und Vorrichtung zur optischen Qualitätsprüfung von Objekten mit vorzugsweise kreisförmig umlaufendem Rand
US20050013474A1 (en) * 2003-07-14 2005-01-20 August Technology Corp. Edge normal process
US7227628B1 (en) * 2003-10-10 2007-06-05 Kla-Tencor Technologies Corp. Wafer inspection systems and methods for analyzing inspection data
US7280197B1 (en) * 2004-07-27 2007-10-09 Kla-Tehcor Technologies Corporation Wafer edge inspection apparatus
US20070286473A1 (en) * 2006-06-08 2007-12-13 Kla-Tencor Technologies Corp. Methods and Systems for Detecting Defects on a Specimen Using a Combination of Bright Field Channel Data and Dark Field Channel Data
US20080013822A1 (en) * 2006-07-11 2008-01-17 Ajay Pai Wafer edge inspection and metrology

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996039619A1 (en) * 1995-06-06 1996-12-12 Kla Instruments Corporation Optical inspection of a specimen using multi-channel responses from the specimen
DE10313202B3 (de) * 2003-03-21 2004-10-28 HSEB Heinze & Süllau Entwicklungsbüro Dresden GmbH Vorrichtung und Verfahren zur Kanteninspektion an Halbleiterwafern

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10352936A1 (de) * 2003-05-19 2004-12-30 Micro-Epsilon Messtechnik Gmbh & Co Kg Verfahren und Vorrichtung zur optischen Qualitätsprüfung von Objekten mit vorzugsweise kreisförmig umlaufendem Rand
US20050013474A1 (en) * 2003-07-14 2005-01-20 August Technology Corp. Edge normal process
US7227628B1 (en) * 2003-10-10 2007-06-05 Kla-Tencor Technologies Corp. Wafer inspection systems and methods for analyzing inspection data
US7280197B1 (en) * 2004-07-27 2007-10-09 Kla-Tehcor Technologies Corporation Wafer edge inspection apparatus
US20070286473A1 (en) * 2006-06-08 2007-12-13 Kla-Tencor Technologies Corp. Methods and Systems for Detecting Defects on a Specimen Using a Combination of Bright Field Channel Data and Dark Field Channel Data
US20080013822A1 (en) * 2006-07-11 2008-01-17 Ajay Pai Wafer edge inspection and metrology

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9719943B2 (en) 2014-09-30 2017-08-01 Kla-Tencor Corporation Wafer edge inspection with trajectory following edge profile
JP2020516904A (ja) * 2017-04-18 2020-06-11 コーニング インコーポレイテッド 基板エッジ試験装置、システム、及び方法
JP7210467B2 (ja) 2017-04-18 2023-01-23 コーニング インコーポレイテッド 基板エッジ試験装置、システム、及び方法
US11639898B2 (en) 2017-04-18 2023-05-02 Corning Incorporated Substrate edge test apparatus, system, and method

Also Published As

Publication number Publication date
DE102008001171A1 (de) 2009-10-22
DE102008001171B4 (de) 2010-09-09

Similar Documents

Publication Publication Date Title
DE112009001650B4 (de) Lochinspektionsverfahren und -vorrichtung
EP2577620B1 (de) Vorrichtung zur echtheitsprüfung von wertdokumenten
DE102018202051B4 (de) Vorrichtung zum automatischen Prüfen von Linsen und Verfahren zum automatischen Prüfen einer Vielzahl von Linsen
EP1607738A1 (de) Verfahren und System zur Inspektion eines Wafers
DE102017204115A1 (de) System und verfahren zum verbessern einer sichtinspektion eines objekts
DE19809505A1 (de) Einrichtung zum Prüfen optischer Elemente
WO2012156131A1 (de) Prüfvorrichtung für eine kamera sowie ein verfahren zur prüfung einer kamera
DE102010032241A1 (de) Verfahren und Vorrichtung zum Erkennen von Oberflächenfehlern
DE10041354A1 (de) Verfahren zur Überprüfung auf Fremdpartikel oder Fehler und entsprechende Vorrichtung
DE10359722A1 (de) Verfahren zur Inspektion eines Wafers
WO2005121783A1 (de) Verfahren und vorrichtung zur untersuchung von bohrkern-proben
DE102008001174B9 (de) Inspektionssystem und -verfahren für die optische Untersuchung von Objektoberflächen, insbesondere von Waferoberflächen
DE102008001171B4 (de) Inspektionssytem und -verfahren für die optische Untersuchung von Objektkanten, insbesondere von Waferkanten
DE102020127071B3 (de) Verfahren und Mikroskop mit einer Einrichtung zum Erfassen von Verlagerungen einer Probe gegenüber einem Objektiv
DE102008041135B4 (de) Inspektionsvorrichtung- und Verfahren für die optische Untersuchung von Objektoberflächen, insbesondere einer Wafernotch
DE20317095U1 (de) Vorrichtung zur Erkennung von Oberflächenfehlern
DE112009001936B4 (de) Inspektionsvorrichtung- und Verfahren für die optische Untersuchung von Objektoberflächen, insbesondere von Waferkanten
DE102009009356B4 (de) Vorrichtung und Verfahren zum Detektieren von Fehlern bei der Waferherstellung
DE102008001173B9 (de) Klassifizierungseinrichtung und -verfahren für die Klassifizierung von Oberflächendefekten, insbesondere aus Waferoberflächen
DE102016012371A1 (de) Verfahren und Anlage zum Ermitteln der Defektfläche mindestens einer Fehlstelle auf mindestens einer Funktionsoberfläche eines Bauteils oder Prüfkörpers
EP3359953A1 (de) Vorrichtung und verfahren zur schimmeldetektion an baustoffoberflächen
DE10232781B4 (de) Vorrichtung zur Wafer-Inspektion
DE10351925B4 (de) Verfahren und Vorrichtung zur Erkennung von Oberflächenfehlern
DE4236928A1 (de) Verfahren und Vorrichtung zur Reihenprüfung von Bildinformationen
EP3754324B1 (de) Verfahren und vorrichtung zum klassifizieren einer partikelartigen verunreinigung auf einer oberfläche

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09732777

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2010144822

Country of ref document: RU

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 09732777

Country of ref document: EP

Kind code of ref document: A1