WO2024022835A1 - Verfahren, vorrichtung und computerimplementiertes verfahren zur inspektion eines bauteils, insbesondere eines bauteils eines lithografiesystems, sowie lithografiesystem - Google Patents

Verfahren, vorrichtung und computerimplementiertes verfahren zur inspektion eines bauteils, insbesondere eines bauteils eines lithografiesystems, sowie lithografiesystem Download PDF

Info

Publication number
WO2024022835A1
WO2024022835A1 PCT/EP2023/069443 EP2023069443W WO2024022835A1 WO 2024022835 A1 WO2024022835 A1 WO 2024022835A1 EP 2023069443 W EP2023069443 W EP 2023069443W WO 2024022835 A1 WO2024022835 A1 WO 2024022835A1
Authority
WO
WIPO (PCT)
Prior art keywords
component
examination area
error
camera device
camera
Prior art date
Application number
PCT/EP2023/069443
Other languages
English (en)
French (fr)
Inventor
Matthias Roos
Christine DIETRICH
Original Assignee
Carl Zeiss Smt Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Smt Gmbh filed Critical Carl Zeiss Smt Gmbh
Publication of WO2024022835A1 publication Critical patent/WO2024022835A1/de

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70591Testing optical components
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/005Testing of reflective surfaces, e.g. mirrors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0242Testing optical properties by measuring geometrical properties or aberrations
    • G01M11/0278Detecting defects of the object to be tested, e.g. scratches or dust
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/94Investigating contamination, e.g. dust
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/708Construction of apparatus, e.g. environment aspects, hygiene aspects or materials
    • G03F7/70908Hygiene, e.g. preventing apparatus pollution, mitigating effect of pollution or removing pollutants from apparatus
    • G03F7/70925Cleaning, i.e. actively freeing apparatus from pollutants, e.g. using plasma cleaning
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/708Construction of apparatus, e.g. environment aspects, hygiene aspects or materials
    • G03F7/70975Assembly, maintenance, transport or storage of apparatus

Definitions

  • the invention relates to a method for inspecting a component, in particular a component of a lithography system, wherein at least one examination area of the component is illuminated with a search radiation in a darkroom; and the examination area is inspected for the presence of at least one defect; whereby if at least one error is present, the at least one error is characterized.
  • the invention further relates to a device for inspecting a component, in particular a component of a lithography system, having at least a darkroom and a search radiation source for forming a search radiation for illuminating an examination area.
  • the invention also relates to a computer-implemented method for inspecting a component, in particular a component of a lithography system.
  • the invention also relates to a lithography system, in particular a projection exposure system for semiconductor lithography, with an illumination system with a radiation source and an optics which has at least one optical element.
  • optical elements influence the properties of light waves that interact with them.
  • optical elements include planar mirrors, concave mirrors, convex mirrors, facet mirrors, convex lenses, concave lenses, convex-concave lenses, plano-convex lenses and plano-concave lenses.
  • Known materials for optical elements, especially mirrors, include glass and silicon.
  • Lithography systems especially projection exposure systems, have a large number of components and optical elements.
  • a particularly error-free shape of the surfaces is necessary, since this is caused by the optical elements, for example an EUV -Mirror, modulated light, on the one hand, has a very small wavelength and therefore the resulting wave fronts are disturbed by even the slightest impairment of the surface shape, for example processing errors and/or contamination, on the optical element.
  • the structures depicted on the projection surface are very small and therefore also susceptible to the slightest errors in the optical element.
  • an inspection of the component takes place in a darkened room under illumination using a UV light and is carried out manually by a worker examining the respective assembly or component piece by piece with a hand-held lamp, especially a UV lamp, is illuminated and a visual impression is evaluated.
  • a hand-held lamp especially a UV lamp
  • fluorescence of organic particles and fibers as well as spots under UV light can be used for evaluation.
  • a disadvantage of the methods known from the prior art is the high time required for manual inspection, characterization of errors found and removal of the errors, whereby finding the errors depends on the reliability of the human operator. As a result, the dirt or foreign bodies are often only incompletely removed.
  • the present invention is based on the object of creating a method for inspecting a component which avoids the disadvantages of the prior art and in particular enables quick and reliable detection of errors in the component.
  • the present invention is also based on the object of creating a device for inspecting a component, which avoids the disadvantages of the prior art, in particular enables quick and reliable detection of errors in the component.
  • the present invention is also based on the object of creating a computer-implemented method for inspecting a component, which avoids the disadvantages of the prior art, in particular enables quick and reliable detection of errors in the component.
  • this object is achieved by a computer-implemented method with the features mentioned in claim 17.
  • the present invention is also based on the object of creating a lithography system which avoids the disadvantages of the prior art, in particular having reliably inspected components.
  • this object is achieved by a lithography system with the features mentioned in claim 18.
  • At least one examination area of the component is illuminated with a search radiation in a darkroom and the examination area is inspected for the presence of at least one defect. Furthermore, if at least one error is present, the at least one error is characterized. According to the invention it is provided that at least one image of the examination area is recorded by means of a camera device, a relative position and orientation of the camera device to the component being determined at the time of recording the image of the examination area, the examination area being checked for the presence of at least one error based on the image recording is inspected. According to the invention, it is provided that if at least one error is present, the at least one error is characterized based on the image recording.
  • the at least one error can be, for example, contamination and/or a processing error and/or damage.
  • the method according to the invention is suitable for the inspection of a large number of components, but particularly for mirror modules with a high numerical aperture (high-NA mirror modules) of EUV projection exposure systems and/or other assemblies and overall systems from the field of semiconductor lithography.
  • high-NA mirror modules high numerical aperture
  • the method according to the invention has the advantage that the inspection of the component is carried out based on the image recording of the examination area. On the one hand, this allows documentation of the inspection of the component and, on the other hand, analysis methods from image evaluation can be applied based on the image recording.
  • the use of a darkroom has the advantage that undesired exposure of the image recording due to scattered light and/or undesired exposure to direct light is avoided.
  • the information about the examination area contained in the image recording can be supplemented with information regarding a distance and a viewing angle at which the examination area is considered, should be supplemented. This allows further standardization of the inspection of the component based on the image recording to be achieved. Because at least one error is present, the error is characterized based on the image recording, the characterization of the error, preferably with regard to whether the error is worth removing, can be assessed quickly and precisely on the basis of standardized methods.
  • an illumination direction under which the examination area is illuminated by the search radiation is varied for different image recordings of the examination area.
  • an increase in contrast can be achieved, for example by superimposing the image recordings, and/or the image recording can be selected which has the highest contrast.
  • the search radiation is carried out for illuminating the examination area by means of a ring light which is attached around the camera device, in particular around the camera lens.
  • the times at which the image recordings are recorded are preferably also recorded and impressed on the respective image recording, preferably as metadata or timestamp.
  • the image recordings can also be located on a timeline.
  • the method according to the invention can also be used in particular for mechatronic assemblies in which the optical elements are contained. This can reduce the risk of cross-contamination of the optical elements at a later point in time, for example during integration and/or operation.
  • the method according to the invention also offers advantages in terms of ergonomics and occupational safety for any person involved in the method.
  • a relative position and orientation of the camera device to the component is determined at the time the image is captured of the examination area by predetermining the relative position and orientation of the camera device to the component; and/or the camera device mechanically and is automatically moved into the relative position and orientation; and/or the relative position and orientation of the camera device to the component is determined at the time the image is captured.
  • the method according to the invention is suitable for inspecting highly integrated or complex assemblies, modules or overall systems.
  • manual inspection is often no longer fully feasible due to their size, since surfaces of the component to be inspected are at least partially inaccessible for the purpose of inspection or cannot be inspected to the required extent by a worker for ergonomic reasons.
  • complex components require a lot of time for manual inspection, as this has to be carried out by the worker along the entire surface of the component in different postures.
  • the method is particularly suitable for inspecting any complex surface contours of components, in particular surfaces that are more complex than optical surfaces.
  • complex designed surface contours are made relative by a worker through a very flexible guidance of a lamp, in particular a flashlight and/or a spotlight and thus the search radiation, as well as through a high and/or quickly adaptable ability to vary a viewing angle to the incident search radiation.
  • the component or the complex surface contours can be complex structures such as undercuts, cables, pipes, corners or similar.
  • the relative orientation and/or position of the camera device to the component is recorded and determined by means of a position sensor, for example a GPS sensor with real-time kinematics, which is arranged on a manually guided camera device.
  • a position sensor for example a GPS sensor with real-time kinematics
  • an advantageous flexibility of the manual inspection by a worker or operator can be combined with the advantages of a standardized image evaluation of the image recordings, in particular taking into account a relative orientation and / or position of the camera device and the component and / or time information for the respective image recording become.
  • the relative position and orientation of the camera device to the component is determined or determined at the time the image is captured of the examination area by means of a distance sensor device, which in particular can have one or more LIDAR sensor devices.
  • At least one image recording is recorded from several examination areas and the respective specific relative positions and orientations of the camera device are linked to form a camera trajectory.
  • a component which has a previously unknown outer contour is inspected using the distance sensor device, in particular the LIDAR sensor device.
  • a 3D model of the component is generated by means of the distance sensor device, after which an enveloping three-dimensional curve is determined, after which the camera trajectory or the corresponding image recording positions are calculated from the relative distance and the relative orientation of the camera device to the component, After which a complete three-dimensional model of the assembly is visualized from the image recordings under the different orientations.
  • contaminations are identified and characterized, in particular classified, using a corresponding algorithm, in particular a machine learning program, which is trained on the basis of historical image data or training data. It can also be provided that the identified and characterized, in particular classified, contaminations flow into the complete 3D model of the component and are visualized as part of it.
  • an enveloping, three-dimensional shell of the component is defined via a CAD model of the component. Based on this, it can be provided that the camera trajectory or the outer contour actually to be traveled or the camera trajectory to be traveled is defined by an analysis of the three-dimensional shell of the component.
  • the camera trajectory is optimized for scanning the surface of the component.
  • a result of the inspection method can be clearly assigned via an associated CAD model of the component and visualized accordingly due to the reconstructability of the camera trajectory, in particular with automated and mechanical guidance of the camera device for capturing the image recordings at predefined image positions.
  • a camera lens of the camera device is aligned at least approximately perpendicular to a surface of the component in the examination area and/or is arranged centrally relative to the examination area and/or a camera lens of the camera device is aligned at an angle to a surface of the component in the examination area and/or is arranged offset from the examination area; and/or the examination area has an at least approximately rectangular, preferably at least approximately square, shape.
  • a rectangular, preferably at least approximately square, shape of the examination area has the advantage that the formation of such a shape is favored by a common shape of camera chips in digital camera devices and a common type of camera lenses.
  • the above-described positioning and orientation of the camera device relative to the component or the examination area have the advantage that this enables any errors that may be present in all examination areas to be recorded as completely as possible.
  • the method is carried out using a robot arm or a handling device.
  • a three-dimensional outer contour of the component is systematically scanned by taking the images.
  • the camera lens points vertically onto the surface of the component and is arranged at a distance of 1 cm to 100 cm from the surface of the component.
  • the image recordings depict an image section of at least 10 cm x 10 cm of the surface of the component and/or the examination area has an extent of at least 10 cm x 10 cm, preferably 20 cm x 20 cm.
  • the component is covered at least approximately completely without gaps by several examination areas.
  • Dividing the surface of the component into several examination areas has the advantage that a sufficiently accurate image of the component can be captured while maintaining standard distances and standard angles or standard orientations.
  • a very large, for example only a single examination area a large number of orientations and angles relative to the component would be necessary, so that standardization would be difficult.
  • the camera lens of the camera device is aligned with the surface of the component in the examination area at an angle to a, preferably central, surface normal of the surface in the examination area.
  • Capturing multiple image recordings at different angles can advantageously increase the contrast of the image recording.
  • At least three, preferably five, particularly preferably nine and preferably less than twenty image recordings are taken from each examination area from different angles.
  • the image recording is exposed at least approximately exclusively by fluorescent light, preferably of the at least one defect.
  • an additional optical low-pass and / or bandpass filter device in front of the camera device is advantageous.
  • a color in particular an RGB value, a shape, a surface area and/or a fluorescent light intensity of the error can be taken into account.
  • the examination area is cleaned and/or marked for cleaning, with a new inspection preferably being carried out after the cleaning has been carried out.
  • the inspection of the component can also enable it to be cleaned and thus qualified for further use.
  • the term inspection of the component can also include its cleaning.
  • the cleaning of the examination area is carried out using a defect removal device to remove the at least one defect.
  • the at least one image recording is automatically evaluated with regard to the presence of at least one error in the examination area.
  • An automated evaluation of the image recording with regard to the presence of at least one defect in the examination area and preferably an automated characterization of the defect has the advantage that the inspection of the component is further objectified and thus made more reliable.
  • the method according to the invention is particularly suitable for inspecting EUV optics and/or any other products with comparable cleanliness requirements with regard to particulate and/or organic contamination.
  • Such products can come from the areas of aerospace technology and the automotive industry, for example.
  • end products as well as intermediate construction states of the products are integrally inspected for contamination and/or recontamination with particles, lint and/or fats and/or oils.
  • An embodiment of the method according to the invention can be particularly advantageous in which at least one, preferably several, particularly preferably all, of the following steps are provided:
  • Variation of an illumination direction by sequential control of several, preferably four, quadrants of a preferably ring-shaped illumination, which is arranged around the camera, and/or automatic selection of the image recording which has the highest contrast and/or the most recognizable errors, and/or
  • Post-cleaning of the modules wherein the post-cleaning, preferably a suction of contamination, is carried out interactively and/or automatically and/or by means of an instruction by a handling device by successively marking the affected or relevant examination areas using a laser pointer, and/or
  • a spectroscopic analysis of a reflected light wave spectrum of fluorescence phenomena of the defect as an additional feature for the direct evaluation and/or characterization, in particular classification, of the defect, and/or differentiation and/or identification of deliberately used auxiliary materials for assembly, such as approved adhesives.
  • multiple detections of individual errors on different image recordings are taken into account by overlapping image recordings and/or image recordings from different angles in that only one of several image recordings is displayed with the best contrast and/or best visibility and/or the multiple detections are displayed individually for the operator to select and/or a fusion image is generated and/or displayed in which the information from all image recordings is combined in a suitable manner for the purpose of better visualization of the error.
  • a method for cleaning a component in particular a component of a lithography system, is also disclosed.
  • the component is inspected using the above-described method according to the invention, after which, if a defect is present, the defect is classified and/or marked with regard to its worthiness of removal and after which, if a defect classified as worthy of removal is present, the examination area is separated from the defect is cleaned.
  • the error is preferably removed in a targeted manner.
  • a color, a shape, a surface area and/or a fluorescent light intensity of the error can be taken into account.
  • a removal method or cleaning method and/or an effective location of the removal method is coordinated with a result of the previous inspection and/or characterization.
  • the characterization can be used to identify a defect as a fatty contamination.
  • the greasy contamination can then be removed by spatially limited cleaning with a fat-dissolving surfactant. This avoids surface wetting of the component with the grease-dissolving surfactant and cleans the component in a targeted manner.
  • an anomaly is a bug or an intended component (feature) of the component.
  • the invention further relates to a device for inspecting a component.
  • the device according to the invention for inspecting a component has at least one darkroom and a search radiation source for forming a search radiation for illuminating at least one examination area.
  • a camera device with a camera lens for capturing an image of the examination area and a position determination device for determining a relative position and orientation of the camera device to the component when capturing the image of the examination area and a computing device are provided, which is used to inspect the image of the examination area for presence an error and in the presence of at least one error is set up to characterize the at least one error based on the image recording.
  • the device according to the invention has the advantage that an inspection, which was previously known from the prior art as a manual process by a worker that required a lot of time, can now be carried out reliably and quickly using the device according to the invention.
  • the device according to the invention can enable an inspection of assemblies or components that are not accessible to a manual inspection process as is known from the prior art.
  • the position determining device is designed as a position sensor, for example as a GPS sensor with real-time kinematics, and is arranged on a manually guided camera device.
  • the position determining device is designed as a handling device.
  • the handling device allows the camera device to be moved into a predetermined position and orientation relative to the component. This allows a high degree of flexibility in terms of varying viewing perspectives.
  • the computing device can be set up to store the image recordings, document them and assign them to the respective components in terms of data technology.
  • the device according to the invention is designed as a mobile unit for inspecting the component.
  • the position determining device has a handling device designed as a robot arm and is set up to systematically scan a three-dimensional outer contour of the component at a distance of 1 cm to 100 cm, the camera device being arranged on the position determining device designed as a handling device.
  • the position determination device and the camera device, in particular the camera lens, are set up to align the camera device vertically and/or at an angle to a surface of the component, the examination area comprising at least 10 cm x 10 cm, preferably 20 cm x 20 cm.
  • the camera device has a plurality of camera units and/or a plurality of camera lenses. This allows multiple images of one or more examination areas to be recorded at different angles without changing the orientation of the camera device or pivoting the camera device.
  • the camera device preferably has only one camera unit or only one camera lens.
  • a holding device can be provided for holding the component, preferably securely and reproducibly.
  • a movement device can also be provided for moving the component accommodated or fixed in the holding device.
  • the search radiation source has several, preferably four, switchable source segments and/or is designed as a ring radiation source and/or is arranged on the camera device, preferably on the camera lens.
  • an illumination direction of the can be varied depending on the area of investigation. In this way, undercuts can also be illuminated so that defects in a shadow become visible by varying the direction of illumination.
  • the source segments can preferably be designed in such a way that they together form a ring.
  • the source segments can be part of a ring radiation source. It can be provided that the source segments are switched individually sequentially for illumination or that two or more ring segments are switched on simultaneously for illumination. This results in variable illumination of the respective examination area.
  • a design of the search radiation source as a ring radiation source, in particular divided into several source segments, has proven to be particularly suitable for illumination; in particular, the ring radiation source can be arranged in such a way that it surrounds the camera device, in particular a camera lens, in a ring.
  • search radiation source in particular designed as a ring radiation source, in particular with one or more source segments on the camera device, preferably on the camera lens, preferably in such a way that the camera lens is located within the ring radiation source, has proven to be particularly suitable, since this means that the search radiation source is common can be moved with the camera device and positioned appropriately with respect to the examination area.
  • the camera device has at least one optical filter, which is preferably set up to block the search radiation.
  • An optical filter in particular an optical low-pass and/or band-pass filter, can be arranged in front of the camera device in order to block search radiation, in particular UV light, reflected from the component surface into the camera device, so that only light from fluorescent defects, i.e. H. potential contamination.
  • the camera device and/or the computing device are set up for a spectroscopic evaluation of a light color of the light emanating from the at least one defect and/or a spectrometer device is provided for the spectroscopic evaluation of a light color of the light emanating from the at least one defect.
  • the camera device and/or the computing device are set up to evaluate an RGB (red green blue) value of the light color.
  • RGB red green blue
  • a differentiation can be made in particular between specific types of contamination that are relevant for preferably EUV projection exposure systems.
  • EUV-specific types of contamination can in particular particles, HIO (hydrogen induced outgassing effects, and/or organic components as well as product-specific ones Defects such as splices and/or cables include.
  • a defect removal device can be provided for removing the at least one defect, the defect removal device having a marking radiation source for optically marking the defect; and/or is set up for remote-controlled operation; and/or is set up to remove the error independently or automatically.
  • the error removal device can be set up in any suitable manner to remove the at least one error, which can be, for example, a particle, in particular a contamination.
  • the defect removal device is designed to remove particles, it is advantageous if it is set up to suck out the defect or particle.
  • the defect removal device can be designed as a particle vacuum cleaner on the robot arm.
  • the defect removal device for particle removal can also be set up to blow off the defect or particle, in particular the contamination and preferably using carbon dioxide, but preferably in this case in connection with the blown-off defect or particle being subsequently sucked off.
  • the search radiation source is set up to train and use UV light for the targeted detection of cleanroom dust, in particular point-shaped features.
  • UV light can also be used for the targeted detection of fluorescent surface contamination that is either HIO-relevant or at least outgassing-relevant.
  • the computing device and/or the camera device is for analyzing the light color and shape of the impurity and future correlations with other measurement methods, such as a REM-EDX (energy-dispersive scanning electron microscopy) analysis, preferably for particles and/or an XPS/TOF-SIMS ( X-ray photoelectrons/time-of-flight secondary ion mass spectroscopy) analysis of chips from surfaces and/or basic tolerancing results.
  • REM-EDX energy-dispersive scanning electron microscopy
  • XPS/TOF-SIMS X-ray photoelectrons/time-of-flight secondary ion mass spectroscopy
  • the camera device and the computing device are set up to analyze the light color and shape of the contamination or defect and/or to identify product properties, for example adhesives, which do not represent contamination but still fluoresce.
  • the search radiation source and/or the camera device and/or the position determination device and/or the error removal device are set up, preferably as part of a handling device, for automated inspection of the component, and/or on a handling device are arranged for automated inspection of the component.
  • the device is particularly suitable for planned, grid-like and automated positioning or scanning of the component.
  • the search radiation source and/or the camera device and/or the position determination device and/or the error removal device can be brought to a specific location in the area surrounding the component and used in parallel and/or at least approximately synchronously.
  • the above-described device or the above-described method are particularly suitable for an inspection of facets of a field facet mirror and/or a pupil facet mirror, for an automated visual inspection in non-EUV-relevant areas and for simpler geometries, as well as for automated particle removal in other areas of application.
  • the device described above or the method described above are suitable as a starting point for implementing an inspection of the component based on artificial intelligence.
  • a distance sensor device can be provided and set up to at least partially systematically scan a three-dimensional outer contour of the component, the distance sensor device preferably being arranged on a handling device for automated inspection of the component.
  • a 3D model of the component is generated using the distance sensor device.
  • the data acquired by means of the distance sensor device is used to control the search radiation source and/or the camera device and/or the position determination device and/or the error removal device.
  • the from and to the various components of the device in particular given by the distance sensor device and/or the handling device and/or the computing device and/or the search radiation source and/or the camera device and/or the position determination device and/or the error removal device, flowing complex data streams or information streams can be integrated, used and/or documented in a particularly effective manner.
  • the invention further relates to a computer-implemented method.
  • the computer-implemented method according to the invention for inspecting a component, in particular a component of a lithography system, comprises at least the following steps:
  • the interpretation data for at least one part of the measurement data representing training data, the interpretation data containing information about the presence of at least one error in the at least one examination area and a characterization of the at least one error in the presence of at least one error, and
  • the computer-implemented method according to the invention has the advantage that a human worker is only required to create the interpretation data or a so-called “ground truth”.
  • the interpretation data is revised and/or renewed by a human operator and/or worker at regular intervals based on the results found by the computer-implemented method with regard to inspection and characterization.
  • computer-implemented methods are carried out several times in succession for a similar type of components and/or expected errors. This allows the success rate of the computer-implemented method to be refined and improved.
  • the machine learning model is trained to present to a human operator for further inspection and characterization the one of several image recordings that best represents a possible error for the operator.
  • the invention further relates to a lithography system.
  • the lithography system according to the invention in particular a projection exposure system for semiconductor lithography, comprises several components, in particular also an illumination system with a radiation source and an optics which has at least one optical element.
  • at least one of the components, in particular at least one of the optical elements is inspected by means of the above-described method according to the invention or one of its embodiments, and / or is inspected by means of the above-described device according to the invention or one of its embodiments and / or by means of the above-described computer-implemented method according to the invention or one of its embodiments is inspected.
  • the lithography system according to the invention has the advantage that it has particularly reliably cleaned and inspected components. As a result, the lithography system according to the invention can work reliably and with higher throughput and can be manufactured more cost-effectively than known lithography systems.
  • Figure 1 shows an EUV projection exposure system in a meridional section
  • Figure 2 shows a DUV projection exposure system
  • Figure 3 shows a schematic section through an embodiment of the device according to the invention
  • Figure 4 shows a schematic representation of a further possible embodiment of the device according to the invention in a side view
  • Figure 5 shows a schematic representation of a further embodiment of the device according to the invention in a partially sectioned top view
  • Figure 6 is a block diagram representation of a possible embodiment of the method according to the invention.
  • Figure 7 shows a schematic representation of a further possible embodiment of the device according to the invention in a side view and a possible sequence of the method according to the invention
  • Figure 8 shows a section of a component which has sixteen examination areas as an example
  • Figure 9 is a block diagram representation of a possible embodiment of the computer-implemented method according to the invention.
  • An illumination system 101 of the EUV projection exposure system 100 has, in addition to a radiation source 102, illumination optics 103 for illuminating an object field 104 in an object plane 105.
  • a reticle 106 arranged in the object field 104 is exposed.
  • the reticle 106 is made of one Reticle holder 107 held.
  • the reticle holder 107 can be displaced in particular in a scanning direction via a reticle displacement drive 108.
  • a Cartesian xyz coordinate system is shown in Figure 1 for explanation purposes.
  • the x-direction runs vertically into the drawing plane.
  • the y-direction is horizontal and the z-direction is vertical.
  • the scanning direction in Figure 1 runs along the y-direction.
  • the z direction runs perpendicular to the object plane 105.
  • the EUV projection exposure system 100 includes projection optics 109.
  • the projection optics 109 is used to image the object field 104 into an image field 110 in an image plane 111.
  • the image plane 111 runs parallel to the object plane 105. Alternatively, there is also an angle between the object plane that is different from 0° 105 and the image plane 111 possible.
  • a structure on the reticle 106 is imaged on a light-sensitive layer of a wafer 112 arranged in the area of the image field 110 in the image plane 111.
  • the wafer 1 12 is held by a wafer holder 113.
  • the wafer holder 113 can be displaced in particular along the y direction via a wafer displacement drive 114.
  • the displacement, on the one hand, of the reticle 106 via the reticle displacement drive 108 and, on the other hand, of the wafer 112 via the wafer displacement drive 114 can take place in synchronization with one another.
  • the radiation source 102 is an EUV radiation source.
  • the radiation source 102 emits in particular EUV radiation 115, which is also referred to below as useful radiation, illumination radiation or projection radiation.
  • the useful radiation 115 in particular has a wavelength in the range between 5 nm and 30 nm.
  • the radiation source 102 can be a plasma source, for example an LPP source (“Laser Produced Plasma”) or a DPP source (“Gas Discharged Produced Plasma”). It can also be a synchrotron-based radiation source.
  • the radiation source 102 can be a free electron laser (FEL).
  • the illumination radiation 115 which emanates from the radiation source 102, is focused by a collector 116.
  • the collector 116 can be a collector with one or more ellipsoidal and/or hyperboloid reflection surfaces.
  • the at least one reflection surface of the collector 116 can be in grazing incidence (“Grazing Incidence”, Eq), i.e. with angles of incidence greater than 45°, or in normal incidence (“Normal Incidence”, NI), i.e. with angles of incidence smaller than 45° the lighting radiation 115 is applied.
  • the collector 116 can be structured and/or coated on the one hand to optimize its reflectivity for the useful radiation 115 and on the other hand to suppress false light.
  • the illumination radiation 115 propagates through an intermediate focus in an intermediate focus plane 117.
  • the intermediate focus plane 117 can represent a separation between a radiation source module, having the radiation source 102 and the collector 116, and the illumination optics 103.
  • the illumination optics 103 comprises a deflection mirror 118 and, downstream of this in the beam path, a first facet mirror 119.
  • the deflection mirror 118 can be a flat deflection mirror or alternatively a mirror with an effect that influences the bundle beyond the pure deflection effect.
  • the deflection mirror 1 18 can be designed as a spectral filter which separates a useful light wavelength of the illumination radiation 115 from false light of a wavelength that deviates from this.
  • the first facet mirror 119 is arranged in a plane of the illumination optics 103 that is optically conjugate to the object plane 105 as a field plane, it is also referred to as a field facet mirror.
  • the first facet mirror 119 comprises a large number of individual first facets 120, which are also referred to below as field facets. Some of these facets 120 are shown in FIG. 1 only as examples.
  • the first facets 120 can be designed as macroscopic facets, in particular as rectangular facets or as facets with an arcuate or part-circle edge contour.
  • the first facets 120 can be designed as flat facets or alternatively as convex or concave curved facets.
  • the first facets 120 themselves can also each be composed of a large number of individual mirrors, in particular a large number of micromirrors.
  • the first facet mirror 119 can in particular be designed as a microelectromechanical system (MEMS system).
  • MEMS system microelectromechanical system
  • the illumination radiation 115 runs horizontally, i.e. along the y-direction.
  • a second facet mirror 121 is located downstream of the first facet mirror 119 in the beam path of the illumination optics 103. If the second facet mirror 121 is arranged in a pupil plane of the illumination optics 103, it is also referred to as a pupil facet mirror. The second facet mirror 121 can also be arranged at a distance from a pupil plane of the illumination optics 103. In this case, the combination of the first facet mirror 119 and the second facet mirror 121 is also referred to as a specular reflector. Specular reflectors are known from US 2006/0132747 A1, EP 1 614 008 B1 and US 6,573,978.
  • the second facet mirror 121 comprises a plurality of second facets 122.
  • the second facets 122 are also referred to as pupil facets.
  • the second facets 122 can also be macroscopic facets, which can have, for example, round, rectangular or even hexagonal edges, or alternatively they can be facets composed of micromirrors. In this regard, reference is also made to DE 10 2008 009 600 A1.
  • the second facets 122 can have flat or alternatively convex or concave curved reflection surfaces.
  • the lighting optics 103 thus forms a double faceted system.
  • This basic principle is also known as the fly’s eye integrator.
  • the second facet mirror 121 may be advantageous not to arrange the second facet mirror 121 exactly in a plane that is optically conjugate to a pupil plane of the projection optics 109.
  • the second facet mirror 121 is the last beam-forming mirror or actually the last mirror for the illumination radiation 115 in the beam path in front of the object field 104.
  • a transmission optics can be arranged in the beam path between the second facet mirror 121 and the object field 104, which contributes in particular to the imaging of the first facets 120 into the object field 104.
  • the transmission optics can have exactly one mirror, but alternatively also two or more mirrors, which are arranged one behind the other in the beam path of the illumination optics 103.
  • the transmission optics can in particular include one or two mirrors for perpendicular incidence (Nl mirror, “normal incidence” mirror) and/or one or two mirrors for grazing incidence (Gl mirror, “gracing incidence” mirror).
  • the illumination optics 103 has exactly three mirrors after the collector 116, namely the deflection mirror 118, the field facet mirror 119 and the pupil facet mirror 121.
  • the deflection mirror 118 can also be omitted, so that the lighting optics 103 can then have exactly two mirrors after the collector 116, namely the first facet mirror 119 and the second facet mirror 121.
  • the image of the first facets 120 by means of the second facets 122 or with the second facets 122 and a transmission optics into the object plane 105 is generally only an approximate image.
  • the projection optics 109 comprises a plurality of mirrors Mi, which are numbered consecutively according to their arrangement in the beam path of the EUV projection exposure system 100.
  • the projection optics 109 comprises six mirrors M1 to M6. Alternatives with four, eight, ten, twelve or another number of mirrors Mi are also possible.
  • the penultimate mirror M5 and the last mirror M6 each have a passage opening for the illumination radiation 115.
  • the projection optics 109 are double-obscured optics.
  • the projection optics 109 has an image-side numerical aperture that is larger than 0.5 and which can also be larger than 0.6 and which can be, for example, 0.7 or 0.75.
  • Reflection surfaces of the mirrors Mi can be designed as free-form surfaces without an axis of rotational symmetry.
  • the reflection surfaces of the mirrors Mi can be designed as aspherical surfaces with exactly one axis of rotational symmetry of the reflection surface shape.
  • the mirrors Mi just like the mirrors of the lighting optics 103, can have highly reflective coatings for the lighting radiation 115. These coatings can be designed as multilayer coatings, in particular with alternating layers of molybdenum and silicon.
  • the projection optics 109 has a large object image offset in the y direction between a y coordinate of a center of the object field 104 and a y coordinate of the center of the image field 1 10.
  • This object image offset in the y direction can be approximately as large as a z-distance between the object plane 105 and the image plane 111.
  • the projection optics 109 can in particular be anamorphic. In particular, it has different imaging scales ßx, ßy in the x and y directions.
  • a positive magnification ß means an image without image reversal.
  • a negative sign for the image scale ß means an image with image reversal.
  • the projection optics 109 thus leads to a reduction in the x-direction, that is to say in the direction perpendicular to the scanning direction, in a ratio of 4:1.
  • the projection optics 109 leads to a reduction of 8:1 in the y direction, that is to say in the scanning direction.
  • Image scales are also possible. Image scales of the same sign and absolutely the same in the x and y directions, for example with absolute values of 0.125 or 0.25, are also possible.
  • the number of intermediate image planes in the x and y directions in the beam path between the object field 104 and the image field 110 can be the same or, depending on the design of the projection optics 109, can be different. Examples of projection optics with different numbers of such intermediate images in the x and y directions are known from US 2018/0074303 A1.
  • One of the pupil facets 122 is assigned to exactly one of the field facets 120 to form an illumination channel for illuminating the object field 104. This can in particular result in lighting based on Köhler's principle.
  • the far field is broken down into a large number of object fields 104 using the field facets 120.
  • the field facets 120 generate a plurality of images of the intermediate focus on the pupil facets 122 assigned to them.
  • the field facets 120 are each imaged onto the reticle 106 by an assigned pupil facet 122, superimposed on one another, in order to illuminate the object field 104.
  • the illumination of the object field 104 is in particular as homogeneous as possible. It preferably has a uniformity error of less than 2%. Field uniformity can be achieved by overlaying different lighting channels.
  • the illumination of the entrance pupil of the projection optics 109 can be geometrically defined by an arrangement of the pupil facets.
  • the intensity distribution in the entrance pupil of the projection optics 109 can be adjusted. This intensity distribution is also referred to as the lighting setting.
  • a likewise preferred pupil uniformity in the area of defined illuminated sections of an illumination pupil of the illumination optics 103 can be achieved by redistributing the illumination channels.
  • the projection optics 109 can in particular have a homocentric entrance pupil. This can be accessible. It can also be inaccessible.
  • the entrance pupil of the projection optics 109 cannot regularly be illuminated precisely with the pupil facet mirror 121.
  • the aperture rays often do not intersect at a single point.
  • an area can be found in which the pairwise distance of the aperture beams becomes minimal.
  • This surface represents the entrance pupil or a surface conjugate to it in local space. In particular, this surface shows a finite curvature.
  • the projection optics 109 have different positions of the entrance pupil for the tangential and sagittal beam paths.
  • an imaging element in particular an optical component of the transmission optics, should be provided between the second facet mirror 121 and the reticle 106. With the help of this optical component, the different positions of the tangential entrance pupil and the sagittal entrance pupil can be taken into account.
  • the pupil facet mirror 121 is arranged in a surface conjugate to the entrance pupil of the projection optics 109.
  • the first field facet mirror 119 is tilted relative to the object plane 105.
  • the first facet mirror 119 is arranged tilted to an arrangement plane that is defined by the deflection mirror 1 18.
  • the first facet mirror 119 is arranged tilted to an arrangement plane that is defined by the second facet mirror 121.
  • the DUV projection exposure system 200 has an illumination system 201, a device called reticle stage 202 for receiving and exact positioning of a reticle 203, through which the later structures on a wafer 204 are determined, a wafer holder 205 for holding, moving and exact positioning of the wafer 204 and an imaging device, namely a projection optics 206, with a plurality of optical elements, in particular lenses 207, which are held via mounts 208 in a lens housing 209 of the projection optics 206.
  • various refractive, diffractive and/or reflective optical elements including mirrors, prisms, end plates and the like, can be provided.
  • the basic operating principle of the DUV projection exposure system 200 provides that the structures introduced into the reticle 203 are imaged onto the wafer 204.
  • the illumination system 201 provides a projection beam 210 required for imaging the reticle 203 onto the wafer 204 or a projection radiation in the form of electromagnetic radiation.
  • a laser, a plasma source or the like can be used as the source for this radiation.
  • the radiation is shaped in the illumination system 201 via optical elements so that the projection beam 210 has the desired properties in terms of diameter, polarization, shape of the wavefront and the like when it hits the reticle 203.
  • an image of the reticle 203 is generated and transmitted to the wafer 204 in a correspondingly reduced size by the projection optics 206.
  • the reticle 203 and the wafer 204 can be moved synchronously, so that areas of the reticle 203 are imaged onto corresponding areas of the wafer 204 practically continuously during a so-called scanning process.
  • an air gap between the last lens 207 and the wafer 204 can be replaced by a liquid medium which has a refractive index greater than 1.0.
  • the liquid medium can, for example be highly pure water.
  • Such a setup is also known as immersion lithography and has increased photolithographic resolution.
  • the use of the invention is not limited to use in projection exposure systems 100, 200, in particular not with the structure described.
  • the invention is suitable for any lithography system, but in particular for projection exposure systems, with the structure described.
  • the invention is also suitable for EUV projection exposure systems which have a smaller image-side numerical aperture than that described in connection with Figure 1.
  • the invention is also suitable for EUV projection exposure systems which have an image-side numerical aperture of 0.25 to 0.5, preferably 0.3 to 0.4, particularly preferably 0.33.
  • the invention and the following exemplary embodiments are not to be understood as being limited to a specific design.
  • the following figures represent the invention merely as an example and in a highly schematized manner.
  • the device according to the invention and the method according to the invention (including the computer-implemented method) described below can be used in particular in lithography systems and in particular in projection exposure systems for semiconductor lithography, but can also be used in other areas in which rapid and reliable inspection of components is advantageous.
  • Figure 3 shows a schematic representation of a possible embodiment of a device 1 for inspecting a component 2.
  • the device 1 for inspecting the component 2, in particular a component 2 of a lithography system 100, 200, comprises at least one darkroom 3 and a search radiation source 4 for forming a search radiation 5 for illuminating an examination area 6.
  • the device 1 further comprises a camera device 7 with a camera lens 8 for capturing an image recording 9 (see Figure 4) of the examination area 6 and a position determination device 10 for determining a relative position 10a and orientation 10b of the camera device 7 to the component 2 when capturing the image recording 9 of the examination area 6 (see on this or to Reference numbers 9, 10a, 10b also Figures 4 and 7).
  • There is also a computing device 11 which is set up to inspect the image recording 9 of the examination area 6 for the presence of an error 12 and, if at least one error 12 is present, to characterize the at least one error 12 based on the image recording 9.
  • the search radiation source 4 preferably has a plurality of switchable source segments 13, two of which are visible in the drawing plane, with four source segments 13 preferably being present.
  • the search radiation source 4 is designed as a ring radiation source, preferably with four partially ring-shaped source segments 13.
  • the search radiation source 4 is also preferably arranged on the camera device 7, in particular on the camera lens 8.
  • the camera device 7 preferably has at least one optical filter 14, which is preferably set up to block the search radiation 5.
  • Figure 4 shows a schematic representation of a further possible embodiment of the device 1.
  • the image recording 9 is displayed to an operator on a screen.
  • the position determining device 10 is preferably at least partially designed as a handling device 15 or is arranged or fixed on a handling device 15.
  • an error removal device 16 is preferably provided for removing the at least one error 12.
  • the defect removal device 16 preferably has a marking radiation source 17 for optically marking the defect 12, preferably by means of a laser beam. Furthermore, in the exemplary embodiment shown in FIG. 4, the error removal device 16 is set up for remote-controlled operation and/or for the independent removal of the error 12.
  • the error removal device 16 can in particular be a contamination removal device and/or a cleaning device. Alternatively or additionally, the error removal device 16 can also be set up to eliminate processing errors, for example by locally heating the component 2.
  • the defect removal device 16 is arranged on the handling device 15 and is preferably designed as a particle extractor.
  • the device 1 is preferably designed as a mobile unit for inspection by means of the handling device 15 designed as a robot arm and is set up for systematically scanning a three-dimensional outer contour of the component 2 at a distance of 1 cm to 100 cm, using the position determining device 10 or the robot arm, the camera lens 8 can be aligned vertically onto a surface of the component 2.
  • the search radiation source 4 and/or the camera device 7 and/or the position determination device 10 and/or the error removal device 16, preferably as part of the handling device 15, are preferably set up for the automated inspection of the component 2, and/or on the Handling device 15 arranged for automated inspection of component 2.
  • a distance sensor device 21 such as a LIDAR sensor device, is preferably provided in the exemplary embodiment shown in FIG.
  • the distance sensor device 21 can be an integral part of the position determining device 10.
  • the distance sensor device 21 is preferably set up to at least partially systematically scan a three-dimensional outer contour of the component 2, the distance sensor device 21 preferably being arranged on the handling device 15 for automated inspection of the component 2.
  • Figure 5 shows a schematic representation of a possible arrangement of the component 2 in the darkroom 3.
  • the component 2 is preferably arranged on a holding device 18.
  • the holding device 18 is designed in the exemplary embodiment shown in FIG. 5 as part of a transport trolley.
  • the holding device 18 is also preferably connected to a traversing device 19, which in the exemplary embodiment shown in FIG. 5 is designed as part of the position determining device 10 or interacts with it to position the camera device 7.
  • the transport trolley preferably has the holding device 18 and the moving device 19.
  • the search radiation 5 strikes the examination area 6 at an angle to the vertical.
  • the reflected light is then captured by the camera device 7, which is shown stylized in the exemplary embodiment shown in FIG.
  • the image recording 9 is then transferred to the computing device 11 for the purpose of image evaluation.
  • the component 2 is preferably a complex EUV module or a complex module of an EUV projection exposure system 100.
  • 6 shows a block diagram representation of a possible embodiment of a method for inspecting the component 2, in particular a component 2 of the lithography system 100, 200.
  • the examination area 6 of the component 2 in the darkroom 3 is illuminated with the search radiation 5 in an illumination block 40.
  • the at least one image recording 9 of the examination area 6 is recorded by means of the camera device 7.
  • a position block 42 the relative position 10a and orientation 10b of the camera device 7 to the component 2 at the time the image recording 9 of the examination area 6 is captured is also determined.
  • the examination area 6 is inspected based on the image recording 9 for the presence of at least one error 12.
  • a characterization block 44 if at least one error 12 is present, at least one error 12 is characterized based on the image recording 9.
  • the relative position 10a and orientation 10b of the camera device 7 to the component 2 at the time the image recording 9 of the examination area 6 is captured is determined by the relative position 10a and orientation 10b of the camera device 7 to the component 2 is predetermined and then taken by the camera device 7 and / or the camera device 7 is brought mechanically and automatically into the relative position 10a and orientation 10b and / or the relative position 10a and orientation 10b of the camera device 7 to the component 2 at the time the image recording 9 is determined.
  • the distance sensor device 21 such as a LIDAR sensor device, can in particular be provided.
  • the determination and/or a definition of the relative position 10a takes place in an upstream process step.
  • the outer contours of the component 2 are first recorded and then, preferably by means of the computing device 11, an optimal image sequence is calculated.
  • the lighting block 40 and/or the positioning block 42 it can preferably be provided that at least three image recordings, preferably less than twenty image recordings 9, are taken from each examination area 6 from different angles. Preferably five or more, particularly preferably exactly nine, images 9 are recorded from different angles.
  • the image recording 9 is exposed at least approximately exclusively by fluorescent light, preferably fluorescent light from the at least one error 12.
  • the at least one image recording 9 is automatically evaluated with regard to the presence of at least one error 12 in the examination area 6.
  • a cleaning block 45 is preferably also provided in the method, in the context of which, if at least one error 12 in the examination area 6 is present, the examination area 6 is cleaned and/or marked for cleaning. Furthermore, a new inspection is preferably carried out after cleaning has been carried out.
  • Figure 7 shows an example of a possible sequence of the method according to the invention, with a highly abstracted device 1 being shown in a side view.
  • At least one image recording 9 is preferably recorded from several examination areas 6 and the respective determined relative positions 10a and orientations 10b of the camera device 7 are linked to form a camera trajectory 20.
  • an optimal sequence of the relative positions 10a or an optimal camera trajectory 20 takes place in an upstream process step, preferably by means of the computing device 11.
  • the times at which the image recordings 9 are recorded are preferably also recorded and impressed on the respective image recording 9 as metadata or timestamp.
  • the image recordings 9 can also be located on a time axis 22.
  • the camera lens 8 of the camera device 7 is preferably aligned at least approximately perpendicularly to a surface of the component 2 in the examination area 6 and/or arranged centrally relative to the examination area 6 in order to record the one or more image recordings 9 of the examination area 6 .
  • the camera lens 8 of the camera device 7 is preferably aligned at an angle to the surface of the component 2 in the examination area 6 and/or arranged offset from the examination area 6.
  • the examination area 6 preferably has an at least approximately rectangular, particularly preferably at least approximately square, shape.
  • the component 2 is preferably covered at least approximately completely without gaps by several examination areas 6.
  • the 7 also shows an exemplary embodiment in which several image recordings 9 are preferably taken from the at least one examination area 6, in that for a first image recording 9 the camera lens 8 of the camera device 7 is aligned at least approximately perpendicularly to a surface of the component 2 in the examination area 6 and /or is arranged centrally opposite the examination area 6 and for at least a second image recording 9 of the same examination area 6, the camera lens 8 of the camera device 7 is aligned at an angle to the vertical on a surface of the component 2 in the examination area 6 and centrally opposite one to the examination area 6 adjacent examination area 6 is arranged.
  • a camera device 7, not shown in FIG. 8, with a camera lens 8 for capturing an image 9 can be positioned at least approximately vertically above a surface of the respective examination area 6a - 6p. This will now be explained as an example using the examination area 6f.
  • the camera device 7 is preferably aligned at least approximately perpendicular to a surface of the examination area 6f and preferably also arranged centrally relative to the examination area 6f. In this position, a first image recording of the examination area 6f is taken.
  • images of the adjacent examination areas are also taken from the position of the camera device 7 centrally relative to the examination area 6f by changing the orientation 10b of the camera device 7.
  • images 9 are taken of all examination areas 6a, 6b, 6c, 6e, 6g, 6i, 6j, 6k adjacent to the examination areas 6f.
  • the camera device 7 After taking an image 9 of the examination area 6f from a position in which the camera device 7 is aligned at least approximately perpendicular to the examination area 6f and is arranged centrally relative to the examination area 6f (and if necessary the creation of image recordings 9 of adjacent examination areas 6a, 6b, 6c, 6e , 6g, 6i, 6j, 6k from this central position relative to the examination area 6f), the camera device 7 is arranged centrally opposite an examination area, for example the examination area 6g, which adjoins the examination area 6f. From this central position relative to the examination area 6g, the camera device 7 is then aligned in such a way that an image recording 9 of the examination area 6f can be taken.
  • a corresponding number of image recordings 9 are also taken from the other examination areas in different orientations and positions of the camera device 7.
  • the order in which the examination areas are approached by the camera device and positioned centrally relative to them is secondary; the recorded images 9 can be assigned to the desired examination area, for example the examination area 6f, using, for example, the computing device 11.
  • the camera device 7 is arranged outside an examination area, for example to record the examination area 6a in an image plane above the examination area 6a and 6b.
  • the camera device 7 is preferably moved relative to the examination areas 6 in such a way that the travel path of the camera device 7 is preferably as short as possible.
  • Figure 9 shows a block diagram representation of a possible embodiment of a computer-implemented method for inspecting the component 2.
  • the computer-implemented method for inspecting the component 2, in particular a component 2 of the lithography system 100, 200 comprises a measurement data block 50.
  • measurement data is received which includes at least one image recording 9 of the image taken in the darkroom 3 with the camera device 7 Search radiation 5 illuminated examination area 6 of the component 2 as well as the relative position 10a and orientation 10b of the camera device 7 to the component 2 at the time the image recording 9 of the examination area 6 is captured.
  • interpretation data for at least part of the measurement data is received, which represents training data.
  • the interpretation data contains information about the presence of at least one error 12 in the at least one examination area 6 as well as a characterization of the at least one error 12.
  • a machine learning model is trained using the interpretation data and the training data.
  • a search block 53 the measurement data are automatically inspected for the presence of at least one error 12 in the at least one examination area 6 using the machine learning model.
  • a classification block 54 if at least one error 12 is present, the at least one error 12 is automatically characterized using the machine learning model.
  • the inspection and/or characterization results determined in the classification block 54 and/or in the search block 53 can be checked in a checking block 55, preferably by a human operator, and fed into the interpretation data block 51 as new interpretation data.
  • the lithography system described above, in particular the projection exposure system 100, 200 for semiconductor lithography has several components 2, in particular an illumination system 101, 201 with a radiation source 102 and an optics 103, 109, 206, which have at least one optical element 116, 118, 119, 120, 121, 122, Wed, 207.
  • the lithography system 100, 200 is characterized in that at least one of the components 2, in particular at least one of the optical elements 116, 118, 119, 120, 121, 122, Mi, 207 by means of the method described in connection with Figures 7 and 8 and its embodiments and/or is inspected by means of the device 1 described in particular in connection with FIGS. 3, 4 and 5 and/or is inspected by means of the computer-implemented method described in connection with FIG. 9.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Engineering & Computer Science (AREA)
  • Epidemiology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Plasma & Fusion (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Geometry (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Inspektion eines Bauteils (2), insbesondere eines Bauteils (2) eines Lithografiesystems, wobei - in einer Dunkelkammer (3) wenigstens ein Untersuchungsbereich (6) des Bauteils (2) mit einer Suchstrahlung (5) beleuchtet wird; und - der Untersuchungsbereich (6) auf ein Vorliegen wenigstens eines Fehlers (12) inspiziert wird; wobei - bei einem Vorliegen wenigstens eines Fehlers (12) der wenigstens eine Fehler (12) charakterisiert wird. Erfindungsgemäß ist vorgesehen, dass - mittels einer Kameraeinrichtung (7) wenigstens eine Bildaufnahme (9) des Untersuchungsbereichs (6) aufgenommen wird, wobei - eine relative Position (10a) und Ausrichtung (10b) der Kameraeinrichtung (7) zu dem Bauteil (2) zum Zeitpunkt der Erfassung der Bildaufnahme (9) des Untersuchungsbereichs (6) bestimmt wird, und 20 - der Untersuchungsbereich (6) anhand der Bildaufnahme (9) auf ein Vorliegen wenigstens eines Fehlers (12) inspiziert wird; wobei - bei einem Vorliegen wenigstens eines Fehlers (12) der wenigstens eine Fehler (12) anhand der Bildaufnahme (9) charakterisiert wird.

Description

VERFAHREN, VORRICHTUNG UND COMPUTERIMPLEMENTIERTES VERFAHREN ZUR INSPEKTION EINES, BAUTEILS, INSBESONDERE EINES BAUTEILS EINES LITHOGRAFIESYSTEMS, SOWIE LITHOGRAFIESYSTEM
Die vorliegende Erfindung nimmt die Priorität der deutschen Patentanmeldung Nr. 10 2022 207 687.7 in Anspruch, deren Inhalt durch Verweis hierin vollständig mit aufgenommen wird.
Die Erfindung betrifft ein Verfahren zur Inspektion eines Bauteils, insbesondere eines Bauteils eines Litho- grafiesystems, wobei in einer Dunkelkammer wenigstens ein Untersuchungsbereich des Bauteils mit einer Suchstrahlung beleuchtet wird; und der Untersuchungsbereich auf ein Vorliegen wenigstens eines Fehlers inspiziert wird; wobei bei einem Vorliegen wenigstens eines Fehlers der wenigstens eine Fehler charakterisiert wird.
Die Erfindung betrifft ferner eine Vorrichtung zur Inspektion eines Bauteils, insbesondere eines Bauteils eines Lithografiesystems, wenigstens aufweisend eine Dunkelkammer und eine Suchstrahlungsquelle zur Ausbildung einer Suchstrahlung zur Beleuchtung eines Untersuchungsbereichs.
Die Erfindung betrifft außerdem ein computerimplementiertes Verfahren zur Inspektion eines Bauteils, insbesondere eines Bauteils eines Lithografiesystems.
Die Erfindung betrifft auch ein Lithografiesystem, insbesondere eine Projektionsbelichtungsanlage für die Halbleiterlithografie, mit einem Beleuchtungssystem mit einer Strahlungsquelle sowie einer Optik, welche wenigstens ein optisches Element aufweist.
In bekannter Weise beeinflussen optische Elemente die Eigenschaften mit ihnen wechselwirkender Lichtwellen. Zur Vermeidung unerwünschter Strukturen der resultierenden Wellenfronten ist eine exakte Ausbildung der Form der Oberflächen der optischen Elemente notwendig. Als optische Elemente sind beispielsweise planare Spiegel, Hohlspiegel, Wölbspiegel, Facettenspiegel, konvexe Linsen, konkave Linsen, konvex-konkave Linsen, plankonvexe Linsen und plankonkave Linsen zu benennen. Als Materialien für optische Elemente, insbesondere Spiegel, sind unter anderem Glas und Silicium bekannt.
Lithografiesysteme, insbesondere Projektionsbelichtungsanlagen, weisen eine Vielzahl von Bauteilen und optischen Elementen auf. Insbesondere bei der Verwendung der optischen Elemente in einer mikrolithografischen DUV (Deep Ultravioletj-Projektionsbelichtungsanlage und ganz besonders bei der Verwendung mit einer mikrolithografischen EUV (Extrem Ultravioletj-Projektionsbelichtungsanlage ist eine besonders fehlerfreie Form der Oberflächen notwendig, da das durch die optischen Elemente, beispielsweise einen EUV-Spiegel, modulierte Licht zum einen eine sehr kleine Wellenlänge hat und damit die resultierenden Wellenfronten schon durch geringste Beeinträchtigungen der Oberflächenform, beispielsweise Bearbeitungsfehler und/oder Verschmutzungen, am optischen Element gestört werden. Zum anderen sind die abgebildeten Strukturen auf der Projektionsfläche sehr klein und damit ebenfalls anfällig für geringste Fehler am optischen Element. Nach einer Bearbeitung der Oberflächen der optischen Elemente, beispielsweise einer Beschichtung und/oder Strukturierung, können Fremdkörper auf der betreffenden Oberfläche anhaften. Vor einem Einsatz des betreffenden optischen Elements in einer Projektionsbelichtungsanlage ist es aus dem Stand der Technik bekannt, dass derartige Fremdkörper bzw. Verschmutzungen aufgesucht, händisch entfernt und die betreffende Oberfläche des optischen Elements gereinigt wird.
In den aus dem Stand der Technik bekannten Verfahren findet eine Inspektion des Bauteils in einem abgedunkelten Raum unter einer Beleuchtung mittels eines UV-Lichts statt und wird manuell durchgeführt, indem ein Werker die jeweilige Baugruppe bzw. das Bauteil Stück für Stück mit einem handgehaltenen Leuchtmittel, insbesondere einer UV-Lampe, anleuchtet und einen visuellen Eindruck bewertet. Insbesondere kann hierbei eine Fluoreszenz von organischen Partikeln und Fasern sowie Flecken unter einem UV- Licht zur Bewertung herangezogen werden.
Nachteilig an den aus dem Stand der Technik bekannten Verfahren ist der hohe Zeitaufwand der händischen Inspektion, Charakterisierung von vorgefundenen Fehlern und Entfernung der Fehler, wobei ein Auffinden der Fehler von einer Zuverlässigkeit des menschlichen Operators abhängt. Hierdurch werden die Verschmutzungen bzw. Fremdkörper häufig lediglich unvollständig entfernt.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Inspektion eines Bauteils zu schaffen, welches die Nachteile des Standes der Technik vermeidet, insbesondere eine schnelle und zuverlässige Erkennung von Fehlern des Bauteils ermöglicht.
Erfindungsgemäß wird diese Aufgabe durch ein Verfahren mit den in Anspruch 1 genannten Merkmalen gelöst.
Der vorliegenden Erfindung liegt ferner die Aufgabe zugrunde, eine Vorrichtung zur Inspektion eines Bauteils zu schaffen, welche die Nachteile des Standes der Technik vermeidet, insbesondere eine schnelle und zuverlässige Erkennung von Fehlern des Bauteils ermöglicht.
Erfindungsgemäß wird diese Aufgabe durch eine Vorrichtung mit den in Anspruch 11 genannten Merkmalen gelöst.
Der vorliegenden Erfindung liegt außerdem die Aufgabe zugrunde, ein computerimplementiertes Verfahren zur Inspektion eines Bauteils zu schaffen, welches die Nachteile des Standes der Technik vermeidet, insbesondere eine schnelle und zuverlässige Erkennung von Fehlern des Bauteils ermöglicht.
Erfindungsgemäß wird diese Aufgabe durch ein computerimplementiertes Verfahren mit den in Anspruch 17 genannten Merkmalen gelöst. Der vorliegenden Erfindung liegt außerdem die Aufgabe zugrunde, ein Lithografiesystem zu schaffen, welches die Nachteile des Standes der Technik vermeidet, insbesondere zuverlässig inspizierte Bauteile aufweist.
Erfindungsgemäß wird diese Aufgabe durch ein Lithografiesystem mit den in Anspruch 18 genannten Merkmalen gelöst.
Bei dem erfindungsgemäßen Verfahren zur Inspektion eines Bauteils, insbesondere eines Bauteils eines Lithografiesystems, wird in einer Dunkelkammer wenigstens ein Untersuchungsbereich des Bauteils mit einer Suchstrahlung beleuchtet und der Untersuchungsbereich wird auf ein Vorliegen wenigstens eines Fehlers inspiziert. Ferner wird bei einem Vorliegen wenigstens eines Fehlers der wenigstens eine Fehler charakterisiert. Erfindungsgemäß ist vorgesehen, dass mittels einer Kameraeinrichtung wenigstens eine Bildaufnahme des Untersuchungsbereichs aufgenommen wird, wobei eine relative Position und Ausrichtung der Kameraeinrichtung zu dem Bauteil zum Zeitpunkt der Erfassung der Bildaufnahme des Untersuchungsbereichs bestimmt wird, wobei der Untersuchungsbereich anhand der Bildaufnahme auf ein Vorliegen wenigstens eines Fehlers inspiziert wird. Erfindungsgemäß ist hierbei vorgesehen, dass bei einem Vorliegen wenigstens eines Fehlers der wenigstens eine Fehler anhand der Bildaufnahme charakterisiert wird.
Im Rahmen der Erfindung kann es sich bei dem wenigstens einen Fehler beispielsweise um eine Kontamination und/oder einen Bearbeitungsfehler und/oder eine Beschädigung handeln.
Das erfindungsgemäße Verfahren eignet sich für die Inspektion einer Vielzahl von Bauteilen, ganz besonders jedoch für Spiegelmodule mit einer hohen numerischen Apertur (High-NA-Spiegelmodule) von EUV- Projektionsbelichtungsanlagen und/oder andere Baugruppen und Gesamtsysteme aus dem Bereich der Halbleiter-Lithografie.
Das erfindungsgemäße Verfahren hat den Vorteil, dass die Inspektion des Bauteils auf der Bildaufnahme des Untersuchungsbereichs basierend vorgenommen wird. Hierdurch kann zum einen eine Dokumentation der Inspektion des Bauteils vorgenommen werden und zum anderen können auf der Grundlager der Bildaufnahme Analyseverfahren aus der Bildauswertung angewandt werden.
Die Verwendung einer Dunkelkammer hat den Vorteil, dass eine unerwünschte Belichtung der Bildaufnahme durch Streulicht und/oder eine unerwünschte Belichtung durch direktes Licht vermieden wird.
Es kann vorgesehen sein, dass 250 bis 350 Bildaufnahmen aufgenommen werden.
Dadurch, dass eine relative Position und Ausrichtung der Kameraeinrichtung zu dem Bauteil bestimmt wird, kann die in der Bildaufnahme enthaltene Information über den Untersuchungsbereich um Informationen hinsichtlich eines Abstands und eines Betrachtungswinkels, unter welchem der Untersuchungsbereich betrachtet wird, ergänzt werden. Hierdurch kann eine weitere Standardisierung der Inspektion des Bauteils auf Grundlage der Bildaufnahme erreicht werden. Dadurch, dass bei einem Vorliegen wenigstens eines Fehlers der Fehler anhand der Bildaufnahme charakterisiert wird, lässt sich die Charakterisierung des Fehlers, vorzugsweise hinsichtlich einer Entfernungswürdigkeit des Fehlers, schnell und präzise auf Basis standardisierter Verfahren einschätzen.
Vorteilhafterweise kann vorgesehen sein, dass eine Beleuchtungsrichtung unter welcher der Untersuchungsbereich durch die Suchstrahlung beleuchtet wird, bei verschiedenen Bildaufnahmen des Untersuchungsbereichs variiert wird. Hierdurch kann eine Kontrasterhöhung, beispielsweise durch eine Überlagerung der Bildaufnahmen, erzielt werden und/oder diejenige Bildaufnahme ausgewählt werden, welche den höchsten Kontrast aufweist.
Es kann vorgesehen sein, dass für die Beleuchtung des Untersuchungsbereichs die Suchstrahlung mittels eines Ringlichts, welches um die Kameraeinrichtung, insbesondere um das Kameraobjektiv, angebracht ist, erfolgt.
Mittels des erfindungsgemäßen Verfahrens kann ferner eine Dokumentation der Fehlerbilder sowie deren Rückverfolgbarkeit über komplexe und lange Prozessketten ermöglicht werden. Insbesondere Bauteile von EUV-Projektionsbelichtungsanlagen profitieren von einer derartigen lückenlosen Dokumentation. Als Teil der Dokumentation kann insbesondere eine Zuordnung an der Bildaufnahme zu dem jeweiligen spezifischen Untersuchungsbereich bzw. der Bauteiloberfläche über eine gesamte Prozesskette zuverlässig und mit geringem Aufwand ermöglicht werden.
Es kann vorgesehen sein, dass die Zeitpunkte, zu welchen die Bildaufnahmen aufgenommen werden, vorzugsweise ebenfalls erfasst und der jeweiligen Bildaufnahme, vorzugsweise als Metadaten bzw. Zeitstempel aufgeprägt werden. Mittels der Zeitstempel können die Bildaufnahmen auch auf einer Zeitachse verortet werden.
Neben optischen Elementen als solche kann das erfindungsgemäße Verfahren insbesondere auch für Mechatronik-Baugruppen verwendet werden, in welcher die optischen Elemente enthalten sind. Hierdurch kann ein Risiko einer Querkontamination der optischen Elemente zu einem späteren Zeitpunkt, beispielsweise während einer Integration und/oder eines Betriebs, verringert werden.
Ferner bietet das erfindungsgemäße Verfahren auch hinsichtlich einer Ergonomie und einer Arbeitssicherheit für eine an dem Verfahren allfällig beteiligte Person Vorteile.
In einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens kann vorgesehen sein, dass eine relative Position und Ausrichtung der Kameraeinrichtung zu dem Bauteil zum Zeitpunkt der Erfassung der Bildaufnahme des Untersuchungsbereichs bestimmt wird, indem die relative Position und Ausrichtung der Kameraeinrichtung zu dem Bauteil vorbestimmt wird; und/oder die Kameraeinrichtung maschinell und automatisiert in die relative Position und Ausrichtung verbracht wird; und/oder die relative Position und Ausrichtung der Kameraeinrichtung zu dem Bauteil zum Zeitpunkt der Bildaufnahme ermittelt wird.
Insbesondere bei einer maschinellen und/oder automatisierten Ausrichtung und Positionierung der Kameraeinrichtung eignet sich das erfindungsgemäße Verfahren zur Inspektion von höher integrierten bzw. komplexen Baugruppen, Modulen oder Gesamtsystemen. Bei derart komplexen Bauteilen ist eine händische Inspektion aufgrund der Größe häufig nicht mehr vollumfänglich durchführbar, da zu inspizierende Flächen des Bauteils zum Zwecke der Inspektion wenigstens teilweise unzugänglich sind oder aus ergonomischen Gründen für einen Werker nicht in einem gebotenen Maß inspizierbar sind. Ferner entsteht bei komplexen Bauteilen ein hoher Zeitaufwand für eine händische Inspektion, da diese durch den Werker entlang der gesamten Oberfläche des Bauteils in unterschiedlichen Körperhaltungen durchzuführen ist.
Durch die maschinelle und automatisierte Positionierung und Ausrichtung der Kameraeinrichtung in vorbestimmte Positionen und Ausrichtungen eignet sich das Verfahren besonders zur Inspektion beliebig komplex ausgestalteter Oberflächenkonturen von Bauteilen, insbesondere solchen Oberflächen, welche komplexer sind als optische Oberflächen. Bei aus dem Stand der Technik bekannten manuellen Inspektionsverfahren werden derartig komplexe ausgestaltete Oberflächenkonturen durch eine sehr flexible Führung eines Leuchtmittels, insbesondere einer Taschenlampe und/oder eines Strahlers und damit der Suchstrahlung sowie durch ein hohes und/oder schnell anpassbares Variationsvermögen eines Betrachtungswinkels durch einen Werker relativ zu der einfallenden Suchstrahlung durchgeführt. Durch eine maschinelle und automatisierte Durchführung des erfindungsgemäßen Verfahrens können die manuell durchgeführten Inspektionsschritte durch ein schnelleres und zuverlässigeres Verfahren ersetzt werden.
Beispielsweise kann es sich bei dem Bauteil bzw. den komplexen Oberflächenkonturen um komplexe Strukturen wie Hinterschneidungen, Kabel, Rohre, Ecken oder ähnliches handeln.
Es kann vorgesehen sein, dass die relative Ausrichtung und/oder Position der Kamera-einrichtung zu dem Bauteil mittels eines Positionssensors, beispielsweise eines GPS-Sensors mit Echtzeitkinematik, welcher an einer manuell geführten Kameraeinrichtung angeordnet ist, erfasst und ermittelt wird. Hierdurch kann eine vorteilhafte Flexibilität der manuellen Inspektion durch einen Werker bzw. Operator mit den Vorteilen einer standardisierten Bildauswertung der Bildaufnahmen, insbesondere unter einer Berücksichtigung einer relativen Ausrichtung und/oder Position der Kameraeinrichtung und des Bauteils und/oder einer Zeitinformation zu der jeweiligen Bildaufnahme, verbunden werden.
Es kann vorgesehen sein, dass die relative Position und Ausrichtung der Kameraeinrichtung zu dem Bauteil zum Zeitpunkt der Erfassung der Bildaufnahme des Untersuchungsbereichs mittels einer Abstandssensoreinrichtung, welche insbesondere eine oder mehrere LIDAR-Sensoreinrichtung aufweisen kann, ermittelt bzw. bestimmt wird.
Es kann ferner vorgesehen sein, dass auch eine Position und/oder Ausrichtung der Kameraeinrichtung und/oder des Bauteils gegenüber einem, vorzugsweise ortsfesten, Referenzpunkt bestimmt wird. Hierdurch kann aus der erfassten relativen Position und/oder Ausrichtung zwischen der Kameraeinrichtung und dem Bauteil auch eine jeweilige absolute Position und/oder Ausrichtung der Kameraeinrichtung und des Bauteils zu dem Referenzpunkt bzw. im dreidimensionalen Raum ermittelt werden.
In einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens kann vorgesehen sein, dass jeweils wenigstens eine Bildaufnahme von mehreren Untersuchungsbereiche aufgenommen wird und die jeweils bestimmten relativen Positionen und Ausrichtungen der Kameraeinrichtung zu einer Kameratrajek- torie verknüpft werden.
Es kann vorgesehen sein, dass mittels der Abstandssensoreinrichtung, insbesondere der LIDAR- Sensoreinrichtung, ein Bauteil inspiziert wird, welches eine zuvor unbekannte Außenkontur aufweist. Hierbei kann vorgesehen sein, dass mittels der Abstandssensoreinrichtung ein 3D-Modell des Bauteils generiert wird, wonach eine einhüllende dreidimensionale Kurve ermittelt wird, wonach aus dem relativen Abstand und der relativen Ausrichtung der Kameraeinrichtung zu dem Bauteil die Kameratrajektorie bzw. die entsprechenden Bildaufnahmepositionen berechnet werden, wonach aus den Bildaufnahmen unter den unterschiedlichen Ausrichtungen ein komplettes dreidimensionales Modell der Baugruppe visualisiert wird. Ferner kann vorgesehen sein, dass über einen entsprechenden Algorithmus, insbesondere ein Maschinenlernprogramm, welches auf Basis historischer Bilddaten bzw. Trainingsdaten trainiert ist, Kontaminationen identifiziert und charakterisiert, insbesondere klassifiziert, werden. Außerdem kann vorgesehen sein, dass die identifizierten und charakterisierten, insbesondere klassifizierten, Kontaminationen in das komplette 3D-Modell des Bauteils einfließen und als Teil dieses visualisiert werden.
Es kann vorgesehen sein, dass eine einhüllende, dreidimensionale Schale des Bauteils über ein CAD- Modell des Bauteils definiert wird. Hierauf basierend kann vorgesehen sein, dass die Kameratrajektorie bzw. die tatsächlich abzufahrende Außenkontur bzw. die abzufahrende Kameratrajektorie durch eine Analyse der dreidimensionalen Schale des Bauteils definiert wird.
Insbesondere kann vorgesehen sein, dass die Kameratrajektorie für eine Abrasterung der Oberfläche des Bauteils optimiert wird.
Ein Ergebnis des Verfahrens zur Inspektion kann aufgrund der Rekonstruierbarkeit der Kameratrajektorie, insbesondere bei einer automatisierten und maschinellen Führung der Kameraeinrichtung zur Erfassung der Bildaufnahmen an vordefinierten Bildpositionen, eindeutig über ein zugehöriges CAD-Modell des Bauteils zugeordnet und entsprechend visualisiert werden.
In einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens kann vorgesehen sein, dass zur Aufnahme einer oder mehrerer Bildaufnahmen des Untersuchungsbereichs ein Kameraobjektiv der Kameraeinrichtung wenigstens annähernd senkrecht auf eine Oberfläche des Bauteils in dem Untersuchungsbereich ausgerichtet wird und/oder zentral gegenüber dem Untersuchungsbereich angeordnet wird und/oder ein Kameraobjektiv der Kameraeinrichtung unter einem Winkel auf eine Oberfläche des Bauteils in dem Untersuchungsbereich ausgerichtet wird und/oder versetzt zu dem Untersuchungsbereich angeordnet wird; und/oder der Untersuchungsbereich eine wenigstens annähernd rechteckige, vorzugsweise eine wenigstens annähernd quadratische, Form aufweist.
Eine rechteckige, vorzugsweise eine wenigstens annähernd quadratische, Form des Untersuchungsbereichs hat den Vorteil, dass die Ausbildung einer derartigen Form durch eine übliche Form von Kamerachips in digitalen Kameraeinrichtungen und einer üblichen Bauart von Kameraobjektiven begünstigt wird.
Die vorbeschriebenen Positionierungen und Ausrichtungen der Kameraeinrichtung gegenüber dem Bauteil bzw. dem Untersuchungsbereich haben den Vorteil, dass hierdurch ein möglichst vollständiges Erfassen der allfällig vorhandenen Fehler in allen Untersuchungsbereichen ermöglicht wird.
Es kann vorgesehen sein, dass das Verfahren unter Verwendung eines Roboterarms bzw. einer Handhabungseinrichtung durchgeführt wird.
Es kann vorgesehen sein, dass eine dreidimensionale Außenkontur des Bauteils durch das Aufnehmen der Bildaufnahmen systematisch abgetastet wird.
Es kann insbesondere vorgesehen sein, dass das Kameraobjektiv senkrecht auf die Oberfläche des Bauteils zeigt und in einem Abstand von 1 cm bis 100 cm von der Oberfläche des Bauteils angeordnet ist.
Es kann vorgesehen sein, dass die Bildaufnahmen einen Bildausschnitt von wenigstens 10 cm x 10 cm der Oberfläche des Bauteils abbilden und/oder der Untersuchungsbereich eine Ausdehnung von wenigstens 10 cm x 10 cm, vorzugsweise 20 cm x 20 cm, aufweist.
In einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens kann vorgesehen sein, dass das Bauteil durch mehrere Untersuchungsbereiche wenigstens annähernd lückenlos abgedeckt wird.
Ein Aufteilen der Oberfläche des Bauteils in mehrere Untersuchungsbereiche hat den Vorteil, dass unter der Einhaltung von Standardabständen und Standardwinkeln bzw. Standardausrichtungen ein hinreichend genaues Bild des Bauteils erfasst werden kann. Bei einem sehr großen, beispielsweise nur einem einzelnen Untersuchungsbereich, wäre hingegen eine Vielzahl von Ausrichtungen und Winkeln gegenüber dem Bauteil notwendig, so dass eine Standardisierung erschwert wäre.
In einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens kann vorgesehen sein, dass von dem wenigstens einen Untersuchungsbereich mehrere Bildaufnahmen aufgenommen werden, indem für eine erste Bildaufnahme das Kameraobjektiv der Kameraeinrichtung wenigstens annähernd senkrecht auf eine Oberfläche des Bauteils in dem Untersuchungsbereich ausgerichtet wird und zentral gegenüber dem Untersuchungsbereich angeordnet wird, und für wenigstens eine zweite Bildaufnahme desselben Untersuchungsbereichs das Kameraobjektiv der Kameraeinrichtung unter einem Winkel auf eine Oberfläche des Bauteils in dem Untersuchungsbereich ausgerichtet wird und zentral gegenüber einem zu dem Untersuchungsbereich benachbarten Untersuchungsbereich angeordnet wird.
Insbesondere kann vorgesehen sein, dass für wenigstens eine zweite Bildaufnahme desselben Untersuchungsbereichs das Kameraobjektiv der Kameraeinrichtung unter einem Winkel zu einer, vorzugsweise mittleren, Flächennormalen der Oberfläche in dem Untersuchungsbereich auf die Oberfläche des Bauteils in dem Untersuchungsbereich ausgerichtet wird.
Eine Erfassung mehrerer Bildaufnahmen unter verschiedenen Winkeln kann vorteilhafterweise den Kontrast der Bildaufnahme erhöhen.
In einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens kann vorgesehen sein, dass von jedem Untersuchungsbereich wenigstens drei, vorzugsweise fünf, besonders bevorzugt neun und vorzugsweise weniger als zwanzig Bildaufnahmen aus jeweils unterschiedlichen Winkeln aufgenommen werden.
Die vorbeschriebene Anzahl von Bildaufnahmen aus unterschiedlichen Winkeln hat sich im Rahmen der Erfindung als besonders vorteilhaft und insbesondere auch ausreichend für eine zuverlässige Inspektion des Bauteils herausgestellt.
In einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens kann vorgesehen sein, dass die Bildaufnahme wenigstens annähernd ausschließlich durch Fluoreszenzlicht, vorzugsweise des wenigstens einen Fehlers, belichtet wird.
Um von einer Bauteiloberfläche in die Kameraeinrichtung reflektierte Suchstrahlung, insbesondere UV- Licht, abzublocken und somit nur Licht von fluoreszierenden Gegenständen, insbesondere potenziellen als Kontamination ausgebildeten Fehlern, zu erfassen, ist eine zusätzliche optische Tiefpass- und/oder Bandpassfiltereinrichtung vor der Kameraeinrichtung von Vorteil.
Zur Charakterisierung des Fehlers kann insbesondere eine Farbe, insbesondere ein RGB-Wert, eine Form, eine Flächenausdehnung und/oder eine Fluoreszenzlichtintensität des Fehlers berücksichtigt werden.
In einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens kann vorgesehen sein, dass bei einem Vorliegen wenigstens eines Fehlers der Untersuchungsbereich gereinigt und/oderfür eine Reinigung vorgemerkt wird, wobei vorzugsweise nach der erfolgten Reinigung eine erneute Inspektion durchgeführt wird.
Durch die Reinigung des Untersuchungsbereichs bzw. die Vormerkung des Untersuchungsbereichs für eine Reinigung kann die Inspektion des Bauteils auch dessen Reinigung und damit dessen Qualifizierung für eine Weiterverwendung ermöglichen. Im Rahmen der Erfindung kann demnach der Begriff der Inspektion des Bauteils auch dessen Reinigung miteinschließen.
Es kann vorgesehen sein, dass die Reinigung des Untersuchungsbereichs mittels einer Fehlerentfernungseinrichtung zur Entfernung des wenigstens einen Fehlers erfolgt.
In einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens kann vorgesehen sein, dass die wenigstens eine Bildaufnahme hinsichtlich eines Vorliegens wenigstens eines Fehlers in dem Untersuchungsbereich automatisiert bewertet wird.
Eine automatisierte Bewertung der Bildaufnahme hinsichtlich eines Vorliegens wenigstens eines Fehlers in dem Untersuchungsbereich und vorzugsweise eine automatisierte Charakterisierung des Fehlers hat den Vorteil, dass die Inspektion des Bauteils weiter objektiviert und damit zuverlässiger gemacht wird.
Das erfindungsgemäße Verfahren eignet sich in besonderem Maße zur Inspektion von EUV-Optiken und/oder beliebiger anderer Produkte mit vergleichbaren Sauberkeitsanforderungen hinsichtlich partikulärer und/oder organischer Kontaminationen. Derartige Produkte können beispielsweise aus dem Bereich der Luft- und Raumfahrtechnik und der Automobilindustrie stammen. Während der Indikation von EUV- Optiken und/oder anderer Produkte ist es von Vorteil, wenn Endprodukte sowie Zwischenbauzustände der Produkte integral auf eine Kontamination und/oder eine Rekontamination mit Partikeln, Fusseln und/oder Fetten und/oder Ölen inspiziert werden.
Besonders vorteilhaft kann eine Ausführungsform des erfindungsgemäßen Verfahrens sein, bei dem wenigstens einer, vorzugsweise mehrere, besonders bevorzugt alle, der folgenden Schritte vorgesehen sind:
Glätten einer Kontur des Bauteils unter Berücksichtigung einer Schärfentiefe der Kameraeinrichtung, und/oder
Variation einer Beleuchtungsrichtung durch eine sequenzielle Ansteuerung von mehreren, vorzugsweise vier, Quadranten einervorzugsweise ringförmigen Beleuchtung, welche um die Kamera herum angeordnet ist, und/oder automatische Auswahl derjenigen Bildaufnahme, welche einen höchsten Kontrast und/oder am meisten erkennbare Fehler aufweist, und/oder
Erfassung von mehreren, vorzugsweise acht, benachbarten Untersuchungsbereichen bzw. Rasterpunkten durch eine Drehung der Kameraeinrichtung, wobei für jeden Rasterpunkt bzw. jede Position der Kameraeinrichtung mehrere, vorzugsweise neun, Bilder aus mehreren, vorzugsweise neun, verschiedenen Winkeln erfasst werden, wodurch auch Hinterschneidungen erfasst werden, und/oder
Anpassung des Fokus der Kameraeinrichtung auf einen Abstand zwischen der Kamera und dem Untersuchungsbereich, und/oder Inspektion und/oder Bewertung des Untersuchungsbereichs anhand der mehreren, vorzugsweise neun Bildaufnahmen, und/oder automatisierte Inspektion und/oder Bewertung der Bildaufnahmen, vorzugsweise nach einer Trainingsphase eines Maschinenlernmodells, und/oder visuelle Und/oder automatisierte Charakterisierung und/oder Bewertung allfällig aufgefundener Fehler, und/oder
Anzeige von Bildaufnahmen zu einer Bewertung durch einen Operator, wobei lediglich Bildaufnahmen und zugehörige Positionen des Bauteils mit Fehlern angezeigt werden, wobei auch Mehrfacherkennungen einzelner Fehler auf unterschiedlichen Bildaufnahmen durch eine Überlappung von Bildaufnahmen und/oder von Bildaufnahmen aus unterschiedlichen Winkeln berücksichtigt werden, und/oder
Nachreinigung der Module, wobei die Nachreinigung, vorzugsweise eine Absaugung von Kontaminationen, interaktiv und/oder automatisiert und/oder mittels einer Anweisung durch eine Handhabungseinrichtung durch sukzessive Markierung der betroffenen bzw. relevanten Untersuchungsbereiche mittels eines Laserpointers durchgeführt wird, und/oder
Heranziehung einer spektroskopischen Analyse eines zurückgeworfenen Lichtwellenspektrums von Fluoreszenzerscheinungen des Fehlers als zusätzliches Merkmal zur unmittelbaren Bewertung und/oder Charakterisierung, insbesondere Klassifizierung, des Fehlers, und/oder Differenzierung und/oder Identifikation von bewusst eingesetzten Hilfsstoffen zur Montage, wie beispielsweise zugelassene Klebstoffe.
Es kann vorgesehen sein, dass Mehrfacherkennungen einzelner Fehler auf unterschiedlichen Bildaufnahmen durch eine Überlappung von Bildaufnahmen und/oder von Bildaufnahmen aus unterschiedlichen Winkeln dadurch berücksichtigt werden, dass lediglich eine von mehreren Bildaufnahmen mit einem besten Kontrast und/oder einer besten Sichtbarkeit angezeigt werden und/oder die Mehrfacherkennungen für den Operator einzeln anwählbar angezeigt werden und/oder ein Fusionsbild erzeugt und/oder angezeigt wird, in welchem die Informationen aller Bildaufnahmen zum Zwecke einer besseren Sichtbarmachung des Fehlers in geeigneter Weise kombiniert werden.
An dieser Stelle wird ferner ein Verfahren zur Reinigung eines Bauteils, insbesondere eines Bauteils eines Lithografiesystems offenbart. Bei dem offenbarten Verfahren ist vorgesehen, dass das Bauteil mittels des vorbeschriebenen erfindungsgemäßen Verfahrens inspiziert wird, wonach bei einem Vorliegen eines Fehlers der Fehler hinsichtlich seiner Entfernungswürdigkeit klassifiziert und/oder markiert wird und wonach bei einem Vorliegen eines als entfernungswürdig klassifizierten Fehlers der Untersuchungsbereich von dem Fehler gereinigt wird.
Es kann vorgesehen sein, dass der Fehler vorzugsweise gezielt entfernt wird.
Zur gezielten Entfernung des Fehlers kann insbesondere eine Farbe, eine Form, eine Flächenausdehnung und/oder eine Fluoreszenzlichtintensität des Fehlers berücksichtigt werden. Insbesondere kann vorgesehen sein, dass eine Entfernungsmethode bzw. Reinigungsmethode und/oder ein Wirkort der Entfernungsmethode auf ein Ergebnis der vorangegangenen Inspektion und/oder Charakterisierung abgestimmt wird.
Beispielsweise kann mittels der Charakterisierung ein Fehler als eine fetthaltige Verschmutzung identifiziert sein. Die fetthaltige Verschmutzung kann dann durch eine räumlich begrenzte Reinigung mit einem fettlösenden Tensid entfernt werden. Hierdurch wird eine flächige Benetzung des Bauteils mit dem fettlösenden Tensid vermieden und das Bauteil gezielt gereinigt.
Ferner kann im Rahmen der Charakterisierung festgestellt werden, ob es sich bei einer Auffälligkeit um einen Fehler (bug) oder um einen gewollten Bestandteil (feature) des Bauteils handelt.
Die Erfindung betrifft ferner eine Vorrichtung zur Inspektion eines Bauteils.
Die erfindungsgemäße Vorrichtung zur Inspektion eines Bauteils, insbesondere eines Bauteils eines Litho- grafiesystems, weist wenigstens eine Dunkelkammer und eine Suchstrahlungsquelle zur Ausbildung einer Suchstrahlung zur Beleuchtung wenigstens eines Untersuchungsbereichs auf. Erfindungsgemäß sind eine Kameraeinrichtung mit einem Kameraobjektiv zur Erfassung einer Bildaufnahme des Untersuchungsbereichs und eine Lagebestimmungseinrichtung zur Bestimmung einer relativen Position und Ausrichtung der Kameraeinrichtung zu dem Bauteil bei der Erfassung der Bildaufnahme des Untersuchungsbereichs und eine Recheneinrichtung vorgesehen, welche zur Inspektion der Bildaufnahme des Untersuchungsbereichs auf ein Vorliegen eines Fehlers und bei einem Vorliegen wenigstens eines Fehlers zur Charakterisierung des wenigstens einen Fehlers anhand der Bildaufnahme eingerichtet ist.
Die erfindungsgemäße Vorrichtung hat den Vorteil, dass eine aus dem Stand der Technik bisher als manueller Prozess durch einen Werker mit einem hohen Zeitaufwand bekannte Inspektion nunmehr mittels der erfindungsgemäßen Vorrichtung zuverlässig und schnell durchgeführt werden kann.
Insbesondere kann die erfindungsgemäße Vorrichtung eine Inspektion von Baugruppen bzw. Bauteilen ermöglichen, welche einen manuellen Inspektionsprozess, wie er aus dem Stand der Technik bekannt ist, nicht zugänglich sind.
Es kann vorgesehen sein, dass die Lagebestimmungseinrichtung als Positionssensor, beispielsweise als GPS-Senor mit Echtzeitkinematik, ausgebildet und an einer manuell geführten Kameraeinrichtung angeordnet ist.
Es kann vorgesehen sein, dass die Lagebestimmungseinrichtung als Handhabungseinrichtung ausgebildet ist. Durch die Handhabungseinrichtung ist die Kameraeinrichtung in eine vorbestimmte Position und Ausrichtung relativ zu dem Bauteil verbringbar. Hierdurch kann eine hohe Flexibilität bezüglich einer Variation von Betrachtungsperspektiven ermöglicht werden.
Dadurch, dass mittels der erfindungsgemäßen Vorrichtung Bildaufnahmen erstellt werden, welche auch gespeichert werden können, können die Ergebnisse der Bildaufnahmen bzw. der Charakterisierung der Fehler zuverlässig dokumentiert und den jeweiligen Bauteilen datentechnisch zugeordnet werden. Insbesondere kann die Recheneinrichtung dazu eingerichtet sein, die Bildaufnahmen zu speichern, zu dokumentieren und den jeweiligen Bauteilen datentechnisch zuzuordnen.
Es kann vorgesehen sein, dass die erfindungsgemäße Vorrichtung als mobile Einheit zur Inspektion des Bauteils ausgebildet ist.
Hierbei ist es von Vorteil, wenn die Lagebestimmungseinrichtung eine als Roboterarm ausgestaltete Handhabungseinrichtung aufweist und zu einem systematischen Abtasten einer dreidimensionalen Außenkontur des Bauteils im Abstand von 1 cm bis 100 cm eingerichtet ist, wobei die Kameraeinrichtung an der als Handhabungseinrichtung ausgebildeten Lagebestimmungseinrichtung angeordnet ist. Die Lagebestimmungseinrichtung und die Kameraeinrichtung, insbesondere das Kameraobjektiv, sind dazu eingerichtet, die Kameraeinrichtung senkrecht und/oder unter einem Winkel auf eine Oberfläche des Bauteils auszurichten, wobei der Untersuchungsbereich wenigstens 10 cm x 10 cm, vorzugsweise 20 cm x 20 cm, umfasst.
Außerdem kann vorgesehen sein, dass die Kameraeinrichtung mehrere Kameraeinheiten und/oder mehrere Kameraobjektive aufweist. Hierdurch können mehrere Bildaufnahmen eines oder mehrerer Untersuchungsbereiche unter verschiedenen Winkeln aufgenommen werden, ohne eine Ausrichtung der Kameraeinrichtung zu verändern oder die Kameraeinrichtung zu verschwenken.
Vorzugsweise weist die Kameraeinrichtung lediglich eine Kameraeinheit bzw. lediglich ein Kameraobjektiv auf.
Ferner kann eine Halteeinrichtung zum, vorzugsweise sicheren und reproduzierbaren, Halten des Bauteils vorgesehen sein.
Es kann auch eine Verfahreinrichtung zum Verfahren des in der Halteeinrichtung aufgenommenen bzw. fixierten Bauteils vorgesehen sein.
In einer vorteilhaften Weiterbildung der erfindungsgemäßen Vorrichtung kann vorgesehen sein, dass die Suchstrahlungsquelle mehrere, vorzugsweise vier, schaltbare Quellsegmente aufweist und/oder als Ringstrahlungsquelle ausgebildet ist und/oder an der Kameraeinrichtung, vorzugsweise an dem Kameraobjektiv angeordnet ist.
Durch die vorbeschriebene Ausbildung der Suchstrahlungsquelle kann eine Beleuchtungsrichtung des jeweiligen Untersuchungsbereichs variiert werden. Hierdurch können auch Hinterschneidungen ausgeleuchtet werden, so dass in einem Schatten befindliche Fehler unter einer Variation der Beleuchtungsrichtung Sichtbar werden.
Die Quellsegmente können vorzugsweise derart ausgebildet sein, dass diese gemeinsam einen Ring ausbilden. Insbesondere können die Quellsegmente Teil einer Ringstrahlungsquelle sein. Es kann vorgesehen sein, dass die Quellsegmente einzeln sequenziell zur Ausleuchtung geschaltet werden oder dass zwei oder mehr Ringsegmente gleichzeitig zur Ausleuchtung eingeschaltet werden. Dadurch ergibt sich eine variable Ausleuchtung des jeweiligen Untersuchungsbereichs.
Eine Ausbildung der Suchstrahlungsquelle als Ringstrahlungsquelle, insbesondere unterteilt in mehrere Quellsegmente, hat sich als besonders geeignet zur Ausleuchtung herausgestellt, insbesondere kann die Ringstrahlungsquelle derart angeordnet werden, dass diese die Kameraeinrichtung, insbesondere ein Kameraobjektiv ringförmig umgibt.
Eine Anordnung der Suchstrahlungsquelle, insbesondere einer Ausbildung als Ringstrahlungsquelle, insbesondere mit einem oder mehreren Quellsegmenten an der Kameraeinrichtung, vorzugsweise an dem Kameraobjektiv, vorzugsweise derart, dass sich das Kameraobjektiv innerhalb der Ringstrahlungsquelle befindet, hat sich als besonders geeignet herausgestellt, da dadurch die Suchstrahlungsquelle gemeinsam mit der Kameraeinrichtung bewegt und bezüglich des Untersuchungsbereichs geeignet positioniert werden kann.
In einer vorteilhaften Weiterbildung der erfindungsgemäßen Vorrichtung kann vorgesehen sein, dass die Kameraeinrichtung wenigstens einen optischen Filter aufweist, welcher vorzugsweise zur Abblockung der Suchstrahlung eingerichtet ist.
Ein optischer Filter, insbesondere ein optischer Tiefpass- und/oder Bandpassfilter, kann vor der Kameraeinrichtung angeordnet werden, um von der Bauteiloberfläche in die Kameraeinrichtung reflektierte Suchstrahlung, insbesondere UV-Licht, abzublocken, so dass nur Licht von fluoreszierenden Fehlern, d. h. potenziellen Kontaminationen, erfasst wird.
Es kann vorgesehen sein, dass die Kameraeinrichtung und/oder die Recheneinrichtung für eine spektroskopische Bewertung einer Lichtfarbe des von dem wenigstens einen Fehler ausgehenden Lichts eingerichtet sind und/oder eine Spektrometereinrichtung zur spektroskopischen Bewertung einer Lichtfarbe des von dem wenigstens einen Fehler ausgehenden Lichts vorgesehen ist. Insbesondere kann vorgesehen sein, dass die Kameraeinrichtung und/oder die Recheneinrichtung eingerichtet sind, einen RGB (Rot Grün Blau)-Wert der Lichtfarbe zu bewerten. Mittels der Bewertung kann insbesondere eine Differenzierung zwischen spezifischen für vorzugsweise EUV-Projektionsbelichtungsanlagen relevanten Kontaminationsarten vorgenommen werden. Derartige EUV-spezifische Kontaminationsarten können insbesondere Partikel, HIO (hydrogen induced outgassingj-Effekte, und/oder organische Bestandteile sowie produktspezifische Fehler, wie beispielsweise Klebestellen und/oder Kabel umfassen.
In einer vorteilhaften Weiterbildung der erfindungsgemäßen Vorrichtung kann eine Fehlerentfernungseinrichtung zur Entfernung des wenigstens einen Fehlers vorgesehen sein, wobei die Fehlerentfernungseinrichtung eine Markierungsstrahlungsquelle zur optischen Markierung des Fehlers aufweist; und/oder zur ferngesteuerten Bedienung eingerichtet ist; und/oder zur selbständigen bzw. automatisierten Entfernung des Fehlers eingerichtet ist.
Die Fehlerentfernungseinrichtung kann in beliebiger geeigneter Weise zur Entfernung des wenigstens einen Fehlers, bei dem es sich zum Beispiel um einen Partikel, insbesondere eine Kontamination, handeln kann, eingerichtet sein.
Ist die Fehlerentfernungseinrichtung zur Partikelentfernung ausgebildet, so ist es von Vorteil, wenn diese zum Absaugen des Fehlers bzw. Partikels eingerichtet ist. Insbesondere kann die Fehlerentfernungseinrichtung als Partikelsauger an dem Roboterarm ausgebildet sein. Die Fehlerentfernungseinrichtung zur Partikelentfernung kann auch zum Abblasen des Fehlers bzw. Partikels, insbesondere der Kontamination und vorzugsweise mittels Kohlenstoffdioxid, eingerichtet sein, vorzugsweise in diesem Fall jedoch in Verbindung damit, dass der abgeblasene Fehler bzw. Partikel anschließend abgesaugt wird.
Es ist von Vorteil, wenn die Suchstrahlungsquelle zur Ausbildung und zum Einsatz von UV-Licht zur zielgerichteten Detektion von Reinraumstaub, insbesondere punktförmigen Features, eingerichtet ist. Ferner kann UV-Licht auch für eine zielgerichtete Detektion von fluoreszierenden flächigen entweder HIO- relevanten oder zumindest ausgasrelevanten Kontaminationen eingesetzt werden.
Vorteilhafterweise ist die Recheneinrichtung und/oder die Kameraeinrichtung zur Analyse der Lichtfarbe und Form der Verunreinigung und zukünftigen Korrelationen mit anderen Messmethoden, wie beispielsweise einer REM-EDX (energiedispersive Rasterelektronenmikroskopie)-Analyse, vorzugsweise für Partikel und/oder einer XPS/TOF-SIMS (Röntgenphotoelektronen/Flugzeit-Sekundärionenmassen-Spektrosko- pie)-Analyse von Spänen aus Flächen und/oder grundsätzlichen Ergebnissen der Tolerierung eingerichtet.
Vorzugsweise kann vorgesehen sein, dass die Kameraeinrichtung und die Recheneinrichtung zu einer Analyse der Lichtfarbe und Form der Verunreinigung bzw. des Fehlers und/oder zur Identifikation von Produkteigenschaften, beispielsweise Klebestoffen, eingerichtet ist, welche keine Kontamination darstellen, jedoch trotzdem fluoreszieren.
In einer vorteilhaften Weiterbildung der erfindungsgemäßen Vorrichtung kann vorgesehen sein, dass die Suchstrahlungsquelle und/oder die Kameraeinrichtung und/oder die Lagebestimmungseinrichtung und/oder die Fehlerentfernungseinrichtung, vorzugsweise als Teil einer Handhabungseinrichtung, zur automatisierten Inspektion des Bauteils eingerichtet sind, und/oder an einer Handhabungseinrichtung zur automatisierten Inspektion des Bauteils angeordnet sind. In einer derartigen Konfiguration eignet sich die Vorrichtung in besonderem Maße zur planvollen, rasterartigen und automatisierten Positionierung bzw. zum Scannen des Bauteils. Hierbei können mittels der Handhabungseinrichtung parallel und/oder wenigstens annähernd synchron die Suchstrahlungsquelle und/oder die Kameraeinrichtung und/oder die Lagebestimmungseinrichtung und/oder die Fehlerentfernungseinrichtung an einen bestimmten Ort in der Umgebung des Bauteils verbracht und eingesetzt werden.
Die vorbeschriebene Vorrichtung bzw. das vorbeschriebene Verfahren eignen sich insbesondere zu einer Inspektion von Facetten eines Feldfacettenspiegels und/oder eines Pupillenfacettenspiegels, zu einer automatisierten Visualinspektion in nicht-EUV-relevanten Bereichen und bei einfacheren Geometrien sowie zu einer automatisierten Partikelentfernung in anderen Anwendungsbereichen.
Durch einen weitgehend, vorzugsweise vollständig, automatisierten Ablauf der Inspektion des Bauteils kann eine Reproduzierbarkeit und Zuverlässigkeit der Inspektion erhöht werden.
Ferner eignen sich die vorbeschriebene Vorrichtung bzw. das vorbeschriebene Verfahren als Ausgangspunkt einer Implementierung einer auf künstlicher Intelligenz beruhenden Inspektion des Bauteils.
In einer vorteilhaften Weiterbildung der erfindungsgemäßen Vorrichtung kann eine Abstandssensoreinrichtung vorgesehen und dazu eingerichtet sein, eine dreidimensionale Außenkontur des Bauteils wenigstens teilweise systematisch abzutasten, wobei die Abstandssensoreinrichtung vorzugsweise an einer Handhabungseinrichtung zur automatisierten Inspektion des Bauteils angeordnet ist.
Hierbei kann vorgesehen sein, dass mittels der Abstandssensoreinrichtung ein 3D-Modell des Bauteils generiert wird.
Es kann vorgesehen sein, dass die mittels der Abstandssensoreinrichtung erfassten Daten verwendet werden, um die Suchstrahlungsquelle und/oder die Kameraeinrichtung und/oder die Lagebestimmungseinrichtung und/oder die Fehlerentfernungseinrichtung zu steuern.
Vorzugsweise im Zusammenspiel mit künstlicher Intelligenz können die von und zu den verschiedenen Bestandteilen der Vorrichtung, insbesondere gegeben durch die Abstandssensoreinrichtung und/oder die Handhabungseinrichtung und/oder die Recheneinrichtung und/oder die Suchstrahlungsquelle und/oder die Kameraeinrichtung und/oder die Lagebestimmungseinrichtung und/oder die Fehlerentfernungseinrichtung, fließenden komplexen Datenströme bzw. Informationsströme auf besonders effektive Weise integriert, genutzt und/oder dokumentiert werden.
Die Erfindung betrifft ferner ein computerimplementiertes Verfahren. Das erfindungsgemäße computerimplementierte Verfahren zur Inspektion eines Bauteils, insbesondere eines Bauteils eines Lithografiesystems, umfasst wenigstens folgende Schritte:
Empfangen von Messdaten, darstellend
• wenigstens eine mittels einer Kameraeinrichtung aufgenommene Bildaufnahme eines in einer Dunkelkammer mit einer Suchstrahlung beleuchteten Untersuchungsbereichs des Bauteils sowie
• eine relative Position und Ausrichtung der Kameraeinrichtung zu dem Bauteil zum Zeitpunkt der Erfassung der Bildaufnahme des Untersuchungsbereichs, und
Empfangen von Interpretationsdaten zu wenigstens einem Trainingsdaten darstellenden Teil der Messdaten, wobei die Interpretationsdaten Informationen über ein Vorliegen wenigstens eines Fehlers in dem wenigstens einen Untersuchungsbereich und eine Charakterisierung des wenigstens einen Fehlers bei einem Vorliegen wenigstens eines Fehlers enthalten, und
Trainieren eines Maschinenlernmodells anhand der Interpretationsdaten und der Trainingsdaten Automatisiertes Inspizieren der Messdaten auf ein Vorliegen wenigstens eines Fehlers in dem wenigstens einen Untersuchungsbereich mittels des Maschinenlernmodells, und
Automatisiertes Charakterisieren des wenigstens einen Fehlers bei einem Vorliegen wenigstens eines Fehlers mittels des Maschinenlernmodells.
Das erfindungsgemäße computerimplementierte Verfahren hat den Vorteil, dass ein menschlicher Werker lediglich zur Erstellung der Interpretationsdaten bzw. einer sogenannten „Ground Truth“ benötigt wird.
Es kann vorgesehen sein, dass die Interpretationsdaten durch einen menschlichen Operator und/oder Werker in regelmäßigen Abständen auf Grundlage der vorgefundenen Ergebnisse des computerimplementierten Verfahrens hinsichtlich der Inspektion und Charakterisierung überarbeitet und/oder erneuert werden. Hierzu kann insbesondere vorgesehen sein, dass computerimplementierte Verfahren mehrfach hintereinander für einen ähnlichen Typ von Bauteilen und/oder zu erwartenden Fehlern auszuführen. Hierdurch kann eine Erfolgsquote des computerimplementierten Verfahrens verfeinert und verbessert werden.
Vorteilhafterweise kann vorgesehen sein, dass das Maschinenlernmodell darauf trainiert wird, einem menschlichen Operator diejenige mehrerer Bildaufnahmen zur weiteren Inspektion und Charakterisierung vorzulegen, welches einen allfälligen Fehler für den Operator am besten erkennbar darstellt.
Es kann vorgesehen sein, dass die im Zusammenhang mit dem erfindungsgemäßen Verfahren beschriebenen Weiterbildungen auch auf das erfindungsgemäße computerimplementierte Verfahren angewandt werden.
Die Erfindung betrifft ferner ein Lithografiesystem.
Das erfindungsgemäße Lithografiesystem, insbesondere eine Projektionsbelichtungsanlage für die Halbleiterlithografie, umfasst mehrere Bauteile, insbesondere auch ein Beleuchtungssystem mit einer Strahlungsquelle sowie einer Optik, welche wenigstens ein optisches Element aufweist. Erfindungsgemäß ist vorgesehen, dass wenigstens eines der Bauteile, insbesondere wenigstens eines der optischen Elemente, mittels des vorbeschriebenen erfindungsgemäßen Verfahrens Oder einer seiner Ausführungsformen inspiziert ist, und/oder mittels der vorbeschriebenen erfindungsgemäßen Vorrichtung oder einer Ihrer Ausführungsformen inspiziert ist und/oder mittels des vorbeschriebenen erfindungsgemäßen computerimplementierten Verfahrens oder einer seiner Ausführungsformen inspiziert ist.
Das erfindungsgemäße Lithografiesystem hat den Vorteil, dass es besonders zuverlässig gereinigte und inspizierte Bauteile aufweist. Hierdurch kann das erfindungsgemäße Lithografiesystem zuverlässig und mit höherem Durchsatz arbeiten, sowie kostengünstiger hergestellt werden als bekannte Lithografiesysteme.
Merkmale, die im Zusammenhang mit einem der Gegenstände der Erfindung, namentlich gegeben durch das erfindungsgemäße Verfahren, die erfindungsgemäße Vorrichtung, das erfindungsgemäße computerimplementierte Verfahren und das erfindungsgemäße Lithografiesystem, beschrieben wurden, sind auch für die anderen Gegenstände der Erfindung vorteilhaft umsetzbar. Ebenso können Vorteile, die im Zusammenhang mit einem der Gegenstände der Erfindung genannt wurden, auch auf die anderen Gegenstände der Erfindung bezogen verstanden werden.
Ergänzend sei darauf hingewiesen, dass Begriffe wie „umfassend“, „aufweisend“ oder „mit“ keine anderen Merkmale oder Schritte ausschließen. Ferner schließen Begriffe wie „ein“ oder „das“, die auf eine Einzahl von Schritten oder Merkmalen hinweisen, keine Mehrzahl von Merkmalen oder Schritten aus - und umgekehrt.
In einer puristischen Ausführungsform der Erfindung kann allerdings auch vorgesehen sein, dass die in der Erfindung mit den Begriffen „umfassend“, „aufweisend“ oder „mit“ eingeführten Merkmale abschließend aufgezählt sind. Dementsprechend kann eine oder können mehrere Aufzählungen von Merkmalen im Rahmen der Erfindung als abgeschlossen betrachtet werden, beispielsweise jeweils für jeden Anspruch betrachtet. Die Erfindung kann beispielsweise ausschließlich aus den in Anspruch 1 genannten Merkmalen bestehen.
Es sei erwähnt, dass Bezeichnungen wie „erstes“ oder „zweites“ etc. vornehmlich aus Gründen der Unterscheidbarkeit von jeweiligen Vorrichtungs- oder Verfahrensmerkmalen verwendet werden und nicht unbedingt andeuten sollen, dass sich Merkmale gegenseitig bedingen oder miteinander in Beziehung stehen.
Nachfolgend werden Ausführungsbeispiele der Erfindung anhand der Zeichnung näher beschrieben.
Die Figuren zeigen jeweils bevorzugte Ausführungsbeispiele, in denen einzelne Merkmale der vorliegenden Erfindung in Kombination miteinander dargestellt sind. Merkmale eines Ausführungsbeispiels sind auch losgelöst von den anderen Merkmalen des gleichen Ausführungsbeispiels umsetzbar und können dementsprechend von einem Fachmann ohne Weiteres zu weiteren sinnvollen Kombinationen und Unterkombinationen mit Merkmalen anderer Ausführungsbeispiele verbunden werden. In den Figuren sind funktionsgleiche Elemente mit denselben Bezugszeichen versehen.
Es zeigen:
Figur 1 eine EUV-Projektionsbelichtungsanlage im Meridionalschnitt;
Figur 2 eine DUV-Projektionsbelichtungsanlage;
Figur 3 einen schematischen Schnitt durch eine Ausführungsform der erfindungsgemäßen Vorrichtung;
Figur 4 eine schematische Darstellung einer weiteren möglichen Ausführungsform der erfindungsgemäßen Vorrichtung in einer Seitenansicht;
Figur 5 eine schematische Darstellung einer weiteren Ausführungsform der erfindungsgemäßen Vorrichtung in einer teilweise geschnitten dargestellten Draufsicht;
Figur 6 eine blockdiagrammmäßige Darstellung einer möglichen Ausführungsform des erfindungsgemäßen Verfahrens;
Figur 7 eine schematische Darstellung einer weiteren möglichen Ausführungsform der erfindungsgemäßen Vorrichtung in einer Seitenansicht und eines möglichen Ablaufs des erfindungsgemäßen Verfahrens;
Figur 8 einen Ausschnitt eines Bauteils, welches exemplarisch sechzehn Untersuchungsbereiche aufweist; und
Figur 9 eine blockdiagrammmäßige Darstellung einer möglichen Ausführungsform des erfindungsgemäßen computerimplementierten Verfahrens.
Im Folgenden werden zunächst unter Bezugnahme auf Figur 1 exemplarisch die wesentlichen Bestandteile einer EUV-Projektionsbelichtungsanlage 100 für die Mikrolithografie als Beispiel für ein Lithografiesystem beschrieben. Die Beschreibung des grundsätzlichen Aufbaus der EUV-Projektionsbelichtungsanlage 100 sowie deren Bestandteile sei hierbei nicht einschränkend verstanden.
Ein Beleuchtungssystem 101 der EUV-Projektionsbelichtungsanlage 100 weist neben einer Strahlungsquelle 102 eine Beleuchtungsoptik 103 zur Beleuchtung eines Objektfeldes 104 in einer Objektebene 105 auf. Belichtet wird hierbei ein im Objektfeld 104 angeordnetes Retikel 106. Das Retikel 106 ist von einem Retikelhalter 107 gehalten. Der Retikelhalter 107 ist über einen Retikelverlagerungsantrieb 108 insbesondere in einer Scanrichtung verlagerbar.
In Figur 1 ist zur Erläuterung ein kartesisches xyz-Koordinatensystem eingezeichnet. Die x-Richtung verläuft senkrecht in die Zeichenebene hinein. Die y-Richtung verläuft horizontal und die z-Richtung verläuft vertikal. Die Scanrichtung verläuft in Figur 1 längs der y-Richtung. Die z-Richtung verläuft senkrecht zur Objektebene 105.
Die EUV-Projektionsbelichtungsanlage 100 umfasst eine Projektionsoptik 109. Die Projektionsoptik 109 dient zur Abbildung des Objektfeldes 104 in ein Bildfeld 110 in einer Bildebene 111. Die Bildebene 1 11 verläuft parallel zur Objektebene 105. Alternativ ist auch ein von 0° verschiedener Winkel zwischen der Objektebene 105 und der Bildebene 111 möglich.
Abgebildet wird eine Struktur auf dem Retikel 106 auf eine lichtempfindliche Schicht eines im Bereich des Bildfeldes 110 in der Bildebene 111 angeordneten Wafers 112. Der Wafer 1 12 wird von einem Waferhalter 113 gehalten. Der Waferhalter 113 ist über einen Waferverlagerungsantrieb 114 insbesondere längs der y-Richtung verlagerbar. Die Verlagerung einerseits des Retikels 106 über den Retikelverlagerungsantrieb 108 und andererseits des Wafers 112 über den Waferverlagerungsantrieb 114 kann synchronisiert zueinander erfolgen.
Bei der Strahlungsquelle 102 handelt es sich um eine EUV-Strahlungsquelle. Die Strahlungsquelle 102 emittiert insbesondere EUV-Strahlung 115, welche im Folgen-den auch als Nutzstrahlung, Beleuchtungsstrahlung oder Projektionsstrahlung bezeichnet wird. Die Nutzstrahlung 115 hat insbesondere eine Wellenlänge im Bereich zwischen 5 nm und 30 nm. Bei der Strahlungsquelle 102 kann es sich um eine Plasmaquelle handeln, zum Beispiel um eine LPP-Quelle („Laser Produced Plasma“, mithilfe einer Laserstrahlungsquelle erzeugtes Plasma) oder um eine DPP-Quelle („Gas Discharged Produced Plasma“, mittels Gasentladung erzeugtes Plasma). Es kann sich auch um eine synchrotronbasierte Strahlungsquelle handeln. Bei der Strahlungsquelle 102 kann es sich um einen Freie-Elektronen-Laser („Free-Electron-Laser“, FEL) handeln.
Die Beleuchtungsstrahlung 115, die von der Strahlungsquelle 102 ausgeht, wird von einem Kollektor 116 gebündelt. Bei dem Kollektor 116 kann es sich um einen Kollektor mit einer oder mit mehreren ellipsoidalen und/oder hyperboloiden Reflexionsflächen handeln. Die mindestens eine Reflexionsfläche des Kollektors 116 kann im streifenden Einfall („Grazing Incidence“, Gl), also mit Einfallswinkeln größer als 45°, oder im normalen Einfall („Normal Incidence“, NI), also mit Einfallwinkeln kleiner als 45°, mit der Beleuchtungsstrahlung 115 beaufschlagt werden. Der Kollektor 116 kann einerseits zur Optimierung seiner Reflektivität für die Nutzstrahlung 115 und andererseits zur Unterdrückung von Falschlicht strukturiert und/oder beschichtet sein. Nach dem Kollektor 1 16 propagiert die Beleuchtungsstrahlung 1 15 durch einen Zwischenfokus in einer Zwischenfokusebene 117. Die Zwischenfokusebene 117 kann eine Trennung zwischen einem Strahlungsquellenmodul, aufweisend die Strahlungsquelle 102 und den Kollektor 116, und der Beleuchtungsoptik 103 darstellen.
Die Beleuchtungsoptik 103 umfasst einen Umlenkspiegel 118 und diesem im Strahlengang nachgeordnet einen ersten Facettenspiegel 119. Bei dem Umlenkspiegel 118 kann es sich um einen planen Umlenkspiegel oder alternativ um einen Spiegel mit einer über die reine Umlenkungswirkung hinaus bündelbeeinflussenden Wirkung handeln. Alternativ oder zusätzlich kann der Umlenkspiegel 1 18 als Spektralfilter ausgeführt sein, der eine Nutzlichtwellenlänge der Beleuchtungsstrahlung 115 von Falschlicht einer hiervon abweichenden Wellenlänge trennt. Sofern der erste Facettenspiegel 119 in einer Ebene der Beleuchtungsoptik 103 angeordnet ist, die zur Objektebene 105 als Feldebene optisch konjugiert ist, wird dieser auch als Feldfacettenspiegel bezeichnet. Der erste Facettenspiegel 1 19 umfasst eine Vielzahl von einzelnen ersten Facetten 120, welche im Folgenden auch als Feldfacetten bezeichnet werden. Von diesen Facetten 120 sind in der Figur 1 nur beispielhaft einige dargestellt.
Die ersten Facetten 120 können als makroskopische Facetten ausgeführt sein, insbesondere als rechteckige Facetten oder als Facetten mit bogenförmiger oder teilkreisförmiger Randkontur. Die ersten Facetten 120 können als plane Facetten oder alternativ als konvex oder konkav gekrümmte Facetten ausgeführt sein.
Wie beispielsweise aus der DE 10 2008 009 600 A1 bekannt ist, können die ersten Facetten 120 selbst jeweils auch aus einer Vielzahl von Einzelspiegeln, insbesondere einer Vielzahl von Mikrospiegeln, zusammengesetzt sein. Der erste Facettenspiegel 119 kann insbesondere als mikroelektromechanisches System (MEMS-System) ausgebildet sein. Für Details wird auf die DE 10 2008 009 600 A1 verwiesen.
Zwischen dem Kollektor 116 und dem Umlenkspiegel 118 verläuft die Beleuchtungsstrahlung 1 15 horizontal, also längs der y-Richtung.
Im Strahlengang der Beleuchtungsoptik 103 ist dem ersten Facettenspiegel 119 nachgeordnet ein zweiter Facettenspiegel 121. Sofern der zweite Facettenspiegel 121 in einer Pupillenebene der Beleuchtungsoptik 103 angeordnet ist, wird dieser auch als Pupillenfacettenspiegel bezeichnet. Der zweite Facettenspiegel 121 kann auch beabstandet zu einer Pupillenebene der Beleuchtungsoptik 103 angeordnet sein. In diesem Fall wird die Kombination aus dem ersten Facettenspiegel 119 und dem zweiten Facettenspiegel 121 auch als spekularer Reflektor bezeichnet. Spekulare Reflektoren sind bekannt aus der US 2006/0132747 A1 , der EP 1 614 008 B1 und der US 6,573,978.
Der zweite Facettenspiegel 121 umfasst eine Mehrzahl von zweiten Facetten 122. Die zweiten Facetten 122 werden im Falle eines Pupillenfacettenspiegels auch als Pupillenfacetten bezeichnet. Bei den zweiten Facetten 122 kann es sich ebenfalls um makroskopische Facetten, die beispielsweise rund, rechteckig oder auch hexagonal berandet sein können, oder alternativ um aus Mikrospiegeln zusammengesetzte Facetten handeln. Diesbezüglich wird ebenfalls auf die DE 10 2008 009 600 A1 verwiesen.
Die zweiten Facetten 122 können plane oder alternativ konvex oder konkav gekrümmte Reflexionsflächen aufweisen.
Die Beleuchtungsoptik 103 bildet somit ein doppelt facettiertes System. Dieses grundlegende Prinzip wird auch als Fliegenaugeintegrator („Fly‘s Eye Integrator“) bezeichnet.
Es kann vorteilhaft sein, den zweiten Facettenspiegel 121 nicht exakt in einer Ebene, welche zu einer Pupillenebene der Projektionsoptik 109 optisch konjugiert ist, anzuordnen.
Mit Hilfe des zweiten Facettenspiegels 121 werden die einzelnen ersten Facetten 120 in das Objektfeld 104 abgebildet. Der zweite Facettenspiegel 121 ist der letzte bündelformende oder auch tatsächlich der letzte Spiegel für die Beleuchtungsstrahlung 115 im Strahlengang vor dem Objektfeld 104.
Bei einer weiteren, nicht dargestellten Ausführung der Beleuchtungsoptik 103 kann im Strahlengang zwischen dem zweiten Facettenspiegel 121 und dem Objektfeld 104 eine Übertragungsoptik angeordnet sein, die insbesondere zur Abbildung der ersten Facetten 120 in das Objektfeld 104 beiträgt. Die Übertragungsoptik kann genau einen Spiegel, alternativ aber auch zwei oder mehr Spiegel aufweisen, welche hintereinander im Strahlengang der Beleuchtungsoptik 103 angeordnet sind. Die Übertragungsoptik kann insbesondere einen oder zwei Spiegel für senkrechten Einfall (Nl-Spiegel, „Normal Incidence“-Spiegel) und/oder einen oder zwei Spiegel für streifenden Einfall (Gl-Spiegel, „Gracing Incidence“-Spiegel) umfassen.
Die Beleuchtungsoptik 103 hat bei der Ausführung, die in der Figur 1 gezeigt ist, nach dem Kollektor 1 16 genau drei Spiegel, nämlich den Umlenkspiegel 118, den Feldfacettenspiegel 119 und den Pupillenfacettenspiegel 121 .
Bei einer weiteren Ausführung der Beleuchtungsoptik 103 kann der Umlenkspiegel 1 18 auch entfallen, so dass die Beleuchtungsoptik 103 nach dem Kollektor 116 dann genau zwei Spiegel aufweisen kann, nämlich den ersten Facettenspiegel 119 und den zweiten Facettenspiegel 121.
Die Abbildung der ersten Facetten 120 mittels der zweiten Facetten 122 beziehungsweise mit den zweiten Facetten 122 und einer Übertragungsoptik in die Objektebene 105 ist regelmäßig nur eine näherungsweise Abbildung.
Die Projektionsoptik 109 umfasst eine Mehrzahl von Spiegeln Mi, welche gemäß ihrer Anordnung im Strahlengang der EUV-Projektionsbelichtungsanlage 100 durchnummeriert sind. Bei dem in der Figur 1 dargestellten Beispiel umfasst die Projektionsoptik 109 sechs Spiegel M1 bis M6. Alternativen mit vier, acht, zehn, zwölf oder einer anderen Anzahl an Spiegeln Mi sind ebenso möglich. Der vorletzte Spiegel M5 und der letzte Spiegel M6 haben jeweils eine Durchtrittsöffnung für die Beleuchtungsstrahlung 115. Bei der Projektionsoptik 109 handelt es sich um eine doppelt obskurierte Optik. Die Projektionsoptik 109 hat eine bildseitige numerische Apertur, die größer ist als 0,5 und die auch größer sein kann als 0,6 und die beispielsweise 0,7 oder 0,75 betragen kann.
Reflexionsflächen der Spiegel Mi können als Freiformflächen ohne Rotationssymmetrieachse ausgeführt sein. Alternativ können die Reflexionsflächen der Spiegel Mi als asphärische Flächen mit genau einer Rotationssymmetrieachse der Reflexionsflächenform gestaltet sein. Die Spiegel Mi können, genauso wie die Spiegel der Beleuchtungsoptik 103, hoch reflektierende Beschichtungen für die Beleuchtungsstrahlung 115 aufweisen. Diese Beschichtungen können als Multilayer-Beschichtungen, insbesondere mit alternierenden Lagen aus Molybdän und Silizium, gestaltet sein.
Die Projektionsoptik 109 hat einen großen Objekt-Bildversatz in der y-Richtung zwischen einer y-Koordi- nate eines Zentrums des Objektfeldes 104 und einer y-Koordinate des Zentrums des Bildfeldes 1 10. Dieser Objekt-Bild-Versatz in der y-Richtung kann in etwa so groß sein wie ein z-Abstand zwischen der Objektebene 105 und der Bildebene 1 11.
Die Projektionsoptik 109 kann insbesondere anamorphotisch ausgebildet sein. Sie weist insbesondere unterschiedliche Abbildungsmaßstäbe ßx, ßy in x- und y-Richtung auf. Die beiden Abbildungsmaßstäbe ßx, ßy der Projektionsoptik 109 liegen bevorzugt bei (ßx, ßy) = (+/- 0,25, +/- 0,125). Ein positiver Abbildungsmaßstab ß bedeutet eine Abbildung ohne Bildumkehr. Ein negatives Vorzeichen für den Abbildungsmaßstab ß bedeutet eine Abbildung mit Bildumkehr.
Die Projektionsoptik 109 führt somit in x-Richtung, das heißt in Richtung senkrecht zur Scanrichtung, zu einer Verkleinerung im Verhältnis 4:1 .
Die Projektionsoptik 109 führt in y-Richtung, das heißt in Scanrichtung, zu einer Verkleinerung von 8:1.
Andere Abbildungsmaßstäbe sind ebenso möglich. Auch vorzeichengleiche und absolut gleiche Abbildungsmaßstäbe in x- und y-Richtung, zum Beispiel mit Absolutwerten von 0,125 oder von 0,25, sind möglich.
Die Anzahl von Zwischenbildebenen in der x- und in der y-Richtung im Strahlengang zwischen dem Objektfeld 104 und dem Bildfeld 110 kann gleich sein oder kann, je nach Ausführung der Projektionsoptik 109, unterschiedlich sein. Beispiele für Projektionsoptiken mit unterschiedlichen Anzahlen derartiger Zwischenbilder in x- und y-Richtung sind bekannt aus der US 2018/0074303 A1 . Jeweils eine der Pupillenfacetten 122 ist genau einer der Feldfacetten 120 zur Ausbildung jeweils eines Beleuchtungskanals zur Ausleuchtung des Objektfeldes 104 zugeordnet. Es kann sich hierdurch insbesondere eine Beleuchtung nach dem Köhlerschen Prinzip ergeben. Das Fernfeld wird mit Hilfe der Feldfacetten 120 in eine Vielzahl an Objektfeldern 104 zerlegt. Die Feldfacetten 120 erzeugen eine Mehrzahl von Bildern des Zwischenfokus auf den diesen jeweils zugeordneten Pupillenfacetten 122.
Die Feldfacetten 120 werden jeweils von einer zugeordneten Pupillenfacette 122 einander überlagernd zur Ausleuchtung des Objektfeldes 104 auf das Retikel 106 abgebildet. Die Ausleuchtung des Objektfeldes 104 ist insbesondere möglichst homogen. Sie weist vorzugsweise einen Uniformitätsfehler von weniger als 2% auf. Die Felduniformität kann über die Überlagerung unterschiedlicher Beleuchtungskanäle erreicht werden.
Durch eine Anordnung der Pupillenfacetten kann geometrisch die Ausleuchtung der Eintrittspupille der Projektionsoptik 109 definiert werden. Durch Auswahl der Beleuchtungskanäle, insbesondere der Teilmenge der Pupillenfacetten, die Licht führen, kann die Intensitätsverteilung in der Eintrittspupille der Projektionsoptik 109 eingestellt werden. Diese Intensitätsverteilung wird auch als Beleuchtungssetting bezeichnet.
Eine ebenfalls bevorzugte Pupillenuniformität im Bereich definiert ausgeleuchteter Abschnitte einer Beleuchtungspupille der Beleuchtungsoptik 103 kann durch eine Umverteilung der Beleuchtungskanäle erreicht werden.
Im Folgenden werden weitere Aspekte und Details der Ausleuchtung des Objektfeldes 104 sowie insbesondere der Eintrittspupille der Projektionsoptik 109 beschrieben.
Die Projektionsoptik 109 kann insbesondere eine homozentrische Eintrittspupille aufweisen. Diese kann zugänglich sein. Sie kann auch unzugänglich sein.
Die Eintrittspupille der Projektionsoptik 109 lässt sich regelmäßig mit dem Pupillenfacettenspiegel 121 nicht exakt ausleuchten. Bei einer Abbildung der Projektionsoptik 109, welche das Zentrum des Pupillenfacettenspiegels 121 telezentrisch auf den Wafer 112 abbildet, schneiden sich die Aperturstrahlen oftmals nicht in einem einzigen Punkt. Es lässt sich jedoch eine Fläche finden, in welcher der paarweise bestimmte Abstand der Aperturstrahlen minimal wird. Diese Fläche stellt die Eintrittspupille oder eine zu ihr konjugierte Fläche im Ortsraum dar. Insbesondere zeigt diese Fläche eine endliche Krümmung.
Es kann sein, dass die Projektionsoptik 109 unterschiedliche Lagen der Eintrittspupille für den tangentialen und für den sagittalen Strahlengang aufweist. In diesem Fall sollte ein abbildendes Element, insbesondere ein optisches Bauelement der Übertragungsoptik, zwischen dem zweiten Facettenspiegel 121 und dem Retikel 106 bereitgestellt werden. Mit Hilfe dieses optischen Bauelements kann die unterschiedliche Lage der tangentialen Eintrittspupille und der sagittalen Eintrittspupille berücksichtigt werden. Bei der in der Figur 1 dargestellten Anordnung der Komponenten der Beleuchtungsoptik 103 ist der Pupillenfacettenspiegel 121 in einerzur Eintrittspupille der Projektionsoptik 109 konjugierten Fläche angeordnet. Der erste Feldfacettenspiegel 119 ist verkippt zur Objektebene 105 angeordnet. Der erste Facettenspiegel 119 ist verkippt zu einer Anordnungsebene angeordnet, die vom Umlenkspiegel 1 18 definiert ist.
Der erste Facettenspiegel 119 ist verkippt zu einer Anordnungsebene angeordnet, die vom zweiten Facettenspiegel 121 definiert ist.
In Figur 2 ist eine beispielhafte DUV-Projektionsbelichtungsanlage 200 dargestellt, bei welcher das Prinzip der vorliegenden Erfindung zur Reinigung der Linsen von Fremd partikeln grundsätzlich auch eingesetzt werden kann. Die EUV-spezifischen Komponenten, wie zum Beispiel ein Kollektorspiegel 116, werden hierfür dann nicht benötigt bzw. können entsprechend substituiert werden. Die DUV- Projektionsbelichtungsanlage 200 weist ein Beleuchtungssystem 201 , eine Retikelstage 202 genannten Einrichtung zur Aufnahme und exakten Positionierung eines Retikels 203, durch welches die späteren Strukturen auf einem Wafer 204 bestimmt werden, einen Waferhalter 205 zur Halterung, Bewegung und exakten Positionierung des Wafers 204 und eine Abbildungseinrichtung, nämlich eine Projektionsoptik 206, mit mehreren optischen Elementen, insbesondere Linsen 207, die über Fassungen 208 in einem Objektivgehäuse 209 der Projektionsoptik 206 gehalten sind, auf.
Alternativ oder ergänzend zu den dargestellten Linsen 207 können diverse refraktive, diffraktive und/oder reflexive optische Elemente, unter anderem auch Spiegel, Prismen, Abschlussplatten und dergleichen, vorgesehen sein.
Das grundsätzliche Funktionsprinzip der DUV-Projektionsbelichtungsanlage 200 sieht vor, dass die in das Retikel 203 eingebrachten Strukturen auf den Wafer 204 abgebildet werden.
Das Beleuchtungssystem 201 stellt einen für die Abbildung des Retikels 203 auf den Wafer 204 benötigten Projektionsstrahl 210 bzw. eine Projektionsstrahlung in Form elektromagnetischer Strahlung bereit. Als Quelle für diese Strahlung kann ein Laser, eine Plasmaquelle oder dergleichen Verwendung finden. Die Strahlung wird in dem Beleuchtungssystem 201 über optische Elemente so geformt, dass der Projektionsstrahl 210 beim Auftreffen auf das Retikel 203 die gewünschten Eigenschaften hinsichtlich Durchmesser, Polarisation, Form der Wellenfront und dergleichen aufweist.
Mittels des Projektionsstrahls 210 wird ein Bild des Retikels 203 erzeugt und von der Projektionsoptik 206 entsprechend verkleinert auf den Wafer 204 übertragen. Dabei können das Retikel 203 und der Wafer 204 synchron verfahren werden, so dass praktisch kontinuierlich während eines sogenannten Scanvorganges Bereiche des Retikels 203 auf entsprechende Bereiche des Wafers 204 abgebildet werden.
Optional kann ein Luftspalt zwischen der letzten Linse 207 und dem Wafer 204 durch ein flüssiges Medium ersetzt sein, welches einen Brechungsindex größer 1 ,0 aufweist. Das flüssige Medium kann beispielsweise hochreines Wasser sein. Ein solcher Aufbau wird auch als Immersionslithographie bezeichnet und weist eine erhöhte photolithographische Auflösung auf.
Die Verwendung der Erfindung ist nicht auf den Einsatz in Projektionsbelichtungsanlagen 100, 200, insbesondere auch nicht mit dem beschriebenen Aufbau, beschränkt. Die Erfindung eignet sich für beliebige Lithografiesysteme, insbesondere jedoch für Projektionsbelichtungsanlagen, mit dem beschriebenen Aufbau. Die Erfindung eignet sich auch für EUV-Projektionsbelichtungsanlagen, welche eine geringere bildseitige numerische Apertur aufweisen als jene, die im Zusammenhang mit Figur 1 beschrieben ist. Insbesondere eignet sich die Erfindung auch für EUV-Projektionsbelichtungsanlagen, welche eine bildseitige numerische Apertur von 0,25 bis 0,5, vorzugsweise 0,3 bis 0,4, besonders bevorzug 0,33, aufweisen. Die Erfindung sowie die nachfolgenden Ausführungsbeispiele sind ferner nicht auf eine spezifische Bauform beschränkt zu verstehen. Die nachfolgenden Figuren stellen die Erfindung lediglich beispielhaft und stark schematisiert dar.
Es sei darauf hingewiesen, dass die nachfolgend beschriebene erfindungsgemäße Vorrichtung und das erfindungsgemäße Verfahren (eingeschlossen das computerimplementierte Verfahren) insbesondere bei Lithografiesystemen und hierbei insbesondere bei Projektionsbelichtungsanlagen für die Halbleiterlithografie eingesetzt werden können, eine Verwendung jedoch auch in anderen Bereichen, in denen es auf eine schnelle und zuverlässige Inspektion von Bauteilen ankommt, vorteilhaft sind.
Figur 3 zeigt eine schematische Darstellung einer möglichen Ausführungsform einer Vorrichtung 1 zur Inspektion eines Bauteils 2.
Die Vorrichtung 1 zur Inspektion des Bauteils 2, insbesondere eines Bauteils 2 eines Lithografiesystems 100, 200, umfasst wenigstens eine Dunkelkammer 3 sowie eine Suchstrahlungsquelle 4 zur Ausbildung einer Suchstrahlung 5 zur Beleuchtung eines Untersuchungsbereichs 6. Die Vorrichtung 1 umfasst ferner eine Kameraeinrichtung 7 mit einem Kameraobjektiv 8 zur Erfassung einer Bildaufnahme 9 (siehe Figur 4) des Untersuchungsbereichs 6 sowie eine Lagebestimmungseinrichtung 10 zur Bestimmung einer relativen Position 10a und Ausrichtung 10b der Kameraeinrichtung 7 zu dem Bauteil 2 bei der Erfassung der Bildaufnahme 9 des Untersuchungsbereichs 6 (siehe hierzu bzw. zu den Bezugszeichen 9, 10a, 10b auch Figuren 4 und 7). Außerdem ist eine Recheneinrichtung 11 vorhanden, welche zur Inspektion der Bildaufnahme 9 des Untersuchungsbereichs 6 auf ein Vorliegen eines Fehlers 12 und bei einem Vorliegen wenigstens eines Fehlers 12 zur Charakterisierung des wenigstens einen Fehlers 12 anhand der Bildaufnahme 9 eingerichtet ist.
In dem in Figur 3 dargestellten Ausführungsbeispiel weist die Suchstrahlungsquelle 4 vorzugsweise mehrere schaltbare Quellsegmente 13 auf, von denen zwei in der Zeichenebene sichtbar sind, wobei vorzugsweise vier Quellsegmente 13 vorhanden sind. In einer nicht dargestellten Ausführungsform ist die Suchstrahlungsquelle 4 als Ringstrahlungsquelle, vorzugsweise mit vier teilringförmigen Quellsegmenten 13, ausgebildet. In dem in Figur 3 dargestellten Ausführungsbeispiel ist die Suchstrahlungsquelle 4 ferner vorzugsweise an der Kameraeinrichtung 7, insbesondere an dem Kameraobjektiv 8, angeordnet.
Gemäß dem in Figur 3 dargestellten Ausführungsbeispiel weist die Kameraeinrichtung 7 vorzugsweise wenigstens einen optischen Filter 14 auf, welcher vorzugsweise zur Abblockung der Suchstrahlung 5 eingerichtet ist.
Figur 4 zeigt eine schematische Darstellung einer weiteren möglichen Ausführungsform der Vorrichtung 1 .
In dem Ausführungsbeispiel gemäß Figur 4 wird einem Operator die Bildaufnahme 9 auf einem Bildschirm angezeigt.
In dem in Figur 3 dargestellten Ausführungsbeispiel ist die Lagebestimmungseinrichtung 10 vorzugsweise wenigstens teilweise als Handhabungseinrichtung 15 ausgebildet oder an einer Handhabungseinrichtung 15 angeordnet bzw. festgelegt.
Bei der in Figur 4 dargestellten Ausführungsform der Vorrichtung 1 ist vorzugsweise eine Fehlerentfernungseinrichtung 16 zur Entfernung des wenigstens einen Fehlers 12 vorgesehen.
In dem in Figur 4 dargestellten Ausführungsbeispiel weist die Fehlerentfernungseinrichtung 16 vorzugsweise eine Markierstrahlungsquelle 17 zur optischen Markierung des Fehlers 12, vorzugsweise mittels eines Laserstrahls, auf. Ferner ist in dem in Figur 4 dargestellten Ausführungsbeispiel die Fehlerentfernungseinrichtung 16 zur ferngesteuerten Bedienung und/oder zur selbständigen Entfernung des Fehlers 12 eingerichtet.
Bei der Fehlerentfernungseinrichtung 16 kann es sich insbesondere um eine Kontaminationsentfernungseinrichtung und/oder eine Reinigungseinrichtung handeln. Alternativ oder zusätzlich kann die Fehlerentfernungseinrichtung 16 auch zur Behebung von Bearbeitungsfehlern, beispielsweise mittels lokaler Erhitzung des Bauteils 2, eingerichtet sein.
In dem in Figur 4 dargestellten Ausführungsbeispiel ist die Fehlerentfernungseinrichtung 16 an der Handhabungseinrichtung 15 angeordnet und vorzugsweise als Partikelabsauger ausgebildet.
In dem in Figur 4 dargestellten Ausführungsbeispiel ist die Vorrichtung 1 vorzugsweise als mobile Einheit zur Inspektion mittels der als Roboterarm ausgebildeten Handhabungseinrichtung 15 ausgebildet und zum systematischen Abtasten einer dreidimensionalen Außenkontur des Bauteils 2 im Abstand von 1 cm bis 100 cm eingerichtet, wobei mittels der Lagebestimmungseinrichtung 10 bzw. dem Roboterarm das Kameraobjektiv 8 senkrecht auf eine Oberfläche des Bauteils 2 ausrichtbar ist. In der Ausführungsform gemäß Figur 4 sind vorzugsweise die Suchstrahlungsquelle 4 und/oder die Kameraeinrichtung 7 und/oder die Lagebestimmungseinrichtung 10 und/oder die Fehlerentfernungseinrichtung 16, vorzugsweise als Teil der Handhabungseinrichtung 15, zur automatisierten Inspektion des Bauteils 2 eingerichtet, und/oder an der Handhabungseinrichtung 15 zur automatisierten Inspektion des Bauteils 2 angeordnet.
Zur Ermittlung der relativen Position 10a und Ausrichtung 10b der Kameraeinrichtung 7 zu dem Bauteil 2 zum Zeitpunkt der Bildaufnahme 9 ist in dem in Figur 4 dargestellten Ausführungsbeispiel vorzugsweise eine Abstandssensoreinrichtung 21 , wie beispielsweise eine LIDAR-Sensoreinrichtung, vorgesehen. Die Abstandssensoreinrichtung 21 kann integraler Bestandteil der Lagebestimmungseinrichtung 10 sein.
Die Abstandssensoreinrichtung 21 ist in dem in Figur 4 dargestellten Ausführungsbeispiel vorzugsweise dazu eingerichtet, eine dreidimensionale Außenkontur des Bauteils 2 wenigstens teilweise systematisch abzutasten, wobei die Abstandssensoreinrichtung 21 vorzugsweise an der Handhabungseinrichtung 15 zur automatisierten Inspektion des Bauteils 2 angeordnet ist.
Hinsichtlich der weiteren Bezugszeichen sei auf Figur 3 verwiesen.
Figur 5 zeigt eine schematische Darstellung einer möglichen Anordnung des Bauteils 2 in der Dunkelkammer 3.
In dem in Figur 5 dargestellten Ausführungsbeispiel ist das Bauteil 2 vorzugsweise auf einer Halteeinrichtung 18 angeordnet. Die Halteeinrichtung 18 ist in dem in Figur 5 dargestellten Ausführungsbeispiel als Bestandteil eines Transportwagens ausgebildet.
Die Halteeinrichtung 18 ist ferner vorzugsweise mit einer Verfahreinrichtung 19 verbunden, welche in dem in Figur 5 dargestellten Ausführungsbeispiel als Teil der Lagebestimmungseinrichtung 10 ausgebildet ist bzw. mit dieser zur Positionierung der Kameraeinrichtung 7 interagiert.
Der Transportwagen weist im Ausführungsbeispiel vorzugsweise die Halteinrichtung 18 und die Verfahreinrichtung 19 auf.
In dem in Figur 5 dargestellten Ausführungsbeispiel trifft die Suchstrahlung 5 unter einem Winkel zur Senkrechten auf den Untersuchungsbereich 6. Das zurückgeworfene Licht wird dann von der Kameraeinrichtung 7 aufgefangen, welche in dem in Figur 5 dargestellten Ausführungsbeispiel stilisiert dargestellt ist.
Die Bildaufnahme 9 wird dann an die Recheneinrichtung 11 zum Zwecke der Bildbewertung übergeben.
In dem in Figur 5 dargestellten Ausführungsbeispiel handelt es sich bei dem Bauteil 2 vorzugsweise um ein komplexes EUV-Modul bzw. ein komplexes Modul einer EUV-Projektionsbelichtungsanlage 100. Figur 6 zeigt eine blockdiagrammmäßige Darstellung einer möglichen Ausführungsform eines Verfahrens zur Inspektion des Bauteils 2, insbesondere eines Bauteils 2 des Lithografiesystems 100, 200. Hierbei wird in einem Beleuchtungsblock 40 der Untersuchungsbereich 6 des Bauteils 2 in der Dunkelkammer 3 mit der Suchstrahlung 5 beleuchtet. In einem Bildaufnahmeblock 41 wird die wenigstens eine Bildaufnahme 9 des Untersuchungsbereichs 6 mittels der Kameraeinrichtung 7 aufgenommen.
In einem Lageblock 42 wird ferner die relative Position 10a und Ausrichtung 10b der Kameraeinrichtung 7 zu dem Bauteil 2 zum Zeitpunkt der Erfassung der Bildaufnahme 9 des Untersuchungsbereichs 6 bestimmt.
In einem Inspektionsblock 43 wird der Untersuchungsbereich 6 anhand der Bildaufnahme 9 auf ein Vorliegen des wenigstens einen Fehlers 12 inspiziert.
In einem Charakterisierungsblock 44 wird bei einem Vorliegen wenigstens eines Fehlers 12 derwenigstens eine Fehler 12 anhand der Bildaufnahme 9 charakterisiert.
Im Rahmen des Lageblocks 42 kann vorgesehen sein, dass die relative Position 10a und Ausrichtung 10b der Kameraeinrichtung 7 zu dem Bauteil 2 zum Zeitpunkt der Erfassung der Bildaufnahme 9 des Untersuchungsbereichs 6 dadurch bestimmt wird, dass die relative Position 10a und Ausrichtung 10b der Kameraeinrichtung 7 zu dem Bauteil 2 vorbestimmt und dann von der Kameraeinrichtung 7 eingenommen wird und/oder die Kameraeinrichtung 7 maschinell und automatisiert in die relative Position 10a und Ausrichtung 10b gebracht wird und/oder die relative Position 10a und Ausrichtung 10b der Kameraeinrichtung 7 zu dem Bauteil 2 zum Zeitpunkt der Bildaufnahme 9 ermittelt wird. Zur Ermittlung der relativen Position 10a und Ausrichtung 10b der Kameraeinrichtung 7 zu dem Bauteil 2 zum Zeitpunkt der Bildaufnahme 9 kann insbesondere die Abstandssensoreinrichtung 21 , wie beispielsweise eine LIDAR-Sensoreinrichtung, vorgesehen sein.
Es kann vorgesehen sein, dass die Ermittlung und/oder eine Definition der relativen Position 10a, insbesondere mittels der Lidar-Sensoreinrichtung, in einem vorgelagerten Prozessschritt erfolgt. Insbesondere kann vorgesehen sein, dass bei dem vorgelagerten Prozessschritt zunächst die Außenkonturen des Bauteils 2 erfasst werden und dann, vorzugsweise mittels der Recheneinrichtung 11 , eine optimale Bildabfolge berechnet wird.
Im Rahmen des Bildaufnahmeblocks 41 , des Beleuchtungsblocks 40 und/oder des Lageblocks 42 kann vorzugsweise vorgesehen sein, dass von jedem Untersuchungsbereich 6 wenigstens drei Bildaufnahmen, vorzugsweise weniger als zwanzig Bildaufnahmen 9 aus jeweils unterschiedlichen Winkeln aufgenommen werden. Vorzugsweise werden fünf oder mehr, besonders bevorzugt genau neun Bildaufnahmen 9 aus jeweils unterschiedlichen Winkeln aufgenommen. Im Rahmen des Bildaufnahmeblocks 41 kann vorzugsweise vorgesehen sein, dass die Bildaufnahme 9 wenigstens annähernd ausschließlich durch Fluoreszenzlicht, vorzugsweise Fluoreszenzlicht des wenigstens einen Fehlers 12, belichtet wird.
Im Rahmen des Inspektionsblocks 43 und/oder des Charakterisierungsblocks 44 kann vorzugsweise vorgesehen sein, dass die wenigstens eine Bildaufnahmen 9 hinsichtlich eines Vorliegens wenigstens eines Fehlers 12 in dem Untersuchungsbereich 6 automatisiert bewertet wird.
In dem in Figur 6 dargestellten Ausführungsbeispiel ist bei dem Verfahren ferner vorzugsweise ein Reinigungsblock 45 vorgesehen, im Rahmen dessen bei einem Vorliegen wenigstens eines Fehlers 12 des Untersuchungsbereichs 6 der Untersuchungsbereich 6 gereinigt und/oder für eine Reinigung vorgemerkt wird. Ferner wird vorzugsweise nach einer erfolgten Reinigung eine erneute Inspektion durchgeführt.
Figur 7 zeigt beispielhaft einen möglichen Ablauf des erfindungsgemäßen Verfahrens, wobei eine stark abstrahierte Vorrichtung 1 in einer Seitenansicht dargestellt ist.
In dem in Figur 7 dargestellten Ausführungsbeispiel wird vorzugsweise jeweils wenigstens eine Bildaufnahme 9 von mehreren Untersuchungsbereichen 6 aufgenommen und die jeweils bestimmten relativen Positionen 10a und Ausrichtungen 10b der Kameraeinrichtung 7 zu einer Kameratrajektorie 20 verknüpft.
Ferner kann vorgesehen sein, dass eine optimale Abfolge der relativen Positionen 10a bzw. eine optimale Kameratrajektorie 20 in einem vorgelagerten Prozessschritt, vorzugsweise mittels der Recheneinrichtung 11 , erfolgt.
Die Zeitpunkte, zu welchen die Bildaufnahmen 9 aufgenommen werden, werden vorzugsweise ebenfalls erfasst und der jeweiligen Bildaufnahme 9 als Metadaten bzw. Zeitstempel aufgeprägt. Mittels der Zeitstempel können die Bildaufnahmen 9 auch auf einer Zeitachse 22 verortet werden.
In dem in Figur 7 dargestellten Ausführungsbeispiel werden vorzugsweise zur Aufnahme der einen oder mehreren Bildaufnahmen 9 des Untersuchungsbereichs 6 vorzugsweise das Kameraobjektiv 8 der Kameraeinrichtung 7 wenigstens annähernd senkrecht auf eine Oberfläche des Bauteils 2 in dem Untersuchungsbereich 6 ausgerichtet und/oder zentral gegenüber dem Untersuchungsbereich 6 angeordnet.
Ferner wird vorzugsweise das Kameraobjektiv 8 der Kameraeinrichtung 7 unter einem Winkel auf die Oberfläche des Bauteils 2 in dem Untersuchungsbereich 6 ausgerichtet und/oder versetzt zu dem Untersuchungsbereich 6 angeordnet.
Alternativ oder zusätzlich weist in dem in Figur 7 dargestellten Ausführungsbeispiel der Untersuchungsbereich 6 vorzugsweise eine wenigstens annähernd rechteckige, besonders bevorzugt eine wenigstens annähernd quadratische Form auf. In dem in Figur 7 dargestellten Ausführungsbeispiel wird das Bauteil 2 vorzugsweise durch mehrere Untersuchungsbereiche 6 wenigstens annähernd lückenlos abgedeckt.
Ferner zeigt Figur 7 ein Ausführungsbeispiel, bei dem vorzugsweise von dem wenigstens einen Untersuchungsbereich 6 mehrere Bildaufnahmen 9 aufgenommen werden, indem für eine erste Bildaufnahme 9 das Kameraobjektiv 8 der Kameraeinrichtung 7 wenigstens annähernd senkrecht auf eine Oberfläche des Bauteils 2 in dem Untersuchungsbereich 6 ausgerichtet ist und/oder zentral gegenüber dem Untersuchungsbereich 6 angeordnet wird und für wenigstens eine zweite Bildaufnahme 9 desselben Untersuchungsbereichs 6 das Kameraobjektiv 8 der Kameraeinrichtung 7 unter einem Winkel zur Senkrechten auf eine Oberfläche des Bauteils 2 in dem Untersuchungsbereich 6 ausgerichtet wird und zentral gegenüber einem zu dem Untersuchungsbereich 6 benachbarten Untersuchungsbereich 6 angeordnet wird.
In der Figur 8 ist ein Ausschnitt eines Bauteils 2 dargestellt, welches exemplarisch sechzehn Untersuchungsbereiche 6a - 6p aufweist. Eine in Figur 8 nicht dargestellte Kameraeinrichtung 7 mit einem Kameraobjektiv 8 zur Erfassung einer Bildaufnahme 9 kann dabei jeweils wenigstens annähernd senkrecht über einer Oberfläche des jeweiligen Untersuchungsbereichs 6a - 6p positioniert werden. Beispielhaft sei dies nun anhand des Untersuchungsbereichs 6f erläutert. Die Kameraeinrichtung 7 wird vorzugsweise wenigstens annähernd senkrecht auf eine Oberfläche des Untersuchungsbereichs 6f ausgerichtet und vorzugsweise auch zentral gegenüber dem Untersuchungsbereich 6f angeordnet. In dieser Position wird eine erste Bildaufnahme des Untersuchungsbereichs 6f angefertigt. Von Vorteil ist es dabei, wenn aus der Position der Kameraeinrichtung 7 zentral gegenüber dem Untersuchungsbereich 6f durch eine Änderung der Ausrichtung 10b der Kameraeinrichtung 7 auch Bildaufnahmen der angrenzenden Untersuchungsbereiche, vorzugsweise zumindest der Untersuchungsbereiche 6e, 6g und/oder 6b, 6j, angefertigt werden. Vorzugsweise werden Bildaufnahmen 9 von allen an den Untersuchungsbereiche 6f angrenzenden Untersuchungsbereiche 6a, 6b, 6c, 6e, 6g, 6i, 6j, 6k angefertigt.
Nach Anfertigung einer Bildaufnahme 9 des Untersuchungsbereichs 6f aus einer Position, bei der die Kameraeinrichtung 7 wenigstens annähernd senkrecht auf den Untersuchungsbereiche 6f ausgerichtet und zentral gegenüber dem Untersuchungsbereich 6f angeordnet ist (und gegebenenfalls der Anfertigung von Bildaufnahmen 9 angrenzender Untersuchungsbereiche 6a, 6b, 6c, 6e, 6g, 6i, 6j, 6k aus dieser zentralen Position gegenüber dem Untersuchungsbereiche 6f), wird die Kameraeinrichtung 7 zentral gegenüber einem Untersuchungsbereich, beispielsweise dem Untersuchungsbereich 6g, angeordnet, der an den Untersuchungsbereich 6f angrenzt. Aus dieser zentralen Position gegenüber dem Untersuchungsbereich 6g wird dann die Kameraeinrichtung 7 derart ausgerichtet, dass eine Bildaufnahme 9 des Untersuchungsbereichs 6f angefertigt werden kann. Somit liegen bereits zwei Bildaufnahmen 9 des Untersuchungsbereichs 6f aus unterschiedlichen Positionen und Ausrichtungen (10a, 10b) der Kameraeinrichtung 7 vor. Aus der zentralen Position gegenüber dem Untersuchungsbereich 6g kann dann auch noch eine zentrale Aufnahme des Untersuchungsbereichs 6g und Aufnahmen der an den Untersuchungsbereich 6g angrenzenden Untersuchungsbereiche erstellt werden. Anschließend kann die Kameraeinrichtung 7 zentral gegenüber einem weiteren Untersuchungsbereich, zum Beispiel dem Untersuchungsbereich 6k, angeordnet und die bezüglich des Untersuchungsbereichs 6g beschriebenen Verfahrensschritte wiederholt werden. Durch eine Anordnung der Kameraeinrichtung 7 zentral gegenüber allen Untersuchungsbereichen 6a, 6b, 6c, 6e, 6g, 6i, 6j, 6k entstehen insgesamt neun Bildaufnahmen des Untersuchungsbereichs 6f aus unterschiedlichen Ausrichtungen und Positionen 10a, 10b der Kameraeinrichtung 7. In der gleichen Art und Weise werden auch von den anderen Untersuchungsbereichen eine entsprechende Anzahl von Bildaufnahmen 9 in unterschiedlichen Ausrichtungen und Positionen der Kameraeinrichtung 7 angefertigt. Die Reihenfolge, in der die Untersuchungsbereiche von der Kameraeinrichtung angefahren und gegenüber diesen zentral positioniert wird, ist sekundär, die aufgenommenen Bildaufnahmen 9 können mithilfe zum Beispiel der Recheneinrichtung 11 entsprechend jeweils dem gewünschten Untersuchungsbereich, zum Beispiel dem Untersuchungsbereich 6f, zugeordnet werden. Es versteht sich, dass, um eine ausreichende Anzahl von Bildaufnahmen 9 eines Untersuchungsbereichs 6 zu erhalten, auch vorgesehen sein kann, dass die Kameraeinrichtung 7 außerhalb eines Untersuchungsbereichs angeordnet wird, beispielsweise zur Aufnahme des Untersuchungsbereichs 6a in einer Bildebene oberhalb des Untersuchungsbereichs 6a und 6b.
Die Kameraeinrichtung 7 wird vorzugsweise derart relativ zu den Untersuchungsbereichen 6 bewegt, dass der Verfahrweg der Kameraeinrichtung 7 vorzugsweise möglichst kurz ist.
Figur 9 zeigt eine blockdiagrammmäßige Darstellung einer möglichen Ausführungsform eines computerimplementierten Verfahrens zur Inspektion des Bauteils 2.
Das computerimplementierte Verfahren zur Inspektion des Bauteils 2, insbesondere eines Bauteils 2 des Lithografiesystems 100, 200, umfasst einen Messdatenblock 50. Im Rahmen des Messdatenblocks 50 werden Messdaten empfangen, welche wenigstens eine mittels der Kameraeinrichtung 7 aufgenommene Bildaufnahme 9 des in der Dunkelkammer 3 mit der Suchstrahlung 5 beleuchteten Untersuchungsbereichs 6 des Bauteils 2 sowie die relative Position 10a und Ausrichtung 10b der Kameraeinrichtung 7 zu dem Bauteil 2 zum Zeitpunkt der Erfassung der Bildaufnahme 9 des Untersuchungsbereichs 6 darstellen.
In einem Interpretationsdatenblock 51 werden Interpretationsdaten zu wenigstens einem Teil der Messdaten empfangen, welcher Trainingsdaten darstellt. Hierbei enthalten die Interpretationsdaten Informationen über ein Vorliegen wenigstens eines Fehlers 12 in dem wenigstens einen Untersuchungsbereich 6 sowie eine Charakterisierung des wenigstens einen Fehlers 12.
In einem Trainingsblock 52 wird ein Maschinenlernmodell anhand der Interpretationsdaten und der Trainingsdaten trainiert.
In einem Suchblock 53 werden die Messdaten automatisiert auf ein Vorliegen wenigstens eines Fehlers 12 in dem wenigstens einen Untersuchungsbereich 6 mittels des Maschinenlernmodells inspiziert. In einem Einordnungsblock 54 wird bei einem Vorliegen wenigstens eines Fehlers 12 der wenigstens eine Fehler 12 mittels des Maschinenlernmodells automatisiert charakterisiert.
Die in dem Einordnungsblock 54 und/oder in dem Suchblock 53 ermittelten Ergebnisse hinsichtlich der Inspektion und/oder Charakterisierung können in einem Überprüfungsblock 55, vorzugsweise von einem menschlichen Operator überprüft und als neue Interpretationsdaten in den Interpretationsdatenblock 51 eingespeist werden.
Das vorbeschriebene Lithografiesystem, insbesondere die Projektionsbelichtungsanlage 100, 200 für die Halbleiterlithografie, weist mehrere Bauteile 2, insbesondere ein Beleuchtungssystem 101 , 201 mit einer Strahlungsquelle 102 sowie einer Optik 103, 109, 206 auf, welche wenigstens ein optisches Element 116, 118, 119, 120, 121 , 122, Mi, 207 aufweist. Das Lithografiesystem 100, 200 zeichnet sich dadurch aus, dass wenigstens eines der Bauteile 2, insbesondere wenigstens eines der optischen Elemente 116, 118, 119, 120, 121 , 122, Mi, 207 mittels des im Zusammenhang mit den Figuren 7 und 8 beschriebenen Verfahrens und seiner Ausführungsformen inspiziert ist und/oder mittels der, insbesondere im Zusammenhang mit den Figuren 3, 4 und 5 beschriebenen, Vorrichtung 1 inspiziert ist und/oder mittels des im Zusammenhang mit Figur 9 beschriebenen computerimplementierten Verfahrens inspiziert ist.
Bezugszeichenliste:
1 Vorrichtung
2 Bauteil
3 Dunkelkammer
4 Suchstrahlungsquelle
5 Suchstrahlung
6 Untersuchungsbereich
7 Kameraeinrichtung
8 Kameraobjektiv
9 Bildaufnahme
10 Lagebestimmungseinrichtung
10a Position
10b Ausrichtung
11 Recheneinrichtung
12 Fehler
13 Quellsegment
14 optischer Filter
15 Handhabungseinrichtung
16 Fehlerentfernungseinrichtung
17 Markierstrahlungsquelle
18 Halteeinrichtung
19 Verfahreinrichtung
20 Kameratrajektorie
21 Abstandsensorreinrichtung
22 Zeitachse
40 Beleuchtungsblock
41 Bildaufnahmeblock
42 Lageblock
43 Inspektionsblock
44 Charakterisierungsblock
45 Reinigungsblock
50 Messdatenblock
51 Interpretationsdatenblock
52 Trainingsblock
53 Suchblock
54 Einordnungsblock
55 Überprüfungsblock 100 EUV-Projektionsbelichtungsanlage
101 Beleuchtungssystem
102 Strahlungsquelle
103 Beleuchtungsoptik
104 Objektfeld
105 Objektebene
106 Retikel
107 Retikelhalter
108 Retikelverlagerungsantrieb
109 Projektionsoptik
110 Bildfeld
111 Bildebene
112 Wafer
113 Waferhalter
114 Waferverlagerungsantrieb
115 EUV- / Nutz- / Beleuchtungsstrahlung
116 Kollektor
117 Zwischenfokusebene
118 Ilmlenkspiegel
119 erster Facettenspiegel / Feldfacettenspiegel
120 erste Facetten / Feldfacetten
121 zweiter Facettenspiegel / Pupillenfacettenspiegel
122 zweite Facetten / Pupillenfacetten
200 DUV-Projektionsbelichtungsanlage
201 Beleuchtungssystem
202 Retikelstage
203 Retikel
204 Wafer
205 Waferhalter
206 Projektionsoptik
207 Linse
208 Fassung
209 Objektivgehäuse
210 Projektionsstrahl
Mi Spiegel

Claims

Patentansprüche:
1. Verfahren zur Inspektion eines Bauteils (2), insbesondere eines Bauteils (2) eines Lithografiesys- tems, wobei in einer Dunkelkammer (3) wenigstens ein Untersuchungsbereich (6) des Bauteils (2) mit einer Suchstrahlung (5) beleuchtet wird; und der Untersuchungsbereich (6) auf ein Vorliegen wenigstens eines Fehlers (12) inspiziert wird; wobei bei einem Vorliegen wenigstens eines Fehlers (12) der wenigstens eine Fehler (12) charakterisiert wird, dadurch gekennzeichnet, dass mittels einer Kameraeinrichtung (7) wenigstens eine Bildaufnahme (9) des Untersuchungsbereichs (6) aufgenommen wird, wobei eine relative Position (10a) und Ausrichtung (10b) der Kameraeinrichtung (7) zu dem Bauteil (2) zum Zeitpunkt der Erfassung der Bildaufnahme (9) des Untersuchungsbereichs (6) bestimmt wird, und der Untersuchungsbereich (6) anhand der Bildaufnahme (9) auf ein Vorliegen wenigstens eines Fehlers (12) inspiziert wird; wobei bei einem Vorliegen wenigstens eines Fehlers (12) der wenigstens eine Fehler (12) anhand der Bildaufnahme (9) charakterisiert wird.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass eine relative Position (10a) und Ausrichtung (10b) der Kameraeinrichtung (7) zu dem Bauteil (2) zum Zeitpunkt der Erfassung der Bildaufnahme (9) des Untersuchungsbereichs (6) bestimmt wird, indem die relative Position (10a) und Ausrichtung (1 Ob) der Kameraeinrichtung (7) zu dem Bauteil (2) vorbestimmt wird; und/oder die Kameraeinrichtung (7) maschinell und automatisiert in die relative Position (10a) und Ausrichtung (10b) verbracht wird; und/oder die relative Position (10a) und Ausrichtung (1 Ob) der Kameraeinrichtung (7) zu dem Bauteil (2) zum Zeitpunkt der Bildaufnahme (9) ermittelt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass jeweils wenigstens eine Bildaufnahme (9) von mehreren Untersuchungsbereiche (6) aufgenommen wird und die jeweils bestimmten relativen Positionen (10a) und Ausrichtungen (10b) der Kameraeinrichtung (7) zu einer Kamera-trajektorie (20) verknüpft werden.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass zur Aufnahme einer oder mehrerer Bildaufnahmen (9) des Untersuchungsbereichs (6) ein Kameraobjektiv (8) der Kameraeinrichtung (7) wenigstens annähernd senkrecht auf eine Oberfläche des Bauteils (2) in dem Untersuchungsbereich (6) ausgerichtet wird und/oder zentral gegenüber dem Untersuchungsbereich (6) angeordnet wird und/oder ein Kameraobjektiv (8) der Kameraeinrichtung (7) unter einem Winkel auf eine Oberfläche des Bauteils (2) in dem Untersuchungsbereich (6) ausgerichtet wird und/oder versetzt zu dem Untersuchungsbereich (6) angeordnet wird; und/oder der Untersuchungsbereich (6) eine wenigstens annähernd rechteckige, vorzugsweise eine wenigstens annähernd quadratische, Form aufweist. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das Bauteil (2) durch mehrere Untersuchungsbereiche (6) wenigstens annähernd lückenlos abgedeckt wird. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass von dem wenigstens einen Untersuchungsbereich (6) mehrere Bildaufnahmen (9) aufgenommen werden, indem für eine erste Bildaufnahme das Kameraobjektiv (8) der Kameraeinrichtung (7) wenigstens annähernd senkrecht auf eine Oberfläche des Bauteils (2) in dem Untersuchungsbereich (6) ausgerichtet wird und zentral gegenüber dem Untersuchungsbereich (6) angeordnet wird, und für wenigstens eine zweite Bildaufnahme (9) desselben Untersuchungsbereichs (6) das Kameraobjektiv (8) der Kameraeinrichtung (7) unter einem Winkel auf eine Oberfläche des Bauteils (2) in dem Untersuchungsbereich (6) ausgerichtet wird und zentral gegenüber einem zu dem Untersuchungsbereich (6) benachbarten Untersuchungsbereich (6) angeordnet wird. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass von jedem Untersuchungsbereich (6) wenigstens drei, vorzugsweise fünf, besonders bevorzugt neun und vorzugsweise weniger als zwanzig Bildaufnahmen (9) aus jeweils unterschiedlichen Winkeln aufgenommen werden. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Bildaufnahme (9) wenigstens annähernd ausschließlich durch Fluoreszenzlicht, vorzugsweise des wenigstens einen Fehlers (12), belichtet wird. 9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass bei einem Vorliegen wenigstens eines Fehlers (12) der Untersuchungsbereich (6) gereinigt und/oder für eine Reinigung vorgemerkt wird, wobei vorzugsweise nach der erfolgten Reinigung eine erneute Inspektion durchgeführt wird.
10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die wenigstens eine Bildaufnahme (9) hinsichtlich eines Vorliegens wenigstens eines Fehlers (12) in dem Untersuchungsbereich (6) automatisiert bewertet wird.
11. Vorrichtung (1) zur Inspektion eines Bauteils (2), insbesondere eines Bauteils (2) eines Lithogra- fiesystems (100,200), wenigstens aufweisend eine Dunkelkammer (3); und eine Suchstrahlungsquelle (4) zur Ausbildung einer Suchstrahlung (5) zur Beleuchtung wenigstens eines Untersuchungsbereichs (6); dadurch gekennzeichnet, dass eine Kameraeinrichtung (7) mit einem Kameraobjektiv (8) zur Erfassung einer Bildaufnahme (9) des Untersuchungsbereichs (6) vorgesehen ist; und eine Lagebestimmungseinrichtung (10) zur Bestimmung einer relativen Position (10a) und Ausrichtung (10b) der Kameraeinrichtung (7) zu dem Bauteil (2) bei der Erfassung der Bildaufnahme (9) des Untersuchungsbereichs (6) vorgesehen ist; und eine Recheneinrichtung (11) vorgesehen ist, welche zur Inspektion der Bildaufnahme (9) des Untersuchungsbereichs (6) auf ein Vorliegen eines Fehlers (12) und bei einem Vorliegen wenigstens eines Fehlers (12) zur Charakterisierung des wenigstens einen Fehlers (12) anhand der Bildaufnahme (9) eingerichtet ist.
12. Vorrichtung (1) nach Anspruch 11 , dadurch gekennzeichnet, dass die Suchstrahlungsquelle (4) mehrere, vorzugsweise vier, schaltbare Quellsegmente (13) aufweist und/oder als Ringstrahlungsquelle ausgebildet ist und/oder an der Kameraeinrichtung (7), vorzugsweise an dem Kameraobjektiv (8) angeordnet ist.
13. Vorrichtung (1) nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass die Kameraeinrichtung (7) wenigstens einen optischen Filter (14) aufweist, welcher vorzugsweise zur Abblockung der Suchstrahlung (5) eingerichtet ist.
14. Vorrichtung (1) nach einem der Ansprüche 11 bis 13, dadurch gekennzeichnet, dass eine Fehlerentfernungseinrichtung (16) zur Entfernung des wenigstens einen Fehlers (12) vorgesehen ist, wobei die Fehlerentfernungseinrichtung (16) eine Markierungsstrahlungsquelle (17) zur optischen Markierung des Fehlers (12) aufweist; und/oder zur ferngesteuerten Bedienung eingerichtet ist; und/oder zur selbständigen Entfernung des Fehlers (12) eingerichtet ist.
15. Vorrichtung (1) nach einem der Ansprüche 11 bis 14, dadurch gekennzeichnet, dass die Suchstrahlungsquelle (4) und/oder die Kameraeinrichtung (7) und/oder die Lagebestimmungseinrichtung (10) und/oder die Fehlerentfernungseinrichtung (16), vorzugsweise als Teil einer Handhabungseinrichtung (15), zur automatisierten Inspektion des Bauteils (2) eingerichtet sind, und/oder an einer Handhabungseinrichtung (15) zur automatisierten Inspektion des Bauteils (2) angeordnet sind.
16. Vorrichtung (1) nach einem der Ansprüche 11 bis 15, dadurch gekennzeichnet, dass eine Abstandssensoreinrichtung (21) vorgesehen und eingerichtet ist, eine dreidimensionale Außenkontur des Bauteils (2) wenigstens teilweise systematisch abzutasten, wobei die Abstandssensoreinrichtung (21) vorzugsweise an einer Handhabungseinrichtung (15) zur automatisierten Inspektion des Bauteils (2) angeordnet ist.
17. Computerimplementiertes Verfahren zur Inspektion eines Bauteils (2), insbesondere eines Bauteils (2) eines Lithografiesystems (100,200), umfassend
Empfangen von Messdaten, darstellend
• wenigstens eine mittels einer Kameraeinrichtung (7) aufgenommene Bildaufnahme (9) eines in einer Dunkelkammer (2) mit einer Suchstrahlung (5) beleuchteten Untersuchungsbereichs (6) des Bauteils (2) sowie
• eine relative Position (10a) und Ausrichtung (10b) der Kameraeinrichtung (7) zu dem Bauteil (2) zum Zeitpunkt der Erfassung der Bildaufnahme (9) des Untersuchungsbereichs (6), und
Empfangen von Interpretationsdaten zu wenigstens einem Trainingsdaten darstellenden Teil der Messdaten, wobei die Interpretationsdaten Informationen über ein Vorliegen wenigstens eines Fehlers (12) in dem wenigstens einen Untersuchungsbereich (6) und eine Charakterisierung des wenigstens einen Fehlers (12) bei einem Vorliegen wenigstens eines Fehlers (12) enthalten, und
Trainieren eines Maschinenlernmodells anhand der Interpretationsdaten und der Trainingsdaten Automatisiertes Inspizieren der Messdaten auf ein Vorliegen wenigstens eines Fehlers (12) in dem wenigstens einen Untersuchungsbereich (6) mittels des Maschinenlernmodells, und
Automatisiertes Charakterisieren des wenigstens einen Fehlers (12) bei einem Vorliegen wenigstens eines Fehlers (12) mittels des Maschinenlernmodells. Lithografiesystem, insbesondere Projektionsbelichtungsanlage (100, 200) für die Halbleiterlithografie, mit mehreren Bauteilen (2), insbesondere einem Beleuchtungssystem (101 , 201) mit einer Strahlungsquelle (102) sowie einer Optik (103, 109, 206), welche wenigstens ein optisches Element (116, 118, 119, 120, 121 , 122, Mi, 207) aufweist, dadurch gekennzeichnet, dass wenigstens eines der Bauteile (2), insbesondere wenigstens eines der optischen Elemente (116, 118, 119, 120, 121 , 122, Mi, 207), mittels eines Verfahrens nach einem der Ansprüche 1 bis 10 inspiziert ist, und/oder mittels einer Vorrichtung (1) nach einem der Ansprüche 11 bis 16 inspiziert ist, und/oder mittels eines computerimplementierten Verfahrens nach Anspruch 17 inspiziert ist.
PCT/EP2023/069443 2022-07-27 2023-07-13 Verfahren, vorrichtung und computerimplementiertes verfahren zur inspektion eines bauteils, insbesondere eines bauteils eines lithografiesystems, sowie lithografiesystem WO2024022835A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022207687.7A DE102022207687A1 (de) 2022-07-27 2022-07-27 Verfahren und Vorrichtung zur Inspektion eines Bauteils, computerimplementiertes Verfahren und Lithografiesystem
DE102022207687.7 2022-07-27

Publications (1)

Publication Number Publication Date
WO2024022835A1 true WO2024022835A1 (de) 2024-02-01

Family

ID=87418748

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/069443 WO2024022835A1 (de) 2022-07-27 2023-07-13 Verfahren, vorrichtung und computerimplementiertes verfahren zur inspektion eines bauteils, insbesondere eines bauteils eines lithografiesystems, sowie lithografiesystem

Country Status (2)

Country Link
DE (1) DE102022207687A1 (de)
WO (1) WO2024022835A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022207687A1 (de) 2022-07-27 2024-02-01 Carl Zeiss Smt Gmbh Verfahren und Vorrichtung zur Inspektion eines Bauteils, computerimplementiertes Verfahren und Lithografiesystem

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996031767A1 (en) * 1995-04-05 1996-10-10 Contest Marketing Ab Apparatus for automatic magnetic particle inspection
US20020001405A1 (en) * 2000-06-30 2002-01-03 Nidek Co., Ltd. Defect inspection method and defect inspection apparatus
US6573978B1 (en) 1999-01-26 2003-06-03 Mcguire, Jr. James P. EUV condenser with non-imaging optics
US20030226951A1 (en) * 2002-06-07 2003-12-11 Jun Ye System and method for lithography process monitoring and control
JP2005208054A (ja) * 2003-12-25 2005-08-04 Showa Denko Kk 表面検査方法および同装置
US20060132747A1 (en) 2003-04-17 2006-06-22 Carl Zeiss Smt Ag Optical element for an illumination system
US20070122026A1 (en) * 2004-02-18 2007-05-31 Enis Ersue Method for planning an inspection path for determining areas that are to be inspected
US20070206184A1 (en) * 2006-03-01 2007-09-06 Sachio Uto Defect inspection method and system
US20080247630A1 (en) * 2006-12-08 2008-10-09 Olympus Corporation Defect inspecting apparatus and defect-inspecting method
DE102008009600A1 (de) 2008-02-15 2009-08-20 Carl Zeiss Smt Ag Facettenspiegel zum Einsatz in einer Projektionsbelichtungsanlage für die Mikro-Lithographie
JP2010025652A (ja) * 2008-07-17 2010-02-04 Nippon Steel Corp 表面疵検査装置
US20140320835A1 (en) * 2011-09-02 2014-10-30 Nikon Corporation Method and device for inspecting spatial light modulator, and exposure method and device
DE102016206088A1 (de) * 2016-04-12 2017-05-24 Carl Zeiss Smt Gmbh Verfahren zum Bestimmen der Dicke einer kontaminierenden Schicht und/oder der Art eines kontaminierenden Materials, optisches Element und EUV-Lithographiesystem
US20180074303A1 (en) 2015-04-14 2018-03-15 Carl Zeiss Smt Gmbh Imaging optical unit and projection exposure unit including same
US20200166467A1 (en) * 2018-11-27 2020-05-28 General Electric Company Fluorescent penetrant inspection system and method
EP3660492A2 (de) * 2018-11-27 2020-06-03 General Electric Company Fluoreszenzeindringprüfsystem und -verfahren
DE102018221825A1 (de) * 2018-12-14 2020-06-18 Carl Zeiss Industrielle Messtechnik Gmbh Beleuchtungseinrichtung für eine Kamera oder einen optischen Sensor
DE102020206753A1 (de) * 2020-05-29 2021-12-02 Carl Zeiss Smt Gmbh Verfahren und Vorrichtung zum Bestimmen eines Kontaminationszustands einer Oberfläche eines Facetten-Elements
DE102022207687A1 (de) 2022-07-27 2024-02-01 Carl Zeiss Smt Gmbh Verfahren und Vorrichtung zur Inspektion eines Bauteils, computerimplementiertes Verfahren und Lithografiesystem

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996031767A1 (en) * 1995-04-05 1996-10-10 Contest Marketing Ab Apparatus for automatic magnetic particle inspection
US6573978B1 (en) 1999-01-26 2003-06-03 Mcguire, Jr. James P. EUV condenser with non-imaging optics
US20020001405A1 (en) * 2000-06-30 2002-01-03 Nidek Co., Ltd. Defect inspection method and defect inspection apparatus
US20030226951A1 (en) * 2002-06-07 2003-12-11 Jun Ye System and method for lithography process monitoring and control
EP1614008B1 (de) 2003-04-17 2009-12-02 Carl Zeiss SMT AG Optisches element für ein beleuchtungssystem
US20060132747A1 (en) 2003-04-17 2006-06-22 Carl Zeiss Smt Ag Optical element for an illumination system
JP2005208054A (ja) * 2003-12-25 2005-08-04 Showa Denko Kk 表面検査方法および同装置
US20070122026A1 (en) * 2004-02-18 2007-05-31 Enis Ersue Method for planning an inspection path for determining areas that are to be inspected
US20070206184A1 (en) * 2006-03-01 2007-09-06 Sachio Uto Defect inspection method and system
US20080247630A1 (en) * 2006-12-08 2008-10-09 Olympus Corporation Defect inspecting apparatus and defect-inspecting method
DE102008009600A1 (de) 2008-02-15 2009-08-20 Carl Zeiss Smt Ag Facettenspiegel zum Einsatz in einer Projektionsbelichtungsanlage für die Mikro-Lithographie
JP2010025652A (ja) * 2008-07-17 2010-02-04 Nippon Steel Corp 表面疵検査装置
US20140320835A1 (en) * 2011-09-02 2014-10-30 Nikon Corporation Method and device for inspecting spatial light modulator, and exposure method and device
US20180074303A1 (en) 2015-04-14 2018-03-15 Carl Zeiss Smt Gmbh Imaging optical unit and projection exposure unit including same
DE102016206088A1 (de) * 2016-04-12 2017-05-24 Carl Zeiss Smt Gmbh Verfahren zum Bestimmen der Dicke einer kontaminierenden Schicht und/oder der Art eines kontaminierenden Materials, optisches Element und EUV-Lithographiesystem
US20200166467A1 (en) * 2018-11-27 2020-05-28 General Electric Company Fluorescent penetrant inspection system and method
EP3660492A2 (de) * 2018-11-27 2020-06-03 General Electric Company Fluoreszenzeindringprüfsystem und -verfahren
DE102018221825A1 (de) * 2018-12-14 2020-06-18 Carl Zeiss Industrielle Messtechnik Gmbh Beleuchtungseinrichtung für eine Kamera oder einen optischen Sensor
DE102020206753A1 (de) * 2020-05-29 2021-12-02 Carl Zeiss Smt Gmbh Verfahren und Vorrichtung zum Bestimmen eines Kontaminationszustands einer Oberfläche eines Facetten-Elements
DE102022207687A1 (de) 2022-07-27 2024-02-01 Carl Zeiss Smt Gmbh Verfahren und Vorrichtung zur Inspektion eines Bauteils, computerimplementiertes Verfahren und Lithografiesystem

Also Published As

Publication number Publication date
DE102022207687A1 (de) 2024-02-01

Similar Documents

Publication Publication Date Title
DE60016682T2 (de) Vorrichtung zur Photomaskeninspektion mittels Photolithographiesimulation
EP1446813B1 (de) Reflektives roentgenmikroskop zur untersuchung von objekten mit wellenlaengen = 100nm in reflexion
DE102010029049B4 (de) Beleuchtungsoptik für ein Metrologiesystem für die Untersuchung eines Objekts mit EUV-Beleuchtungslicht sowie Metrologiesystem mit einer derartigen Beleuchtungsoptik
DE19731291C2 (de) Katadioptrisches Abbildungssystem für ein breites Ultraviolett-Spektrum und dessen Verwendung
DE10220815A1 (de) Reflektives Röntgenmikroskop und Inspektionssystem zur Untersuchung von Objekten mit Wellenlängen 100 nm
DE60017566T2 (de) Breitbandiges katadioptrisches uv-abbildungssystem
EP0162120B1 (de) Verfahren und Einrichtung zur Oberflächenprüfung
DE102004029014B4 (de) Verfahren und System zur Inspektion eines Wafers
WO2016012425A2 (de) Abbildende optik für ein metrologiesystem zur untersuchung einer lithographiemaske
WO2005124422A1 (de) Vorrichtung und verfahren zur optischen auf- und/oder durchlichtinspektion von mikrostrukturen im ir
DE10220816A1 (de) Reflektives Röntgenmikroskop und Inspektionssystem zur Untersuchung von Objekten mit Wellenlängen 100 nm
DE112009000832T5 (de) System und Verfahren zur optischen Inspektion
DE102021118327B4 (de) Messkamera zur zweidimensionalen Vermessung von Gegenständen
WO2024022835A1 (de) Verfahren, vorrichtung und computerimplementiertes verfahren zur inspektion eines bauteils, insbesondere eines bauteils eines lithografiesystems, sowie lithografiesystem
DE102015201823B4 (de) Vorrichtung und Verfahren zur automatisierten Klassifizierung der Güte von Werkstücken
DE102022204995B4 (de) Vorrichtung zur automatisierten Inspektion von Oberflächen und Verfahren zur Inspektion von Oberflächen und Erfassung von Kontaminationen
DE102019213914A1 (de) Vorrichtung zur Reinigung einer Oberfläche im Inneren eines optischen Systems
DE102023201556A1 (de) EUV-Kollektor für eine EUV-Projektionsbelichtungsanlage
DE102011084255A1 (de) Vergrößernde abbildende Optik sowie Metrologiesystem mit einer derartigen abbildenden Optik
DE102014202132B4 (de) Vergrößernde abbildende Optik sowie EUV-Maskeninspektionssystem mit einer derartigen abbildenden Optik
DE102022200205B3 (de) EUV-Projektionsbelichtungsanlage und Verfahren zur Entfernung von Fremdkörpern
DE102017217680A1 (de) Projektionsobjektiv mit einem Messstrahlengang
DE102023211387A1 (de) Verfahren zur Überwachung einer Linse eines Lithografiesystems, Optikvorrichtung für ein Lithografiesystem und Lithografiesystem
DE102022202402A1 (de) Verfahren zur inspektion und reinigung von oberflächen von optischen elementen und vorrichtung hierfür
DE102022203150A1 (de) Optikvorrichtung, Verfahren zur Erfassung einer Temperaturverteilung und Lithografiesystem

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23744082

Country of ref document: EP

Kind code of ref document: A1