DE102022130975A1 - LOCALIZATION OF CONTAMINATIONS IN MICROSCOPY SYSTEMS - Google Patents

LOCALIZATION OF CONTAMINATIONS IN MICROSCOPY SYSTEMS Download PDF

Info

Publication number
DE102022130975A1
DE102022130975A1 DE102022130975.4A DE102022130975A DE102022130975A1 DE 102022130975 A1 DE102022130975 A1 DE 102022130975A1 DE 102022130975 A DE102022130975 A DE 102022130975A DE 102022130975 A1 DE102022130975 A1 DE 102022130975A1
Authority
DE
Germany
Prior art keywords
imaging
microscopy system
light
contamination
intensity images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022130975.4A
Other languages
German (de)
Inventor
Christian Dietrich
Michael Goelles
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Microscopy GmbH
Original Assignee
Carl Zeiss Microscopy GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Microscopy GmbH filed Critical Carl Zeiss Microscopy GmbH
Priority to DE102022130975.4A priority Critical patent/DE102022130975A1/en
Priority to CN202311571350.9A priority patent/CN118068552A/en
Publication of DE102022130975A1 publication Critical patent/DE102022130975A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0242Testing optical properties by measuring geometrical properties or aberrations
    • G01M11/0278Detecting defects of the object to be tested, e.g. scratches or dust
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0242Testing optical properties by measuring geometrical properties or aberrations
    • G01M11/0257Testing optical properties by measuring geometrical properties or aberrations by analyzing the image formed by the object to be tested
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens
    • G02B21/08Condensers
    • G02B21/14Condensers affording illumination for phase-contrast observation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/26Stages; Adjusting means therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0006Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means to keep optical surfaces clean, e.g. by preventing or removing dirt, stains, contamination, condensation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

Es werden Techniken beschrieben, wie eine Verschmutzungen von Optikkomponenten eines Mikroskopiesystems durch winkelvariable Beleuchtung und entsprechende Auswertung von erfassten Bildern lokalisiert werden können. Es kann dann eine Benutzerführung bereitgestellt werden, die den Benutzer zur Reinigung der betroffenen verschmutzten Optikkomponente anleitet.Techniques are described on how contamination of optical components of a microscopy system can be localized using angle-variable illumination and corresponding evaluation of captured images. A user guide can then be provided that instructs the user to clean the affected dirty optical component.

Description

TECHNISCHES GEBIETTECHNICAL AREA

Verschiedene Beispiele der Erfindung betreffen Techniken, um Verunreinigungen bzw. Verschmutzungen auf Optikkomponenten von Mikroskopiesystemen zu lokalisieren.Various examples of the invention relate to techniques for locating contaminants or dirt on optical components of microscopy systems.

HINTERGRUNDBACKGROUND

Verschmutzungen auf Optikkomponenten können die Qualität der Bildgebung, die mittels eines entsprechenden Mikroskopiesystems erzielbar ist, einschränken.Contamination on optical components can limit the quality of imaging that can be achieved using a corresponding microscopy system.

Die Erkenntnis, dass eine Optik verschmutzt ist, basiert meist auf einem veränderten, ungewohnten Bildeindruck, den ein Anwender hat. Durch graduelle Veränderungen ist die Verschmutzung manchmal nicht offensichtlich, und für manche Bildkontraste (z.B. Fluoreszenz) sind diese nicht sichtbar für den Anwender, führen aber zur Degradation der Bildqualität. Die Reinigung von Optikkomponenten erfolgt in der Praxis daher unsystematisch, meist auch ohne Wissen, auf welcher Komponente sich die Verunreinigung befindet.The realization that an optic is dirty is usually based on a changed, unusual image impression that a user has. Due to gradual changes, the contamination is sometimes not obvious, and for some image contrasts (e.g. fluorescence) it is not visible to the user, but leads to a degradation of the image quality. In practice, the cleaning of optic components is therefore carried out unsystematically, usually without knowing which component the contamination is on.

Aus DE 10 2016 108 079 A1 sind Techniken der digitalen Nachbearbeitung bekannt, mittels derer sich der Einfluss von Artefakten aufgrund von Verunreinigungen mittels winkelselektiver bzw. winkelvariabler Beleuchtung während der Bildgebung reduzieren lässt. Es wurde festgestellt, dass eine solche digitale Nachbearbeitung zur Reduktion der Abbildungsartefakte aufgrund von Verschmutzung in manchen Situationen aufgrund der inhärent damit einhergehenden Veränderung der erfassten Bilder vom Benutzer wenig gewünscht sein kann. Außerdem kann es manchmal nur eingeschränkt möglich sein, durch stärkere Verunreinigungen oder Verschmutzungen hervorgerufene Abbildungsartefakte durch digitale Nachbearbeitung zu beseitigen.Out of EN 10 2016 108 079 A1 Digital post-processing techniques are known that can be used to reduce the influence of artifacts caused by contamination by using angle-selective or angle-variable illumination during imaging. It has been found that such digital post-processing to reduce imaging artifacts caused by contamination may not be desirable for the user in some situations due to the inherent changes to the captured images. In addition, it may sometimes be only possible to a limited extent to remove imaging artifacts caused by more severe contamination or soiling by digital post-processing.

KURZE ZUSAMMENFASSUNG DER ERFINDUNGBRIEF SUMMARY OF THE INVENTION

Es besteht ein Bedarf für verbesserte Techniken, um Abbildungsartefakte aufgrund von Verschmutzung von Optikkomponenten eines Mikroskopiesystems zu vermeiden.There is a need for improved techniques to avoid imaging artifacts due to contamination of optical components of a microscopy system.

Diese Aufgabe wird gelöst von den Merkmalen der unabhängigen Patentansprüche. Die Merkmale der abhängigen Patentansprüche definieren Ausführungsformen.This problem is solved by the features of the independent patent claims. The features of the dependent patent claims define embodiments.

Mittels der hierin beschriebenen Techniken ist es möglich, die Position von Verschmutzungen im Abbildungsweg eines Mikroskopiesystems zu bestimmen.Using the techniques described herein, it is possible to determine the position of contaminants in the imaging path of a microscopy system.

Ein Mikroskopiesystem umfasst eine Abbildungsoptik. Die Abbildungsoptik weist eine Objektebene auf. Außerdem weist die Abbildungsoptik eine Abbildungsebene auf, die zur Objektebene konjugiert ist. Das Mikroskopiesystem umfasst auch ein Beleuchtungsmodul. Das Beleuchtungsmodul umfasst mehrere Lichtquellen, beispielsweise Leuchtdioden, die versetzt zueinander angeordnet sind. Das Mikroskopiesystem umfasst auch einen Detektor, welcher in der Abbildungsebene angeordnet ist. Ferner umfasst das Mikroskopiesystem mindestens einem Prozessor. Der mindestens eine Prozessor ist eingerichtet, um den Detektor und die mehreren Lichtquellen anzusteuern, um mehrere Intensitätsbilder zu erfassen. Diese mehreren Intensitätsbilder sind dabei mit Beleuchtung durch unterschiedliche Lichtquellen der mehreren Lichtquellen assoziiert. Der mindestens eine Prozessor ist weiterhin eingerichtet, um basierend auf unterschiedlichen Abbildungsorten eines Abbildungsartefakts in den mehreren Intensitätsbildern eine Verschmutzung, welche das Abbildungsartefakt verursacht, in Bezug auf Optikkomponenten des Mikroskopiesystems (also insbesondere in Bezug auf Optikkomponenten der Abbildungsoptik) zu lokalisieren.A microscopy system comprises an imaging optics. The imaging optics have an object plane. In addition, the imaging optics have an imaging plane that is conjugated to the object plane. The microscopy system also comprises an illumination module. The illumination module comprises a plurality of light sources, for example light-emitting diodes, which are arranged offset from one another. The microscopy system also comprises a detector that is arranged in the imaging plane. Furthermore, the microscopy system comprises at least one processor. The at least one processor is configured to control the detector and the plurality of light sources in order to capture a plurality of intensity images. These plurality of intensity images are associated with illumination by different light sources of the plurality of light sources. The at least one processor is further configured to localize contamination that causes the imaging artifact in relation to optical components of the microscopy system (i.e. in particular in relation to optical components of the imaging optics) based on different imaging locations of an imaging artifact in the plurality of intensity images.

Es wäre möglich, dass die mehreren Lichtquellen in einer Beleuchtungspupillenebene angeordnet sind. Es wäre aber auch denkbar, dass die Lichtquellen versetzt bzw. beabstandet zur Pupillenebene angeordnet sind.It would be possible for the multiple light sources to be arranged in an illumination pupil plane. However, it would also be conceivable for the light sources to be offset or spaced apart from the pupil plane.

Das Beleuchtungsmodul kann in Durchlichtgeometrie in Bezug auf die Objektebene angeordnet sein.The illumination module can be arranged in transmitted light geometry with respect to the object plane.

Das Beleuchtungsmodul kann in Köhler-Geometrie angeordnet sein.The lighting module can be arranged in Köhler geometry.

Das Beleuchtungsmodul kann also zum Beispiel einen Träger aufweisen, auf dem die mehreren Lichtquellen angeordnet sind. Der Träger kann in der Beleuchtungspupillenebene angeordnet sein. Das Beleuchtungsmodul kann eine Leuchtfeldblende aufweisen. Das Beleuchtungsmodul kann eine Kondensorlinse und eine zugehörige Kondensorblende, die zwischen der Kondensorlinse und der Beleuchtungspupillenebene angeordnet ist, aufweisen.The illumination module can therefore, for example, have a carrier on which the plurality of light sources are arranged. The carrier can be arranged in the illumination pupil plane. The illumination module can have a luminous field diaphragm. The illumination module can have a condenser lens and an associated condenser diaphragm arranged between the condenser lens and the illumination pupil plane.

Zwischen der Kondensorlinse und einer Objektivlinse der Abbildungsoptik kann dann die Objektebene angeordnet sein. Auf die Objektivlinse kann eine Tubuslinse folgen. Diese kann eine Zwischenbildebene, die konjugiert mit der Objektebene ist, definieren. Die Zwischenbildebene kann dann über eine Relaisoptik auf den Detektor bzw. die Abbildungsebene abgebildet werden.The object plane can then be arranged between the condenser lens and an objective lens of the imaging optics. The objective lens can be followed by a tube lens. This can define an intermediate image plane that is conjugated with the object plane. The intermediate image plane can then be imaged onto the detector or the imaging plane via relay optics.

Der mindestens eine Prozessor kann eingerichtet sein, um die mehreren Lichtquellen so anzusteuern, dass die mehreren Intensitätsbilder jeweils mit der Beleuchtung einer der mehreren Lichtquellen assoziiert sind. Beispielsweise könnte die Aktivierung der Lichtquellen nacheinander im Zeitraum erfolgen. Es könnte erst eine erste Leuchtdiode angesteuert werden, sodass diese Licht aussendet; dann könnte ein entsprechendes Intensitätsbild erfasst werden; dann könnte der Vorgang mit einer weiteren Leuchtdiode wiederholt werden. Es wäre aber auch denkbar, dass die mehreren Lichtquellen Licht unterschiedlicher Wellenlängen aussenden. Dann wäre es möglich, dass ein zumindest teilweise zeitparalleles Beleuchten mittels der mehreren Lichtquellen erfolgt; wobei dann eine spektrale Trennung entweder durch Verwendung geeigneter Filter oder Detektorelemente des Detektors erfolgen kann. Beispielsweise könnten rot-grün-blau Leuchtdioden verwendet werden, die drei Kanäle aufweisen, die individuell angesteuert werden können; der Detektor kann entsprechend drei Kanäle für rot-grün-blau aufweisen.The at least one processor may be configured to control the plurality of light sources control that the multiple intensity images are each associated with the illumination of one of the multiple light sources. For example, the light sources could be activated one after the other over a period of time. First, a first light-emitting diode could be controlled so that it emits light; then a corresponding intensity image could be recorded; then the process could be repeated with another light-emitting diode. However, it would also be conceivable for the multiple light sources to emit light of different wavelengths. It would then be possible for the multiple light sources to illuminate at least partially in parallel; in which case spectral separation can be achieved either by using suitable filters or detector elements of the detector. For example, red-green-blue light-emitting diodes could be used which have three channels that can be controlled individually; the detector can accordingly have three channels for red-green-blue.

Eine solche Beleuchtung kann auch als winkelvariable oder winkelselektive Beleuchtung bezeichnet werden. Dies liegt daran, dass durch die zueinander versetzte Anordnung der Lichtquellen (senkrecht zur optischen Achse des Strahlengangs des Mikroskopiesystems) unterschiedliche Winkel der Beleuchtung in der Objektebene erzeugt werden können. Das bedeutet, dass die verschiedenen Intensitätsbilder mit unterschiedlichen Beleuchtungsrichtungen assoziiert sind. Die Objektebene wird unter verschiedenen Winkeln großflächig ausgeleuchtet.Such illumination can also be referred to as angle-variable or angle-selective illumination. This is because the offset arrangement of the light sources (perpendicular to the optical axis of the beam path of the microscopy system) allows different angles of illumination to be generated in the object plane. This means that the different intensity images are associated with different illumination directions. The object plane is illuminated over a large area at different angles.

Auch Verunreinigungen bzw. Störstrukturen werden schräg beleuchtet. Wird eine Verunreinigung (die nicht notwendigerweise in der Objektebene angeordnet sein muss) unter unterschiedlichen Winkeln beleuchtet (was durch die mehreren Lichtquellen bzw. die winkelvariable Beleuchtung ermöglicht wird), führt dies zu einem Versatz der Abbildungsorte eines entsprechenden Abbildungsartefakts, das durch die Verunreinigung hervorgerufen wird, in der Abbildungsebene. Die Abbildungsorte des Abbildungsartefakts bzw. der entsprechende Versatz zwischen zwei Paaren von Abbildungsorten, die für unterschiedliche Beleuchtungsrichtungen, die durch das Aktivieren unterschiedlicher Lichtquellen erzielt werden, hervorgerufen wird, ist abhängig von der Position der zugehörigen Verschmutzung im Strahlengang des Lichts durch das Mikroskopiesystem und insbesondere die Abbildungsoptik. Dies kann ausgenutzt werden, um die Verschmutzung in Bezug auf Optikkomponenten der Abbildungsoptik zu lokalisieren.Contaminants or disruptive structures are also illuminated at an angle. If a contamination (which does not necessarily have to be located in the object plane) is illuminated at different angles (which is made possible by the multiple light sources or the angle-variable illumination), this leads to an offset of the imaging locations of a corresponding imaging artifact caused by the contamination in the imaging plane. The imaging locations of the imaging artifact or the corresponding offset between two pairs of imaging locations caused for different illumination directions achieved by activating different light sources depends on the position of the associated contamination in the beam path of the light through the microscopy system and in particular the imaging optics. This can be exploited to localize the contamination in relation to optical components of the imaging optics.

Es ist möglich, die Verschmutzung axial - das heißt entlang der optischen Hauptachse der Abbildungsoptik - zu lokalisieren. Optional ist es auch möglich, die Verschmutzung lateral zu lokalisieren, das heißt einen Abstand der Verschmutzung zur optischen Hauptachse zu bestimmen.It is possible to locate the contamination axially - that is, along the main optical axis of the imaging optics. Optionally, it is also possible to locate the contamination laterally, that is, to determine the distance of the contamination from the main optical axis.

Beispielsweise könnte im Rahmen der Lokalisierung bestimmt werden, welche optische Komponente, beispielsweise eine Linse oder ein Filter, bei oder nahebei der geschätzten Position der Verschmutzung lokalisiert ist. Die Verschmutzung, typischerweise Staubpartikel oder anderer Schmutz aus der Umgebung, sind dann mit hoher Wahrscheinlichkeit auf einer Oberfläche der entsprechenden optischen Komponente angeordnet; sodass eine Säuberung dieser optischen Komponente zielgerichtet das Abbildungsartefakt reduzieren lässt. Beispielsweise könnte die Lokalisierung auch die Bestimmung der Oberfläche, das heißt zum Beispiel eine vordere oder hintere Oberfläche, der entsprechenden Optikkomponente, die mutmaßlich verschmutzt ist, umfassen.For example, as part of the localization, it could be determined which optical component, for example a lens or a filter, is located at or near the estimated position of the contamination. The contamination, typically dust particles or other dirt from the environment, is then most likely located on a surface of the corresponding optical component; so that cleaning this optical component can be targeted to reduce the imaging artifact. For example, the localization could also include determining the surface, i.e., for example, a front or rear surface, of the corresponding optical component that is presumably contaminated.

Durch solche Techniken kann also eine zielgerichtete Reinigung des Mikroskopiesystems bzw. der Optikkomponenten angestoßen werden. Insgesamt kann dadurch die Bildqualität während eines Bildgebungsmodus verbessert werden.Such techniques can be used to initiate targeted cleaning of the microscopy system or the optical components. Overall, this can improve the image quality during an imaging mode.

In Beispielen ist der mindestens eine Prozessor eingerichtet, um basierend auf den unterschiedlichen Abbildungsorten des Abbildungsartefakts und unter Verwendung eines strahlenoptischen Modells der Abbildungsoptik eine strahlenoptische Lichtstrahlenausbreitung zu berechnen. Derart kann die Verschmutzung in Bezug auf die Optikkomponenten der Abbildungsoptik lokalisiert werden.In examples, the at least one processor is configured to calculate a ray-optical light beam propagation based on the different imaging locations of the imaging artifact and using a ray-optical model of the imaging optics. In this way, the contamination can be localized with respect to the optical components of the imaging optics.

Beispielsweise ist es möglich, dass unter Kenntnis der Anordnung der verschiedenen Optikkomponenten der Abbildungsoptik eine Rückverfolgung von Lichtstrahlen ausgehend von der Objektebene erfolgt (engl. „ray tracing“), um die Verschmutzung zu lokalisieren. Dies ermöglicht eine besonders genaue Lokalisierung der Verschmutzung.For example, it is possible to trace light rays back from the object plane (ray tracing) to locate the contamination by knowing the arrangement of the various optical components of the imaging optics. This enables particularly precise localization of the contamination.

Beispielsweise könnte eine strahlenoptische Triangulation durchgeführt werden. Es können noch mehr als zwei Strahlen verwendet werden, das heißt es kann eine strahlenoptische Multiangulation von zwei oder mehr Lichtstrahlen, die mit den unterschiedlichen Abbildungsorten assoziiert sind, verwendet werden, um beispielsweise den axialen Abstand zwischen der Abbildungsebene und der Verschmutzung zu bestimmen. Dies ermöglicht eine wenig rechenintensive Lokalisierung der Verschmutzung; die Genauigkeit kann ausreichend sein, um eine bestimmte Optikkomponente zu erkennen, die mutmaßlich verschmutzt ist.For example, ray optical triangulation could be performed. Even more than two rays can be used, i.e. ray optical multiangulation of two or more light rays associated with the different imaging locations can be used to determine, for example, the axial distance between the imaging plane and the contamination. This enables a low computational effort to localize the contamination; the accuracy can be sufficient to detect a specific optical component that is suspected to be contaminated.

Das strahlenoptische Modell der Abbildungsoptik kann dabei entsprechend die axiale Anordnung (das heißt die Positionierung der optischen Hauptebene entlang der optischen Hauptachse) von mehreren Linsen und/oder Filtern usw. der Abbildungsoptik umfassen. Alternativ oder zusätzlich kann das strahlenoptische Modell die Brennweiten der mehreren Linsen und/oder eine axiale Dicke der Linsen oder anderer optischer Komponenten umfassen. Derart können besonders genaue Instruktionen an den Benutzer ausgegeben werden, beispielsweise hinsichtlich einer verunreinigten Oberfläche der entsprechenden Optikkomponente.The ray optical model of the imaging optics can accordingly include the axial arrangement (i.e. the positioning of the main optical plane along the main optical axis) of several lenses and/or filters etc. of the imaging optics. Alternatively or additionally, the ray optical model can include the focal lengths of the several lenses and/or an axial thickness of the lenses or other optical components. In this way, particularly precise instructions can be issued to the user, for example with regard to a contaminated surface of the corresponding optical component.

Um auch Zugang zu Pupillenebenen der Optik zu erreichen, kann mittels einer einbringbaren Zusatzoptik - beispielsweise einer Bertrand-Optik - oder durch Entfernung von bestimmten Optikkomponenten (z.B. Objektiv) die Ausleuchtung der Pupillenebene erreicht werden. Das Mikroskopiesystem kann also ein wahlweise in den Strahlengang der Abbildungsoptik positionierbares optisches Element umfassen. Dieses kann eingerichtet sein, um die Beleuchtungspupillenebene auf die Abbildungsebene abzubilden. Der mindestens eine Prozessor kann dann eingerichtet sein, um den Detektor und die mehreren Lichtquellen zum Erfassen der mehreren Intensitätsbildern in einem Diagnosemodus anzusteuern, in dem das optische Element im Strahlengang positioniert ist. Durch die Verwendung des Diagnosemodus, kann eine geeignete Beleuchtung verwendet werden, die für die Bildgebung eines Probenobjekts nicht geeignet ist; sich aber besonders gut eignet, um die Verunreinigung zu lokalisieren. Dadurch kann die Verunreinigung genauer lokalisiert werden. Eine robustere Erkennung der Abbildungsartefakte wird ermöglicht. Allgemeiner formuliert können in bestimmten Beispielen im Diagnosemodus mehrere Sätze von Intensitätsbildern erfasst werden. Dabei kann die Konfiguration des Strahlengangs des Lichts durch das Mikroskopiesystem jeweils angepasst werden, das heißt jeder Satz von Intensitätsbildern wird mit einer entsprechenden Konfiguration des Strahlengangs des Lichts erfasst. Beispielsweise kann in einer ersten Konfiguration die Bertrand-Optik im Strahlengang angeordnet sein und in einer zweiten Konfiguration die Bertrand-Optik nicht im Strahlengang angeordnet sein. Weitere Beispiele betreffen zum Beispiel die Variation einer Brennweite eines Objektivs zwischen den verschiedenen Konfigurationen, Variation eines Vergrößerungsfaktors/Zoom-Faktors eines variablen Zoom-Systems, oder die Verwendung von unterschiedlichen Feldblenden. Eine Veränderung der Brennweite des Objektivs kann zum Beispiel durch den Tausch des Objektivs erreicht werden, beispielsweise kann ein Objektiv-Revolver verwendet werden, welcher mehrere Objektive zur selektiven Einbringung in den Strahlengang bereitstellt. Die Veränderungen des Vergrößerungsfaktors kann zum Beispiel durch die Veränderung eines Abstands zwischen zwei Zoom-Linsen eines Zoom-Systems parallel zum Strahlengang erreicht werden (z-Antrieb).In order to also gain access to pupil planes of the optics, the illumination of the pupil plane can be achieved by means of an insertable additional optic - for example a Bertrand optic - or by removing certain optical components (e.g. lens). The microscopy system can therefore comprise an optical element that can be optionally positioned in the beam path of the imaging optics. This can be set up to image the illumination pupil plane onto the imaging plane. The at least one processor can then be set up to control the detector and the multiple light sources for capturing the multiple intensity images in a diagnostic mode in which the optical element is positioned in the beam path. By using the diagnostic mode, suitable lighting can be used that is not suitable for imaging a sample object, but is particularly suitable for locating the contamination. This allows the contamination to be located more precisely. A more robust detection of the imaging artifacts is made possible. More generally, in certain examples, multiple sets of intensity images can be captured in the diagnostic mode. The configuration of the beam path of the light through the microscopy system can be adjusted in each case, i.e. each set of intensity images is captured with a corresponding configuration of the beam path of the light. For example, in a first configuration the Bertrand optics can be arranged in the beam path and in a second configuration the Bertrand optics can not be arranged in the beam path. Other examples include, for example, the variation of a focal length of an objective between the different configurations, variation of a magnification factor/zoom factor of a variable zoom system, or the use of different field stops. A change in the focal length of the objective can be achieved, for example, by changing the objective. For example, an objective turret can be used which provides several objectives for selective introduction into the beam path. The changes in the magnification factor can be achieved, for example, by changing a distance between two zoom lenses of a zoom system parallel to the beam path (z drive).

Der Diagnosemodus ist - unter anderem aufgrund der Abbildung der Beleuchtungspupillenebene auf die Abbildungsebene wie in dem Beispiel beschrieben - nicht zur eigentlichen Bildgebung von Objekten, die in der Objektebene angeordnet sind, beispielsweise von Probenobjekten oder zu untersuchenden Probenstücken, geeignet. Entsprechend kann der Diagnosemodus zielgerichtet aktiviert werden, wenn eine Verschmutzung der Abbildungsoptik erkannt werden soll bzw. die Verschmutzung lokalisiert werden soll. Der Diagnosemodus ist auf der anderen Seite nicht für Bildgebung eines Probenobjekts, welches in der Objektebene angeordnet ist, geeignet. Ein vorteilhaftes Vorgehen ist es im Diagnosemodus das Probenobjekt zu entfernen, da deren Bildeffekte die Schmutzeffekte überlagern und damit weniger gut sichtbar oder lokalisierbar machen. Weiterhin kann es bei motorisierten Systemen vorteilhaft sein, optische Elemente wie z.B. das Objektiv, im Diagnoseprozess zu wechseln oder zu verändern, um eine weitere Parametrisierung der beobachteten Artefaktpositionen zu erhalten, um eindeutige Zuordnungen der Artefakte zu verschmutzen Grenzflächen zu erhalten. So würde im einfachsten Fall bei einer verschmutzen Objektivlinse die einen Artefakt hervorruft, dieser bei Wechsel auf ein anderes Objektiv verschwinden. Weiterhin kann es sinnvoll sein Immersionsobjektive im Diagnosemodus ohne Probensubstrat und damit Immersion zu betreiben, um den Reinigungszustande des Objektivs zu bewerten. Vorteilhaft ist, dass über eine Kontrolleinheit verschiedenen Konfigurationen möglichst automatisiert abgefragt oder eingestellt werden können oder zumindest für eine Verrechnungseinheit als mögliche Konstellationen hinterlegt sind, um daraus Aussagen für mögliche Verschmutzungspositionen abzuleiten.The diagnostic mode is not suitable for the actual imaging of objects that are arranged in the object plane, for example sample objects or sample pieces to be examined, due to the mapping of the illumination pupil plane onto the imaging plane as described in the example. Accordingly, the diagnostic mode can be activated in a targeted manner if contamination of the imaging optics is to be detected or the contamination is to be localized. On the other hand, the diagnostic mode is not suitable for imaging a sample object that is arranged in the object plane. An advantageous approach is to remove the sample object in the diagnostic mode, as its image effects overlay the dirt effects and thus make them less visible or localizable. Furthermore, with motorized systems it can be advantageous to change or modify optical elements such as the lens in the diagnostic process in order to obtain further parameterization of the observed artifact positions in order to obtain clear assignments of the artifacts to dirty interfaces. In the simplest case, if a dirty objective lens causes an artifact, this would disappear when changing to another lens. It can also be useful to operate immersion lenses in diagnostic mode without a sample substrate and thus immersion in order to evaluate the cleaning status of the lens. It is advantageous that various configurations can be queried or set as automatically as possible via a control unit or at least stored as possible constellations for a calculation unit in order to derive statements about possible contamination positions.

Das strahlenoptische Modell, welches zur Lokalisierung der Verschmutzung in Bezug auf die Optikkomponenten verwendet wird, kann dann die Verwendung eines entsprechenden optischen Elements, das im Strahlengang positioniert ist, und die Beleuchtungspupillenebene auf die Abbildungsebene abbildet, berücksichtigen. Dadurch kann weitere Informationen Zusammenhang mit der Lokalisierung der Verunreinigung erhalten werden. Insbesondere kann dadurch eine robustere und genauere Lokalisierung der Verunreinigung ermöglicht werden.The ray optical model used to localize the contamination in relation to the optical components can then take into account the use of a corresponding optical element positioned in the beam path and mapping the illumination pupil plane onto the imaging plane. This can provide further information related to the localization of the contamination. In particular, this can enable a more robust and accurate localization of the contamination.

Die verschiedenen voranstehend beschriebenen Techniken beruhen auf der Bestimmung von Abbildungsorten des Abbildungsartefakts in den mehreren Intensitätsbildern. Dabei gibt es grundsätzlich unterschiedliche Möglichkeiten, um diese Abbildungsorte in den verschiedenen Intensitätsbildern, die zum Beispiel aufgeteilt im Zeitraum oder im Spektralraum erfasst wurden, wie obenstehend beschrieben, zu bestimmen. Beispielsweise könnte eine entsprechende Erkennung computerimplementiert erfolgen. Der mindestens eine Prozessor kann weiterhin eingerichtet sein, um das Abbildungsartefakt mit einem Detektor-Algorithmus in den mehreren Intensitätsbildern zu lokalisieren. Beispielsweise könnte ein maschinengelernter Algorithmus verwendet werden. Beispielsweise könnte ein künstliches neuronales Netzwerk verwendet werden. Das künstliche neuronale Netzwerk könnte als Eingabe jeweils die verschiedenen Intensitätsbilder erhalten. Das künstliche neuronale Netzwerk kann trainiert werden, um basierend auf solchen Intensitätsbildern Verschmutzungen zu lokalisieren. Beispielsweise könnte das Training mittels manuell annotierten Trainingsbildern erfolgen. Ein künstliches neuronales Netzwerk, welches eine solche Verarbeitung im Bildraum bereitstellen kann, ist zum Beispiel ein tiefes Faltungsnetzwerk, welches Faltungsschichten umfasst, bei denen die Eingabegewichte mit im Training bestimmten Kernen gefaltet werden. Solche Techniken beruhen auf der Erkenntnis, dass die Größe, Kontrastierung und Beugungsstruktur von Abbildungsartefakten aufgrund von Verschmutzung durch die typischerweise wiederkehrenden Arten von Verschmutzung (Staub, Fussel, usw.) ein ähnliches Erscheinungsbild aufweisen, sodass eine computerimplementierte Erkennung gute Genauigkeiten erzielen kann.The various techniques described above are based on the determination of the imaging locations of the imaging artifact in the multiple intensity images. There are basically different ways to do this To determine imaging locations in the various intensity images, which were captured, for example, divided into time periods or in spectral space, as described above. For example, corresponding detection could be computer-implemented. The at least one processor can also be set up to localize the imaging artifact in the multiple intensity images using a detector algorithm. For example, a machine-learned algorithm could be used. For example, an artificial neural network could be used. The artificial neural network could receive the various intensity images as input. The artificial neural network can be trained to localize contamination based on such intensity images. For example, training could be done using manually annotated training images. An artificial neural network that can provide such processing in image space is, for example, a deep convolutional network that includes convolutional layers in which the input weights are convolved with kernels determined during training. Such techniques are based on the realization that the size, contrast and diffraction structure of imaging artifacts due to contamination by the typically recurring types of contamination (dust, lint, etc.) have a similar appearance, so that computer-implemented detection can achieve good accuracies.

Eine beispielhafte Implementierung für den Detektor-Algorithmus wäre zum Beispiel ein Autoencoder-Netzwerk. Das Autoencoder-Netzwerk kann eine Kontraktion von räumlichen Merkmalen hinzu einem Flaschenhals durchführen („encoder branch“) und dann eine Expansion ausgehend von dem latenten Merkmalsvektor im Flaschenhals, korrelieren mit der Kontraktion durchführen („deocder branch“). Das bedeutet, dass das Autoencoder-Netzwerk trainiert sein kann, um eine Eingabe (zum Beispiel ein Intensitätsbild) möglichst gut zu rekonstruieren. Dabei kann das Autoencoder-Netzwerk basierend auf Trainingsdaten trainiert werden, die für ein gut gereinigtes Mikroskopiesystem erhalten werden, das heißt ohne oder ohne signifikante Abbildungsartefakte. Tritt nunmehr ein Abbildungsartefakt auf, so ist die Ausgabe des Autoencoder-Netzwerks signifikant verschieden von der Eingabe des Autoencoder-Netzwerks; das heißt das Autoencoder-Netzwerk kann das eingegebene Intensitätsbild nur unzureichend rekonstruieren. Insbesondere im Bereich des Abbildungsartefakte liegt eine signifikante pixelweise Differenz zwischen dem eingegebenen Intensitätsbild und der Rekonstruktion durch das Autoencoder-Netzwerk vor. Derart kann mittels entsprechender Techniken der Anomaliedetektion ein Abbildungsartefakt erkannt werden. Der Vorteil des Autoencoder-Netzwerks liegt darin, dass ein nicht überwachtes Training möglich ist, basierend auf einer Verlustfunktion, die automatisch durch einen Vergleich der Eingabe mit der Ausgabe berechnet wird. Neben einer solchen Implementierung des Detektor-Algorithmus durch ein Autoencoder-Netzwerk werden aber auch andere Implementierungen denkbar, insbesondere andere Anomaliedetektionsalgorithmen.An example implementation for the detector algorithm would be an autoencoder network. The autoencoder network can perform a contraction of spatial features to a bottleneck (“encoder branch”) and then perform an expansion starting from the latent feature vector in the bottleneck, correlating with the contraction (“decoder branch”). This means that the autoencoder network can be trained to reconstruct an input (for example an intensity image) as well as possible. The autoencoder network can be trained based on training data obtained for a well-cleaned microscopy system, i.e. with no or no significant imaging artifacts. If an imaging artifact now occurs, the output of the autoencoder network is significantly different from the input of the autoencoder network; i.e. the autoencoder network can only inadequately reconstruct the input intensity image. In particular, in the area of imaging artifacts, there is a significant pixel-by-pixel difference between the input intensity image and the reconstruction by the autoencoder network. In this way, an imaging artifact can be detected using appropriate anomaly detection techniques. The advantage of the autoencoder network is that unsupervised training is possible, based on a loss function that is automatically calculated by comparing the input with the output. In addition to such an implementation of the detector algorithm by an autoencoder network, other implementations are also conceivable, in particular other anomaly detection algorithms.

Der mindestens eine Prozessor könnte auch eingerichtet sein, um das Abbildungsartefakt - alternativ oder zusätzlich zu einem Detektor-Algorithmus - basierend auf einer Benutzereingabe in den mehreren Intensitätsbildern zu lokalisieren. Das bedeutet also, dass die verschiedenen Intensitätsbilder zum Beispiel einem Benutzer präsentiert werden könnten und der Benutzer könnte dann in den verschiedenen Intensitätsbildern jeweils den Abbildungsort eines Abbildungsartefakts markieren. Eine solche Benutzereingabe könnte auch unterstützt werden, indem zunächst der Detektor-Algorithmus ausgeführt wird, und dann Kandidaten für Abbildungsorte des Abbildungsartefakts in einem entsprechenden grafischen Benutzerinterface einem Benutzer präsentiert werden; der Benutzer kann dann jeweils wahlweise bestätigen, dass an bestimmten Abbildungsorten tatsächlich ein und dasselbe Abbildungsartefakt in den mehreren Intensitätsbildern angeordnet ist. Durch solche Techniken kann das Abbildungsartefakt, welches durch eine Verunreinigung in den Intensitätsbildern erzeugt wird, erkannt werden; beispielsweise auch, wenn es sich um bisher unbekannte Abbildungsartefakte handelt.The at least one processor could also be configured to locate the imaging artifact - alternatively or in addition to a detector algorithm - in the multiple intensity images based on a user input. This means that the different intensity images could be presented to a user, for example, and the user could then mark the imaging location of an imaging artifact in each of the different intensity images. Such user input could also be supported by first executing the detector algorithm and then presenting candidates for imaging locations of the imaging artifact to a user in a corresponding graphical user interface; the user can then optionally confirm that one and the same imaging artifact is actually located at certain imaging locations in the multiple intensity images. Such techniques can be used to detect the imaging artifact that is generated by contamination in the intensity images; for example, even if the imaging artifacts are previously unknown.

Neben einer solchen Detektion/Lokalisierung von Abbildungsartefakten, kann optional auch eine Klassifikation von Abbildungsartefakten erfolgen. Beispielsweise könnte der mindestens eine Prozessor weiterhin eingerichtet sein, um basierend auf dem Erscheinungsbild des Abbildungsartefakts in den mehreren Intensitätsbildern mit einem vortrainierten Klassifikator-Algorithmus einen Typ der Verschmutzung zu bestimmen. Beispielsweise könnte unterschieden werden zwischen ein oder mehreren der folgenden Typen von Verschmutzung: Staub; Fussel; Kratzer; Fettfleck; Flüssigkeitstropfen; usw. Solche Techniken beruhen auf der Erkenntnis, dass aufgrund des charakteristischen Erscheinungsbilds von Abbildungsartefakten in den Intensitätsbildern bereits eine gute Aussage über den Typ der Verschmutzung zu treffen ist. Der Typ der Verschmutzung beeinflusst dann häufig auch die Art der Reinigung. Beispielsweise könnte ein Fettfleck mittels Lösungsmittel, beispielsweise Aceton oder Isopropanol, entfernt werden. Andererseits könnte zum Beispiel Staub oder ein Fussel mittels Druckluft entfernt werden. Ein Kratzer kann nicht einfach entfernt werden, sodass ein Austauschen der entsprechenden Optikkomponente erforderlich sein kann. Eine entsprechende Benutzerführung kann an den Benutzer ausgegeben werden, indem eine Benutzerschnittstelle mit entsprechender Information zur Verschmutzung angesteuert wird. Durch eine solche Klassifikation von Abbildungsartefakte kann der Benutzer also bei der Reinigung weiter unterstützt werden.In addition to such detection/localization of imaging artifacts, classification of imaging artifacts can optionally also be carried out. For example, the at least one processor could also be set up to determine a type of contamination based on the appearance of the imaging artifact in the multiple intensity images using a pre-trained classifier algorithm. For example, a distinction could be made between one or more of the following types of contamination: dust; lint; scratches; grease stains; liquid drops; etc. Such techniques are based on the knowledge that a good statement about the type of contamination can already be made based on the characteristic appearance of imaging artifacts in the intensity images. The type of contamination then often also influences the type of cleaning. For example, a grease stain could be removed using a solvent, such as acetone or isopropanol. On the other hand, dust or lint could be removed using compressed air. A scratch cannot be easily removed, so that it may be necessary to replace the corresponding optical component. A suitable Appropriate user guidance can be provided to the user by controlling a user interface with appropriate information on the contamination. This type of classification of imaging artifacts can therefore provide the user with further support during cleaning.

Der Klassifikator-Algorithmus kann beispielsweise basierend auf den Intensitätsbildern sowie eine Ausgabe des vorgelagerten Detektor-Algorithmus, sofern dieser angewendet wird, operieren. Der Klassifikator-Algorithmus könnte wiederum als künstliches neuronales Netzwerk, insbesondere ein künstliches neuronales Faltungsnetzwerk, ausgebildet sein. Der Klassifikator-Algorithmus kann trainiert werden, indem Trainingsbilder manuell annotiert werden mit einer Grundwahrheit, welche den Typ der Verschmutzung betrifft. Der Klassifikator-Algorithmus könnte beispielsweise auf Bild-Patches arbeiten, die aus den Intensitätsbildern extrahiert werden, beispielsweise basierend auf einer Ausgabe des Detektor-Algorithmus. Der Detektor-Algorithmus könnte ein entsprechendes Abbildungsartefakt detektieren und in dem entsprechenden Intensitätsbild lokalisieren; dann könnte ein Bild-Patch, welches an der entsprechenden Position zentriert ist, extrahiert werden, und als Eingabe in den Klassifikator-Algorithmus übergeben werden.The classifier algorithm may, for example, operate based on the intensity images and an output of the upstream detector algorithm, if applied. The classifier algorithm could in turn be designed as an artificial neural network, in particular an artificial convolutional neural network. The classifier algorithm can be trained by manually annotating training images with a ground truth concerning the type of contamination. The classifier algorithm could, for example, operate on image patches extracted from the intensity images, for example based on an output of the detector algorithm. The detector algorithm could detect a corresponding imaging artifact and locate it in the corresponding intensity image; then an image patch centered at the corresponding position could be extracted and passed as input to the classifier algorithm.

Als allgemeine Regel kann neben einer solchen Implementierung des Detektor-Algorithmus und/oder des Klassifikator-Algorithmus mittels eines künstlichen neuronalen Netzwerks auch eine andere Implementierung verwendet werden. Beispielsweise könnten herkömmliche Detektor-Algorithmen oder herkömmliche Klassifikator-Algorithmen, die nicht Techniken des maschinellen Lernens einsetzen, verwendet werden. Entsprechende Techniken sind dem Fachmann grundsätzlich aus dem Stand der Technik gut bekannt, sodass hier keine weiteren Details erläutert werden müssen.As a general rule, in addition to such an implementation of the detector algorithm and/or the classifier algorithm using an artificial neural network, another implementation can also be used. For example, conventional detector algorithms or conventional classifier algorithms that do not use machine learning techniques could be used. Such techniques are generally well known to the person skilled in the art from the prior art, so no further details need to be explained here.

In den verschiedenen Beispielen ist es dann möglich, dass der mindestens eine Prozessor eingerichtet ist, um eine Benutzerschnittstelle anzusteuern, um Information zu Verschmutzung an einen Benutzer auszugeben.In the various examples, it is then possible that the at least one processor is configured to control a user interface to output information about contamination to a user.

Beispielsweise könnte eine grafische Benutzerschnittstelle verwendet werden. Es könnte eine Webseite verwendet werden.For example, a graphical user interface could be used. A web page could be used.

Die Information der Verschmutzung kann zum Beispiel eine Anweisung zur Reinigung einer bestimmten Optikkomponente der Optikkomponenten der Abbildungsoptik umfassen. Beispielsweise könnte diese Anweisung eine Anleitung beinhalten, wie das Mikroskopiesystem zu manipulieren ist, um Zugang zu der bestimmten Optikkomponente, für die die Verschmutzung vermutet wird, zu erhalten. Beispielsweise könnte eine Anleitung erhalten werden, welche Klappen oder Schrauben zu öffnen sind. Die Information kann auch eine Information über den empfohlenen Reinigungsvorgang, beispielsweise das verwendete Reinigungsmedium, beinhalten - was insbesondere dann hilfreich ist, wenn, wie obenstehend beschrieben, der Typ der Verschmutzung bestimmt worden ist.The contamination information may, for example, include an instruction for cleaning a specific optical component of the optical components of the imaging optics. For example, this instruction could include instructions on how to manipulate the microscopy system to gain access to the specific optical component for which contamination is suspected. For example, instructions could be obtained on which flaps or screws to open. The information may also include information on the recommended cleaning procedure, for example the cleaning medium used - which is particularly helpful when, as described above, the type of contamination has been determined.

Um die Lokalisation bzw. gegebenenfalls Klassifikation des Abbildungsartefakts in den mehreren Intensitätsbildern zu fördern, kann der mindestens eine Prozessor eingerichtet sein, um im Diagnosemodus zu veranlassen, dass kein Probenobjekt in der Objektebene angeordnet ist. Beispielsweise könnte beim Vorhandensein eines motorisierten Probenhalters der Probenhalter aus dem Strahlengang des Mikroskopiesystems entfernt werden. Beispielsweise könnte eine Aufforderung an den Benutzer über die Benutzerschnittstelle ausgegeben werden, um den Benutzer aufzufordern, das Probenobjekt oder den Probenhalter aus dem Strahlengang zu entfernen. Dadurch kann eine Überlagerung der Abbildung des Probenobjekts mit den Abbildungsartefakten vermieden werden; so dass die Abbildungsartefakte in den Intensitätsbildern zuverlässiger erkannt werden können. Außerdem kann eine Beleuchtung eingesetzt werden, die gezielt für den Diagnosemodus vorteilhafte Eigenschaften aufweist (solche Eigenschaften sind typischerweise verschieden von vorteilhaften Eigenschaften für die Bildgebung eines Probenobjekts).In order to promote the localization or, if applicable, classification of the imaging artifact in the multiple intensity images, the at least one processor can be configured to ensure that no sample object is arranged in the object plane in the diagnostic mode. For example, if a motorized sample holder is present, the sample holder could be removed from the beam path of the microscopy system. For example, a request could be issued to the user via the user interface to prompt the user to remove the sample object or the sample holder from the beam path. This can prevent the image of the sample object from being superimposed on the imaging artifacts; so that the imaging artifacts can be detected more reliably in the intensity images. In addition, lighting can be used that specifically has advantageous properties for the diagnostic mode (such properties are typically different from advantageous properties for imaging a sample object).

Es können Leuchtdioden als Lichtquellen des Beleuchtungsmoduls verwendet werden. In den verschiedenen Beispielen können unterschiedliche Typen von Leuchtdioden verwendet werden, um die winkelvariable Beleuchtung zu Diagnosezwecken zu ermöglichen. Es könnten Festkörper-Leuchtdioden oder organische Leuchtdioden verwendet werden. Insbesondere wäre es in den verschiedenen Beispielen möglich, Leuchtdioden zu verwenden, die eine vergleichsweise enges Winkelspektrum bereitstellen (d.h. in der Bildebene fällt das Licht mit einer Winkelverteilung ein, die eine geringe Breite aufweist; die Breite der Winkelverteilung ist dabei grds. unabhängig vom absoluten Einfallswinkel, der groß oder klein sein kann). Die Breite des Winkelspektrum ist dabei definiert durch die Größe des Emitters, der über das Kondensor-Objektiv-System als Fläche wieder in die Pupille des Objektivs abgebildet wird. Diese Fläche sollte im Verhältnis zur Fläche der Objektivpupille (d.h. der numerischen Apertur der Abbildungsoptik) klein genug sein, um eine ausreichende Tiefenschärfe sicherzustellen. Es kann erstrebenswert sein, dass dieses Verhältnis jeweils nicht größer ist als 5%. Alle durch die Lichtquellen angebotenen Beleuchtungswinkel werden durch die Apertur der Abbildungsoptik zum Detektor transportiert. Solche Techniken beruhen auf der Erkenntnis, dass bei der Verwendung von Leuchtdioden, die eine vergleichsweise geringe numerische Beleuchtungsapertur aufweisen, die Tiefenschärfe der Abbildung erhöht wird. Dies kann (im Diagnosemodus) erstrebenswert sein, um auch Verschmutzungen zu erkennen, die einen vergleichsweise großen axialen Abstand entlang der optischen Hauptachse von der Objektebene oder dazu konjugierten Ebenen aufweisen. Andererseits ist es im entsprechenden Diagnosemodus nicht erforderlich, eine besonders hohe Auflösung - wie sie typischerweise bei der Bildgebung von unbekannten Probenobjekten erstrebenswert ist - zu erzielen. Die Erkennung von Abbildungsartefakten in den Intensitätsbildern und die Positionierung der Abbildungsartefakte in Bezug zueinander, um anschließend die zugrunde liegende Verschmutzung zu lokalisieren, kann auch mit einer vergleichsweise geringen Auflösung - das heißt mit geringer numerischer Beleuchtungsapertur - erzielt werden. Da eine Diagnose für unterschiedliche, jeweils eingeschwenkte Objektive möglich sein soll, ist es vorteilhaft, wenn wenigstens ein Teil der zur Diagnose verwendeten Leuchtelemente zentral, oder zumindest achsennahe positioniert sind, so dass sichergestellt ist, dass auch für Objektive mit kleiner numerischer Apertur (NA) Leuchtelemente vorhanden sind, deren emittiertes Licht in Transmission auf den Sensor abgebildet wird (siehe 4).Light-emitting diodes can be used as light sources of the lighting module. In the various examples, different types of light-emitting diodes can be used to enable angle-variable lighting for diagnostic purposes. Solid-state light-emitting diodes or organic light-emitting diodes could be used. In particular, in the various examples it would be possible to use light-emitting diodes that provide a comparatively narrow angular spectrum (i.e. in the image plane the light is incident with an angular distribution that has a small width; the width of the angular distribution is in principle independent of the absolute angle of incidence, which can be large or small). The width of the angular spectrum is defined by the size of the emitter, which is imaged as an area back into the pupil of the lens via the condenser-lens system. This area should be small enough in relation to the area of the lens pupil (i.e. the numerical aperture of the imaging optics) to ensure sufficient depth of field. It may be desirable for this ratio to be no greater than 5% in each case. All illumination angles offered by the light sources are transported to the detector through the aperture of the imaging optics. Such techniques are based on the knowledge that Using light-emitting diodes that have a comparatively low numerical illumination aperture increases the depth of field of the image. This can be desirable (in diagnostic mode) in order to also detect contamination that has a comparatively large axial distance along the main optical axis from the object plane or planes conjugated to it. On the other hand, in the corresponding diagnostic mode it is not necessary to achieve a particularly high resolution - as is typically desirable when imaging unknown sample objects. The detection of imaging artifacts in the intensity images and the positioning of the imaging artifacts in relation to one another in order to subsequently localize the underlying contamination can also be achieved with a comparatively low resolution - that is, with a low numerical illumination aperture. Since a diagnosis should be possible for different, respectively pivoted lenses, it is advantageous if at least some of the light elements used for the diagnosis are positioned centrally, or at least close to the axis, so that it is ensured that even for lenses with a small numerical aperture (NA), light elements are available whose emitted light is imaged in transmission onto the sensor (see 4 ).

Dies bedeutet auch, dass typischerweise für den Diagnosemodus und einen Bildgebungsmodus, bei dem die Bildgebung eines Probenobjekts erfolgt, unterschiedliche Leuchtdioden eingesetzt werden können. Beispielsweise könnten unterschiedliche Trägermodule, die jeweils einerseits Leuchtdioden für den Diagnosemodus mit einer geringen Emitterfläche aufweisen und andererseits Leuchtdioden mit einer großen Emitterfläche für den Bildgebungsmodus aufweisen, wahlweise in den Strahlengang des Mikroskopiesystems eingeschoben werden. Es wäre auch denkbar, dass das Beleuchtungsmodul einen integrierten Trigger aufweist, auf dem die mehreren Leuchtdioden für den Diagnosemodus angeordnet sind; aber auch weitere Leuchtdioden für den Bildgebungsmodus. Diese weiteren Leuchtdioden können dabei eine Emitterfläche aufweisen, die größer ist, als die Emitterfläche der mehreren Leuchtdioden, die für den Diagnosemodus eingesetzt werden. Das bedeutet, dass der mindestens eine Prozessor - wenn der Diagnosemodus aktiv ist - die Leuchtdioden mit kleiner Emitterfläche an-/ausschalten kann, um die Intensitätsbilder zu erfassen, die die Abbildungsartefakte abbilden (während die Leuchtdioden mit großer Emitterfläche durchgängig ausgeschaltet sind); und - wenn der Bildgebungsmodus aktiviert ist - die Leuchtdioden mit der vergleichsweise großen Emitterfläche an-/ausschalten kann, um entsprechende Bilder zu erfassen, die das Probenobjekt abbilden.This also means that different light-emitting diodes can typically be used for the diagnostic mode and an imaging mode in which the imaging of a sample object takes place. For example, different carrier modules, each of which has light-emitting diodes for the diagnostic mode with a small emitter area on the one hand and light-emitting diodes with a large emitter area for the imaging mode on the other hand, could be optionally inserted into the beam path of the microscopy system. It would also be conceivable for the illumination module to have an integrated trigger on which the multiple light-emitting diodes for the diagnostic mode are arranged; but also further light-emitting diodes for the imaging mode. These further light-emitting diodes can have an emitter area that is larger than the emitter area of the multiple light-emitting diodes used for the diagnostic mode. This means that the at least one processor - when the diagnostic mode is active - can switch the light-emitting diodes with a small emitter area on/off in order to capture the intensity images that depict the imaging artifacts (while the light-emitting diodes with a large emitter area are switched off throughout); and - when the imaging mode is activated - can switch the light-emitting diodes with the comparatively large emitter area on/off to capture corresponding images depicting the sample object.

Ein Verfahren zur Lokalisierung einer Verschmutzung einer Optikkomponente eines Mikroskopiesystems umfasst das Ansteuern eines Detektors und mehrerer Lichtquellen des Mikroskopiesystems. Das Ansteuern erfolgt, um mit einer winkelvariablen Beleuchtung mehrere Intensitätsbilder zu erfassen. Das bedeutet also, dass die mehreren Intensitätsbilder mit unterschiedlichen Beleuchtungsrichtungen assoziiert sind, die durch die Beleuchtung durch verschiedene der mehreren Lichtquellen erhalten werden. Das Verfahren umfasst auch das Lokalisieren einer Verschmutzung. Die Verschmutzung wird basierend auf unterschiedlichen Abbildungsorte eines Abbildungsartefakts in den mehreren Intensitätsbildern lokalisiert. Die Verschmutzung verursacht das Abbildungsartefakt. Die Lokalisierung erfolgt in Bezug auf Optikkomponenten des Mikroskopiesystems, d.h. relativ in Bezug auf die Optikkomponenten.A method for localizing contamination of an optical component of a microscopy system includes controlling a detector and a plurality of light sources of the microscopy system. The controlling is performed to capture a plurality of intensity images with angle-variable illumination. This means that the plurality of intensity images are associated with different illumination directions obtained by illumination by different ones of the plurality of light sources. The method also includes localizing contamination. The contamination is localized based on different imaging locations of an imaging artifact in the plurality of intensity images. The contamination causes the imaging artifact. The localization is performed with respect to optical components of the microscopy system, i.e. relative to the optical components.

Ein Computerprogramm oder ein Computerprogrammprodukt beinhaltet Programmcode, der von einem Prozessor ausgeführt werden kann. Wenn der mindestens eine Prozessor den Programmcode ausführt, bewirkt dies, dass der Prozessor ein Verfahren zur Lokalisierung einer Verschmutzung einer Optikkomponente eines Mikroskopiesystems ausführt. Das Verfahren umfasst das Ansteuern eines Detektors und mehrerer Lichtquellen des Mikroskopiesystems. Das Ansteuern erfolgt, um mit einer winkelvariablen Beleuchtung mehrere Intensitätsbilder zu erfassen. Das bedeutet also, dass die mehreren Intensitätsbilder mit unterschiedlichen Beleuchtungsrichtungen assoziiert sind, die durch die Beleuchtung durch verschiedene der mehreren Lichtquellen erhalten werden. Das Verfahren umfasst auch das Lokalisieren einer Verschmutzung. Die Verschmutzung wird basierend auf unterschiedlichen Abbildungsorte eines Abbildungsartefakts in den mehreren Intensitätsbildern lokalisiert. Die Verschmutzung verursacht das Abbildungsartefakt. Die Lokalisierung erfolgt in Bezug auf Optikkomponenten des Mikroskopiesystems, d.h. relativ in Bezug auf die Optikkomponenten.A computer program or a computer program product includes program code that can be executed by a processor. When the at least one processor executes the program code, this causes the processor to perform a method for localizing contamination of an optical component of a microscopy system. The method includes controlling a detector and a plurality of light sources of the microscopy system. The controlling is done to capture a plurality of intensity images with angle-variable illumination. This means that the plurality of intensity images are associated with different illumination directions obtained by illumination by different ones of the plurality of light sources. The method also includes localizing contamination. The contamination is localized based on different imaging locations of an imaging artifact in the plurality of intensity images. The contamination causes the imaging artifact. The localization is done with respect to optical components of the microscopy system, i.e. relative to the optical components.

Die oben dargelegten Merkmale und Merkmale, die nachfolgend beschrieben werden, können nicht nur in den entsprechenden explizit dargelegten Kombinationen verwendet werden, sondern auch in weiteren Kombinationen oder isoliert, ohne den Schutzumfang der vorliegenden Erfindung zu verlassen.The features set out above and features described below may be used not only in the corresponding explicitly set out combinations, but also in further combinations or in isolation without departing from the scope of the present invention.

KURZE BESCHREIBUNG DER FIGURENSHORT DESCRIPTION OF THE CHARACTERS

  • 1 illustriert schematisch ein Mikroskopiesystem gemäß verschiedenen Beispielen. 1 schematically illustrates a microscopy system according to various examples.
  • 2 illustriert schematisch einen Träger mit mehreren Typen von Leuchtdioden für einen Diagnosemodus und einen Bildgebungsmodus gemäß verschiedenen Beispielen. 2 schematically illustrates a carrier with several types of light emitting diodes for a Diagnostic mode and an imaging mode according to different examples.
  • 3 und 4 illustrieren schematisch die Beleuchtung einer Verschmutzung mittels mehrerer Beleuchtungsrichtungen einer winkelvariablen Beleuchtung gemäß verschiedenen Beispielen. 3 and 4 schematically illustrate the illumination of a contamination by means of several illumination directions of an angle-variable illumination according to various examples.
  • 5 illustriert schematisch die Beleuchtung einer anderen Verschmutzung mittels der mehreren Beleuchtungsrichtungen der winkelvariablen Beleuchtung gemäß verschiedenen Beispielen. 5 schematically illustrates the illumination of a different contamination by means of the multiple illumination directions of the angle-variable illumination according to various examples.
  • 6 ist ein Flussdiagramm eines beispielhaften Verfahrens. 6 is a flowchart of an example method.

DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION

Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Zeichnungen näher erläutert werden. The above-described properties, features and advantages of this invention, as well as the manner in which they are achieved, will become clearer and more clearly understood in connection with the following description of the embodiments, which are explained in more detail in connection with the drawings.

Nachfolgend wird die vorliegende Erfindung anhand bevorzugter Ausführungsformen unter Bezugnahme auf die Zeichnungen näher erläutert. In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder ähnliche Elemente. Die Figuren sind schematische Repräsentationen verschiedener Ausführungsformen der Erfindung. In den Figuren dargestellte Elemente sind nicht notwendigerweise maßstabsgetreu dargestellt. Vielmehr sind die verschiedenen in den Figuren dargestellten Elemente derart wiedergegeben, dass ihre Funktion und genereller Zweck dem Fachmann verständlich wird. In den Figuren dargestellte Verbindungen und Kopplungen zwischen funktionellen Einheiten und Elementen können auch als indirekte Verbindung oder Kopplung implementiert werden. Eine Verbindung oder Kopplung kann drahtgebunden oder drahtlos implementiert sein. Funktionale Einheiten können als Hardware, Software oder eine Kombination aus Hardware und Software implementiert werden.The present invention is explained in more detail below using preferred embodiments with reference to the drawings. In the figures, identical reference numerals denote identical or similar elements. The figures are schematic representations of various embodiments of the invention. Elements shown in the figures are not necessarily shown to scale. Rather, the various elements shown in the figures are shown in such a way that their function and general purpose is understandable to those skilled in the art. Connections and couplings between functional units and elements shown in the figures can also be implemented as an indirect connection or coupling. A connection or coupling can be implemented wired or wirelessly. Functional units can be implemented as hardware, software or a combination of hardware and software.

Nachfolgend werden Techniken im Zusammenhang mit Mikroskopiesystemen beschrieben. Insbesondere können Mikroskopiesysteme mit Köhler-Beleuchtungsmodul in Durchlichtgeometrie verwendet werden. Die Mikroskopiesysteme können zum Beispiel eingerichtet sein, um Halbleiterproben, biologische Proben wie Zellkulturen, Textilien oder andere Probenobjekte abzubilden. Die Mikroskopiesysteme können zum Beispiel im Zusammenhang mit einem chirurgischen Eingriff in der Medizintechnik verwendet werden (Operationsmikroskop).Techniques related to microscopy systems are described below. In particular, microscopy systems with Köhler illumination modules in transmitted light geometry can be used. The microscopy systems can, for example, be set up to image semiconductor samples, biological samples such as cell cultures, textiles or other sample objects. The microscopy systems can, for example, be used in connection with a surgical procedure in medical technology (surgical microscope).

Gemäß den hierin beschriebenen Techniken ist es möglich, automatisiert eine herabgesetzte Leistungsfähigkeit in der Bildgebung des Mikroskopiesystems zu erkennen. Entsprechende Information kann über eine Benutzerschnittstelle an einen Benutzer ausgegeben werden. Diese Information kann zum Beispiel indikativ dafür sein, welche optische Komponente des Mikroskopiesystems gesäubert werden soll. Das bedeutet, dass es mittels der hierin beschriebenen Techniken möglich ist, Verschmutzungen von Gerätekomponente des Mikroskopiesystems zu erkennen.According to the techniques described herein, it is possible to automatically detect reduced performance in the imaging of the microscopy system. Corresponding information can be output to a user via a user interface. This information can, for example, be indicative of which optical component of the microscopy system should be cleaned. This means that using the techniques described herein, it is possible to detect contamination of device components of the microscopy system.

Mittels der hierin beschriebenen Techniken können also beispielsweise Wartungsintervalle zur Säuberung des Mikroskopiesystems optimiert werden. Es ist möglich, die Notwendigkeit der Reinigung von Optikkomponenten des Mikroskopiesystems zu erkennen.Using the techniques described here, maintenance intervals for cleaning the microscopy system can be optimized, for example. It is possible to recognize the need to clean optical components of the microscopy system.

Bedingt durch Umwelteinflüsse ist die Verschmutzung von Optikkomponenten ein ständiger Prozess, der zu einem Performance-Verlust von Abbildung und/oder Ausleuchtung in einem Mikroskop führt. Dies betrifft die grundlegende Leistungsparameter wie Auflösung, Kontrast und Homogenität der Abbildungen. Für einen Nutzer ist die Degradation der Bildqualität meist schwer zu erkennen, da die Änderungen nicht sprunghaft, sondern mit einem langsamen, kontinuierlichen Prozess stattfinden. Ebenso ist es für einen Nutzer meist nicht erkennbar, an welchen optischen Komponenten die Verschlechterung hervorgerufen wird.Due to environmental influences, the contamination of optical components is a constant process that leads to a loss of performance in imaging and/or illumination in a microscope. This affects the basic performance parameters such as resolution, contrast and homogeneity of the images. The degradation of image quality is usually difficult for a user to detect, as the changes do not occur suddenly, but rather in a slow, continuous process. Likewise, it is usually not possible for a user to identify which optical components are causing the deterioration.

Die Position von Verschmutzungen im Abbildungsweg des Mikroskopiesystems kann durch die hierin offenbarten Techniken bestimmt werden. Mittels der offenbarten Techniken ist es möglich, die Verschmutzung mit einem Messwert zu parametrisieren. Werden bestimmte Grenzen über- oder unterschritten, kann dem Anwender eine Reinigung empfohlen werden. Dabei kann auch die Komponente benannt werden, auf der sich der störende Schmutz befindet. Eine Benutzerschnittstelle kann zur Ausgabe entsprechende Information betreffend die Verschmutzung angesteuert werden.The position of contamination in the imaging path of the microscopy system can be determined using the techniques disclosed herein. Using the techniques disclosed, it is possible to parameterize the contamination with a measured value. If certain limits are exceeded or not met, the user can be recommended to clean it. The component on which the disturbing contamination is located can also be named. A user interface can be controlled to output corresponding information regarding the contamination.

Verschiedene hierin offenbarte Techniken verwenden eine Beleuchtung mit geringer räumlicher Kohärenz, z.B. eine Leuchtdiode. Auf Grund der geringen Beleuchtungsapertur führt dies zu einer Abbildung mit hohem Tiefenschärfebereich. Das heißt, dass auch Schmutz, der sich weit entfernt von der Fokusebene/Objektebene (oder dazu konjugierten Ebenen) befindet, in der Abbildung als Störstruktur erkennbar wird. Wird die Störstruktur unter unterschiedlichen Beleuchtungsrichtungen beleuchtet (winkelvariable Beleuchtung), führt dies zu einem Versatz der Abbildung der Störstruktur. Diese ist in Richtung und Betrag abhängig von der Beleuchtungsrichtung. Je geringer die Beleuchtungsapertur, desto weniger groß ist das Spektrum der Beleuchtungsrichtungen im Winkelraum. Dabei gibt die laterale Position, Größe, Kontrastierung und Beugungsstruktur dieser Abbildung bereits einen Hinweis auf Größe, Eigenschaft und optischen Abstand der Verschmutzung zu konjugierter Proben- oder Pupillenebene.Various techniques disclosed herein use illumination with low spatial coherence, e.g. a light-emitting diode. Due to the small illumination aperture, this leads to an image with a high depth of field. This means that even dirt that is far away from the focal plane/object plane (or planes conjugated thereto) can be recognized in the image as a disturbing structure. If the disturbing structure is illuminated under different illumination directions (angle-variable illumination), this leads to an offset in the image of the disturbing structure. This depends in direction and amount on the illumination. The smaller the illumination aperture, the smaller the spectrum of illumination directions in the angular space. The lateral position, size, contrast and diffraction structure of this image already provide an indication of the size, properties and optical distance of the contamination to the conjugated sample or pupil plane.

Entsprechende Techniken zur winkelvariablen Beleuchtung wurden beschrieben in US 10,670,387 B2 und DE 10 2016 108 079 A1 . Solche Techniken können im Zusammenhang mit der hierin beschriebenen Technik zur Lokalisierung der Verschmutzung eingesetzt werden.Corresponding techniques for angle-variable illumination have been described in US10,670,387 B2 and EN 10 2016 108 079 A1 Such techniques may be used in conjunction with the contamination localization technique described herein.

1 illustriert schematisch ein Mikroskopiesystem 210 gemäß verschiedenen Varianten. Das Mikroskopiesystem umfasst eine Abbildungsoptik 213. Diese definiert eine Objektebene und eine zur Objektebene konjugierte Abbildungsebene (das bedeutet, dass die Objektebene durch entsprechende Optikkomponenten auf die Abbildungsebene abgebildet wird). In der Objektebene kann ein Probenhalter 212 angeordnet werden, auf den ein Probenobjekt positioniert werden kann. In der Abbildungsebene ist ein Detektor 214 angeordnet, beispielsweise ein Kamerachip, ein CMOS-Chip oder ein CCD-Chip. 1 schematically illustrates a microscopy system 210 according to different variants. The microscopy system comprises an imaging optics 213. This defines an object plane and an imaging plane conjugated to the object plane (this means that the object plane is imaged onto the imaging plane by corresponding optical components). A sample holder 212 can be arranged in the object plane, on which a sample object can be positioned. A detector 214 is arranged in the imaging plane, for example a camera chip, a CMOS chip or a CCD chip.

Das Mikroskopiesystem 210 weist ferner ein Beleuchtungsmodul 211 auf, welches in Durchlichtgeometrie in Bezug auf die Objektebene angeordnet ist. Das Beleuchtungsmodul weist mehrere Leuchtdioden auf, die versetzt zueinander, senkrecht zum Strahlengang bzw. der optischen Achse - angeordnet sind (in 1 sind die Leuchtdioden aus Gründen der Übersichtlichkeit nicht dargestellt). Ein entsprechender Träger mit den Lichtquellen kann in der Beleuchtungspupillenebene angeordnet sein. Außerdem weist das Mikroskopiesystem auch eine Steuerungselektronik 221 auf. Diese kann zum Beispiel durch einen Prozessor, wie beispielsweise einen applikationsspezifischen integrierten Schaltkreis oder einen Mikroprozessor oder ein „Field Programmable Gate Array“ (FPGA), implementiert sein. Diese Steuerungselektronik 221 ist eingerichtet, um verschiedene Komponenten und Module des Mikroskopiesystems 210 anzusteuern. Beispielsweise kann die Steuerung 221 das Beleuchtungsmodul 211 ansteuern, um unterschiedliche Leuchtdioden anzusteuern, das heißt zu aktivieren oder zu deaktivieren. Beispielsweise könnten die mehreren Leuchtdioden zeitversetzt angeschaltet und ausgeschaltet werden, um derart mittels des Detektors 214 Intensitätsbilder erfassen zu können, die mit Beleuchtung durch die unterschiedlichen Leuchtdioden assoziiert sind. Es wäre auch ein spektrales Multiplexen möglich, bei dem die mehreren Leuchtdioden des Beleuchtungsmoduls 211 Licht in unterschiedlichen Wellenlängenbereichen aussenden; und dann die unterschiedlichen Intensitätsbilder durch eine entsprechende Spektralfilterung erhalten werden; bei einem solchen Beispiel kann die Beleuchtung zumindest teilweise zeitparallel mit den mehreren Wellenlängen erfolgen, was die Messzeit reduziert. Alternativ oder zusätzlich könnte eine Trennung durch die Verwendung unterschiedlicher Polarisationsrichtungen des Lichts erfolgen. Beispielsweise könnten Detektorelemente eines Detektors mit zwei unterschiedlichen Polarisationsfiltern ausgestattet sein, um derart eine Trennung über die Polarisation zu erreichen.The microscopy system 210 further comprises an illumination module 211, which is arranged in transmitted light geometry with respect to the object plane. The illumination module comprises a plurality of light-emitting diodes, which are arranged offset from one another, perpendicular to the beam path or the optical axis (in 1 the light-emitting diodes are not shown for reasons of clarity). A corresponding carrier with the light sources can be arranged in the illumination pupil plane. In addition, the microscopy system also has control electronics 221. This can be implemented, for example, by a processor, such as an application-specific integrated circuit or a microprocessor or a "Field Programmable Gate Array" (FPGA). This control electronics 221 is set up to control various components and modules of the microscopy system 210. For example, the controller 221 can control the illumination module 211 in order to control different light-emitting diodes, i.e. to activate or deactivate them. For example, the multiple light-emitting diodes could be switched on and off at different times in order to be able to capture intensity images associated with illumination by the different light-emitting diodes using the detector 214. Spectral multiplexing would also be possible, in which the multiple light-emitting diodes of the illumination module 211 emit light in different wavelength ranges; and then the different intensity images are obtained by appropriate spectral filtering; in such an example, the illumination can be at least partially time-parallel with the multiple wavelengths, which reduces the measurement time. Alternatively or additionally, separation could be achieved by using different polarization directions of the light. For example, detector elements of a detector could be equipped with two different polarization filters in order to achieve such a separation via polarization.

Um Licht unterschiedlicher Wellenlängen auszusenden können beispielsweise breitbandige Lichtquellen und nachgeschaltete Filter verwendet werden. Es wäre aber auch denkbar, mehrere unterschiedliche Typen von Lichtquellen zu verwenden, die jeweils selektiv Licht im entsprechenden Spektralbereich aussenden. Beispielsweise könnten rot-grün-blau Leuchtdioden-Arrays verwendet werden, wobei die Leuchtdioden mit den jeweiligen Farben individuell an- und ausgeschaltet werden können.Broadband light sources and downstream filters can be used to emit light of different wavelengths. However, it would also be conceivable to use several different types of light sources, each of which selectively emits light in the corresponding spectral range. For example, red-green-blue LED arrays could be used, whereby the LEDs with the respective colors can be switched on and off individually.

Um Licht mit unterschiedlichen Polarisationen auszusenden können entsprechende Filter in den Strahlengang positioniert werden. Beispielsweise könnten Pockels-Zellen verwendet werden. Es könnten auch Filter motorisch in den Strahlengang eingefahren und wieder ausgefahren werden. Es sind auch Lichtquellen verfügbar, die bereits polarisiertes Licht aussenden.In order to emit light with different polarizations, appropriate filters can be positioned in the beam path. For example, Pockels cells could be used. Filters could also be motor-driven into and out of the beam path. Light sources that already emit polarized light are also available.

Außerdem umfasst das Mikroskopiesystem auch noch einen weiteren Prozessor 222, beispielsweise einen CPU eines Computers. Dieser kann die Steuerungselektronik 221 ansteuern und kann zum Beispiel ein Programm ausführen, welches Messskripte umsetzt und eine Benutzerschnittstelle zu einem Benutzer bereitstellt. Dazu kann eine Mensch-Maschine-Schnittstelle angesteuert werden, z.B. ein Monitor. Der Prozessor 222 lädt Programmcode aus einem Speicher und führt diesen auf, um entsprechende Aufgaben zu erfüllen.In addition, the microscopy system also includes another processor 222, for example a CPU of a computer. This can control the control electronics 221 and can, for example, execute a program that implements measurement scripts and provides a user interface to a user. For this purpose, a human-machine interface can be controlled, e.g. a monitor. The processor 222 loads program code from a memory and executes it in order to perform corresponding tasks.

Der Prozessor 222 kann auch eingerichtet sein, um eine Verunreinigung in Bezug auf die Optikkomponenten des Mikroskopiesystems 210 zu lokalisieren. Dazu kann ausgenutzt werden, dass sich der Abbildungsort eines Abbildungsartefakt, das durch die Verunreinigung bewirkt wird, verändert, wenn unterschiedliche Beleuchtungsrichtungen aktiviert werden (indem unterschiedliche Lichtquellen an- bzw. ausgeschaltet werden). Insbesondere können dazu Steuerdaten 850 berücksichtigt werden, welche indikativ für eine Konfiguration des Strahlengangs des Lichts durch das Mikroskopiesystem sind. Die Steuerdaten 850 können beispielsweise angeben, welches Objektiv verwendet wird, ob eine Bertrand-Optik im Strahlengang angeordnet ist, ob das Objektiv im Strahlengang angeordnet ist, ob bestimmte Filter im Strahlengang angeordnet sind, usw. Mittels der Steuerdaten 850 kann die strahlenoptische Lichtausbreitung bestimmt werden. Die Steuerdaten 850 können beispielsweise durch geeignete Sensoren oder Schalter bestimmt werden. Die Steuerdaten 850 können also zumindest teilweise von der Steuerungselektronik 221 bereitgestellt werden. Beispielsweise könnte über einen Schalter bestimmt werden, ob eine bestimmte Optikkomponente im Strahlengang angeordnet ist oder nicht. Alternativ oder zusätzlich können die Steuerdaten 850 zumindest auch teilweise über eine Benutzereingabe erhalten werden. Beispielsweise könnte der Benutzer über eine Benutzerschnittstelle angeben, ob eine bestimmte Optikkomponente im Strahlengang angeordnet ist oder nicht.The processor 222 can also be configured to localize a contamination in relation to the optical components of the microscopy system 210. For this purpose, it can be exploited that the imaging location of an imaging artifact caused by the contamination changes when different illumination directions are activated (by switching different light sources on or off). In particular, control data 850 can be taken into account for this purpose, which are indicative of a configuration of the beam path of the light through the microscopy system. The control data 850 can, for example, indicate which objective is used, whether a Bert edge optics is arranged in the beam path, whether the lens is arranged in the beam path, whether certain filters are arranged in the beam path, etc. The beam-optical light propagation can be determined using the control data 850. The control data 850 can be determined, for example, by suitable sensors or switches. The control data 850 can therefore be provided at least partially by the control electronics 221. For example, a switch could be used to determine whether a certain optical component is arranged in the beam path or not. Alternatively or additionally, the control data 850 can also be obtained at least partially via user input. For example, the user could indicate via a user interface whether a certain optical component is arranged in the beam path or not.

Die Aufteilung in eine Steuerung 221 in einem weiteren Prozessor 222, wie sie in 1 gezeigt ist, ist beispielhaft. Manchmal könnten auch noch weitere Prozessoren vorhanden sein oder es wäre denkbar, dass die gesamte Funktionalität in einem einzelnen Prozessor implementiert ist. Es könnte auch, zumindest teilweise, Server-seitiges „Cloud-Computing“ eingesetzt werden.The division into a controller 221 in a further processor 222, as shown in 1 shown is an example. Sometimes there could be additional processors or it would be conceivable that the entire functionality is implemented in a single processor. Server-side "cloud computing" could also be used, at least in part.

2 illustriert Aspekte in Bezug auf einen Träger 410 mit einer Vielzahl von Leuchtdioden 411, 412. Der Träger 410 kann in eine Beleuchtungspupillenebene des Beleuchtungsmoduls 211 positioniert werden. Die Leuchtdioden 411, 412 sind versetzt zueinander auf dem Träger angeordnet. Die Leuchtdioden 411 sind verschachtelt mit den Leuchtdioden 412 angeordnet. 2 illustrates aspects relating to a carrier 410 with a plurality of light-emitting diodes 411, 412. The carrier 410 can be positioned in an illumination pupil plane of the illumination module 211. The light-emitting diodes 411, 412 are arranged offset from one another on the carrier. The light-emitting diodes 411 are arranged nested with the light-emitting diodes 412.

Der Träger 410 im Beispiel der 2 weist insbesondere mehrere Typen von Leuchtdioden auf, nämlich die Leuchtdioden 411 und Leuchtdioden 412. Die Leuchtdioden 411 werden für einen Bildgebungsmodus des Mikroskopiesystems 210 eingesetzt; während die Leuchtdioden 412 für einen Diagnosemodus des Mikroskopiesystems 210 eingesetzt werden (das wird später in 6 im Zusammenhang mit Box 3005 näher beschrieben). Die Leuchtdioden 411 weisen dabei eine vergleichsweise große Emitterfläche auf; die Leuchtdioden 412 weisen eine vergleichsweise geringe Emitterfläche auf.The carrier 410 in the example of 2 In particular, it comprises several types of light-emitting diodes, namely the light-emitting diodes 411 and light-emitting diodes 412. The light-emitting diodes 411 are used for an imaging mode of the microscopy system 210; while the light-emitting diodes 412 are used for a diagnostic mode of the microscopy system 210 (this will be explained later in 6 described in more detail in connection with Box 3005). The light-emitting diodes 411 have a comparatively large emitter area; the light-emitting diodes 412 have a comparatively small emitter area.

Durch die große Emitterfläche der Leuchtdioden 411 implementieren diese eine relativ große numerische Beleuchtungsapertur: Beispielsweise ist die Breite des Winkelspektrums der Beleuchtung mittels einer der Leuchtdioden 411 größer als 5% des von der NA 490 der Abbildungsoptik (gestrichelter Kreis) akzeptierten Winkelspektrums; durch die vergleichsweise kleine Emitterfläche der Leuchtdioden 412 ist die Breite des Winkelspektrums der Beleuchtung mittels einer der Leuchtdioden 412 kleiner als 5% der Breite des von der NA 490 der Abbildungsoptik akzeptierten Winkelspektrums (beispielsweise ist in 2 die Fläche einer der Leuchtdioden 412 kleiner als 5% der Fläche der NA 490 des Objektivs). Durch die geringe numerische Beleuchtungsapertur der Leuchtdioden 412 wird eine Tiefenschärfe erreicht, was für den Diagnosemodus hilfreich ist. Durch die große Emitterfläche der Leuchtdioden 411 wird ein großes Auflösungsvermögen erreicht, was für den Bildgebungsmodus erstrebenswert ist.Due to the large emitter area of the LEDs 411, they implement a relatively large numerical illumination aperture: For example, the width of the angular spectrum of the illumination by means of one of the LEDs 411 is greater than 5% of the angular spectrum accepted by the NA 490 of the imaging optics (dashed circle); due to the comparatively small emitter area of the LEDs 412, the width of the angular spectrum of the illumination by means of one of the LEDs 412 is less than 5% of the width of the angular spectrum accepted by the NA 490 of the imaging optics (for example, in 2 the area of one of the LEDs 412 is less than 5% of the area of the NA 490 of the objective). The low numerical illumination aperture of the LEDs 412 achieves a depth of field, which is helpful for the diagnostic mode. The large emitter area of the LEDs 411 achieves a high resolution, which is desirable for the imaging mode.

Die Leuchtdioden 411 und die Leuchtdioden 412 sind jeweils zueinander versetzt auf dem Träger 410 angeordnet und miteinander verschachtelt angeordnet. Insbesondere sind im Zentrum des Trägers 410 - das auf der optischen Achse 499 angeordnet wird - mehrere Leuchtdioden 412 für den Diagnosemodus angeordnet.The light-emitting diodes 411 and the light-emitting diodes 412 are each arranged offset from one another on the carrier 410 and are arranged in a nested manner. In particular, several light-emitting diodes 412 for the diagnostic mode are arranged in the center of the carrier 410 - which is arranged on the optical axis 499.

Je weiter eine Leuchtdiode 412 von der optischen Achse 499 entfernt angeordnet ist, desto größer ist der Winkel, unter dem das entsprechende Licht in einer zur Beleuchtungspupillenebene konjugierten Ebene einfällt (die Breite des Winkelspektrums wird aber durch den Abstand zur optischen Achse 499 nicht beeinflusst).The further a light-emitting diode 412 is arranged from the optical axis 499, the greater the angle at which the corresponding light is incident in a plane conjugated to the illumination pupil plane (the width of the angular spectrum is not influenced by the distance from the optical axis 499).

Durch die Anordnung der Leuchtdioden 412 nahe an der optischen Achse 499 wird erreicht, dass das Licht dieser Leuchtdioden 412 im Diagnosemodus durch die Pupille der Objektive auch mit kleiner NA gelangt. Verunreinigungen auf optischen Elementen können außerdem einen großen Abstand zu (konjugierten) Bildebenen haben; durch Verwendung von Leuchtdioden 412 nahe bei der optischen Achse 499 wird vermieden, dass der Versatz der beobachteten Abbildungsartefakte für solche weiter von (konjugierten) Bildebenen entfernten Verunreinigungen zu groß wird (d.h. die zu lokalisierenden Abbildungsartefakte würden dann nicht mehr auf den Bildgebungssensor abgebildet wird). Der kleine Beleuchtungswinkel, der durch die Leuchtdioden 412 nahe bei der optischen Achse 499 erreicht wird, vermeidet das.By arranging the LEDs 412 close to the optical axis 499, the light from these LEDs 412 passes through the pupil of the lenses in diagnostic mode, even with a small NA. Contaminants on optical elements can also be a long way from (conjugated) image planes; by using LEDs 412 close to the optical axis 499, the offset of the observed imaging artifacts for such contaminants that are further away from (conjugated) image planes is prevented from becoming too large (i.e., the imaging artifacts to be localized would then no longer be imaged on the imaging sensor). The small illumination angle achieved by the LEDs 412 close to the optical axis 499 prevents this.

Eine solche Anordnung der Leuchtdioden 411, 412, wie in 2 gezeigt, ist rein beispielhaft. Andere Anordnungen sind denkbar.Such an arrangement of the LEDs 411, 412, as in 2 shown is purely exemplary. Other arrangements are conceivable.

Durch die versetzte Anordnung der Leuchtdioden 412 zueinander kann eine winkelvariable Beleuchtung implementiert werden, das heißt Licht aus unterschiedlichen Richtungen in der Objektebene kann verwendet werden. Dieser Effekt kann ausgenutzt werden, um eine Verschmutzung in Bezug auf Optikkomponenten des Mikroskopiesystems 210 und insbesondere die Abbildungsoptik 213 zu lokalisieren. Das ist im Zusammenhang mit 3, 4 und 5 näher erläutert.Due to the offset arrangement of the light-emitting diodes 412 relative to one another, angle-variable illumination can be implemented, i.e. light from different directions in the object plane can be used. This effect can be exploited to localize contamination in relation to optical components of the microscopy system 210 and in particular the imaging optics 213. This is in connection with 3 , 4 and 5 explained in more detail.

3 und 4 zeigen ein Szenario, bei dem eine Verschmutzung 531 (z.B. ein Fussel oder Staubteilchen) auf einem Filter 542 der Abbildungsoptik 213 angeordnet ist. In 3 ist die Leuchtdiode 501 angeschaltet und ein entsprechender Strahlengang 508 des Lichts ist dargestellt. In 4 ist die Leuchtdiode 502, die in der Beleuchtungspupillenebene 503 versetzt zur Leuchtdiode 501 angeordnet ist, angeschaltet und der entsprechende Strahlengang 509 ist dargestellt. Zur Vereinfachung sind in 3 und in 4 jeweils nur der jeweilige Strahl eingezeichnet, der bei den unterschiedlichen Beleuchtungskegeln aus den Leuchtdioden 501, 502 für eine Signalgenerierung auf einem Detektor 546 in der Abbildungsebene 547 relevant wird. Dieser Strahl 508 bzw. 509 durchläuft zunächst eine Kondensorlinse 541 (allgemeine Kondensor-Optik eines des Beleuchtungsmoduls 211 in Köhler-Geometrie); die Kondensor-Optik sorgt dafür, dass die Punktlichtquellen in der Objektebene 543 zu einer parallelen und ausgedehnten Wellenfront führen, wobei der Einfallswinkel der Wellenfront in der Objektebene 543 von einem Abstand der jeweiligen Leuchtdiode 501, 502 von der optischen Hauptachse 510 abhängt. Beispielsweise ist die Leuchtdiode 501 auf der optischen Hauptachse 510 angeordnet; sodass der Lichtstrahl 508 senkrecht auf die Objektebene 543 einfällt; während die Leuchtdiode 502 einen bestimmten Abstand in lateraler Richtung senkrecht zur optischen Hauptachse 510 aufweist; sodass der Lichtstrahl 509 unter einem bestimmten Winkel 561 auf die Objektebene 543 einfällt. Der Beleuchtungswinkel 561 charakterisiert die Beleuchtungsrichtung. Diese Änderung des Beleuchtungswinkels in der Objektebene 543 entspricht auch einer Änderung des Beleuchtungswinkels am Ort der Verschmutzung 531 (beabstandet gegenüber der Objektebene). Diese Veränderung des Beleuchtungswinkels der Verschmutzung 531 führt wiederum zu einer Veränderung der Position des Abbildungsartefakts 536, das mit der Verschmutzung 531 assoziiert ist, in der Abbildungsebene 547. In 3 und 4 ist der entsprechende Abstand 581, 582 der Abbildungsorte des Abbildungsartefakts 536 für die beiden Beleuchtungsrichtungen zur optischen Hauptachse 510 illustriert. Der Abstand 582 ist geringer als der Abstand 581 (das heißt das Abbildungsartefakt 536 weist unterschiedliche Abbildungsorten den beiden entsprechenden Intensitätsbildern auf). Die Größe der Änderung des Abstands 581, 582 ist dabei indikativ für den axialen Abstand 585. Z.B. ist eine entsprechende Situation in 5 gezeigt. Während in 3 und 4 die Verschmutzung 531 auf dem Filter 542 angeordnet ist, ist im Beispiel der 5 die Verschmutzung 532 auf dem Filter 545 angeordnet. In 5 ist ersichtlich, dass die Abbildungsartefakte 536 einen kleineren Abstand zueinander aufweisen, als die Abbildungsartefakte 536 im Fall der 3 bzw. der 4. Das bedeutet, dass der Betrag der Differenz aus den Abständen 582, 581 für den Fall der 5 kleiner ist als der Betrag der Differenz der Abstände 582, 581 für den Fall der 3 in 4. Darüber hinaus ist in diesem Fall die Richtung des Versatzes für die beiden Filterebenen entgegengesetzt, was zusätzlich zu dem Differenzbetrag der Abstände ein Unterscheidungsparameter für verschiedene Verschmutzungspositionen darstellt. Anhand der Abbildungsorte der Abbildungsartefakte 536 lässt sich (unter Kenntnis der Beleuchtungsrichtungen) jeweils die Verschmutzung 531, 532 in Bezug auf die Optikkomponenten (hier die Filter 542, 545) lokalisieren. Ein entsprechendes Verfahren ist in 6 dargestellt. 3 and 4 show a scenario in which a contamination 531 (eg a lint or dust particle) is arranged on a filter 542 of the imaging optics 213. In 3 the light emitting diode 501 is switched on and a corresponding beam path 508 of the light is shown. In 4 the light-emitting diode 502, which is arranged in the illumination pupil plane 503 offset from the light-emitting diode 501, is switched on and the corresponding beam path 509 is shown. For simplification, 3 and in 4 only the respective beam is shown which, with the different illumination cones from the light-emitting diodes 501, 502, is relevant for signal generation on a detector 546 in the imaging plane 547. This beam 508 or 509 first passes through a condenser lens 541 (general condenser optics of one of the illumination modules 211 in Köhler geometry); the condenser optics ensure that the point light sources in the object plane 543 lead to a parallel and extended wave front, wherein the angle of incidence of the wave front in the object plane 543 depends on a distance of the respective light-emitting diode 501, 502 from the main optical axis 510. For example, the light-emitting diode 501 is arranged on the main optical axis 510; so that the light beam 508 is incident perpendicularly on the object plane 543; while the light-emitting diode 502 has a certain distance in the lateral direction perpendicular to the main optical axis 510; so that the light beam 509 is incident on the object plane 543 at a certain angle 561. The illumination angle 561 characterizes the illumination direction. This change in the illumination angle in the object plane 543 also corresponds to a change in the illumination angle at the location of the contamination 531 (spaced from the object plane). This change in the illumination angle of the contamination 531 in turn leads to a change in the position of the imaging artifact 536 associated with the contamination 531 in the imaging plane 547. In 3 and 4 the corresponding distance 581, 582 of the imaging locations of the imaging artifact 536 for the two illumination directions to the main optical axis 510 is illustrated. The distance 582 is smaller than the distance 581 (i.e. the imaging artifact 536 has different imaging locations in the two corresponding intensity images). The size of the change in the distance 581, 582 is indicative of the axial distance 585. For example, a corresponding situation is shown in 5 shown. While in 3 and 4 the contamination 531 is arranged on the filter 542, in the example of 5 the contamination 532 is arranged on the filter 545. In 5 It can be seen that the imaging artifacts 536 have a smaller distance from each other than the imaging artifacts 536 in the case of the 3 or the 4 This means that the amount of the difference between the distances 582, 581 for the case of 5 is smaller than the amount of the difference between the distances 582, 581 in the case of 3 in 4 . In addition, in this case the direction of the offset is opposite for the two filter planes, which, in addition to the difference in the distances, represents a distinguishing parameter for different contamination positions. Based on the imaging locations of the imaging artifacts 536 (with knowledge of the illumination directions), the contamination 531, 532 can be localized in relation to the optical components (here the filters 542, 545). A corresponding method is described in 6 shown.

6 ist ein Flussdiagramm eines beispielhaften Verfahrens, welches der Lokalisation und gegebenenfalls Beseitigung von Verschmutzung einer Optikkomponente eine Abbildungsoptik eines Mikroskopiesystems dient. Das Verfahren aus 6 kann zum Beispiel von mindestens einem Prozessor ausgeführt werden. Beispielsweise könnte das Verfahren aus 6 vom Prozessor 222 und/oder vom Prozessor 221 des Mikroskopiesystems 210 aus 1 ausgeführt werden. Das Verfahren aus 6 kann alternativ oder zusätzlich auch von einem Benutzer ausgeführte Schritte umfassen. 6 is a flow chart of an exemplary method which serves to localize and, if necessary, remove contamination of an optical component of an imaging optics of a microscopy system. The method from 6 can be executed by at least one processor. For example, the method could consist of 6 from the processor 222 and/or the processor 221 of the microscopy system 210 1 The procedure from 6 may alternatively or additionally include steps performed by a user.

Zunächst wird in Box 3005 überprüft, ob ein Diagnosemodus aktiviert werden soll. Der Diagnosemodus ist verschieden von einem Bildgebungsmodus.First, box 3005 checks whether a diagnostic mode should be activated. The diagnostic mode is different from an imaging mode.

Wenn der Diagnosemodus in Box 3005 nicht aktiviert werden soll, so wird in Box 3045 der Bildgebungsmodus ausgeführt. Das bedeutet, dass ein Beleuchtungsmodul angesteuert wird, um eine in einer Objektebene der Bildgebungsoptik angeordnete Probe, zum Beispiel eine Halbleiterprobe, ein Materialstück, oder eine biologische Probe, zu beleuchten. Die Probe kann auf einem Probenhalter angeordnet sein. Der Probenhalter kann dazu in den Strahlengang bewegt werden. Wenn es sich um einen motorisierten Probenhalter handelt, kann der entsprechende Motor angesteuert werden, um den Probenhalter in den Strahlengang zu bewegen.If the diagnostic mode is not to be activated in box 3005, the imaging mode is executed in box 3045. This means that an illumination module is controlled to illuminate a sample arranged in an object plane of the imaging optics, for example a semiconductor sample, a piece of material, or a biological sample. The sample can be arranged on a sample holder. The sample holder can be moved into the beam path for this purpose. If it is a motorized sample holder, the corresponding motor can be controlled to move the sample holder into the beam path.

Beispielsweise wurden im Zusammenhang mit 2 Aspekte im Zusammenhang mit einem Träger 410 beschrieben, der mehrere verschiedene Typen von Lichtquellen 411, 412 aufweist. Typischerweise ist für die Bildgebung die Verwendung von Lichtquellen erstrebenswert, die eine vergleichsweise große Emitterfläche bzw. numerische Beleuchtungsapertur aufweisen; derart kann ein hohes Auflösungsvermögen erzielt werden. Beispielsweise könnten in Box 3045 die Lichtquellen 411 angesteuert werden, um Licht auszusenden. Der Detektor kann angesteuert werden, um entsprechende Intensitätsbilder zu erfassen, während das Probenobjekt mittels der Leuchtdioden 411 beleuchtet wird.For example, in connection with 2 Aspects are described in connection with a carrier 410 which has several different types of light sources 411, 412. Typically, for imaging, it is desirable to use light sources which have a comparatively large emitter area or numerical illumination aperture; in this way, a high resolution can be achieved. For example, in box 3045, the light sources 411 could be controlled to emit light. The detector can be controlled to capture corresponding intensity images, while the The sample object is illuminated by means of the light-emitting diodes 411.

Wenn in Box 3005 der Diagnosemodus ausgeführt werden soll, so wird das Verfahren in Box 3010 fortgesetzt. In Box 3010 wird gegebenenfalls ein Probenobjekt, welches in der Objektebene angeordnet ist, entfernt. Dazu könnte eine Benutzerschnittstelle angesteuert werden, die den Benutzer - zum Beispiel grafisch und/oder einer Audioausgabe - auffordert, das Probenobjekt vom Probenhalter oder den ganzen Probenhalter zu entfernen. Wenn ein motorisierter Probenhalter vorhanden ist, könnte der entsprechende Motor angesteuert werden, um den Probenhalter aus den Strahlengang zu entfernen.If the diagnostic mode is to be carried out in box 3005, the process continues in box 3010. In box 3010, a sample object that is arranged in the object plane is removed if necessary. For this purpose, a user interface could be controlled that prompts the user - for example graphically and/or with an audio output - to remove the sample object from the sample holder or the entire sample holder. If a motorized sample holder is available, the corresponding motor could be controlled to remove the sample holder from the beam path.

Optional kann in Box 3015 ein optisches Element in den Strahlengang der Abbildungsoptik eingebracht werden, welches eine Beleuchtungspupillenebene des Beleuchtungsmoduls auf die Abbildungsebene, in der der Detektor angeordnet ist, abbildet. Beispielsweise könnte eine Bertrand-Optik in den Strahlengang eingebracht werden. In einer anderen Variante wäre es auch denkbar, dass das Objektiv aus dem Strahlengang zu entfernen. Auch derart kann ein Effekt erzielt werden, wonach die Beleuchtungspupillenebene des Beleuchtungsmoduls auf die Abbildungsebene, in der der Detektor angeordnet ist, abgebildet wird.Optionally, an optical element can be introduced into the beam path of the imaging optics in box 3015, which images an illumination pupil plane of the illumination module onto the imaging plane in which the detector is arranged. For example, a Bertrand optic could be introduced into the beam path. In another variant, it would also be conceivable to remove the lens from the beam path. This can also achieve an effect whereby the illumination pupil plane of the illumination module is imaged onto the imaging plane in which the detector is arranged.

Dann kann in Box 3020 das Ansteuern von Leuchtdioden (beispielsweise speziellen Leuchtdioden, die für den Diagnosemodus vorgesehen sind, vgl. 2: Leuchtdioden 412) erfolgen, um Licht auszusenden. Es können in Box 3020 insbesondere andere Leuchtdioden angesteuert werden, als in Box 3045. Die in Box 3020 angesteuert Leuchtdioden können eine kleinere Emitterfläche aufweisen, als die in Box 3045 angesteuerten Leuchtdioden.Then, in box 3020, the control of light-emitting diodes (for example, special light-emitting diodes intended for the diagnostic mode, see 2 : light-emitting diodes 412) to emit light. In particular, different light-emitting diodes can be controlled in box 3020 than in box 3045. The light-emitting diodes controlled in box 3020 can have a smaller emitter area than the light-emitting diodes controlled in box 3045.

Außerdem wird in Box 3020 der Detektor angesteuert, um Intensitätsbilder zu erfassen. Es wird eine winkelvariable Beleuchtung implementiert, das heißt unterschiedliche Intensitätsbilder entsprechen einer Beleuchtung aus unterschiedlichen Beleuchtungsrichtungen. Beispiele wurden voranstehend im Zusammenhang mit 3, 4 und 5 beschrieben, nämlich im Zusammenhang mit den Leuchtdioden 501, 502. Jedes der Intensitätsbilder kann mit einer bestimmten Beleuchtungsrichtung, das heißt mit einer bestimmten Beleuchtung durch eine bestimmte Leuchtdiode, assoziiert sein. Eine Trennung des Signals für unterschiedliche Beleuchtungsrichtungen kann im Zeitraum und/oder im Spektralraum und/oder durch die Verwendung unterschiedlicher Polarisationen (z.B. horizontal und vertikal polarisiert) erfolgen.In addition, the detector is controlled in box 3020 to capture intensity images. Angle-variable illumination is implemented, i.e. different intensity images correspond to illumination from different illumination directions. Examples were given above in connection with 3 , 4 and 5 described, namely in connection with the light-emitting diodes 501, 502. Each of the intensity images can be associated with a specific illumination direction, that is to say with a specific illumination by a specific light-emitting diode. A separation of the signal for different illumination directions can take place in time and/or in spectral space and/or by using different polarizations (eg horizontally and vertically polarized).

Als allgemeine Regel wäre es auch möglich, dass ein erster Satz von Intensitätsbildern für die verschiedenen Beleuchtungsrichtungen mit der selektiv in den Strahlengang eingebrachten Optik aus Box 3015 erfasst wird; und ein zweiter Satz von Intensitätsbilder erfasst wird, wenn die selektiv in Box 3015 eingebrachte Optik nicht im Strahlengang angeordnet ist (in 6 durch den gestrichelten Rückpfad von Box 3020 zu Box 3015 illustriert). Noch allgemeiner formuliert können mehrere Sätze von Intensitätsbildern erfasst werden, wobei der Strahlengang des Lichts durch das Mikroskopiesystem für jeden Satz unterschiedlich konfiguriert wird (zum Beispiel hinsichtlich der Verwendung der Bertrand-Optik, der Verwendung eines bestimmten Objektivs, ob überhaupt ein Objektiv im Strahlengang angeordnet ist, der Verstellung von ein oder mehreren Linsen oder optischen Elementen parallel zum Strahlengang in Z-Richtung, des verwendeten Vergrößerungsfaktors, usw.). Derart kann zusätzliche Information gewonnen werden, welche eine besonders genaue Lokalisation der Verunreinigungen Bezug auf ein Optikelement der Abbildungsoptik ermöglicht.As a general rule, it would also be possible for a first set of intensity images to be acquired for the different illumination directions with the optics from box 3015 selectively placed in the beam path; and a second set of intensity images to be acquired when the optics selectively placed in box 3015 are not placed in the beam path (in 6 illustrated by the dashed return path from box 3020 to box 3015). In even more general terms, several sets of intensity images can be captured, with the beam path of the light through the microscopy system being configured differently for each set (for example with regard to the use of the Bertrand optics, the use of a specific objective, whether an objective is arranged in the beam path at all, the adjustment of one or more lenses or optical elements parallel to the beam path in the Z direction, the magnification factor used, etc.). In this way, additional information can be obtained which enables a particularly precise localization of the contamination with respect to an optical element of the imaging optics.

Dann kann in Box 3025 ein Abbildungsartefakt einer Verunreinigung in den Intensitätsbildern erkannt werden. Dazu kann zum Beispiel ein Detektor-Algorithmus verwendet werden . Dieser kann zum Beispiel ein maschinengelernter Algorithmus sein, der bereits vorher trainiert wurde. Alternativ oder zusätzlich kann eine Benutzereingabe über eine Benutzerschnittstelle empfangen werden.Then, in box 3025, an imaging artifact of a contamination in the intensity images can be detected. For example, a detector algorithm can be used for this purpose. This can, for example, be a machine-learned algorithm that has already been previously trained. Alternatively or additionally, a user input can be received via a user interface.

In Box 3030 könnte ferner optional eine Klassifikation der detektierten Verunreinigung erfolgen. Beispielsweise könnte ein Typ der Verunreinigung identifiziert werden; dies ermöglicht es im Anschluss, zusätzliche Informationen in Bezug auf eine empfohlene Art der Reinigung der Optikkomponente bereitzustellen, die in Abhängigkeit vom Typ der Verunreinigung bestimmt wird.In box 3030, a classification of the detected contamination could optionally be carried out. For example, a type of contamination could be identified; this then makes it possible to provide additional information regarding a recommended type of cleaning of the optical component, which is determined depending on the type of contamination.

In Box 3035 kann dann basierend auf den unterschiedlichen Abbildungsorten des Abbildungsartefakts in den mehreren Intensitätsbildern die Verschmutzung in Bezug auf einer Optikkomponente lokalisiert werden.In box 3035, the contamination can then be localized with respect to an optical component based on the different imaging locations of the imaging artifact in the multiple intensity images.

Dazu gibt es unterschiedliche Möglichkeiten. Beispielsweise könnte ein Strahlverfolgungs-Algorithmus (englisch „ray tracing“) eingesetzt werden, wenn die Lage und Brennweite der verschiedenen Linsen des Abbildungssystems bekannt sind. Es könnte also, mit anderen Worten, eine strahlenoptische Berechnung gemäß den Pfaden der Strahlengänge 508, 509 wie sie in 3, 4 in 5 dargestellt sind, erfolgen. Ein entsprechendes strahlenoptisches Modell der Abbildungsoptik kann dazu verwendet werden. Es wäre auch möglich, eine axiale Multiangulation von zwei oder mehr Lichtstrahlen, die mit den unterschiedlichen Abbildungsorten assoziiert werden (vergleiche die Strahlengänge 508, 509 in 3, 4 und 5), verwendet werden. Siehe zum Beispiel Offenbarung der Druckschrift DE 10 2016 108 079 A1 , dort insbesondere Gleichung 1.There are different possibilities for this. For example, a ray tracing algorithm could be used if the position and focal length of the various lenses of the imaging system are known. In other words, a ray optical calculation could be carried out according to the paths of the beam paths 508, 509 as shown in 3 , 4 in 5 A corresponding ray optical model of the imaging optics can be used for this purpose. It would also be possible to perform an axial multiangulation of two or more light rays associated with the different imaging locations (compare the ray paths 508, 509 in 3 , 4 and 5 ), may be used. See, for example, disclosure of the publication EN 10 2016 108 079 A1 , especially equation 1.

Wird zum Beispiel eine Bertrand-Optik (vergleiche Box 3015) verwendet, so kann der Abstand anstatt zu der Objektebene in Bezug auf eine korrespondierende Pupillenebene berechnet werden; das stellt dann alternative Information bereit, um so die Robustheit der Berechnung zu erhöhen.For example, if a Bertrand optic (see Box 3015) is used, the distance can be calculated with respect to a corresponding pupil plane rather than to the object plane; this then provides alternative information to increase the robustness of the calculation.

In manchen Beispielen wäre es denkbar, mehrere Intensitätsbilder für zwei Sätze von Konfigurationen der Abbildungsoptik (zum Beispiel einmal mit Bertrand-Optik und einmal ohne Bertrand-Optik; und/oder einmal mit Objektiv und einmal ohne Objektiv) zu erfassen. Derart kann zusätzliche Information über die Lokalisierung von Verunreinigungen gewonnen werden. Zweideutigkeiten können reduziert oder aufgelöst werden.In some examples, it would be conceivable to acquire multiple intensity images for two sets of imaging optics configurations (for example, once with Bertrand optics and once without Bertrand optics; and/or once with objective and once without objective). In this way, additional information about the localization of contamination can be obtained. Ambiguities can be reduced or resolved.

Beim Lokalisieren kann insbesondere die Konfiguration des Strahlengangs des Lichts durch das Mikroskopiesystem berücksichtigt werden. Für ein strahlenoptisches Modell könnte zum Beispiel berücksichtigt werden, welches Objektiv mit welcher Brennweite verwendet wird. Es kann berücksichtigt werden, ob die Bertrand-Optik im Strahlengang angeordnet ist. Es gibt verschiedene Möglichkeiten, um Steuerdaten (vgl. 1: Steuerdaten 850) zu erhalten, die indikativ für die Konfiguration des Strahlengangs des Lichts sind. Beispielsweise könnten entsprechen der Steuerdaten über eine Benutzerschnittstelle erhalten werden. Alternativ oder zusätzlich können entsprechende Steuerdaten auch automatisch ermittelt werden. Zum Beispiel könnte durch entsprechende Sensoren oder Schalter festgestellt werden, ob die Bertrand-Optik im Strahlengang befindlich ist oder welche Positionierung ein Objektiv-Revolver aufweist.When localizing, the configuration of the beam path of the light through the microscopy system can be taken into account. For a beam optical model, for example, it could be taken into account which lens with which focal length is used. It can be taken into account whether the Bertrand optics are arranged in the beam path. There are various ways to obtain control data (see. 1 : control data 850) that are indicative of the configuration of the beam path of the light. For example, the corresponding control data could be obtained via a user interface. Alternatively or additionally, corresponding control data can also be determined automatically. For example, appropriate sensors or switches could determine whether the Bertrand optics are in the beam path or what position an objective turret has.

Mittels entsprechender Berechnungen, wie obenstehend beschrieben, kann also insbesondere ein axialer Abstand bestimmt werden; dieser gibt dann eine Position der Verunreinigungen in Bezug auf die verschiedenen Optikkomponenten der Abbildungsoptik an. Wenn die Position, das heißt insbesondere die axiale Anordnung, der verschiedenen Optikkomponenten bekannt ist oder aus der eingepflegten Konfiguration des optischen Systems abgeleitet werden kann, so kann dieser axiale Abstand verglichen werden mit den Positionen der verschiedenen Optikkomponenten und dann zurückgeschlossen werden auf die verschmutzte Optikkomponente. Wenn die Dicke der Optikkomponente zusätzlich bekannt ist, so kann insbesondere auch rückgeschlossen werden, ob beispielsweise eine vordere Seite oder eine Rückseite der entsprechenden Optikkomponente verschmutzt ist.Using appropriate calculations, as described above, an axial distance can be determined in particular; this then indicates a position of the contamination in relation to the various optical components of the imaging optics. If the position, i.e. in particular the axial arrangement, of the various optical components is known or can be derived from the configuration of the optical system, this axial distance can be compared with the positions of the various optical components and then a conclusion can be drawn about the contaminated optical component. If the thickness of the optical component is also known, it can also be concluded in particular whether, for example, a front side or a back side of the corresponding optical component is contaminated.

Es ist auch möglich, neben einem solchen axialen Abstand die laterale Position der Verunreinigung (das heißt einen Abstand der Verunreinigung von der optischen Hauptachse) zu bestimmen. Dies kann durch die Auswertung der (absoluten) Position des Abbildungsartefakts in der Abbildungsebene erfolgen. Die xy-Position in der Abbildungsebene kann also berücksichtigt werden.In addition to such an axial distance, it is also possible to determine the lateral position of the contamination (i.e. a distance of the contamination from the main optical axis). This can be done by evaluating the (absolute) position of the imaging artifact in the imaging plane. The xy position in the imaging plane can therefore be taken into account.

Dann kann eine entsprechende Benutzerführung in Box 3040 erfolgen. Das bedeutet, dass eine Benutzerschnittstelle angesteuert werden kann, um Information zur Verschmutzung an den Benutzer auszugeben. Beispielsweise könnte eine solche Information eine Anweisung zur Reinigung der ermittelten Optikkomponente umfassen. Wenn der Typ der Verschmutzung bekannt ist, könnte zusätzliche Information, wie die Reinigung am besten durchzuführen ist, ausgegeben werden. Es wäre denkbar, dass eine Schritt für Schritt Anweisung ausgegeben werden kann, die beschreibt, wie die Optikkomponente erreicht und ausgebaut werden kann. Das bedeutet, dass eine kontinuierliche Benutzerführung durchgeführt werden kann.Then, appropriate user guidance can be provided in box 3040. This means that a user interface can be controlled to provide information about the contamination to the user. For example, such information could include instructions for cleaning the identified optical component. If the type of contamination is known, additional information on how best to carry out the cleaning could be provided. It would be conceivable that step-by-step instructions could be provided describing how the optical component can be reached and removed. This means that continuous user guidance can be provided.

In manchen Beispielen wäre es möglich, dass die Information mehrere möglicherweise verschmutzte Optikkomponenten anzeigt. Eine solche Variante kann erstrebenswert sein, wenn die Lokalisierung der Verschmutzung nicht eindeutig zwischen mehreren möglicherweise verschmutzten Optikkomponenten differenzieren kann. Es könnten auch Wahrscheinlichkeiten im Zusammenhang mit der Lokalisierung der Verschmutzung angegeben werden, beispielsweise ob ein erster Filter mit einer besonders hohen Wahrscheinlichkeit verschmutzt ist und ein zweiter Filter mit einer vergleichsweise niedrigen Wahrscheinlichkeit verschmutzt ist.In some examples, it would be possible for the information to indicate several potentially dirty optical components. Such a variant can be desirable if the localization of the contamination cannot clearly differentiate between several potentially dirty optical components. Probabilities related to the localization of the contamination could also be specified, for example whether a first filter is dirty with a particularly high probability and a second filter is dirty with a comparatively low probability.

Es könnte eine interaktive Benutzerführung ausgelöst werden. Die interaktive Benutzerführung kann Anweisungen zur Manipulation des Mikroskopiesystems umfassen, beispielsweise wie bestimmte Klappen oder Blenden oder Fixierelemente geöffnet oder gelöst werden müssen, um Zugriff zu der verschmutzten Optikkomponente zu erhalten. Die entsprechende Manipulation des Mikroskopiesystems durch den Benutzer kann dann mit entsprechenden Sensoren, welche einen Öffnungszustand einer Klappe oder einer Blende indizieren, überwacht werden. Derart kann eine Interaktion zwischen dem Benutzer, der das Mikroskopiesystem manipuliert, und den ausgegebenen Anweisungen erzielt werden.An interactive user guide could be triggered. The interactive user guide can include instructions for manipulating the microscopy system, for example how certain flaps or diaphragms or fixing elements must be opened or released in order to gain access to the dirty optical component. The corresponding manipulation of the microscopy system by the user can then be monitored with corresponding sensors which indicate an opening state of a flap or diaphragm. In this way, an interaction can be achieved between the user manipulating the microscopy system and the instructions issued.

Zusammenfassend wurde also ein Mikroskopiesystem beschrieben, das ein Beleuchtungsmodul aufweist, welches es erlaubt, eine Objektebene unter verschiedenen Beleuchtungswinkeln gegenüber der optischen Hauptachse der entsprechenden Abbildungsoptik zu beleuchten. In einer bevorzugten Ausführung sind die Leuchtelemente in der Beleuchtungspupillenebene angeordnet, wobei die Position der Leuchtfläche den mittleren Beleuchtungswinkel bestimmt und die Größe der Leuchtfläche die Variation der Winkelverteilung bestimmt. Die Lage kann aber auch davon abweichen (das heißt die Lichtquellen können entlang der optischen Achse versetzt zur Beleuchtungspupillenebene angeordnet werden), solange mit der Beleuchtungsanordnung einen Beleuchtungskegel mit kleiner Winkelverteilung erzeugt wird, der eine große Tiefenschärfe durch die Beleuchtung sicherstellt. Dies kann erreicht werden durch Blenden an geeigneten Stellen oder auch LED-Leuchtelemente, die in ausreichend großen Abstand von der Probenebenen angeordnet sind ohne weitere Beleuchtungsoptiken. Die numerische Apertur der einzelnen Beleuchtungskegel, die von Leuchtdioden (oder anderen Typen von Lichtquellen) des Beleuchtungsmoduls ausgesendet werden, soll klein sein. Beispielsweise kann die Breite des Winkelspektrums der Beleuchtung, das von einer Leuchtdiode bereitgestellt wird, nicht größer als 5% als die Breite des von der numerischen Apertur der Abbildungsoptik akzeptierten Winkelspektrums sein. Das Mikroskopiesystem kann auch mindestens einen Sensor bzw. einen Detektor aufweisen, der die Intensitätsverteilung des einfallenden Lichts in einer Abbildungsebene detektiert, die typischerweise konjugiert zur Objektebene ist (oder, wenn ein entsprechendes optisches Element eingebracht wird, konjugiert zu einer Pupillenebene ist). Intensitätsbilder werden dabei für die verschiedenen Beleuchtungskonfigurationen bzw. Beleuchtungsrichtungen erfasst und gespeichert. Mindestens ein Prozessor kann dann basierend auf diesen Intensitätsbildern und unter Heranziehung von Wissen über den Aufbau des Mikroskopiesystems bzw. insbesondere der Abbildungsoptik die Lage von Verunreinigungen entlang der Abbildungskette des Mikroskopiesystems ableiten und an einen Benutzer ausgeben.In summary, a microscopy system has been described that includes an illumination module which allows an object plane to be illuminated at different illumination angles relative to the main optical axis of the corresponding imaging optics. In a preferred embodiment, the lighting elements are arranged in the illumination pupil plane, whereby the position of the lighting surface determines the average illumination angle and the size of the lighting surface determines the variation in the angular distribution. The position can, however, also deviate from this (i.e. the light sources can be arranged along the optical axis offset from the illumination pupil plane), as long as the illumination arrangement produces an illumination cone with a small angular distribution which ensures a large depth of field through the illumination. This can be achieved by diaphragms at suitable locations or by LED lighting elements which are arranged at a sufficiently large distance from the sample plane without additional illumination optics. The numerical aperture of the individual illumination cones emitted by light-emitting diodes (or other types of light sources) of the illumination module should be small. For example, the width of the angular spectrum of the illumination provided by a light-emitting diode may not be greater than 5% of the width of the angular spectrum accepted by the numerical aperture of the imaging optics. The microscopy system may also have at least one sensor or detector that detects the intensity distribution of the incident light in an imaging plane that is typically conjugated to the object plane (or, if a corresponding optical element is introduced, conjugated to a pupil plane). Intensity images are recorded and stored for the various illumination configurations or illumination directions. At least one processor can then derive the location of contaminants along the imaging chain of the microscopy system based on these intensity images and using knowledge about the structure of the microscopy system or in particular the imaging optics and output them to a user.

Beispielsweise wäre es denkbar, die Form und Intensitätsverteilung der Abbildungsartefakte einer Verschmutzung auszuwerten, um Aussagen über die Lokalisierung der Verschmutzung in Bezug auf die Optikkomponenten der Abbildungsoptik und optional über den Typ der Verschmutzung zu machen.For example, it would be conceivable to evaluate the shape and intensity distribution of the imaging artifacts of a contamination in order to make statements about the localization of the contamination in relation to the optical components of the imaging optics and optionally about the type of contamination.

Dabei kann eine axiale Lagebestimmung der Verunreinigung durchgeführt werden, basierend auf einer Triangulation, die mittels den unterschiedlichen Beleuchtskegeln, die den unterschiedlichen Beleuchtungsrichtungen durch Aktivierung unterschiedlicher Leuchtdioden (mit unterschiedlichen Abständen zur optischen Achse) beruhen.An axial position determination of the contamination can be carried out based on a triangulation using the different illumination cones that correspond to the different illumination directions by activating different light-emitting diodes (with different distances to the optical axis).

Neben einer solchen axialen Lokalisierung kann auch eine laterale Lokalisierung der Verunreinigung durchgeführt werden, nämlich insbesondere in dem der Abstand des Abbildungsartefakts in Bezug auf die optische Hauptachse absolut ausgewertet wird (der entsprechende Abstand 581, 582 wurde im Zusammenhang mit den 3, 4 und 5 diskutiert).In addition to such an axial localization, a lateral localization of the contamination can also be carried out, namely in particular by evaluating the distance of the imaging artifact in relation to the main optical axis absolutely (the corresponding distance 581, 582 was determined in connection with the 3 , 4 and 5 discussed).

Für den Diagnosemodus (bei dem die Verunreinigung lokalisiert wird) kann derselbe Detektor und/oder dasselbe Bildgebungsmodul verwendet werden, der auch für einen Bildgebungsmodus verwendet wird.The same detector and/or imaging module used for an imaging mode can be used for the diagnostic mode (where the contamination is located).

Das Beleuchtungsmodul kann zum Beispiel ein Array aus Leuchtdioden aufweisen, welche verwendet werden, um entsprechende Beleuchtungsrichtungen zu implementieren. Die Leuchtdioden können zeitlich und/oder spektral gemultiplext geschaltet werden, um eine Trennung der verschiedenen Beleuchtungsrichtungen in den verschiedenen Intensitätsbildern zu erzielen. Beispielsweise könnten unterschiedliche Farbemitter, zum Beispiel rot-grün-blau, einer Leuchtdioden-Anordnung zur Beleuchtung genutzt werden, um die unterschiedlichen Beleuchtungsrichtungen über das Farbspektrum zu kodieren und simultan mit einer Farbkamera, die entsprechende Kanäle aufweist, sichtbar zu machen.The lighting module can, for example, have an array of light-emitting diodes, which are used to implement corresponding lighting directions. The light-emitting diodes can be switched in a temporally and/or spectrally multiplexed manner in order to achieve a separation of the different lighting directions in the different intensity images. For example, different color emitters, for example red-green-blue, of a light-emitting diode arrangement could be used for lighting in order to encode the different lighting directions across the color spectrum and make them visible simultaneously with a color camera that has corresponding channels.

Es ist optional möglich, eine zusätzliche Optik wie zum Beispiel eine Bertrand-Optik, in den Strahlengang der Abbildungsoptik einzubringen; um von einer Abbildung der Objektebene auf eine Abbildung einer Pupillenebene zu wechseln. Damit kann erreicht werden, dass das vollständige Feld in einer zur Pupillenebene konjugierten Ebene ausgeleuchtet wird, und derart eine Verschmutzung auch in einer solchen zu einer Pupillenebene konjugierten Ebene bzw. in der Pupillenebene selbst lokalisiert werden kann.It is optionally possible to insert an additional optic, such as a Bertrand optic, into the beam path of the imaging optics in order to switch from imaging the object plane to imaging a pupil plane. This makes it possible to illuminate the entire field in a plane conjugated to the pupil plane, and to localize contamination in such a plane conjugated to a pupil plane or in the pupil plane itself.

Dabei kann ein strahlenoptisches Modell der Abbildungsoptik, das heißt Kenndaten bzw. Design der zu untersuchenden Optik, zur Auswertung hinterlegt sein. Aus den Abständen zwischen den Abbildungsorten von Abbildungsartefakten in den verschiedenen Intensitätsbildern (die mit unterschiedlichen Beleuchtungsrichtungen assoziiert sind) kann auf die axiale Lage von Verunreinigungen in Bezug auf die Abbildungsoptik bzw. deren Komponenten zurückgeschlossen werden.A ray optical model of the imaging optics, i.e. characteristics or design of the optics to be examined, can be stored for evaluation. The distances between the imaging locations of imaging artifacts in the various intensity images (which are associated with different illumination directions) can be used to determine the axial position of contamination in relation to the imaging optics or their components.

In manchen Beispielen wäre es dabei denkbar, dass nicht lediglich eine einzelne Optikkomponente, die vermutlich verunreinigt ist, an den Benutzer ausgegeben wird; sondern zwei oder mehr Optikkomponenten ausgegeben werden, beispielsweise wenn aufgrund von Zweideutigkeiten nicht eindeutig auf eine Optikkomponente zurückgeschlossen werden kann. Es könnten auch assoziierte Wahrscheinlichkeiten an den Benutzer ausgegeben werden, welche der Optikkomponenten mit höherer Wahrscheinlichkeit oder geringerer Wahrscheinlichkeit verschmutzt ist.In some examples, it would be conceivable that not only a single optical component that is presumably contaminated is issued to the user; but two or more optical components are issued, for example if it is not possible to clearly identify an optical component due to ambiguities. Associated probabilities could also be given to the user as to which of the optical components is more or less likely to be contaminated.

Die Abbildungsartefakte, die mit einer Verschmutzung assoziiert sind, können dabei auch mit einer teilweisen Interaktion mit dem Benutzer identifiziert werden, zum Beispiel in dem ein Nutzer die Verschiebung von Schmutzeffekten innerhalb der Intensitätsbilder anzeigt.The imaging artifacts associated with contamination can also be identified with partial user interaction, for example, by a user indicating the shift of contamination effects within the intensity images.

Selbstverständlich können die Merkmale der vorab beschriebenen Ausführungsformen und Aspekte der Erfindung miteinander kombiniert werden. Insbesondere können die Merkmale nicht nur in den beschriebenen Kombinationen, sondern auch in anderen Kombinationen oder für sich genommen verwendet werden, ohne das Gebiet der Erfindung zu verlassen.Of course, the features of the embodiments and aspects of the invention described above can be combined with one another. In particular, the features can be used not only in the combinations described, but also in other combinations or on their own, without departing from the scope of the invention.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA accepts no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102016108079 A1 [0004, 0050, 0079]DE 102016108079 A1 [0004, 0050, 0079]
  • US 10670387 B2 [0050]US 10670387 B2 [0050]

Claims (22)

Mikroskopiesystem (210), das umfasst: - eine Abbildungsoptik (213) mit einer Objektebene (543) und einer zur Objektebene (543) konjugierten Abbildungsebene (547), - ein Beleuchtungsmodul (211) mit mehreren Lichtquellen (412, 501, 502), die versetzt zueinander angeordnet sind, - einen Detektor (546), der in der Abbildungsebene (547) angeordnet ist, und - mindestens einen Prozessor (221, 222), der eingerichtet ist, um den Detektor (546) und die mehreren Lichtquellen (412, 501, 502) anzusteuern, um mehrere Intensitätsbilder zu erfassen, die mit Beleuchtung durch unterschiedliche Lichtquellen (412, 501, 502) der mehreren Lichtquellen (412, 501, 502) assoziiert sind, wobei der mindestens eine Prozessor (221, 222) weiterhin eingerichtet ist, um basierend auf unterschiedlichen Abbildungsorten eines Abbildungsartefakts (536) in den mehreren Intensitätsbildern eine das Abbildungsartefakt verursachende Verschmutzung (531, 532) in Bezug auf Optikkomponenten (541, 542, 545, 546) des Mikroskopiesystems (210) zu lokalisieren.Microscopy system (210) comprising: - an imaging optics (213) with an object plane (543) and an imaging plane (547) conjugated to the object plane (543), - an illumination module (211) with a plurality of light sources (412, 501, 502) arranged offset from one another, - a detector (546) arranged in the imaging plane (547), and - at least one processor (221, 222) configured to control the detector (546) and the plurality of light sources (412, 501, 502) in order to capture a plurality of intensity images associated with illumination by different light sources (412, 501, 502) of the plurality of light sources (412, 501, 502), wherein the at least one processor (221, 222) is further configured to imaging artifact (536) in the plurality of intensity images to localize a contamination (531, 532) causing the imaging artifact with respect to optical components (541, 542, 545, 546) of the microscopy system (210). Mikroskopiesystem (210) nach Anspruch 1, wobei der mindestens eine Prozessor (221, 222) eingerichtet ist, um basierend auf den unterschiedlichen Abbildungsorten (536) des Abbildungsartefakts und unter Verwendung eines strahlenoptischen Modells der Abbildungsoptik (213) eine strahlenoptische Lichtstrahlausbreitung zu berechnen, um die Verschmutzung (531, 532) in Bezug auf die Optikkomponenten (541, 542, 545, 546) zu lokalisieren.Microscopy system (210) according to Claim 1 , wherein the at least one processor (221, 222) is configured to calculate a ray-optical light beam propagation based on the different imaging locations (536) of the imaging artifact and using a ray-optical model of the imaging optics (213) in order to localize the contamination (531, 532) with respect to the optical components (541, 542, 545, 546). Mikroskopiesystem (210) nach Anspruch 2, wobei die strahlenoptische Lichtstrahlausbreitung eine axiale Multiangulation von zwei oder mehr Lichtstrahlen (508, 509), die mit den unterschiedlichen Abbildungsorten assoziiert sind, umfasst, um einen axialen Abstand zwischen der Abbildungsebene oder der Objektebene (542) und der Verschmutzung (531, 532) zu bestimmen.Microscopy system (210) according to Claim 2 , wherein the ray-optical light beam propagation comprises an axial multiangulation of two or more light beams (508, 509) associated with the different imaging locations to determine an axial distance between the imaging plane or the object plane (542) and the contamination (531, 532). Mikroskopiesystem (210) nach Anspruch 2 oder 3, wobei das strahlenoptische Modell der Abbildungsoptik (213) eine axiale Anordnung von mehreren Linsen der Abbildungsoptik (213) umfasst und optional Brennweiten der mehreren Linsen und/oder eine axiale Dicke der Linsen umfasst.Microscopy system (210) according to Claim 2 or 3 , wherein the ray optical model of the imaging optics (213) comprises an axial arrangement of a plurality of lenses of the imaging optics (213) and optionally comprises focal lengths of the plurality of lenses and/or an axial thickness of the lenses. Mikroskopiesystem (210) nach einem der voranstehenden Ansprüche, das weiterhin umfasst: - ein wahlweise in einem Strahlengang der Abbildungsoptik (213) positionierbares optisches Element, welches eingerichtet ist, um eine Beleuchtungspupillenebene auf die Abbildungsebene abzubilden, wobei der mindestens eine Prozessor (221, 222) eingerichtet ist, um den Detektor (546) und die mehreren Lichtquellen (412, 501, 502) zum Erfassen der mehreren Intensitätsbilder in einem Diagnosemodus anzusteuern, in dem das optische Element im Strahlengang positioniert ist.Microscopy system (210) according to one of the preceding claims, further comprising: - an optical element which can be selectively positioned in a beam path of the imaging optics (213) and which is configured to image an illumination pupil plane onto the imaging plane, wherein the at least one processor (221, 222) is configured to control the detector (546) and the plurality of light sources (412, 501, 502) for capturing the plurality of intensity images in a diagnostic mode in which the optical element is positioned in the beam path. Mikroskopiesystem (210) nach einem der Ansprüche 2 bis 4, sowie nach Anspruch 5, wobei das strahlenoptische Modell das optische Element berücksichtigt.Microscopy system (210) according to one of the Claims 2 until 4 , as well as Claim 5 , where the ray optical model takes the optical element into account. Mikroskopiesystem (210) nach einem der voranstehenden Ansprüche, wobei der mindestens eine Prozessor (221, 222) weiterhin eingerichtet ist, um das Abbildungsartefakt (536) mit einem Detektor-Algorithmus in den mehreren Intensitätsbildern zu lokalisieren.Microscopy system (210) according to one of the preceding claims, wherein the at least one processor (221, 222) is further configured to locate the imaging artifact (536) in the plurality of intensity images using a detector algorithm. Mikroskopiesystem (210) nach einem der voranstehenden Ansprüche, wobei der mindestens eine Prozessor (221, 222) weiterhin eingerichtet ist, um das Abbildungsartefakt (536) basierend auf einer Benutzereingabe in den mehreren Intensitätsbildern zu lokalisieren.Microscopy system (210) according to one of the preceding claims, wherein the at least one processor (221, 222) is further configured to locate the imaging artifact (536) in the plurality of intensity images based on a user input. Mikroskopiesystem (210) nach einem der voranstehenden Ansprüche, wobei der mindestens eine Prozessor (221, 222) weiterhin eingerichtet ist, um basierend auf einem Erscheinungsbild des Abbildungsartefakts (536) in den mehreren Intensitätsbildern mit einem vortrainierten Klassifikator-Algorithmus einen Typ der Verschmutzung zu bestimmen.Microscopy system (210) according to one of the preceding claims, wherein the at least one processor (221, 222) is further configured to determine a type of contamination based on an appearance of the imaging artifact (536) in the plurality of intensity images using a pre-trained classifier algorithm. Mikroskopiesystem (210) nach einem der voranstehenden Ansprüche, wobei der mindestens eine Prozessor (221, 222) eingerichtet ist, um den Detektor und die mehreren Lichtquellen (412, 501, 502) zum Erfassen der mehreren Intensitätsbilder in einem Diagnosemodus anzusteuern, bei dem kein Probenobjekt in der Objektebene angeordnet ist.Microscopy system (210) according to one of the preceding claims, wherein the at least one processor (221, 222) is configured to control the detector and the plurality of light sources (412, 501, 502) for acquiring the plurality of intensity images in a diagnostic mode in which no sample object is arranged in the object plane. Mikroskopiesystem (210) nach einem der voranstehenden Ansprüche, wobei der mindestens eine Prozessor (221, 222) eingerichtet ist, um eine Benutzerschnittstelle anzusteuern, um Information zur Verschmutzung an einen Benutzer auszugeben.Microscopy system (210) according to one of the preceding claims, wherein the at least one processor (221, 222) is configured to control a user interface to output information on contamination to a user. Mikroskopiesystem (210) nach Anspruch 11, wobei die Information eine Anweisung zur Reinigung einer bestimmten Optikkomponente der Optikkomponenten der Abbildungsoptik (213) umfasst.Microscopy system (210) according to Claim 11 , wherein the information comprises an instruction for cleaning a specific optical component of the optical components of the imaging optics (213). Mikroskopiesystem (210) nach einem der voranstehenden Ansprüche, wobei das Beleuchtungsmodul (211) einen Träger (410) aufweist, auf dem die mehreren Lichtquellen (412, 501, 502) angeordnet sind, wobei die mehreren Lichtquellen (412, 501, 502) Leuchtdioden sind, die Emitterflächen aufweisen, die nicht größer sind als ein erster Flächenwert, wobei das Mikroskopiesystem (210) ein oder mehrere weitere Leuchtdioden (411) aufweist, die auf dem Träger (410) angeordnet sind, wobei die ein oder mehreren weiteren Leuchtdioden (411) Emitterflächen aufweisen, die größer sind als der erste Flächenwert.Microscopy system (210) according to one of the preceding claims, wherein the illumination module (211) has a carrier (410) on which the plurality of light sources (412, 501, 502) are arranged, wherein the plurality of light sources (412, 501, 502) Light-emitting diodes which have emitter areas which are not larger than a first area value, wherein the microscopy system (210) has one or more further light-emitting diodes (411) which are arranged on the carrier (410), wherein the one or more further light-emitting diodes (411) have emitter areas which are larger than the first area value. Mikroskopiesystem (210) nach Anspruch 13, wobei der mindestens eine Prozessor (221, 222) eingerichtet ist, um den Detektor (546) und die mehreren Leuchtdioden zum Erfassen der mehreren Intensitätsbilder in einem Diagnosemodus anzusteuern, wobei der mindestens eine Prozessor (221, 222) eingerichtet ist, um den Detektor (546) und die ein oder mehreren weiteren Leuchtdioden zum Erfassen von ein oder mehreren weiteren Intensitätsbilder in einem Bildgebungsmodus anzusteuern, in dem ein in der Objektebene angeordnetes Probenobjekt mikroskopiert wird.Microscopy system (210) according to Claim 13 , wherein the at least one processor (221, 222) is configured to control the detector (546) and the plurality of light-emitting diodes for capturing the plurality of intensity images in a diagnostic mode, wherein the at least one processor (221, 222) is configured to control the detector (546) and the one or more further light-emitting diodes for capturing one or more further intensity images in an imaging mode in which a sample object arranged in the object plane is examined under a microscope. Mikroskopiesystem (210) nach einem der voranstehenden Ansprüche, wobei die Breite eines Winkelspektrums der Beleuchtung der mehreren Lichtquellen (412, 501, 502) jeweils nicht größer ist als 5% der Breite eines Winkelspektrums, das durch die numerische Apertur der Abbildungsoptik definiert ist.Microscopy system (210) according to one of the preceding claims, wherein the width of an angular spectrum of the illumination of the plurality of light sources (412, 501, 502) is in each case not greater than 5% of the width of an angular spectrum defined by the numerical aperture of the imaging optics. Mikroskopiesystem (210) nach einem der voranstehenden Ansprüche, wobei die mehreren Intensitätsbilder durch Verwenden von Licht mehrerer Wellenlängen oder mehrerer Polarisationen zumindest teilweise zeitparallel erfasst werden.Microscopy system (210) according to one of the preceding claims, wherein the plurality of intensity images are acquired at least partially in parallel time by using light of multiple wavelengths or multiple polarizations. Verfahren zur Lokalisierung einer Verschmutzung einer Optikkomponente eines Mikroskopiesystems, wobei das Verfahren umfasst: - Ansteuern eines Detektors und mehrerer Lichtquellen des Mikroskopiesystems, um mehrere Intensitätsbilder mit einer winkelvariablen Beleuchtung zu erfassen, und - basierend auf unterschiedlichen Abbildungsorten eines Abbildungsartefakts in den mehreren Intensitätsbildern, Lokalisieren einer das Abbildungsartefakt verursachenden Verschmutzung in Bezug auf Optikkomponenten des Mikroskopiesystems.A method for localizing contamination of an optical component of a microscopy system, the method comprising: - controlling a detector and a plurality of light sources of the microscopy system to capture a plurality of intensity images with angle-variable illumination, and - based on different imaging locations of an imaging artifact in the plurality of intensity images, localizing a contamination causing the imaging artifact with respect to optical components of the microscopy system. Verfahren nach Anspruch 17, wobei das Verfahren weiterhin umfasst: - Ansteuern des Detektors und der mehreren Lichtquellen des Mikroskopiesystems, um mehrere weitere Intensitätsbilder mit der winkelvariablen Beleuchtung zu erfassen, wobei die mehreren Intensitätsbilder mit einer ersten Konfiguration eines Strahlengangs des Lichts durch das Mikroskopiesystem erfasst werden, wobei die mehreren weiteren Intensitätsbilder mit einer zweiten Konfiguration des Strahlengangs des Lichts durch das Mikroskopiesystem erfasst werden, wobei das Lokalisieren der das Abbildungsartefakt verursachenden Verschmutzung in Bezug auf die Optikkomponenten des Mikroskopiesystems ferner auf unterschiedlichen Abbildungsorten des Abbildungsartefakts in den mehreren weiteren Intensitätsbildern basiert.Procedure according to Claim 17 , the method further comprising: - controlling the detector and the plurality of light sources of the microscopy system to capture a plurality of further intensity images with the angle-variable illumination, wherein the plurality of intensity images are captured with a first configuration of a beam path of the light through the microscopy system, wherein the plurality of further intensity images are captured with a second configuration of the beam path of the light through the microscopy system, wherein the localization of the contamination causing the imaging artifact with respect to the optical components of the microscopy system is further based on different imaging locations of the imaging artifact in the plurality of further intensity images. Verfahren nach Anspruch 18, wobei sich die erste Konfiguration und die zweite Konfiguration des Strahlengangs des Lichts hinsichtlich ein oder mehrerer der folgenden unterscheiden: Verwendung einer Bertrand-Optik; Brennweite eines Objektivs; Zoom-Faktor; Feldblende.Procedure according to Claim 18 , wherein the first configuration and the second configuration of the beam path of the light differ with respect to one or more of the following: use of a Bertrand optic; focal length of a lens; zoom factor; field stop. Verfahren nach einem der Ansprüche 17 bis 19, wobei das Verfahren weiterhin umfasst: - Ansteuern eines Benutzerschnittstelle, um Information zur Verschmutzung an einen Benutzer auszugeben.Method according to one of the Claims 17 until 19 , the method further comprising: - controlling a user interface to output information about the contamination to a user. Verfahren nach einem der Ansprüche 17 bis 20, wobei das Verfahren vom mindestens einen Prozessor des Mikroskopiesystems nach einem der Ansprüche 1 bis 16 ausgeführt wird.Method according to one of the Claims 17 until 20 , wherein the method is carried out by at least one processor of the microscopy system according to one of the Claims 1 until 16 is performed. Computerprogramm das Programmcode umfasst, der von mindestens einem Prozessor ausgeführt werden kann, wobei das Ausführen des Programmcodes bewirkt, dass der mindestens eine Prozessor das Verfahren nach Anspruch 17 ausführt.Computer program comprising program code that can be executed by at least one processor, wherein the execution of the program code causes the at least one processor to carry out the method according to Claim 17 executes.
DE102022130975.4A 2022-11-23 2022-11-23 LOCALIZATION OF CONTAMINATIONS IN MICROSCOPY SYSTEMS Pending DE102022130975A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022130975.4A DE102022130975A1 (en) 2022-11-23 2022-11-23 LOCALIZATION OF CONTAMINATIONS IN MICROSCOPY SYSTEMS
CN202311571350.9A CN118068552A (en) 2022-11-23 2023-11-21 Contamination localization in microscope systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022130975.4A DE102022130975A1 (en) 2022-11-23 2022-11-23 LOCALIZATION OF CONTAMINATIONS IN MICROSCOPY SYSTEMS

Publications (1)

Publication Number Publication Date
DE102022130975A1 true DE102022130975A1 (en) 2024-05-23

Family

ID=90922986

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022130975.4A Pending DE102022130975A1 (en) 2022-11-23 2022-11-23 LOCALIZATION OF CONTAMINATIONS IN MICROSCOPY SYSTEMS

Country Status (2)

Country Link
CN (1) CN118068552A (en)
DE (1) DE102022130975A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3800053C2 (en) 1988-01-04 1991-03-14 Erwin Sick Gmbh Optik-Elektronik, 7808 Waldkirch, De
WO2015114093A2 (en) 2014-01-31 2015-08-06 Carl Zeiss Ag Illumination device in particular for fourier ptychography
DE102016108079A1 (en) 2016-05-02 2017-11-02 Carl Zeiss Microscopy Gmbh ARTIFICIAL REDUCTION IN ANGLE DETECTIVE LIGHTING
DE102017102998A1 (en) 2017-02-15 2018-02-08 Carl Zeiss Smt Gmbh Arrangement and method for characterizing a transparent substrate
US10670387B2 (en) 2014-07-10 2020-06-02 Carl Zeiss Microscopy Gmbh Determining the position of an object in the beam path of an optical device
DE102022204995A1 (en) 2022-05-19 2022-07-28 Carl Zeiss Smt Gmbh METHODS FOR INSPECTING SURFACE AND DETECTING CONTAMINATIONS

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3800053C2 (en) 1988-01-04 1991-03-14 Erwin Sick Gmbh Optik-Elektronik, 7808 Waldkirch, De
WO2015114093A2 (en) 2014-01-31 2015-08-06 Carl Zeiss Ag Illumination device in particular for fourier ptychography
US10670387B2 (en) 2014-07-10 2020-06-02 Carl Zeiss Microscopy Gmbh Determining the position of an object in the beam path of an optical device
DE102016108079A1 (en) 2016-05-02 2017-11-02 Carl Zeiss Microscopy Gmbh ARTIFICIAL REDUCTION IN ANGLE DETECTIVE LIGHTING
DE102017102998A1 (en) 2017-02-15 2018-02-08 Carl Zeiss Smt Gmbh Arrangement and method for characterizing a transparent substrate
DE102022204995A1 (en) 2022-05-19 2022-07-28 Carl Zeiss Smt Gmbh METHODS FOR INSPECTING SURFACE AND DETECTING CONTAMINATIONS

Also Published As

Publication number Publication date
CN118068552A (en) 2024-05-24

Similar Documents

Publication Publication Date Title
EP2195697B1 (en) Method for analysing a sample
DE69526890T2 (en) Off-axis alignment system for scanning photolithography
WO2018219632A1 (en) Method for generating and analysing an overview contrast image
WO2019238518A2 (en) Material testing of optical test pieces
EP3186672A2 (en) Phase contrast imaging
EP1607738A1 (en) Method and system for wafer inspection
DE102010047050A1 (en) Method for characterizing a structure on a mask and device for carrying out the method
EP3608831A1 (en) Method for providing an evaluating means for at least one optical application system of a microscopic application technology
DE102009044151A1 (en) Device for optical wafer inspection
EP3056934A1 (en) Measuring head of an endoscopic device and method of inspecting and measuring an object
EP3195250A1 (en) Method for generating a result image and optical device
DE102021118327A1 (en) Measuring camera and method for two-dimensional measurement of objects
EP3374755B1 (en) Light microscope and method for determining a wavelength-dependent refractive index of a sample medium
DE102019208114B4 (en) Device and method for 3D measurement of object coordinates
AT516759B1 (en) Apparatus and method for determining the number of solid particles in a fluid stream
DE102013020705B4 (en) Method for examining a mask
DE102020109734B4 (en) Method and irradiation device in reflection microscopy
DE102022130975A1 (en) LOCALIZATION OF CONTAMINATIONS IN MICROSCOPY SYSTEMS
DE102016123154A1 (en) Determination of the arrangement of a sample object by means of angle-selective illumination
DE10153581A1 (en) Determining effective contour of rotary machine tool in adjusting apparatus, by measuring maximum excursion of shadow boundary line from tool axis at certain points
EP3988989B1 (en) Method and microscope with a device for detecting displacements of a sample relative to a lens
DE202014105027U1 (en) Device for three-dimensional eye determination
DE102017115021A1 (en) Digital determination of the focus position
WO2021140052A1 (en) Confocal measuring apparatus for 3d measurement of an object surface
AT527029B1 (en) Device and method for characterizing a sample and in particular for characterizing a sample container

Legal Events

Date Code Title Description
R163 Identified publications notified