DE102022130975A1 - LOCALIZATION OF CONTAMINATIONS IN MICROSCOPY SYSTEMS - Google Patents
LOCALIZATION OF CONTAMINATIONS IN MICROSCOPY SYSTEMS Download PDFInfo
- Publication number
- DE102022130975A1 DE102022130975A1 DE102022130975.4A DE102022130975A DE102022130975A1 DE 102022130975 A1 DE102022130975 A1 DE 102022130975A1 DE 102022130975 A DE102022130975 A DE 102022130975A DE 102022130975 A1 DE102022130975 A1 DE 102022130975A1
- Authority
- DE
- Germany
- Prior art keywords
- imaging
- microscopy system
- light
- contamination
- intensity images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000386 microscopy Methods 0.000 title claims abstract description 85
- 230000004807 localization Effects 0.000 title claims description 19
- 238000005286 illumination Methods 0.000 claims abstract description 113
- 230000003287 optical effect Effects 0.000 claims abstract description 113
- 238000011109 contamination Methods 0.000 claims abstract description 110
- 238000000034 method Methods 0.000 claims abstract description 47
- 238000003384 imaging method Methods 0.000 claims description 186
- 210000001747 pupil Anatomy 0.000 claims description 28
- 238000004422 calculation algorithm Methods 0.000 claims description 25
- 238000004140 cleaning Methods 0.000 claims description 14
- 238000001228 spectrum Methods 0.000 claims description 13
- 230000010287 polarization Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 abstract description 2
- 239000000523 sample Substances 0.000 description 35
- 230000008859 change Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 239000000356 contaminant Substances 0.000 description 6
- 230000003595 spectral effect Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 239000000428 dust Substances 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000000926 separation method Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- CSCPPACGZOOCGX-UHFFFAOYSA-N Acetone Chemical compound CC(C)=O CSCPPACGZOOCGX-UHFFFAOYSA-N 0.000 description 2
- KFZMGEQAYNKOFK-UHFFFAOYSA-N Isopropanol Chemical compound CC(C)O KFZMGEQAYNKOFK-UHFFFAOYSA-N 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000012472 biological sample Substances 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 230000008602 contraction Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000004519 grease Substances 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004113 cell culture Methods 0.000 description 1
- -1 cell cultures Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 239000002904 solvent Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 239000004753 textile Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M11/00—Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
- G01M11/02—Testing optical properties
- G01M11/0242—Testing optical properties by measuring geometrical properties or aberrations
- G01M11/0278—Detecting defects of the object to be tested, e.g. scratches or dust
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M11/00—Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
- G01M11/02—Testing optical properties
- G01M11/0242—Testing optical properties by measuring geometrical properties or aberrations
- G01M11/0257—Testing optical properties by measuring geometrical properties or aberrations by analyzing the image formed by the object to be tested
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/06—Means for illuminating specimens
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/06—Means for illuminating specimens
- G02B21/08—Condensers
- G02B21/14—Condensers affording illumination for phase-contrast observation
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/24—Base structure
- G02B21/26—Stages; Adjusting means therefor
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/36—Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
- G02B21/365—Control or image processing arrangements for digital or video microscopes
- G02B21/367—Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0006—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means to keep optical surfaces clean, e.g. by preventing or removing dirt, stains, contamination, condensation
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/24—Base structure
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Optics & Photonics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Microscoopes, Condenser (AREA)
Abstract
Es werden Techniken beschrieben, wie eine Verschmutzungen von Optikkomponenten eines Mikroskopiesystems durch winkelvariable Beleuchtung und entsprechende Auswertung von erfassten Bildern lokalisiert werden können. Es kann dann eine Benutzerführung bereitgestellt werden, die den Benutzer zur Reinigung der betroffenen verschmutzten Optikkomponente anleitet.Techniques are described on how contamination of optical components of a microscopy system can be localized using angle-variable illumination and corresponding evaluation of captured images. A user guide can then be provided that instructs the user to clean the affected dirty optical component.
Description
TECHNISCHES GEBIETTECHNICAL AREA
Verschiedene Beispiele der Erfindung betreffen Techniken, um Verunreinigungen bzw. Verschmutzungen auf Optikkomponenten von Mikroskopiesystemen zu lokalisieren.Various examples of the invention relate to techniques for locating contaminants or dirt on optical components of microscopy systems.
HINTERGRUNDBACKGROUND
Verschmutzungen auf Optikkomponenten können die Qualität der Bildgebung, die mittels eines entsprechenden Mikroskopiesystems erzielbar ist, einschränken.Contamination on optical components can limit the quality of imaging that can be achieved using a corresponding microscopy system.
Die Erkenntnis, dass eine Optik verschmutzt ist, basiert meist auf einem veränderten, ungewohnten Bildeindruck, den ein Anwender hat. Durch graduelle Veränderungen ist die Verschmutzung manchmal nicht offensichtlich, und für manche Bildkontraste (z.B. Fluoreszenz) sind diese nicht sichtbar für den Anwender, führen aber zur Degradation der Bildqualität. Die Reinigung von Optikkomponenten erfolgt in der Praxis daher unsystematisch, meist auch ohne Wissen, auf welcher Komponente sich die Verunreinigung befindet.The realization that an optic is dirty is usually based on a changed, unusual image impression that a user has. Due to gradual changes, the contamination is sometimes not obvious, and for some image contrasts (e.g. fluorescence) it is not visible to the user, but leads to a degradation of the image quality. In practice, the cleaning of optic components is therefore carried out unsystematically, usually without knowing which component the contamination is on.
Aus
KURZE ZUSAMMENFASSUNG DER ERFINDUNGBRIEF SUMMARY OF THE INVENTION
Es besteht ein Bedarf für verbesserte Techniken, um Abbildungsartefakte aufgrund von Verschmutzung von Optikkomponenten eines Mikroskopiesystems zu vermeiden.There is a need for improved techniques to avoid imaging artifacts due to contamination of optical components of a microscopy system.
Diese Aufgabe wird gelöst von den Merkmalen der unabhängigen Patentansprüche. Die Merkmale der abhängigen Patentansprüche definieren Ausführungsformen.This problem is solved by the features of the independent patent claims. The features of the dependent patent claims define embodiments.
Mittels der hierin beschriebenen Techniken ist es möglich, die Position von Verschmutzungen im Abbildungsweg eines Mikroskopiesystems zu bestimmen.Using the techniques described herein, it is possible to determine the position of contaminants in the imaging path of a microscopy system.
Ein Mikroskopiesystem umfasst eine Abbildungsoptik. Die Abbildungsoptik weist eine Objektebene auf. Außerdem weist die Abbildungsoptik eine Abbildungsebene auf, die zur Objektebene konjugiert ist. Das Mikroskopiesystem umfasst auch ein Beleuchtungsmodul. Das Beleuchtungsmodul umfasst mehrere Lichtquellen, beispielsweise Leuchtdioden, die versetzt zueinander angeordnet sind. Das Mikroskopiesystem umfasst auch einen Detektor, welcher in der Abbildungsebene angeordnet ist. Ferner umfasst das Mikroskopiesystem mindestens einem Prozessor. Der mindestens eine Prozessor ist eingerichtet, um den Detektor und die mehreren Lichtquellen anzusteuern, um mehrere Intensitätsbilder zu erfassen. Diese mehreren Intensitätsbilder sind dabei mit Beleuchtung durch unterschiedliche Lichtquellen der mehreren Lichtquellen assoziiert. Der mindestens eine Prozessor ist weiterhin eingerichtet, um basierend auf unterschiedlichen Abbildungsorten eines Abbildungsartefakts in den mehreren Intensitätsbildern eine Verschmutzung, welche das Abbildungsartefakt verursacht, in Bezug auf Optikkomponenten des Mikroskopiesystems (also insbesondere in Bezug auf Optikkomponenten der Abbildungsoptik) zu lokalisieren.A microscopy system comprises an imaging optics. The imaging optics have an object plane. In addition, the imaging optics have an imaging plane that is conjugated to the object plane. The microscopy system also comprises an illumination module. The illumination module comprises a plurality of light sources, for example light-emitting diodes, which are arranged offset from one another. The microscopy system also comprises a detector that is arranged in the imaging plane. Furthermore, the microscopy system comprises at least one processor. The at least one processor is configured to control the detector and the plurality of light sources in order to capture a plurality of intensity images. These plurality of intensity images are associated with illumination by different light sources of the plurality of light sources. The at least one processor is further configured to localize contamination that causes the imaging artifact in relation to optical components of the microscopy system (i.e. in particular in relation to optical components of the imaging optics) based on different imaging locations of an imaging artifact in the plurality of intensity images.
Es wäre möglich, dass die mehreren Lichtquellen in einer Beleuchtungspupillenebene angeordnet sind. Es wäre aber auch denkbar, dass die Lichtquellen versetzt bzw. beabstandet zur Pupillenebene angeordnet sind.It would be possible for the multiple light sources to be arranged in an illumination pupil plane. However, it would also be conceivable for the light sources to be offset or spaced apart from the pupil plane.
Das Beleuchtungsmodul kann in Durchlichtgeometrie in Bezug auf die Objektebene angeordnet sein.The illumination module can be arranged in transmitted light geometry with respect to the object plane.
Das Beleuchtungsmodul kann in Köhler-Geometrie angeordnet sein.The lighting module can be arranged in Köhler geometry.
Das Beleuchtungsmodul kann also zum Beispiel einen Träger aufweisen, auf dem die mehreren Lichtquellen angeordnet sind. Der Träger kann in der Beleuchtungspupillenebene angeordnet sein. Das Beleuchtungsmodul kann eine Leuchtfeldblende aufweisen. Das Beleuchtungsmodul kann eine Kondensorlinse und eine zugehörige Kondensorblende, die zwischen der Kondensorlinse und der Beleuchtungspupillenebene angeordnet ist, aufweisen.The illumination module can therefore, for example, have a carrier on which the plurality of light sources are arranged. The carrier can be arranged in the illumination pupil plane. The illumination module can have a luminous field diaphragm. The illumination module can have a condenser lens and an associated condenser diaphragm arranged between the condenser lens and the illumination pupil plane.
Zwischen der Kondensorlinse und einer Objektivlinse der Abbildungsoptik kann dann die Objektebene angeordnet sein. Auf die Objektivlinse kann eine Tubuslinse folgen. Diese kann eine Zwischenbildebene, die konjugiert mit der Objektebene ist, definieren. Die Zwischenbildebene kann dann über eine Relaisoptik auf den Detektor bzw. die Abbildungsebene abgebildet werden.The object plane can then be arranged between the condenser lens and an objective lens of the imaging optics. The objective lens can be followed by a tube lens. This can define an intermediate image plane that is conjugated with the object plane. The intermediate image plane can then be imaged onto the detector or the imaging plane via relay optics.
Der mindestens eine Prozessor kann eingerichtet sein, um die mehreren Lichtquellen so anzusteuern, dass die mehreren Intensitätsbilder jeweils mit der Beleuchtung einer der mehreren Lichtquellen assoziiert sind. Beispielsweise könnte die Aktivierung der Lichtquellen nacheinander im Zeitraum erfolgen. Es könnte erst eine erste Leuchtdiode angesteuert werden, sodass diese Licht aussendet; dann könnte ein entsprechendes Intensitätsbild erfasst werden; dann könnte der Vorgang mit einer weiteren Leuchtdiode wiederholt werden. Es wäre aber auch denkbar, dass die mehreren Lichtquellen Licht unterschiedlicher Wellenlängen aussenden. Dann wäre es möglich, dass ein zumindest teilweise zeitparalleles Beleuchten mittels der mehreren Lichtquellen erfolgt; wobei dann eine spektrale Trennung entweder durch Verwendung geeigneter Filter oder Detektorelemente des Detektors erfolgen kann. Beispielsweise könnten rot-grün-blau Leuchtdioden verwendet werden, die drei Kanäle aufweisen, die individuell angesteuert werden können; der Detektor kann entsprechend drei Kanäle für rot-grün-blau aufweisen.The at least one processor may be configured to control the plurality of light sources control that the multiple intensity images are each associated with the illumination of one of the multiple light sources. For example, the light sources could be activated one after the other over a period of time. First, a first light-emitting diode could be controlled so that it emits light; then a corresponding intensity image could be recorded; then the process could be repeated with another light-emitting diode. However, it would also be conceivable for the multiple light sources to emit light of different wavelengths. It would then be possible for the multiple light sources to illuminate at least partially in parallel; in which case spectral separation can be achieved either by using suitable filters or detector elements of the detector. For example, red-green-blue light-emitting diodes could be used which have three channels that can be controlled individually; the detector can accordingly have three channels for red-green-blue.
Eine solche Beleuchtung kann auch als winkelvariable oder winkelselektive Beleuchtung bezeichnet werden. Dies liegt daran, dass durch die zueinander versetzte Anordnung der Lichtquellen (senkrecht zur optischen Achse des Strahlengangs des Mikroskopiesystems) unterschiedliche Winkel der Beleuchtung in der Objektebene erzeugt werden können. Das bedeutet, dass die verschiedenen Intensitätsbilder mit unterschiedlichen Beleuchtungsrichtungen assoziiert sind. Die Objektebene wird unter verschiedenen Winkeln großflächig ausgeleuchtet.Such illumination can also be referred to as angle-variable or angle-selective illumination. This is because the offset arrangement of the light sources (perpendicular to the optical axis of the beam path of the microscopy system) allows different angles of illumination to be generated in the object plane. This means that the different intensity images are associated with different illumination directions. The object plane is illuminated over a large area at different angles.
Auch Verunreinigungen bzw. Störstrukturen werden schräg beleuchtet. Wird eine Verunreinigung (die nicht notwendigerweise in der Objektebene angeordnet sein muss) unter unterschiedlichen Winkeln beleuchtet (was durch die mehreren Lichtquellen bzw. die winkelvariable Beleuchtung ermöglicht wird), führt dies zu einem Versatz der Abbildungsorte eines entsprechenden Abbildungsartefakts, das durch die Verunreinigung hervorgerufen wird, in der Abbildungsebene. Die Abbildungsorte des Abbildungsartefakts bzw. der entsprechende Versatz zwischen zwei Paaren von Abbildungsorten, die für unterschiedliche Beleuchtungsrichtungen, die durch das Aktivieren unterschiedlicher Lichtquellen erzielt werden, hervorgerufen wird, ist abhängig von der Position der zugehörigen Verschmutzung im Strahlengang des Lichts durch das Mikroskopiesystem und insbesondere die Abbildungsoptik. Dies kann ausgenutzt werden, um die Verschmutzung in Bezug auf Optikkomponenten der Abbildungsoptik zu lokalisieren.Contaminants or disruptive structures are also illuminated at an angle. If a contamination (which does not necessarily have to be located in the object plane) is illuminated at different angles (which is made possible by the multiple light sources or the angle-variable illumination), this leads to an offset of the imaging locations of a corresponding imaging artifact caused by the contamination in the imaging plane. The imaging locations of the imaging artifact or the corresponding offset between two pairs of imaging locations caused for different illumination directions achieved by activating different light sources depends on the position of the associated contamination in the beam path of the light through the microscopy system and in particular the imaging optics. This can be exploited to localize the contamination in relation to optical components of the imaging optics.
Es ist möglich, die Verschmutzung axial - das heißt entlang der optischen Hauptachse der Abbildungsoptik - zu lokalisieren. Optional ist es auch möglich, die Verschmutzung lateral zu lokalisieren, das heißt einen Abstand der Verschmutzung zur optischen Hauptachse zu bestimmen.It is possible to locate the contamination axially - that is, along the main optical axis of the imaging optics. Optionally, it is also possible to locate the contamination laterally, that is, to determine the distance of the contamination from the main optical axis.
Beispielsweise könnte im Rahmen der Lokalisierung bestimmt werden, welche optische Komponente, beispielsweise eine Linse oder ein Filter, bei oder nahebei der geschätzten Position der Verschmutzung lokalisiert ist. Die Verschmutzung, typischerweise Staubpartikel oder anderer Schmutz aus der Umgebung, sind dann mit hoher Wahrscheinlichkeit auf einer Oberfläche der entsprechenden optischen Komponente angeordnet; sodass eine Säuberung dieser optischen Komponente zielgerichtet das Abbildungsartefakt reduzieren lässt. Beispielsweise könnte die Lokalisierung auch die Bestimmung der Oberfläche, das heißt zum Beispiel eine vordere oder hintere Oberfläche, der entsprechenden Optikkomponente, die mutmaßlich verschmutzt ist, umfassen.For example, as part of the localization, it could be determined which optical component, for example a lens or a filter, is located at or near the estimated position of the contamination. The contamination, typically dust particles or other dirt from the environment, is then most likely located on a surface of the corresponding optical component; so that cleaning this optical component can be targeted to reduce the imaging artifact. For example, the localization could also include determining the surface, i.e., for example, a front or rear surface, of the corresponding optical component that is presumably contaminated.
Durch solche Techniken kann also eine zielgerichtete Reinigung des Mikroskopiesystems bzw. der Optikkomponenten angestoßen werden. Insgesamt kann dadurch die Bildqualität während eines Bildgebungsmodus verbessert werden.Such techniques can be used to initiate targeted cleaning of the microscopy system or the optical components. Overall, this can improve the image quality during an imaging mode.
In Beispielen ist der mindestens eine Prozessor eingerichtet, um basierend auf den unterschiedlichen Abbildungsorten des Abbildungsartefakts und unter Verwendung eines strahlenoptischen Modells der Abbildungsoptik eine strahlenoptische Lichtstrahlenausbreitung zu berechnen. Derart kann die Verschmutzung in Bezug auf die Optikkomponenten der Abbildungsoptik lokalisiert werden.In examples, the at least one processor is configured to calculate a ray-optical light beam propagation based on the different imaging locations of the imaging artifact and using a ray-optical model of the imaging optics. In this way, the contamination can be localized with respect to the optical components of the imaging optics.
Beispielsweise ist es möglich, dass unter Kenntnis der Anordnung der verschiedenen Optikkomponenten der Abbildungsoptik eine Rückverfolgung von Lichtstrahlen ausgehend von der Objektebene erfolgt (engl. „ray tracing“), um die Verschmutzung zu lokalisieren. Dies ermöglicht eine besonders genaue Lokalisierung der Verschmutzung.For example, it is possible to trace light rays back from the object plane (ray tracing) to locate the contamination by knowing the arrangement of the various optical components of the imaging optics. This enables particularly precise localization of the contamination.
Beispielsweise könnte eine strahlenoptische Triangulation durchgeführt werden. Es können noch mehr als zwei Strahlen verwendet werden, das heißt es kann eine strahlenoptische Multiangulation von zwei oder mehr Lichtstrahlen, die mit den unterschiedlichen Abbildungsorten assoziiert sind, verwendet werden, um beispielsweise den axialen Abstand zwischen der Abbildungsebene und der Verschmutzung zu bestimmen. Dies ermöglicht eine wenig rechenintensive Lokalisierung der Verschmutzung; die Genauigkeit kann ausreichend sein, um eine bestimmte Optikkomponente zu erkennen, die mutmaßlich verschmutzt ist.For example, ray optical triangulation could be performed. Even more than two rays can be used, i.e. ray optical multiangulation of two or more light rays associated with the different imaging locations can be used to determine, for example, the axial distance between the imaging plane and the contamination. This enables a low computational effort to localize the contamination; the accuracy can be sufficient to detect a specific optical component that is suspected to be contaminated.
Das strahlenoptische Modell der Abbildungsoptik kann dabei entsprechend die axiale Anordnung (das heißt die Positionierung der optischen Hauptebene entlang der optischen Hauptachse) von mehreren Linsen und/oder Filtern usw. der Abbildungsoptik umfassen. Alternativ oder zusätzlich kann das strahlenoptische Modell die Brennweiten der mehreren Linsen und/oder eine axiale Dicke der Linsen oder anderer optischer Komponenten umfassen. Derart können besonders genaue Instruktionen an den Benutzer ausgegeben werden, beispielsweise hinsichtlich einer verunreinigten Oberfläche der entsprechenden Optikkomponente.The ray optical model of the imaging optics can accordingly include the axial arrangement (i.e. the positioning of the main optical plane along the main optical axis) of several lenses and/or filters etc. of the imaging optics. Alternatively or additionally, the ray optical model can include the focal lengths of the several lenses and/or an axial thickness of the lenses or other optical components. In this way, particularly precise instructions can be issued to the user, for example with regard to a contaminated surface of the corresponding optical component.
Um auch Zugang zu Pupillenebenen der Optik zu erreichen, kann mittels einer einbringbaren Zusatzoptik - beispielsweise einer Bertrand-Optik - oder durch Entfernung von bestimmten Optikkomponenten (z.B. Objektiv) die Ausleuchtung der Pupillenebene erreicht werden. Das Mikroskopiesystem kann also ein wahlweise in den Strahlengang der Abbildungsoptik positionierbares optisches Element umfassen. Dieses kann eingerichtet sein, um die Beleuchtungspupillenebene auf die Abbildungsebene abzubilden. Der mindestens eine Prozessor kann dann eingerichtet sein, um den Detektor und die mehreren Lichtquellen zum Erfassen der mehreren Intensitätsbildern in einem Diagnosemodus anzusteuern, in dem das optische Element im Strahlengang positioniert ist. Durch die Verwendung des Diagnosemodus, kann eine geeignete Beleuchtung verwendet werden, die für die Bildgebung eines Probenobjekts nicht geeignet ist; sich aber besonders gut eignet, um die Verunreinigung zu lokalisieren. Dadurch kann die Verunreinigung genauer lokalisiert werden. Eine robustere Erkennung der Abbildungsartefakte wird ermöglicht. Allgemeiner formuliert können in bestimmten Beispielen im Diagnosemodus mehrere Sätze von Intensitätsbildern erfasst werden. Dabei kann die Konfiguration des Strahlengangs des Lichts durch das Mikroskopiesystem jeweils angepasst werden, das heißt jeder Satz von Intensitätsbildern wird mit einer entsprechenden Konfiguration des Strahlengangs des Lichts erfasst. Beispielsweise kann in einer ersten Konfiguration die Bertrand-Optik im Strahlengang angeordnet sein und in einer zweiten Konfiguration die Bertrand-Optik nicht im Strahlengang angeordnet sein. Weitere Beispiele betreffen zum Beispiel die Variation einer Brennweite eines Objektivs zwischen den verschiedenen Konfigurationen, Variation eines Vergrößerungsfaktors/Zoom-Faktors eines variablen Zoom-Systems, oder die Verwendung von unterschiedlichen Feldblenden. Eine Veränderung der Brennweite des Objektivs kann zum Beispiel durch den Tausch des Objektivs erreicht werden, beispielsweise kann ein Objektiv-Revolver verwendet werden, welcher mehrere Objektive zur selektiven Einbringung in den Strahlengang bereitstellt. Die Veränderungen des Vergrößerungsfaktors kann zum Beispiel durch die Veränderung eines Abstands zwischen zwei Zoom-Linsen eines Zoom-Systems parallel zum Strahlengang erreicht werden (z-Antrieb).In order to also gain access to pupil planes of the optics, the illumination of the pupil plane can be achieved by means of an insertable additional optic - for example a Bertrand optic - or by removing certain optical components (e.g. lens). The microscopy system can therefore comprise an optical element that can be optionally positioned in the beam path of the imaging optics. This can be set up to image the illumination pupil plane onto the imaging plane. The at least one processor can then be set up to control the detector and the multiple light sources for capturing the multiple intensity images in a diagnostic mode in which the optical element is positioned in the beam path. By using the diagnostic mode, suitable lighting can be used that is not suitable for imaging a sample object, but is particularly suitable for locating the contamination. This allows the contamination to be located more precisely. A more robust detection of the imaging artifacts is made possible. More generally, in certain examples, multiple sets of intensity images can be captured in the diagnostic mode. The configuration of the beam path of the light through the microscopy system can be adjusted in each case, i.e. each set of intensity images is captured with a corresponding configuration of the beam path of the light. For example, in a first configuration the Bertrand optics can be arranged in the beam path and in a second configuration the Bertrand optics can not be arranged in the beam path. Other examples include, for example, the variation of a focal length of an objective between the different configurations, variation of a magnification factor/zoom factor of a variable zoom system, or the use of different field stops. A change in the focal length of the objective can be achieved, for example, by changing the objective. For example, an objective turret can be used which provides several objectives for selective introduction into the beam path. The changes in the magnification factor can be achieved, for example, by changing a distance between two zoom lenses of a zoom system parallel to the beam path (z drive).
Der Diagnosemodus ist - unter anderem aufgrund der Abbildung der Beleuchtungspupillenebene auf die Abbildungsebene wie in dem Beispiel beschrieben - nicht zur eigentlichen Bildgebung von Objekten, die in der Objektebene angeordnet sind, beispielsweise von Probenobjekten oder zu untersuchenden Probenstücken, geeignet. Entsprechend kann der Diagnosemodus zielgerichtet aktiviert werden, wenn eine Verschmutzung der Abbildungsoptik erkannt werden soll bzw. die Verschmutzung lokalisiert werden soll. Der Diagnosemodus ist auf der anderen Seite nicht für Bildgebung eines Probenobjekts, welches in der Objektebene angeordnet ist, geeignet. Ein vorteilhaftes Vorgehen ist es im Diagnosemodus das Probenobjekt zu entfernen, da deren Bildeffekte die Schmutzeffekte überlagern und damit weniger gut sichtbar oder lokalisierbar machen. Weiterhin kann es bei motorisierten Systemen vorteilhaft sein, optische Elemente wie z.B. das Objektiv, im Diagnoseprozess zu wechseln oder zu verändern, um eine weitere Parametrisierung der beobachteten Artefaktpositionen zu erhalten, um eindeutige Zuordnungen der Artefakte zu verschmutzen Grenzflächen zu erhalten. So würde im einfachsten Fall bei einer verschmutzen Objektivlinse die einen Artefakt hervorruft, dieser bei Wechsel auf ein anderes Objektiv verschwinden. Weiterhin kann es sinnvoll sein Immersionsobjektive im Diagnosemodus ohne Probensubstrat und damit Immersion zu betreiben, um den Reinigungszustande des Objektivs zu bewerten. Vorteilhaft ist, dass über eine Kontrolleinheit verschiedenen Konfigurationen möglichst automatisiert abgefragt oder eingestellt werden können oder zumindest für eine Verrechnungseinheit als mögliche Konstellationen hinterlegt sind, um daraus Aussagen für mögliche Verschmutzungspositionen abzuleiten.The diagnostic mode is not suitable for the actual imaging of objects that are arranged in the object plane, for example sample objects or sample pieces to be examined, due to the mapping of the illumination pupil plane onto the imaging plane as described in the example. Accordingly, the diagnostic mode can be activated in a targeted manner if contamination of the imaging optics is to be detected or the contamination is to be localized. On the other hand, the diagnostic mode is not suitable for imaging a sample object that is arranged in the object plane. An advantageous approach is to remove the sample object in the diagnostic mode, as its image effects overlay the dirt effects and thus make them less visible or localizable. Furthermore, with motorized systems it can be advantageous to change or modify optical elements such as the lens in the diagnostic process in order to obtain further parameterization of the observed artifact positions in order to obtain clear assignments of the artifacts to dirty interfaces. In the simplest case, if a dirty objective lens causes an artifact, this would disappear when changing to another lens. It can also be useful to operate immersion lenses in diagnostic mode without a sample substrate and thus immersion in order to evaluate the cleaning status of the lens. It is advantageous that various configurations can be queried or set as automatically as possible via a control unit or at least stored as possible constellations for a calculation unit in order to derive statements about possible contamination positions.
Das strahlenoptische Modell, welches zur Lokalisierung der Verschmutzung in Bezug auf die Optikkomponenten verwendet wird, kann dann die Verwendung eines entsprechenden optischen Elements, das im Strahlengang positioniert ist, und die Beleuchtungspupillenebene auf die Abbildungsebene abbildet, berücksichtigen. Dadurch kann weitere Informationen Zusammenhang mit der Lokalisierung der Verunreinigung erhalten werden. Insbesondere kann dadurch eine robustere und genauere Lokalisierung der Verunreinigung ermöglicht werden.The ray optical model used to localize the contamination in relation to the optical components can then take into account the use of a corresponding optical element positioned in the beam path and mapping the illumination pupil plane onto the imaging plane. This can provide further information related to the localization of the contamination. In particular, this can enable a more robust and accurate localization of the contamination.
Die verschiedenen voranstehend beschriebenen Techniken beruhen auf der Bestimmung von Abbildungsorten des Abbildungsartefakts in den mehreren Intensitätsbildern. Dabei gibt es grundsätzlich unterschiedliche Möglichkeiten, um diese Abbildungsorte in den verschiedenen Intensitätsbildern, die zum Beispiel aufgeteilt im Zeitraum oder im Spektralraum erfasst wurden, wie obenstehend beschrieben, zu bestimmen. Beispielsweise könnte eine entsprechende Erkennung computerimplementiert erfolgen. Der mindestens eine Prozessor kann weiterhin eingerichtet sein, um das Abbildungsartefakt mit einem Detektor-Algorithmus in den mehreren Intensitätsbildern zu lokalisieren. Beispielsweise könnte ein maschinengelernter Algorithmus verwendet werden. Beispielsweise könnte ein künstliches neuronales Netzwerk verwendet werden. Das künstliche neuronale Netzwerk könnte als Eingabe jeweils die verschiedenen Intensitätsbilder erhalten. Das künstliche neuronale Netzwerk kann trainiert werden, um basierend auf solchen Intensitätsbildern Verschmutzungen zu lokalisieren. Beispielsweise könnte das Training mittels manuell annotierten Trainingsbildern erfolgen. Ein künstliches neuronales Netzwerk, welches eine solche Verarbeitung im Bildraum bereitstellen kann, ist zum Beispiel ein tiefes Faltungsnetzwerk, welches Faltungsschichten umfasst, bei denen die Eingabegewichte mit im Training bestimmten Kernen gefaltet werden. Solche Techniken beruhen auf der Erkenntnis, dass die Größe, Kontrastierung und Beugungsstruktur von Abbildungsartefakten aufgrund von Verschmutzung durch die typischerweise wiederkehrenden Arten von Verschmutzung (Staub, Fussel, usw.) ein ähnliches Erscheinungsbild aufweisen, sodass eine computerimplementierte Erkennung gute Genauigkeiten erzielen kann.The various techniques described above are based on the determination of the imaging locations of the imaging artifact in the multiple intensity images. There are basically different ways to do this To determine imaging locations in the various intensity images, which were captured, for example, divided into time periods or in spectral space, as described above. For example, corresponding detection could be computer-implemented. The at least one processor can also be set up to localize the imaging artifact in the multiple intensity images using a detector algorithm. For example, a machine-learned algorithm could be used. For example, an artificial neural network could be used. The artificial neural network could receive the various intensity images as input. The artificial neural network can be trained to localize contamination based on such intensity images. For example, training could be done using manually annotated training images. An artificial neural network that can provide such processing in image space is, for example, a deep convolutional network that includes convolutional layers in which the input weights are convolved with kernels determined during training. Such techniques are based on the realization that the size, contrast and diffraction structure of imaging artifacts due to contamination by the typically recurring types of contamination (dust, lint, etc.) have a similar appearance, so that computer-implemented detection can achieve good accuracies.
Eine beispielhafte Implementierung für den Detektor-Algorithmus wäre zum Beispiel ein Autoencoder-Netzwerk. Das Autoencoder-Netzwerk kann eine Kontraktion von räumlichen Merkmalen hinzu einem Flaschenhals durchführen („encoder branch“) und dann eine Expansion ausgehend von dem latenten Merkmalsvektor im Flaschenhals, korrelieren mit der Kontraktion durchführen („deocder branch“). Das bedeutet, dass das Autoencoder-Netzwerk trainiert sein kann, um eine Eingabe (zum Beispiel ein Intensitätsbild) möglichst gut zu rekonstruieren. Dabei kann das Autoencoder-Netzwerk basierend auf Trainingsdaten trainiert werden, die für ein gut gereinigtes Mikroskopiesystem erhalten werden, das heißt ohne oder ohne signifikante Abbildungsartefakte. Tritt nunmehr ein Abbildungsartefakt auf, so ist die Ausgabe des Autoencoder-Netzwerks signifikant verschieden von der Eingabe des Autoencoder-Netzwerks; das heißt das Autoencoder-Netzwerk kann das eingegebene Intensitätsbild nur unzureichend rekonstruieren. Insbesondere im Bereich des Abbildungsartefakte liegt eine signifikante pixelweise Differenz zwischen dem eingegebenen Intensitätsbild und der Rekonstruktion durch das Autoencoder-Netzwerk vor. Derart kann mittels entsprechender Techniken der Anomaliedetektion ein Abbildungsartefakt erkannt werden. Der Vorteil des Autoencoder-Netzwerks liegt darin, dass ein nicht überwachtes Training möglich ist, basierend auf einer Verlustfunktion, die automatisch durch einen Vergleich der Eingabe mit der Ausgabe berechnet wird. Neben einer solchen Implementierung des Detektor-Algorithmus durch ein Autoencoder-Netzwerk werden aber auch andere Implementierungen denkbar, insbesondere andere Anomaliedetektionsalgorithmen.An example implementation for the detector algorithm would be an autoencoder network. The autoencoder network can perform a contraction of spatial features to a bottleneck (“encoder branch”) and then perform an expansion starting from the latent feature vector in the bottleneck, correlating with the contraction (“decoder branch”). This means that the autoencoder network can be trained to reconstruct an input (for example an intensity image) as well as possible. The autoencoder network can be trained based on training data obtained for a well-cleaned microscopy system, i.e. with no or no significant imaging artifacts. If an imaging artifact now occurs, the output of the autoencoder network is significantly different from the input of the autoencoder network; i.e. the autoencoder network can only inadequately reconstruct the input intensity image. In particular, in the area of imaging artifacts, there is a significant pixel-by-pixel difference between the input intensity image and the reconstruction by the autoencoder network. In this way, an imaging artifact can be detected using appropriate anomaly detection techniques. The advantage of the autoencoder network is that unsupervised training is possible, based on a loss function that is automatically calculated by comparing the input with the output. In addition to such an implementation of the detector algorithm by an autoencoder network, other implementations are also conceivable, in particular other anomaly detection algorithms.
Der mindestens eine Prozessor könnte auch eingerichtet sein, um das Abbildungsartefakt - alternativ oder zusätzlich zu einem Detektor-Algorithmus - basierend auf einer Benutzereingabe in den mehreren Intensitätsbildern zu lokalisieren. Das bedeutet also, dass die verschiedenen Intensitätsbilder zum Beispiel einem Benutzer präsentiert werden könnten und der Benutzer könnte dann in den verschiedenen Intensitätsbildern jeweils den Abbildungsort eines Abbildungsartefakts markieren. Eine solche Benutzereingabe könnte auch unterstützt werden, indem zunächst der Detektor-Algorithmus ausgeführt wird, und dann Kandidaten für Abbildungsorte des Abbildungsartefakts in einem entsprechenden grafischen Benutzerinterface einem Benutzer präsentiert werden; der Benutzer kann dann jeweils wahlweise bestätigen, dass an bestimmten Abbildungsorten tatsächlich ein und dasselbe Abbildungsartefakt in den mehreren Intensitätsbildern angeordnet ist. Durch solche Techniken kann das Abbildungsartefakt, welches durch eine Verunreinigung in den Intensitätsbildern erzeugt wird, erkannt werden; beispielsweise auch, wenn es sich um bisher unbekannte Abbildungsartefakte handelt.The at least one processor could also be configured to locate the imaging artifact - alternatively or in addition to a detector algorithm - in the multiple intensity images based on a user input. This means that the different intensity images could be presented to a user, for example, and the user could then mark the imaging location of an imaging artifact in each of the different intensity images. Such user input could also be supported by first executing the detector algorithm and then presenting candidates for imaging locations of the imaging artifact to a user in a corresponding graphical user interface; the user can then optionally confirm that one and the same imaging artifact is actually located at certain imaging locations in the multiple intensity images. Such techniques can be used to detect the imaging artifact that is generated by contamination in the intensity images; for example, even if the imaging artifacts are previously unknown.
Neben einer solchen Detektion/Lokalisierung von Abbildungsartefakten, kann optional auch eine Klassifikation von Abbildungsartefakten erfolgen. Beispielsweise könnte der mindestens eine Prozessor weiterhin eingerichtet sein, um basierend auf dem Erscheinungsbild des Abbildungsartefakts in den mehreren Intensitätsbildern mit einem vortrainierten Klassifikator-Algorithmus einen Typ der Verschmutzung zu bestimmen. Beispielsweise könnte unterschieden werden zwischen ein oder mehreren der folgenden Typen von Verschmutzung: Staub; Fussel; Kratzer; Fettfleck; Flüssigkeitstropfen; usw. Solche Techniken beruhen auf der Erkenntnis, dass aufgrund des charakteristischen Erscheinungsbilds von Abbildungsartefakten in den Intensitätsbildern bereits eine gute Aussage über den Typ der Verschmutzung zu treffen ist. Der Typ der Verschmutzung beeinflusst dann häufig auch die Art der Reinigung. Beispielsweise könnte ein Fettfleck mittels Lösungsmittel, beispielsweise Aceton oder Isopropanol, entfernt werden. Andererseits könnte zum Beispiel Staub oder ein Fussel mittels Druckluft entfernt werden. Ein Kratzer kann nicht einfach entfernt werden, sodass ein Austauschen der entsprechenden Optikkomponente erforderlich sein kann. Eine entsprechende Benutzerführung kann an den Benutzer ausgegeben werden, indem eine Benutzerschnittstelle mit entsprechender Information zur Verschmutzung angesteuert wird. Durch eine solche Klassifikation von Abbildungsartefakte kann der Benutzer also bei der Reinigung weiter unterstützt werden.In addition to such detection/localization of imaging artifacts, classification of imaging artifacts can optionally also be carried out. For example, the at least one processor could also be set up to determine a type of contamination based on the appearance of the imaging artifact in the multiple intensity images using a pre-trained classifier algorithm. For example, a distinction could be made between one or more of the following types of contamination: dust; lint; scratches; grease stains; liquid drops; etc. Such techniques are based on the knowledge that a good statement about the type of contamination can already be made based on the characteristic appearance of imaging artifacts in the intensity images. The type of contamination then often also influences the type of cleaning. For example, a grease stain could be removed using a solvent, such as acetone or isopropanol. On the other hand, dust or lint could be removed using compressed air. A scratch cannot be easily removed, so that it may be necessary to replace the corresponding optical component. A suitable Appropriate user guidance can be provided to the user by controlling a user interface with appropriate information on the contamination. This type of classification of imaging artifacts can therefore provide the user with further support during cleaning.
Der Klassifikator-Algorithmus kann beispielsweise basierend auf den Intensitätsbildern sowie eine Ausgabe des vorgelagerten Detektor-Algorithmus, sofern dieser angewendet wird, operieren. Der Klassifikator-Algorithmus könnte wiederum als künstliches neuronales Netzwerk, insbesondere ein künstliches neuronales Faltungsnetzwerk, ausgebildet sein. Der Klassifikator-Algorithmus kann trainiert werden, indem Trainingsbilder manuell annotiert werden mit einer Grundwahrheit, welche den Typ der Verschmutzung betrifft. Der Klassifikator-Algorithmus könnte beispielsweise auf Bild-Patches arbeiten, die aus den Intensitätsbildern extrahiert werden, beispielsweise basierend auf einer Ausgabe des Detektor-Algorithmus. Der Detektor-Algorithmus könnte ein entsprechendes Abbildungsartefakt detektieren und in dem entsprechenden Intensitätsbild lokalisieren; dann könnte ein Bild-Patch, welches an der entsprechenden Position zentriert ist, extrahiert werden, und als Eingabe in den Klassifikator-Algorithmus übergeben werden.The classifier algorithm may, for example, operate based on the intensity images and an output of the upstream detector algorithm, if applied. The classifier algorithm could in turn be designed as an artificial neural network, in particular an artificial convolutional neural network. The classifier algorithm can be trained by manually annotating training images with a ground truth concerning the type of contamination. The classifier algorithm could, for example, operate on image patches extracted from the intensity images, for example based on an output of the detector algorithm. The detector algorithm could detect a corresponding imaging artifact and locate it in the corresponding intensity image; then an image patch centered at the corresponding position could be extracted and passed as input to the classifier algorithm.
Als allgemeine Regel kann neben einer solchen Implementierung des Detektor-Algorithmus und/oder des Klassifikator-Algorithmus mittels eines künstlichen neuronalen Netzwerks auch eine andere Implementierung verwendet werden. Beispielsweise könnten herkömmliche Detektor-Algorithmen oder herkömmliche Klassifikator-Algorithmen, die nicht Techniken des maschinellen Lernens einsetzen, verwendet werden. Entsprechende Techniken sind dem Fachmann grundsätzlich aus dem Stand der Technik gut bekannt, sodass hier keine weiteren Details erläutert werden müssen.As a general rule, in addition to such an implementation of the detector algorithm and/or the classifier algorithm using an artificial neural network, another implementation can also be used. For example, conventional detector algorithms or conventional classifier algorithms that do not use machine learning techniques could be used. Such techniques are generally well known to the person skilled in the art from the prior art, so no further details need to be explained here.
In den verschiedenen Beispielen ist es dann möglich, dass der mindestens eine Prozessor eingerichtet ist, um eine Benutzerschnittstelle anzusteuern, um Information zu Verschmutzung an einen Benutzer auszugeben.In the various examples, it is then possible that the at least one processor is configured to control a user interface to output information about contamination to a user.
Beispielsweise könnte eine grafische Benutzerschnittstelle verwendet werden. Es könnte eine Webseite verwendet werden.For example, a graphical user interface could be used. A web page could be used.
Die Information der Verschmutzung kann zum Beispiel eine Anweisung zur Reinigung einer bestimmten Optikkomponente der Optikkomponenten der Abbildungsoptik umfassen. Beispielsweise könnte diese Anweisung eine Anleitung beinhalten, wie das Mikroskopiesystem zu manipulieren ist, um Zugang zu der bestimmten Optikkomponente, für die die Verschmutzung vermutet wird, zu erhalten. Beispielsweise könnte eine Anleitung erhalten werden, welche Klappen oder Schrauben zu öffnen sind. Die Information kann auch eine Information über den empfohlenen Reinigungsvorgang, beispielsweise das verwendete Reinigungsmedium, beinhalten - was insbesondere dann hilfreich ist, wenn, wie obenstehend beschrieben, der Typ der Verschmutzung bestimmt worden ist.The contamination information may, for example, include an instruction for cleaning a specific optical component of the optical components of the imaging optics. For example, this instruction could include instructions on how to manipulate the microscopy system to gain access to the specific optical component for which contamination is suspected. For example, instructions could be obtained on which flaps or screws to open. The information may also include information on the recommended cleaning procedure, for example the cleaning medium used - which is particularly helpful when, as described above, the type of contamination has been determined.
Um die Lokalisation bzw. gegebenenfalls Klassifikation des Abbildungsartefakts in den mehreren Intensitätsbildern zu fördern, kann der mindestens eine Prozessor eingerichtet sein, um im Diagnosemodus zu veranlassen, dass kein Probenobjekt in der Objektebene angeordnet ist. Beispielsweise könnte beim Vorhandensein eines motorisierten Probenhalters der Probenhalter aus dem Strahlengang des Mikroskopiesystems entfernt werden. Beispielsweise könnte eine Aufforderung an den Benutzer über die Benutzerschnittstelle ausgegeben werden, um den Benutzer aufzufordern, das Probenobjekt oder den Probenhalter aus dem Strahlengang zu entfernen. Dadurch kann eine Überlagerung der Abbildung des Probenobjekts mit den Abbildungsartefakten vermieden werden; so dass die Abbildungsartefakte in den Intensitätsbildern zuverlässiger erkannt werden können. Außerdem kann eine Beleuchtung eingesetzt werden, die gezielt für den Diagnosemodus vorteilhafte Eigenschaften aufweist (solche Eigenschaften sind typischerweise verschieden von vorteilhaften Eigenschaften für die Bildgebung eines Probenobjekts).In order to promote the localization or, if applicable, classification of the imaging artifact in the multiple intensity images, the at least one processor can be configured to ensure that no sample object is arranged in the object plane in the diagnostic mode. For example, if a motorized sample holder is present, the sample holder could be removed from the beam path of the microscopy system. For example, a request could be issued to the user via the user interface to prompt the user to remove the sample object or the sample holder from the beam path. This can prevent the image of the sample object from being superimposed on the imaging artifacts; so that the imaging artifacts can be detected more reliably in the intensity images. In addition, lighting can be used that specifically has advantageous properties for the diagnostic mode (such properties are typically different from advantageous properties for imaging a sample object).
Es können Leuchtdioden als Lichtquellen des Beleuchtungsmoduls verwendet werden. In den verschiedenen Beispielen können unterschiedliche Typen von Leuchtdioden verwendet werden, um die winkelvariable Beleuchtung zu Diagnosezwecken zu ermöglichen. Es könnten Festkörper-Leuchtdioden oder organische Leuchtdioden verwendet werden. Insbesondere wäre es in den verschiedenen Beispielen möglich, Leuchtdioden zu verwenden, die eine vergleichsweise enges Winkelspektrum bereitstellen (d.h. in der Bildebene fällt das Licht mit einer Winkelverteilung ein, die eine geringe Breite aufweist; die Breite der Winkelverteilung ist dabei grds. unabhängig vom absoluten Einfallswinkel, der groß oder klein sein kann). Die Breite des Winkelspektrum ist dabei definiert durch die Größe des Emitters, der über das Kondensor-Objektiv-System als Fläche wieder in die Pupille des Objektivs abgebildet wird. Diese Fläche sollte im Verhältnis zur Fläche der Objektivpupille (d.h. der numerischen Apertur der Abbildungsoptik) klein genug sein, um eine ausreichende Tiefenschärfe sicherzustellen. Es kann erstrebenswert sein, dass dieses Verhältnis jeweils nicht größer ist als 5%. Alle durch die Lichtquellen angebotenen Beleuchtungswinkel werden durch die Apertur der Abbildungsoptik zum Detektor transportiert. Solche Techniken beruhen auf der Erkenntnis, dass bei der Verwendung von Leuchtdioden, die eine vergleichsweise geringe numerische Beleuchtungsapertur aufweisen, die Tiefenschärfe der Abbildung erhöht wird. Dies kann (im Diagnosemodus) erstrebenswert sein, um auch Verschmutzungen zu erkennen, die einen vergleichsweise großen axialen Abstand entlang der optischen Hauptachse von der Objektebene oder dazu konjugierten Ebenen aufweisen. Andererseits ist es im entsprechenden Diagnosemodus nicht erforderlich, eine besonders hohe Auflösung - wie sie typischerweise bei der Bildgebung von unbekannten Probenobjekten erstrebenswert ist - zu erzielen. Die Erkennung von Abbildungsartefakten in den Intensitätsbildern und die Positionierung der Abbildungsartefakte in Bezug zueinander, um anschließend die zugrunde liegende Verschmutzung zu lokalisieren, kann auch mit einer vergleichsweise geringen Auflösung - das heißt mit geringer numerischer Beleuchtungsapertur - erzielt werden. Da eine Diagnose für unterschiedliche, jeweils eingeschwenkte Objektive möglich sein soll, ist es vorteilhaft, wenn wenigstens ein Teil der zur Diagnose verwendeten Leuchtelemente zentral, oder zumindest achsennahe positioniert sind, so dass sichergestellt ist, dass auch für Objektive mit kleiner numerischer Apertur (NA) Leuchtelemente vorhanden sind, deren emittiertes Licht in Transmission auf den Sensor abgebildet wird (siehe
Dies bedeutet auch, dass typischerweise für den Diagnosemodus und einen Bildgebungsmodus, bei dem die Bildgebung eines Probenobjekts erfolgt, unterschiedliche Leuchtdioden eingesetzt werden können. Beispielsweise könnten unterschiedliche Trägermodule, die jeweils einerseits Leuchtdioden für den Diagnosemodus mit einer geringen Emitterfläche aufweisen und andererseits Leuchtdioden mit einer großen Emitterfläche für den Bildgebungsmodus aufweisen, wahlweise in den Strahlengang des Mikroskopiesystems eingeschoben werden. Es wäre auch denkbar, dass das Beleuchtungsmodul einen integrierten Trigger aufweist, auf dem die mehreren Leuchtdioden für den Diagnosemodus angeordnet sind; aber auch weitere Leuchtdioden für den Bildgebungsmodus. Diese weiteren Leuchtdioden können dabei eine Emitterfläche aufweisen, die größer ist, als die Emitterfläche der mehreren Leuchtdioden, die für den Diagnosemodus eingesetzt werden. Das bedeutet, dass der mindestens eine Prozessor - wenn der Diagnosemodus aktiv ist - die Leuchtdioden mit kleiner Emitterfläche an-/ausschalten kann, um die Intensitätsbilder zu erfassen, die die Abbildungsartefakte abbilden (während die Leuchtdioden mit großer Emitterfläche durchgängig ausgeschaltet sind); und - wenn der Bildgebungsmodus aktiviert ist - die Leuchtdioden mit der vergleichsweise großen Emitterfläche an-/ausschalten kann, um entsprechende Bilder zu erfassen, die das Probenobjekt abbilden.This also means that different light-emitting diodes can typically be used for the diagnostic mode and an imaging mode in which the imaging of a sample object takes place. For example, different carrier modules, each of which has light-emitting diodes for the diagnostic mode with a small emitter area on the one hand and light-emitting diodes with a large emitter area for the imaging mode on the other hand, could be optionally inserted into the beam path of the microscopy system. It would also be conceivable for the illumination module to have an integrated trigger on which the multiple light-emitting diodes for the diagnostic mode are arranged; but also further light-emitting diodes for the imaging mode. These further light-emitting diodes can have an emitter area that is larger than the emitter area of the multiple light-emitting diodes used for the diagnostic mode. This means that the at least one processor - when the diagnostic mode is active - can switch the light-emitting diodes with a small emitter area on/off in order to capture the intensity images that depict the imaging artifacts (while the light-emitting diodes with a large emitter area are switched off throughout); and - when the imaging mode is activated - can switch the light-emitting diodes with the comparatively large emitter area on/off to capture corresponding images depicting the sample object.
Ein Verfahren zur Lokalisierung einer Verschmutzung einer Optikkomponente eines Mikroskopiesystems umfasst das Ansteuern eines Detektors und mehrerer Lichtquellen des Mikroskopiesystems. Das Ansteuern erfolgt, um mit einer winkelvariablen Beleuchtung mehrere Intensitätsbilder zu erfassen. Das bedeutet also, dass die mehreren Intensitätsbilder mit unterschiedlichen Beleuchtungsrichtungen assoziiert sind, die durch die Beleuchtung durch verschiedene der mehreren Lichtquellen erhalten werden. Das Verfahren umfasst auch das Lokalisieren einer Verschmutzung. Die Verschmutzung wird basierend auf unterschiedlichen Abbildungsorte eines Abbildungsartefakts in den mehreren Intensitätsbildern lokalisiert. Die Verschmutzung verursacht das Abbildungsartefakt. Die Lokalisierung erfolgt in Bezug auf Optikkomponenten des Mikroskopiesystems, d.h. relativ in Bezug auf die Optikkomponenten.A method for localizing contamination of an optical component of a microscopy system includes controlling a detector and a plurality of light sources of the microscopy system. The controlling is performed to capture a plurality of intensity images with angle-variable illumination. This means that the plurality of intensity images are associated with different illumination directions obtained by illumination by different ones of the plurality of light sources. The method also includes localizing contamination. The contamination is localized based on different imaging locations of an imaging artifact in the plurality of intensity images. The contamination causes the imaging artifact. The localization is performed with respect to optical components of the microscopy system, i.e. relative to the optical components.
Ein Computerprogramm oder ein Computerprogrammprodukt beinhaltet Programmcode, der von einem Prozessor ausgeführt werden kann. Wenn der mindestens eine Prozessor den Programmcode ausführt, bewirkt dies, dass der Prozessor ein Verfahren zur Lokalisierung einer Verschmutzung einer Optikkomponente eines Mikroskopiesystems ausführt. Das Verfahren umfasst das Ansteuern eines Detektors und mehrerer Lichtquellen des Mikroskopiesystems. Das Ansteuern erfolgt, um mit einer winkelvariablen Beleuchtung mehrere Intensitätsbilder zu erfassen. Das bedeutet also, dass die mehreren Intensitätsbilder mit unterschiedlichen Beleuchtungsrichtungen assoziiert sind, die durch die Beleuchtung durch verschiedene der mehreren Lichtquellen erhalten werden. Das Verfahren umfasst auch das Lokalisieren einer Verschmutzung. Die Verschmutzung wird basierend auf unterschiedlichen Abbildungsorte eines Abbildungsartefakts in den mehreren Intensitätsbildern lokalisiert. Die Verschmutzung verursacht das Abbildungsartefakt. Die Lokalisierung erfolgt in Bezug auf Optikkomponenten des Mikroskopiesystems, d.h. relativ in Bezug auf die Optikkomponenten.A computer program or a computer program product includes program code that can be executed by a processor. When the at least one processor executes the program code, this causes the processor to perform a method for localizing contamination of an optical component of a microscopy system. The method includes controlling a detector and a plurality of light sources of the microscopy system. The controlling is done to capture a plurality of intensity images with angle-variable illumination. This means that the plurality of intensity images are associated with different illumination directions obtained by illumination by different ones of the plurality of light sources. The method also includes localizing contamination. The contamination is localized based on different imaging locations of an imaging artifact in the plurality of intensity images. The contamination causes the imaging artifact. The localization is done with respect to optical components of the microscopy system, i.e. relative to the optical components.
Die oben dargelegten Merkmale und Merkmale, die nachfolgend beschrieben werden, können nicht nur in den entsprechenden explizit dargelegten Kombinationen verwendet werden, sondern auch in weiteren Kombinationen oder isoliert, ohne den Schutzumfang der vorliegenden Erfindung zu verlassen.The features set out above and features described below may be used not only in the corresponding explicitly set out combinations, but also in further combinations or in isolation without departing from the scope of the present invention.
KURZE BESCHREIBUNG DER FIGURENSHORT DESCRIPTION OF THE CHARACTERS
-
1 illustriert schematisch ein Mikroskopiesystem gemäß verschiedenen Beispielen.1 schematically illustrates a microscopy system according to various examples. -
2 illustriert schematisch einen Träger mit mehreren Typen von Leuchtdioden für einen Diagnosemodus und einen Bildgebungsmodus gemäß verschiedenen Beispielen.2 schematically illustrates a carrier with several types of light emitting diodes for a Diagnostic mode and an imaging mode according to different examples. -
3 und4 illustrieren schematisch die Beleuchtung einer Verschmutzung mittels mehrerer Beleuchtungsrichtungen einer winkelvariablen Beleuchtung gemäß verschiedenen Beispielen.3 and4 schematically illustrate the illumination of a contamination by means of several illumination directions of an angle-variable illumination according to various examples. -
5 illustriert schematisch die Beleuchtung einer anderen Verschmutzung mittels der mehreren Beleuchtungsrichtungen der winkelvariablen Beleuchtung gemäß verschiedenen Beispielen.5 schematically illustrates the illumination of a different contamination by means of the multiple illumination directions of the angle-variable illumination according to various examples. -
6 ist ein Flussdiagramm eines beispielhaften Verfahrens.6 is a flowchart of an example method.
DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION
Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Zeichnungen näher erläutert werden. The above-described properties, features and advantages of this invention, as well as the manner in which they are achieved, will become clearer and more clearly understood in connection with the following description of the embodiments, which are explained in more detail in connection with the drawings.
Nachfolgend wird die vorliegende Erfindung anhand bevorzugter Ausführungsformen unter Bezugnahme auf die Zeichnungen näher erläutert. In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder ähnliche Elemente. Die Figuren sind schematische Repräsentationen verschiedener Ausführungsformen der Erfindung. In den Figuren dargestellte Elemente sind nicht notwendigerweise maßstabsgetreu dargestellt. Vielmehr sind die verschiedenen in den Figuren dargestellten Elemente derart wiedergegeben, dass ihre Funktion und genereller Zweck dem Fachmann verständlich wird. In den Figuren dargestellte Verbindungen und Kopplungen zwischen funktionellen Einheiten und Elementen können auch als indirekte Verbindung oder Kopplung implementiert werden. Eine Verbindung oder Kopplung kann drahtgebunden oder drahtlos implementiert sein. Funktionale Einheiten können als Hardware, Software oder eine Kombination aus Hardware und Software implementiert werden.The present invention is explained in more detail below using preferred embodiments with reference to the drawings. In the figures, identical reference numerals denote identical or similar elements. The figures are schematic representations of various embodiments of the invention. Elements shown in the figures are not necessarily shown to scale. Rather, the various elements shown in the figures are shown in such a way that their function and general purpose is understandable to those skilled in the art. Connections and couplings between functional units and elements shown in the figures can also be implemented as an indirect connection or coupling. A connection or coupling can be implemented wired or wirelessly. Functional units can be implemented as hardware, software or a combination of hardware and software.
Nachfolgend werden Techniken im Zusammenhang mit Mikroskopiesystemen beschrieben. Insbesondere können Mikroskopiesysteme mit Köhler-Beleuchtungsmodul in Durchlichtgeometrie verwendet werden. Die Mikroskopiesysteme können zum Beispiel eingerichtet sein, um Halbleiterproben, biologische Proben wie Zellkulturen, Textilien oder andere Probenobjekte abzubilden. Die Mikroskopiesysteme können zum Beispiel im Zusammenhang mit einem chirurgischen Eingriff in der Medizintechnik verwendet werden (Operationsmikroskop).Techniques related to microscopy systems are described below. In particular, microscopy systems with Köhler illumination modules in transmitted light geometry can be used. The microscopy systems can, for example, be set up to image semiconductor samples, biological samples such as cell cultures, textiles or other sample objects. The microscopy systems can, for example, be used in connection with a surgical procedure in medical technology (surgical microscope).
Gemäß den hierin beschriebenen Techniken ist es möglich, automatisiert eine herabgesetzte Leistungsfähigkeit in der Bildgebung des Mikroskopiesystems zu erkennen. Entsprechende Information kann über eine Benutzerschnittstelle an einen Benutzer ausgegeben werden. Diese Information kann zum Beispiel indikativ dafür sein, welche optische Komponente des Mikroskopiesystems gesäubert werden soll. Das bedeutet, dass es mittels der hierin beschriebenen Techniken möglich ist, Verschmutzungen von Gerätekomponente des Mikroskopiesystems zu erkennen.According to the techniques described herein, it is possible to automatically detect reduced performance in the imaging of the microscopy system. Corresponding information can be output to a user via a user interface. This information can, for example, be indicative of which optical component of the microscopy system should be cleaned. This means that using the techniques described herein, it is possible to detect contamination of device components of the microscopy system.
Mittels der hierin beschriebenen Techniken können also beispielsweise Wartungsintervalle zur Säuberung des Mikroskopiesystems optimiert werden. Es ist möglich, die Notwendigkeit der Reinigung von Optikkomponenten des Mikroskopiesystems zu erkennen.Using the techniques described here, maintenance intervals for cleaning the microscopy system can be optimized, for example. It is possible to recognize the need to clean optical components of the microscopy system.
Bedingt durch Umwelteinflüsse ist die Verschmutzung von Optikkomponenten ein ständiger Prozess, der zu einem Performance-Verlust von Abbildung und/oder Ausleuchtung in einem Mikroskop führt. Dies betrifft die grundlegende Leistungsparameter wie Auflösung, Kontrast und Homogenität der Abbildungen. Für einen Nutzer ist die Degradation der Bildqualität meist schwer zu erkennen, da die Änderungen nicht sprunghaft, sondern mit einem langsamen, kontinuierlichen Prozess stattfinden. Ebenso ist es für einen Nutzer meist nicht erkennbar, an welchen optischen Komponenten die Verschlechterung hervorgerufen wird.Due to environmental influences, the contamination of optical components is a constant process that leads to a loss of performance in imaging and/or illumination in a microscope. This affects the basic performance parameters such as resolution, contrast and homogeneity of the images. The degradation of image quality is usually difficult for a user to detect, as the changes do not occur suddenly, but rather in a slow, continuous process. Likewise, it is usually not possible for a user to identify which optical components are causing the deterioration.
Die Position von Verschmutzungen im Abbildungsweg des Mikroskopiesystems kann durch die hierin offenbarten Techniken bestimmt werden. Mittels der offenbarten Techniken ist es möglich, die Verschmutzung mit einem Messwert zu parametrisieren. Werden bestimmte Grenzen über- oder unterschritten, kann dem Anwender eine Reinigung empfohlen werden. Dabei kann auch die Komponente benannt werden, auf der sich der störende Schmutz befindet. Eine Benutzerschnittstelle kann zur Ausgabe entsprechende Information betreffend die Verschmutzung angesteuert werden.The position of contamination in the imaging path of the microscopy system can be determined using the techniques disclosed herein. Using the techniques disclosed, it is possible to parameterize the contamination with a measured value. If certain limits are exceeded or not met, the user can be recommended to clean it. The component on which the disturbing contamination is located can also be named. A user interface can be controlled to output corresponding information regarding the contamination.
Verschiedene hierin offenbarte Techniken verwenden eine Beleuchtung mit geringer räumlicher Kohärenz, z.B. eine Leuchtdiode. Auf Grund der geringen Beleuchtungsapertur führt dies zu einer Abbildung mit hohem Tiefenschärfebereich. Das heißt, dass auch Schmutz, der sich weit entfernt von der Fokusebene/Objektebene (oder dazu konjugierten Ebenen) befindet, in der Abbildung als Störstruktur erkennbar wird. Wird die Störstruktur unter unterschiedlichen Beleuchtungsrichtungen beleuchtet (winkelvariable Beleuchtung), führt dies zu einem Versatz der Abbildung der Störstruktur. Diese ist in Richtung und Betrag abhängig von der Beleuchtungsrichtung. Je geringer die Beleuchtungsapertur, desto weniger groß ist das Spektrum der Beleuchtungsrichtungen im Winkelraum. Dabei gibt die laterale Position, Größe, Kontrastierung und Beugungsstruktur dieser Abbildung bereits einen Hinweis auf Größe, Eigenschaft und optischen Abstand der Verschmutzung zu konjugierter Proben- oder Pupillenebene.Various techniques disclosed herein use illumination with low spatial coherence, e.g. a light-emitting diode. Due to the small illumination aperture, this leads to an image with a high depth of field. This means that even dirt that is far away from the focal plane/object plane (or planes conjugated thereto) can be recognized in the image as a disturbing structure. If the disturbing structure is illuminated under different illumination directions (angle-variable illumination), this leads to an offset in the image of the disturbing structure. This depends in direction and amount on the illumination. The smaller the illumination aperture, the smaller the spectrum of illumination directions in the angular space. The lateral position, size, contrast and diffraction structure of this image already provide an indication of the size, properties and optical distance of the contamination to the conjugated sample or pupil plane.
Entsprechende Techniken zur winkelvariablen Beleuchtung wurden beschrieben in
Das Mikroskopiesystem 210 weist ferner ein Beleuchtungsmodul 211 auf, welches in Durchlichtgeometrie in Bezug auf die Objektebene angeordnet ist. Das Beleuchtungsmodul weist mehrere Leuchtdioden auf, die versetzt zueinander, senkrecht zum Strahlengang bzw. der optischen Achse - angeordnet sind (in
Um Licht unterschiedlicher Wellenlängen auszusenden können beispielsweise breitbandige Lichtquellen und nachgeschaltete Filter verwendet werden. Es wäre aber auch denkbar, mehrere unterschiedliche Typen von Lichtquellen zu verwenden, die jeweils selektiv Licht im entsprechenden Spektralbereich aussenden. Beispielsweise könnten rot-grün-blau Leuchtdioden-Arrays verwendet werden, wobei die Leuchtdioden mit den jeweiligen Farben individuell an- und ausgeschaltet werden können.Broadband light sources and downstream filters can be used to emit light of different wavelengths. However, it would also be conceivable to use several different types of light sources, each of which selectively emits light in the corresponding spectral range. For example, red-green-blue LED arrays could be used, whereby the LEDs with the respective colors can be switched on and off individually.
Um Licht mit unterschiedlichen Polarisationen auszusenden können entsprechende Filter in den Strahlengang positioniert werden. Beispielsweise könnten Pockels-Zellen verwendet werden. Es könnten auch Filter motorisch in den Strahlengang eingefahren und wieder ausgefahren werden. Es sind auch Lichtquellen verfügbar, die bereits polarisiertes Licht aussenden.In order to emit light with different polarizations, appropriate filters can be positioned in the beam path. For example, Pockels cells could be used. Filters could also be motor-driven into and out of the beam path. Light sources that already emit polarized light are also available.
Außerdem umfasst das Mikroskopiesystem auch noch einen weiteren Prozessor 222, beispielsweise einen CPU eines Computers. Dieser kann die Steuerungselektronik 221 ansteuern und kann zum Beispiel ein Programm ausführen, welches Messskripte umsetzt und eine Benutzerschnittstelle zu einem Benutzer bereitstellt. Dazu kann eine Mensch-Maschine-Schnittstelle angesteuert werden, z.B. ein Monitor. Der Prozessor 222 lädt Programmcode aus einem Speicher und führt diesen auf, um entsprechende Aufgaben zu erfüllen.In addition, the microscopy system also includes another processor 222, for example a CPU of a computer. This can control the
Der Prozessor 222 kann auch eingerichtet sein, um eine Verunreinigung in Bezug auf die Optikkomponenten des Mikroskopiesystems 210 zu lokalisieren. Dazu kann ausgenutzt werden, dass sich der Abbildungsort eines Abbildungsartefakt, das durch die Verunreinigung bewirkt wird, verändert, wenn unterschiedliche Beleuchtungsrichtungen aktiviert werden (indem unterschiedliche Lichtquellen an- bzw. ausgeschaltet werden). Insbesondere können dazu Steuerdaten 850 berücksichtigt werden, welche indikativ für eine Konfiguration des Strahlengangs des Lichts durch das Mikroskopiesystem sind. Die Steuerdaten 850 können beispielsweise angeben, welches Objektiv verwendet wird, ob eine Bertrand-Optik im Strahlengang angeordnet ist, ob das Objektiv im Strahlengang angeordnet ist, ob bestimmte Filter im Strahlengang angeordnet sind, usw. Mittels der Steuerdaten 850 kann die strahlenoptische Lichtausbreitung bestimmt werden. Die Steuerdaten 850 können beispielsweise durch geeignete Sensoren oder Schalter bestimmt werden. Die Steuerdaten 850 können also zumindest teilweise von der Steuerungselektronik 221 bereitgestellt werden. Beispielsweise könnte über einen Schalter bestimmt werden, ob eine bestimmte Optikkomponente im Strahlengang angeordnet ist oder nicht. Alternativ oder zusätzlich können die Steuerdaten 850 zumindest auch teilweise über eine Benutzereingabe erhalten werden. Beispielsweise könnte der Benutzer über eine Benutzerschnittstelle angeben, ob eine bestimmte Optikkomponente im Strahlengang angeordnet ist oder nicht.The processor 222 can also be configured to localize a contamination in relation to the optical components of the
Die Aufteilung in eine Steuerung 221 in einem weiteren Prozessor 222, wie sie in
Der Träger 410 im Beispiel der
Durch die große Emitterfläche der Leuchtdioden 411 implementieren diese eine relativ große numerische Beleuchtungsapertur: Beispielsweise ist die Breite des Winkelspektrums der Beleuchtung mittels einer der Leuchtdioden 411 größer als 5% des von der NA 490 der Abbildungsoptik (gestrichelter Kreis) akzeptierten Winkelspektrums; durch die vergleichsweise kleine Emitterfläche der Leuchtdioden 412 ist die Breite des Winkelspektrums der Beleuchtung mittels einer der Leuchtdioden 412 kleiner als 5% der Breite des von der NA 490 der Abbildungsoptik akzeptierten Winkelspektrums (beispielsweise ist in
Die Leuchtdioden 411 und die Leuchtdioden 412 sind jeweils zueinander versetzt auf dem Träger 410 angeordnet und miteinander verschachtelt angeordnet. Insbesondere sind im Zentrum des Trägers 410 - das auf der optischen Achse 499 angeordnet wird - mehrere Leuchtdioden 412 für den Diagnosemodus angeordnet.The light-emitting
Je weiter eine Leuchtdiode 412 von der optischen Achse 499 entfernt angeordnet ist, desto größer ist der Winkel, unter dem das entsprechende Licht in einer zur Beleuchtungspupillenebene konjugierten Ebene einfällt (die Breite des Winkelspektrums wird aber durch den Abstand zur optischen Achse 499 nicht beeinflusst).The further a light-emitting
Durch die Anordnung der Leuchtdioden 412 nahe an der optischen Achse 499 wird erreicht, dass das Licht dieser Leuchtdioden 412 im Diagnosemodus durch die Pupille der Objektive auch mit kleiner NA gelangt. Verunreinigungen auf optischen Elementen können außerdem einen großen Abstand zu (konjugierten) Bildebenen haben; durch Verwendung von Leuchtdioden 412 nahe bei der optischen Achse 499 wird vermieden, dass der Versatz der beobachteten Abbildungsartefakte für solche weiter von (konjugierten) Bildebenen entfernten Verunreinigungen zu groß wird (d.h. die zu lokalisierenden Abbildungsartefakte würden dann nicht mehr auf den Bildgebungssensor abgebildet wird). Der kleine Beleuchtungswinkel, der durch die Leuchtdioden 412 nahe bei der optischen Achse 499 erreicht wird, vermeidet das.By arranging the
Eine solche Anordnung der Leuchtdioden 411, 412, wie in
Durch die versetzte Anordnung der Leuchtdioden 412 zueinander kann eine winkelvariable Beleuchtung implementiert werden, das heißt Licht aus unterschiedlichen Richtungen in der Objektebene kann verwendet werden. Dieser Effekt kann ausgenutzt werden, um eine Verschmutzung in Bezug auf Optikkomponenten des Mikroskopiesystems 210 und insbesondere die Abbildungsoptik 213 zu lokalisieren. Das ist im Zusammenhang mit
Zunächst wird in Box 3005 überprüft, ob ein Diagnosemodus aktiviert werden soll. Der Diagnosemodus ist verschieden von einem Bildgebungsmodus.First,
Wenn der Diagnosemodus in Box 3005 nicht aktiviert werden soll, so wird in Box 3045 der Bildgebungsmodus ausgeführt. Das bedeutet, dass ein Beleuchtungsmodul angesteuert wird, um eine in einer Objektebene der Bildgebungsoptik angeordnete Probe, zum Beispiel eine Halbleiterprobe, ein Materialstück, oder eine biologische Probe, zu beleuchten. Die Probe kann auf einem Probenhalter angeordnet sein. Der Probenhalter kann dazu in den Strahlengang bewegt werden. Wenn es sich um einen motorisierten Probenhalter handelt, kann der entsprechende Motor angesteuert werden, um den Probenhalter in den Strahlengang zu bewegen.If the diagnostic mode is not to be activated in
Beispielsweise wurden im Zusammenhang mit
Wenn in Box 3005 der Diagnosemodus ausgeführt werden soll, so wird das Verfahren in Box 3010 fortgesetzt. In Box 3010 wird gegebenenfalls ein Probenobjekt, welches in der Objektebene angeordnet ist, entfernt. Dazu könnte eine Benutzerschnittstelle angesteuert werden, die den Benutzer - zum Beispiel grafisch und/oder einer Audioausgabe - auffordert, das Probenobjekt vom Probenhalter oder den ganzen Probenhalter zu entfernen. Wenn ein motorisierter Probenhalter vorhanden ist, könnte der entsprechende Motor angesteuert werden, um den Probenhalter aus den Strahlengang zu entfernen.If the diagnostic mode is to be carried out in
Optional kann in Box 3015 ein optisches Element in den Strahlengang der Abbildungsoptik eingebracht werden, welches eine Beleuchtungspupillenebene des Beleuchtungsmoduls auf die Abbildungsebene, in der der Detektor angeordnet ist, abbildet. Beispielsweise könnte eine Bertrand-Optik in den Strahlengang eingebracht werden. In einer anderen Variante wäre es auch denkbar, dass das Objektiv aus dem Strahlengang zu entfernen. Auch derart kann ein Effekt erzielt werden, wonach die Beleuchtungspupillenebene des Beleuchtungsmoduls auf die Abbildungsebene, in der der Detektor angeordnet ist, abgebildet wird.Optionally, an optical element can be introduced into the beam path of the imaging optics in
Dann kann in Box 3020 das Ansteuern von Leuchtdioden (beispielsweise speziellen Leuchtdioden, die für den Diagnosemodus vorgesehen sind, vgl.
Außerdem wird in Box 3020 der Detektor angesteuert, um Intensitätsbilder zu erfassen. Es wird eine winkelvariable Beleuchtung implementiert, das heißt unterschiedliche Intensitätsbilder entsprechen einer Beleuchtung aus unterschiedlichen Beleuchtungsrichtungen. Beispiele wurden voranstehend im Zusammenhang mit
Als allgemeine Regel wäre es auch möglich, dass ein erster Satz von Intensitätsbildern für die verschiedenen Beleuchtungsrichtungen mit der selektiv in den Strahlengang eingebrachten Optik aus Box 3015 erfasst wird; und ein zweiter Satz von Intensitätsbilder erfasst wird, wenn die selektiv in Box 3015 eingebrachte Optik nicht im Strahlengang angeordnet ist (in
Dann kann in Box 3025 ein Abbildungsartefakt einer Verunreinigung in den Intensitätsbildern erkannt werden. Dazu kann zum Beispiel ein Detektor-Algorithmus verwendet werden . Dieser kann zum Beispiel ein maschinengelernter Algorithmus sein, der bereits vorher trainiert wurde. Alternativ oder zusätzlich kann eine Benutzereingabe über eine Benutzerschnittstelle empfangen werden.Then, in
In Box 3030 könnte ferner optional eine Klassifikation der detektierten Verunreinigung erfolgen. Beispielsweise könnte ein Typ der Verunreinigung identifiziert werden; dies ermöglicht es im Anschluss, zusätzliche Informationen in Bezug auf eine empfohlene Art der Reinigung der Optikkomponente bereitzustellen, die in Abhängigkeit vom Typ der Verunreinigung bestimmt wird.In
In Box 3035 kann dann basierend auf den unterschiedlichen Abbildungsorten des Abbildungsartefakts in den mehreren Intensitätsbildern die Verschmutzung in Bezug auf einer Optikkomponente lokalisiert werden.In
Dazu gibt es unterschiedliche Möglichkeiten. Beispielsweise könnte ein Strahlverfolgungs-Algorithmus (englisch „ray tracing“) eingesetzt werden, wenn die Lage und Brennweite der verschiedenen Linsen des Abbildungssystems bekannt sind. Es könnte also, mit anderen Worten, eine strahlenoptische Berechnung gemäß den Pfaden der Strahlengänge 508, 509 wie sie in
Wird zum Beispiel eine Bertrand-Optik (vergleiche Box 3015) verwendet, so kann der Abstand anstatt zu der Objektebene in Bezug auf eine korrespondierende Pupillenebene berechnet werden; das stellt dann alternative Information bereit, um so die Robustheit der Berechnung zu erhöhen.For example, if a Bertrand optic (see Box 3015) is used, the distance can be calculated with respect to a corresponding pupil plane rather than to the object plane; this then provides alternative information to increase the robustness of the calculation.
In manchen Beispielen wäre es denkbar, mehrere Intensitätsbilder für zwei Sätze von Konfigurationen der Abbildungsoptik (zum Beispiel einmal mit Bertrand-Optik und einmal ohne Bertrand-Optik; und/oder einmal mit Objektiv und einmal ohne Objektiv) zu erfassen. Derart kann zusätzliche Information über die Lokalisierung von Verunreinigungen gewonnen werden. Zweideutigkeiten können reduziert oder aufgelöst werden.In some examples, it would be conceivable to acquire multiple intensity images for two sets of imaging optics configurations (for example, once with Bertrand optics and once without Bertrand optics; and/or once with objective and once without objective). In this way, additional information about the localization of contamination can be obtained. Ambiguities can be reduced or resolved.
Beim Lokalisieren kann insbesondere die Konfiguration des Strahlengangs des Lichts durch das Mikroskopiesystem berücksichtigt werden. Für ein strahlenoptisches Modell könnte zum Beispiel berücksichtigt werden, welches Objektiv mit welcher Brennweite verwendet wird. Es kann berücksichtigt werden, ob die Bertrand-Optik im Strahlengang angeordnet ist. Es gibt verschiedene Möglichkeiten, um Steuerdaten (vgl.
Mittels entsprechender Berechnungen, wie obenstehend beschrieben, kann also insbesondere ein axialer Abstand bestimmt werden; dieser gibt dann eine Position der Verunreinigungen in Bezug auf die verschiedenen Optikkomponenten der Abbildungsoptik an. Wenn die Position, das heißt insbesondere die axiale Anordnung, der verschiedenen Optikkomponenten bekannt ist oder aus der eingepflegten Konfiguration des optischen Systems abgeleitet werden kann, so kann dieser axiale Abstand verglichen werden mit den Positionen der verschiedenen Optikkomponenten und dann zurückgeschlossen werden auf die verschmutzte Optikkomponente. Wenn die Dicke der Optikkomponente zusätzlich bekannt ist, so kann insbesondere auch rückgeschlossen werden, ob beispielsweise eine vordere Seite oder eine Rückseite der entsprechenden Optikkomponente verschmutzt ist.Using appropriate calculations, as described above, an axial distance can be determined in particular; this then indicates a position of the contamination in relation to the various optical components of the imaging optics. If the position, i.e. in particular the axial arrangement, of the various optical components is known or can be derived from the configuration of the optical system, this axial distance can be compared with the positions of the various optical components and then a conclusion can be drawn about the contaminated optical component. If the thickness of the optical component is also known, it can also be concluded in particular whether, for example, a front side or a back side of the corresponding optical component is contaminated.
Es ist auch möglich, neben einem solchen axialen Abstand die laterale Position der Verunreinigung (das heißt einen Abstand der Verunreinigung von der optischen Hauptachse) zu bestimmen. Dies kann durch die Auswertung der (absoluten) Position des Abbildungsartefakts in der Abbildungsebene erfolgen. Die xy-Position in der Abbildungsebene kann also berücksichtigt werden.In addition to such an axial distance, it is also possible to determine the lateral position of the contamination (i.e. a distance of the contamination from the main optical axis). This can be done by evaluating the (absolute) position of the imaging artifact in the imaging plane. The xy position in the imaging plane can therefore be taken into account.
Dann kann eine entsprechende Benutzerführung in Box 3040 erfolgen. Das bedeutet, dass eine Benutzerschnittstelle angesteuert werden kann, um Information zur Verschmutzung an den Benutzer auszugeben. Beispielsweise könnte eine solche Information eine Anweisung zur Reinigung der ermittelten Optikkomponente umfassen. Wenn der Typ der Verschmutzung bekannt ist, könnte zusätzliche Information, wie die Reinigung am besten durchzuführen ist, ausgegeben werden. Es wäre denkbar, dass eine Schritt für Schritt Anweisung ausgegeben werden kann, die beschreibt, wie die Optikkomponente erreicht und ausgebaut werden kann. Das bedeutet, dass eine kontinuierliche Benutzerführung durchgeführt werden kann.Then, appropriate user guidance can be provided in
In manchen Beispielen wäre es möglich, dass die Information mehrere möglicherweise verschmutzte Optikkomponenten anzeigt. Eine solche Variante kann erstrebenswert sein, wenn die Lokalisierung der Verschmutzung nicht eindeutig zwischen mehreren möglicherweise verschmutzten Optikkomponenten differenzieren kann. Es könnten auch Wahrscheinlichkeiten im Zusammenhang mit der Lokalisierung der Verschmutzung angegeben werden, beispielsweise ob ein erster Filter mit einer besonders hohen Wahrscheinlichkeit verschmutzt ist und ein zweiter Filter mit einer vergleichsweise niedrigen Wahrscheinlichkeit verschmutzt ist.In some examples, it would be possible for the information to indicate several potentially dirty optical components. Such a variant can be desirable if the localization of the contamination cannot clearly differentiate between several potentially dirty optical components. Probabilities related to the localization of the contamination could also be specified, for example whether a first filter is dirty with a particularly high probability and a second filter is dirty with a comparatively low probability.
Es könnte eine interaktive Benutzerführung ausgelöst werden. Die interaktive Benutzerführung kann Anweisungen zur Manipulation des Mikroskopiesystems umfassen, beispielsweise wie bestimmte Klappen oder Blenden oder Fixierelemente geöffnet oder gelöst werden müssen, um Zugriff zu der verschmutzten Optikkomponente zu erhalten. Die entsprechende Manipulation des Mikroskopiesystems durch den Benutzer kann dann mit entsprechenden Sensoren, welche einen Öffnungszustand einer Klappe oder einer Blende indizieren, überwacht werden. Derart kann eine Interaktion zwischen dem Benutzer, der das Mikroskopiesystem manipuliert, und den ausgegebenen Anweisungen erzielt werden.An interactive user guide could be triggered. The interactive user guide can include instructions for manipulating the microscopy system, for example how certain flaps or diaphragms or fixing elements must be opened or released in order to gain access to the dirty optical component. The corresponding manipulation of the microscopy system by the user can then be monitored with corresponding sensors which indicate an opening state of a flap or diaphragm. In this way, an interaction can be achieved between the user manipulating the microscopy system and the instructions issued.
Zusammenfassend wurde also ein Mikroskopiesystem beschrieben, das ein Beleuchtungsmodul aufweist, welches es erlaubt, eine Objektebene unter verschiedenen Beleuchtungswinkeln gegenüber der optischen Hauptachse der entsprechenden Abbildungsoptik zu beleuchten. In einer bevorzugten Ausführung sind die Leuchtelemente in der Beleuchtungspupillenebene angeordnet, wobei die Position der Leuchtfläche den mittleren Beleuchtungswinkel bestimmt und die Größe der Leuchtfläche die Variation der Winkelverteilung bestimmt. Die Lage kann aber auch davon abweichen (das heißt die Lichtquellen können entlang der optischen Achse versetzt zur Beleuchtungspupillenebene angeordnet werden), solange mit der Beleuchtungsanordnung einen Beleuchtungskegel mit kleiner Winkelverteilung erzeugt wird, der eine große Tiefenschärfe durch die Beleuchtung sicherstellt. Dies kann erreicht werden durch Blenden an geeigneten Stellen oder auch LED-Leuchtelemente, die in ausreichend großen Abstand von der Probenebenen angeordnet sind ohne weitere Beleuchtungsoptiken. Die numerische Apertur der einzelnen Beleuchtungskegel, die von Leuchtdioden (oder anderen Typen von Lichtquellen) des Beleuchtungsmoduls ausgesendet werden, soll klein sein. Beispielsweise kann die Breite des Winkelspektrums der Beleuchtung, das von einer Leuchtdiode bereitgestellt wird, nicht größer als 5% als die Breite des von der numerischen Apertur der Abbildungsoptik akzeptierten Winkelspektrums sein. Das Mikroskopiesystem kann auch mindestens einen Sensor bzw. einen Detektor aufweisen, der die Intensitätsverteilung des einfallenden Lichts in einer Abbildungsebene detektiert, die typischerweise konjugiert zur Objektebene ist (oder, wenn ein entsprechendes optisches Element eingebracht wird, konjugiert zu einer Pupillenebene ist). Intensitätsbilder werden dabei für die verschiedenen Beleuchtungskonfigurationen bzw. Beleuchtungsrichtungen erfasst und gespeichert. Mindestens ein Prozessor kann dann basierend auf diesen Intensitätsbildern und unter Heranziehung von Wissen über den Aufbau des Mikroskopiesystems bzw. insbesondere der Abbildungsoptik die Lage von Verunreinigungen entlang der Abbildungskette des Mikroskopiesystems ableiten und an einen Benutzer ausgeben.In summary, a microscopy system has been described that includes an illumination module which allows an object plane to be illuminated at different illumination angles relative to the main optical axis of the corresponding imaging optics. In a preferred embodiment, the lighting elements are arranged in the illumination pupil plane, whereby the position of the lighting surface determines the average illumination angle and the size of the lighting surface determines the variation in the angular distribution. The position can, however, also deviate from this (i.e. the light sources can be arranged along the optical axis offset from the illumination pupil plane), as long as the illumination arrangement produces an illumination cone with a small angular distribution which ensures a large depth of field through the illumination. This can be achieved by diaphragms at suitable locations or by LED lighting elements which are arranged at a sufficiently large distance from the sample plane without additional illumination optics. The numerical aperture of the individual illumination cones emitted by light-emitting diodes (or other types of light sources) of the illumination module should be small. For example, the width of the angular spectrum of the illumination provided by a light-emitting diode may not be greater than 5% of the width of the angular spectrum accepted by the numerical aperture of the imaging optics. The microscopy system may also have at least one sensor or detector that detects the intensity distribution of the incident light in an imaging plane that is typically conjugated to the object plane (or, if a corresponding optical element is introduced, conjugated to a pupil plane). Intensity images are recorded and stored for the various illumination configurations or illumination directions. At least one processor can then derive the location of contaminants along the imaging chain of the microscopy system based on these intensity images and using knowledge about the structure of the microscopy system or in particular the imaging optics and output them to a user.
Beispielsweise wäre es denkbar, die Form und Intensitätsverteilung der Abbildungsartefakte einer Verschmutzung auszuwerten, um Aussagen über die Lokalisierung der Verschmutzung in Bezug auf die Optikkomponenten der Abbildungsoptik und optional über den Typ der Verschmutzung zu machen.For example, it would be conceivable to evaluate the shape and intensity distribution of the imaging artifacts of a contamination in order to make statements about the localization of the contamination in relation to the optical components of the imaging optics and optionally about the type of contamination.
Dabei kann eine axiale Lagebestimmung der Verunreinigung durchgeführt werden, basierend auf einer Triangulation, die mittels den unterschiedlichen Beleuchtskegeln, die den unterschiedlichen Beleuchtungsrichtungen durch Aktivierung unterschiedlicher Leuchtdioden (mit unterschiedlichen Abständen zur optischen Achse) beruhen.An axial position determination of the contamination can be carried out based on a triangulation using the different illumination cones that correspond to the different illumination directions by activating different light-emitting diodes (with different distances to the optical axis).
Neben einer solchen axialen Lokalisierung kann auch eine laterale Lokalisierung der Verunreinigung durchgeführt werden, nämlich insbesondere in dem der Abstand des Abbildungsartefakts in Bezug auf die optische Hauptachse absolut ausgewertet wird (der entsprechende Abstand 581, 582 wurde im Zusammenhang mit den
Für den Diagnosemodus (bei dem die Verunreinigung lokalisiert wird) kann derselbe Detektor und/oder dasselbe Bildgebungsmodul verwendet werden, der auch für einen Bildgebungsmodus verwendet wird.The same detector and/or imaging module used for an imaging mode can be used for the diagnostic mode (where the contamination is located).
Das Beleuchtungsmodul kann zum Beispiel ein Array aus Leuchtdioden aufweisen, welche verwendet werden, um entsprechende Beleuchtungsrichtungen zu implementieren. Die Leuchtdioden können zeitlich und/oder spektral gemultiplext geschaltet werden, um eine Trennung der verschiedenen Beleuchtungsrichtungen in den verschiedenen Intensitätsbildern zu erzielen. Beispielsweise könnten unterschiedliche Farbemitter, zum Beispiel rot-grün-blau, einer Leuchtdioden-Anordnung zur Beleuchtung genutzt werden, um die unterschiedlichen Beleuchtungsrichtungen über das Farbspektrum zu kodieren und simultan mit einer Farbkamera, die entsprechende Kanäle aufweist, sichtbar zu machen.The lighting module can, for example, have an array of light-emitting diodes, which are used to implement corresponding lighting directions. The light-emitting diodes can be switched in a temporally and/or spectrally multiplexed manner in order to achieve a separation of the different lighting directions in the different intensity images. For example, different color emitters, for example red-green-blue, of a light-emitting diode arrangement could be used for lighting in order to encode the different lighting directions across the color spectrum and make them visible simultaneously with a color camera that has corresponding channels.
Es ist optional möglich, eine zusätzliche Optik wie zum Beispiel eine Bertrand-Optik, in den Strahlengang der Abbildungsoptik einzubringen; um von einer Abbildung der Objektebene auf eine Abbildung einer Pupillenebene zu wechseln. Damit kann erreicht werden, dass das vollständige Feld in einer zur Pupillenebene konjugierten Ebene ausgeleuchtet wird, und derart eine Verschmutzung auch in einer solchen zu einer Pupillenebene konjugierten Ebene bzw. in der Pupillenebene selbst lokalisiert werden kann.It is optionally possible to insert an additional optic, such as a Bertrand optic, into the beam path of the imaging optics in order to switch from imaging the object plane to imaging a pupil plane. This makes it possible to illuminate the entire field in a plane conjugated to the pupil plane, and to localize contamination in such a plane conjugated to a pupil plane or in the pupil plane itself.
Dabei kann ein strahlenoptisches Modell der Abbildungsoptik, das heißt Kenndaten bzw. Design der zu untersuchenden Optik, zur Auswertung hinterlegt sein. Aus den Abständen zwischen den Abbildungsorten von Abbildungsartefakten in den verschiedenen Intensitätsbildern (die mit unterschiedlichen Beleuchtungsrichtungen assoziiert sind) kann auf die axiale Lage von Verunreinigungen in Bezug auf die Abbildungsoptik bzw. deren Komponenten zurückgeschlossen werden.A ray optical model of the imaging optics, i.e. characteristics or design of the optics to be examined, can be stored for evaluation. The distances between the imaging locations of imaging artifacts in the various intensity images (which are associated with different illumination directions) can be used to determine the axial position of contamination in relation to the imaging optics or their components.
In manchen Beispielen wäre es dabei denkbar, dass nicht lediglich eine einzelne Optikkomponente, die vermutlich verunreinigt ist, an den Benutzer ausgegeben wird; sondern zwei oder mehr Optikkomponenten ausgegeben werden, beispielsweise wenn aufgrund von Zweideutigkeiten nicht eindeutig auf eine Optikkomponente zurückgeschlossen werden kann. Es könnten auch assoziierte Wahrscheinlichkeiten an den Benutzer ausgegeben werden, welche der Optikkomponenten mit höherer Wahrscheinlichkeit oder geringerer Wahrscheinlichkeit verschmutzt ist.In some examples, it would be conceivable that not only a single optical component that is presumably contaminated is issued to the user; but two or more optical components are issued, for example if it is not possible to clearly identify an optical component due to ambiguities. Associated probabilities could also be given to the user as to which of the optical components is more or less likely to be contaminated.
Die Abbildungsartefakte, die mit einer Verschmutzung assoziiert sind, können dabei auch mit einer teilweisen Interaktion mit dem Benutzer identifiziert werden, zum Beispiel in dem ein Nutzer die Verschiebung von Schmutzeffekten innerhalb der Intensitätsbilder anzeigt.The imaging artifacts associated with contamination can also be identified with partial user interaction, for example, by a user indicating the shift of contamination effects within the intensity images.
Selbstverständlich können die Merkmale der vorab beschriebenen Ausführungsformen und Aspekte der Erfindung miteinander kombiniert werden. Insbesondere können die Merkmale nicht nur in den beschriebenen Kombinationen, sondern auch in anderen Kombinationen oder für sich genommen verwendet werden, ohne das Gebiet der Erfindung zu verlassen.Of course, the features of the embodiments and aspects of the invention described above can be combined with one another. In particular, the features can be used not only in the combinations described, but also in other combinations or on their own, without departing from the scope of the invention.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA accepts no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 102016108079 A1 [0004, 0050, 0079]DE 102016108079 A1 [0004, 0050, 0079]
- US 10670387 B2 [0050]US 10670387 B2 [0050]
Claims (22)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022130975.4A DE102022130975A1 (en) | 2022-11-23 | 2022-11-23 | LOCALIZATION OF CONTAMINATIONS IN MICROSCOPY SYSTEMS |
CN202311571350.9A CN118068552A (en) | 2022-11-23 | 2023-11-21 | Contamination localization in microscope systems |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022130975.4A DE102022130975A1 (en) | 2022-11-23 | 2022-11-23 | LOCALIZATION OF CONTAMINATIONS IN MICROSCOPY SYSTEMS |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022130975A1 true DE102022130975A1 (en) | 2024-05-23 |
Family
ID=90922986
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022130975.4A Pending DE102022130975A1 (en) | 2022-11-23 | 2022-11-23 | LOCALIZATION OF CONTAMINATIONS IN MICROSCOPY SYSTEMS |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN118068552A (en) |
DE (1) | DE102022130975A1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3800053C2 (en) | 1988-01-04 | 1991-03-14 | Erwin Sick Gmbh Optik-Elektronik, 7808 Waldkirch, De | |
WO2015114093A2 (en) | 2014-01-31 | 2015-08-06 | Carl Zeiss Ag | Illumination device in particular for fourier ptychography |
DE102016108079A1 (en) | 2016-05-02 | 2017-11-02 | Carl Zeiss Microscopy Gmbh | ARTIFICIAL REDUCTION IN ANGLE DETECTIVE LIGHTING |
DE102017102998A1 (en) | 2017-02-15 | 2018-02-08 | Carl Zeiss Smt Gmbh | Arrangement and method for characterizing a transparent substrate |
US10670387B2 (en) | 2014-07-10 | 2020-06-02 | Carl Zeiss Microscopy Gmbh | Determining the position of an object in the beam path of an optical device |
DE102022204995A1 (en) | 2022-05-19 | 2022-07-28 | Carl Zeiss Smt Gmbh | METHODS FOR INSPECTING SURFACE AND DETECTING CONTAMINATIONS |
-
2022
- 2022-11-23 DE DE102022130975.4A patent/DE102022130975A1/en active Pending
-
2023
- 2023-11-21 CN CN202311571350.9A patent/CN118068552A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3800053C2 (en) | 1988-01-04 | 1991-03-14 | Erwin Sick Gmbh Optik-Elektronik, 7808 Waldkirch, De | |
WO2015114093A2 (en) | 2014-01-31 | 2015-08-06 | Carl Zeiss Ag | Illumination device in particular for fourier ptychography |
US10670387B2 (en) | 2014-07-10 | 2020-06-02 | Carl Zeiss Microscopy Gmbh | Determining the position of an object in the beam path of an optical device |
DE102016108079A1 (en) | 2016-05-02 | 2017-11-02 | Carl Zeiss Microscopy Gmbh | ARTIFICIAL REDUCTION IN ANGLE DETECTIVE LIGHTING |
DE102017102998A1 (en) | 2017-02-15 | 2018-02-08 | Carl Zeiss Smt Gmbh | Arrangement and method for characterizing a transparent substrate |
DE102022204995A1 (en) | 2022-05-19 | 2022-07-28 | Carl Zeiss Smt Gmbh | METHODS FOR INSPECTING SURFACE AND DETECTING CONTAMINATIONS |
Also Published As
Publication number | Publication date |
---|---|
CN118068552A (en) | 2024-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2195697B1 (en) | Method for analysing a sample | |
DE69526890T2 (en) | Off-axis alignment system for scanning photolithography | |
WO2018219632A1 (en) | Method for generating and analysing an overview contrast image | |
WO2019238518A2 (en) | Material testing of optical test pieces | |
EP3186672A2 (en) | Phase contrast imaging | |
EP1607738A1 (en) | Method and system for wafer inspection | |
DE102010047050A1 (en) | Method for characterizing a structure on a mask and device for carrying out the method | |
EP3608831A1 (en) | Method for providing an evaluating means for at least one optical application system of a microscopic application technology | |
DE102009044151A1 (en) | Device for optical wafer inspection | |
EP3056934A1 (en) | Measuring head of an endoscopic device and method of inspecting and measuring an object | |
EP3195250A1 (en) | Method for generating a result image and optical device | |
DE102021118327A1 (en) | Measuring camera and method for two-dimensional measurement of objects | |
EP3374755B1 (en) | Light microscope and method for determining a wavelength-dependent refractive index of a sample medium | |
DE102019208114B4 (en) | Device and method for 3D measurement of object coordinates | |
AT516759B1 (en) | Apparatus and method for determining the number of solid particles in a fluid stream | |
DE102013020705B4 (en) | Method for examining a mask | |
DE102020109734B4 (en) | Method and irradiation device in reflection microscopy | |
DE102022130975A1 (en) | LOCALIZATION OF CONTAMINATIONS IN MICROSCOPY SYSTEMS | |
DE102016123154A1 (en) | Determination of the arrangement of a sample object by means of angle-selective illumination | |
DE10153581A1 (en) | Determining effective contour of rotary machine tool in adjusting apparatus, by measuring maximum excursion of shadow boundary line from tool axis at certain points | |
EP3988989B1 (en) | Method and microscope with a device for detecting displacements of a sample relative to a lens | |
DE202014105027U1 (en) | Device for three-dimensional eye determination | |
DE102017115021A1 (en) | Digital determination of the focus position | |
WO2021140052A1 (en) | Confocal measuring apparatus for 3d measurement of an object surface | |
AT527029B1 (en) | Device and method for characterizing a sample and in particular for characterizing a sample container |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |