DE102014109687A1 - Positionsbestimmung eines Objekts im Strahlengang einer optischen Vorrichtung - Google Patents

Positionsbestimmung eines Objekts im Strahlengang einer optischen Vorrichtung Download PDF

Info

Publication number
DE102014109687A1
DE102014109687A1 DE102014109687.8A DE102014109687A DE102014109687A1 DE 102014109687 A1 DE102014109687 A1 DE 102014109687A1 DE 102014109687 A DE102014109687 A DE 102014109687A DE 102014109687 A1 DE102014109687 A1 DE 102014109687A1
Authority
DE
Germany
Prior art keywords
determining
distance
illumination
optical axis
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102014109687.8A
Other languages
English (en)
Other versions
DE102014109687B4 (de
Inventor
Lars Stoppe
Christoph Husemann
Markus Sticker
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Microscopy GmbH
Original Assignee
Carl Zeiss Microscopy GmbH
Carl Zeiss AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Microscopy GmbH, Carl Zeiss AG filed Critical Carl Zeiss Microscopy GmbH
Priority to DE102014109687.8A priority Critical patent/DE102014109687B4/de
Priority to PCT/EP2015/065862 priority patent/WO2016005571A1/de
Priority to US15/324,474 priority patent/US10670387B2/en
Priority to CN201580047434.XA priority patent/CN106662734B/zh
Publication of DE102014109687A1 publication Critical patent/DE102014109687A1/de
Application granted granted Critical
Publication of DE102014109687B4 publication Critical patent/DE102014109687B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/241Devices for focusing
    • G02B21/245Devices for focusing using auxiliary sources, detectors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/30Systems for automatic generation of focusing signals using parallactic triangle with a base line
    • G02B7/32Systems for automatic generation of focusing signals using parallactic triangle with a base line using active means, e.g. light emitter
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/645Specially adapted constructive features of fluorimeters
    • G01N21/6456Spatial resolved fluorescence measurements; Imaging
    • G01N21/6458Fluorescence microscopy

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Zum Bestimmen einer Position eines Objekts (100) parallel zur optischen Achse (120) einer optischen Vorrichtung (1) wird das Objekt (100) aus einer ersten Beleuchtungsrichtung (210-1) und aus einer zweiten Beleuchtungsrichtung (210-2) beleuchtet und jeweils ein Bild (230-1, 230-2) erfasst. Basierend auf einem Abstand (250) zwischen Abbildungsorten des Objekt (220-1, 220-2) in den Bildern (230-1, 230-2) wird die Position des Objekts (100) bestimmt.

Description

  • Verschiedene Aspekte betreffen ein Verfahren zum Bestimmen einer Position eines Objekts parallel zur optischen Achse einer optischen Vorrichtung und eine entsprechende Vorrichtung.
  • Das Bestimmen der Position eines abzubildenden Objekts parallel zur optischen Achse einer optischen Vorrichtung (z-Position) kann aus verschiedenen Gründen erstrebenswert sein. So kann es mittels der bekannten z-Position möglich sein, das Objekt möglichst gut innerhalb der Fokusebene der optischen Vorrichtung zu positionieren, um derart ein besonders scharfes Abbild des Objekts erzeugen zu können. Bei senkrecht zur optischen Achse ausgedehnten Objekten kann es erstrebenswert sein, die z-Position für verschiedene Punkte des Objekts senkrecht zur optischen Achse zu bestimmen, um den relevanten Bildausschnitts fokussieren zu können. Es kann auch erstrebenswert sein, mittels optischer Techniken ein Höhenprofil des Objekts zu erstellen.
  • Bestehende Techniken erlauben ein Bestimmen der z-Position z.B. über eine Positionierung des Objekts an verschiedenen Referenzpositionen. Anhand einer Schärfe des Objekts and den verschiedenen Referenzpositionen kann dann beurteilt werden, ob sich das Objekt in der Fokusebene befindet oder nicht. Jedoch kann es häufig nur mit einer eingeschränkten Genauigkeit möglich sein, eine Schärfe des Objekts zu bestimmen. Deshalb kann eine solche vorbekannte Technik vergleichsweise ungenau sein. Ferner sind interferometrische Techniken zum Bestimmen der z-Position bekannt. Solche Techniken erlauben eine vergleichsweise hohe Genauigkeit beim Bestimmen der z-Position; die entsprechenden Vorrichtungen können aber vergleichsweise kompliziert und teuer sein.
  • Deshalb besteht ein Bedarf für verbesserte Techniken zum Bestimmen einer Position eines Objekts parallel zur optischen Achse einer optischen Vorrichtung. Insbesondere besteht ein Bedarf für solche Techniken, welche vergleichsweise einfach in optische Vorrichtungen zu implementieren sind, d.h. keine oder nur wenige bauliche Veränderungen benötigen, und die eine vergleichsweise hohe Genauigkeit des Bestimmens der Position ermöglichen.
  • Diese Aufgabe wird von den unabhängigen Ansprüchen gelöst. Die abhängigen Ansprüche definieren Ausführungsformen.
  • Gemäß einem Aspekt betrifft die vorliegende Anmeldung ein Verfahren zum Bestimmen einer Position eines Objekts parallel zur optischen Achse einer optischen Vorrichtung. Das Verfahren umfasst das Beleuchten des Objekts aus einer ersten Beleuchtungsrichtung und das Erfassen eines ersten Bilds des Objekts während des Beleuchtens. Das Verfahren umfasst weiterhin das Beleuchten des Objekts aus einer zweiten Beleuchtungsrichtung und das Erfassen eines zweiten Bilds des Objekts während des Beleuchtens. Das Verfahren umfasst weiterhin das Bestimmen eines Abstands zwischen Abbildungsorten des Objekts in dem ersten Bild und dem zweiten Bild. Das Verfahren umfasst weiterhin das Bestimmen einer Position des Objekts parallel zur optischen Achse basierend auf dem Abstand.
  • In anderen Worten kann es also möglich sein, das Objekt sequentiell aus der ersten und zweiten Beleuchtungsrichtung zu beleuchten und jeweils ein Bild des Objekts zu erfassen. Insbesondere können die erste Beleuchtungsrichtung und/oder die zweite Beleuchtungsrichtung einen Winkel mit derjenigen Achse der optischen Vorrichtung einschließen, entlang derer ein idealisierter Lichtstrahl keine oder nur eine geringe Ablenkung erfährt (optische Achse). In einem solchen Fall kann der Abbildungsort des Objekts in einem entsprechenden Bild verschoben sein, sofern sich das Objekt nicht in der Fokusebene der optischen Vorrichtung befindet. Durch das Bestimmen des Abstands in Bezug auf die erste und zweite Beleuchtungsrichtung kann es möglich sein, Rückschlüsse auf die Position zu ziehen.
  • Bestimmen der Position kann hierbei bedeuten: quantitatives Bestimmen der Position, z.B. in Bezug auf die Fokusebene oder in Bezug auf ein sonstiges geeignetes Referenzsystem der optischen Vorrichtung; und/oder qualitatives Bestimmen der Position, z.B. in Bezug auf das Kriterium, ob eine bestimmte vorgegebene Position parallel zur optischen Achse, wie z.B. die Fokusebene, erreicht ist oder nicht.
  • Zum Beispiel kann es möglich sein, dass die erste Beleuchtungsrichtung durch einen ersten Winkel gegenüber der optischen Achse charakterisiert ist und die zweite Beleuchtungsrichtung durch einen zweiten Winkel gegenüber der optischen Achse charakterisiert ist. Das Bestimmen der Position des Objekts kann weiterhin auf dem ersten Winkel und auf dem zweiten Winkel basieren. In einem solchen Fall kann es insbesondere möglich sein, dass das Bestimmen der Position des Objekts weiterhin umfasst: Quantifizieren der Position des Objekts in Bezug auf die Fokusebene der optischen Vorrichtung anhand von trigonometrischen Beziehungen zwischen den Winkeln und dem Abstand.
  • Mit einem solchen Ansatz kann es möglich sein, z.B. allein basierend auf dem ersten und zweiten Bild eine vergleichsweise genaue Bestimmung der Position des Objekts parallel zur optischen Achse durchzuführen. Insbesondere kann es entbehrlich sein, z.B. eine Serie von verschiedenen Bildern des Objekts für verschiedene Referenzpositionen des Objekts parallel zur optischen Achse durchzuführen. In anderen Worten kann es möglich sein, die Position des Objekts nur anhand der Bilder für verschiedene Beleuchtungsrichtungen zu bestimmen; es kann entbehrlich sein, das Objekt mechanisch parallel zur optischen Achse zu verschieben. Dies kann ein besonders schnelles und genaues Bestimmen der Position ermöglichen. Dies kann eine besonders einfache Implementierung des entsprechenden Messvorgangs ermöglichen. Z.B. kann es möglich sein, im Vergleich zu herkömmlichen optischen Vorrichtungen, wie z.B. Mikroskopievorrichtungen, lediglich eine Beleuchtungsvorrichtung der optischen Vorrichtung zu verändern; z.B. kann es möglich sein, dass eine Detektionsvorrichtung der optischen Vorrichtung unverändert bleibt.
  • Es ist aber auch möglich, dass das Verfahren weiterhin umfasst: Positionieren des Objekts an verschiedenen Referenzpositionen parallel zur optischen Achse. Das Verfahren kann z.B. für jede der Referenzpositionen parallel zur optischen Achse das Beleuchten des Objekts aus der ersten Beleuchtungsrichtung und das Erfassen des ersten Bilds und das Beleuchten des Objekts aus der zweiten Beleuchtungsrichtung und das Erfassen des zweiten Bilds und das Bestimmen des Abstands umfassen. Das Bestimmen der Position des Objekts kann dann umfassen: Minimieren des Abstands für die verschiedenen Referenzpositionen. In einem solchen Fall kann es insbesondere möglich sein, die Position des Objekts parallel zur optischen Achse qualitativ zu bestimmen. Zum Beispiel kann für den Fall, dass der Abstand minimal wird, angenommen werden, dass die entsprechende Referenzposition parallel zur optischen Achse in oder nahe bei der Fokusebene liegt. Z.B. können zwei, drei oder mehr Referenzpositionen verwendet werden. Grundsätzlich ist es auch möglich, die Beleuchtungsrichtungen in Abhängigkeit der Referenzposition anzupassen. Es kann auch vorgesehen sein, für die verschiedenen Referenzpositionen mehr als zwei Bilder aus mehr als zwei Beleuchtungsrichtungen zu erfassen. Derart können mehrere Abbildungsorte bestimmt werden bzw. redundante Informationen erhalten werden, wodurch eine besonders genaue Positionsbestimmung ermöglicht wird. Insbesondere in Szenarien, in denen das Objekt eine gewisse Periodizität aufweist bzw. eine periodische Struktur ist, kann derart ein besonders genaues Bestimmen der Position möglich sein.
  • Im Allgemeinen kann es möglich sein, z.B. im Anschluss an das Bestimmen der Position des Objekts, eine Fokuseinheit der optischen Vorrichtung anzusteuern, zum Positionieren des Objekts in der Fokusebene der optischen Vorrichtung in Abhängigkeit der bestimmten Position. Derart kann es möglich sein, eine besonders schnelle und zuverlässige und genaue Fokussierung auf das Objekt vorzunehmen. Nachfolgend können dann Bilder des Objekts erfasst werden, die eine besonders hohe Qualität aufweisen.
  • Zum Bestimmen des Abstands können verschiedene Techniken Anwendung finden. Zum Beispiel kann das Bestimmen des Abstands umfassen: Bestimmen eines ersten Referenzpunkts des Objekts in dem ersten Bild und Bestimmen eines zweiten Referenzpunkts in dem zweiten Bild. Der Abstand kann zwischen dem ersten Referenzpunkt und dem zweiten Referenzpunkt bestimmt werden. Der erste und zweite Referenzpunkt können einem bestimmten Teil des Objekts entsprechen. Durch geeignete Wahl des Referenzpunkts kann der Abstand besonders genau bestimmt werden.
  • Im Allgemeinen ist die Wahl eines geeigneten Referenzpunkts nicht besonders beschränkt. Insbesondere kann es erstrebenswert sein, einen Referenzpunkt zu wählen, der sowohl in dem ersten Bild, als auch in dem zweiten Bild mit einer vergleichsweise hohen Zuverlässigkeit und Genauigkeit aufgefunden und bestimmt werden kann. Dann kann eine Genauigkeit der bestimmten Position vergleichsweise hoch sein. Als Referenzpunkte kämen z.B. in Frage: markante Merkmale des Objekts; Landmarken; maschinenlesbare Zeichen; durch einen Benutzer festgelegte Punkte, usf.
  • Sofern das Objekt eine signifikante Ausdehnung senkrecht zur optischen Achse aufweist, kann die Wahl des Referenzpunkts einen Einfluss darauf haben, für welchen Teil des Objekts die Position bestimmt wird. Dies kann insbesondere in solchen Szenarien von Bedeutung sein, in denen das Objekt ein signifikantes Höhenprofil aufweist. Dann kann nämlich ein Szenario auftreten, bei dem die Fokussierung eines Teils des Objekts einhergeht mit der Defokussierung eines anderen Teils des Objekts. In einem solchen Fall kann es erstrebenswert sein, eine sog. Fokusmap zu erzeugen, d.h. z.B. senkrecht zur optischen Achse ortsaufgelöste Information über die Position des Objekts zu bestimmen.
  • Zum Beispiel kann das Bestimmen des Abstands für mehrere Paare von ersten Referenzpunkten und zweiten Referenzpunkten durchgeführt werden. Das Bestimmen der Position des Objekts kann ortsaufgelöst in einer Ebene senkrecht zur optischen Achse geschehen und auf den mehreren Paaren von ersten Referenzpunkten und zweiten Referenzpunkten basieren. Derart kann es z.B. möglich sein, gezielt einzelne Teile des Objekts in einer Fokusebene der optischen Vorrichtung zu positionieren. Dies kann insbesondere bei senkrecht zur optischen Achse ausgedehnten Proben erstrebenswert sein.
  • Typischerweise korreliert eine Genauigkeit des Bestimmens der Position des Objekts parallel zur bzw. entlang der optischen Achse mit einer Genauigkeit des Bestimmens des Abstands zwischen den Abbildungsorten des Objekts in dem ersten Bild und dem zweiten Bild. Dies bedeutet, dass es erstrebenswert sein kann, den Abstand zwischen den Abbildungsorten besonders genau zu bestimmen. Zum Beispiel kann der Abstand mittels Techniken bestimmt werden, die aus folgender Gruppe ausgewählt sind: Landmarkenerkennung; Bestimmen eines optischen Schwerpunkts des Objekts in dem ersten Bild und/oder dem zweiten Bild; eine Benutzereingabe; Aberrationskorrektur.
  • Zum Beispiel kann es möglich sein, durch Berücksichtigen von vorbekannten Aberrationen z.B. in der Beleuchtungsvorrichtung der optischen Vorrichtung und/oder in der Detektoroptik der optischen Vorrichtung Verzerrungen in dem ersten und zweiten Bild, die zu einer Verschiebung der Abbildungsorte des Objekts führen können, zu berücksichtigen. Solche Verschiebungen können dann herausgerechnet werden bzw. rechnerisch reduziert werden und der tatsächliche Abstand besonders genau bestimmt werden.
  • Gemäß einem weiteren Aspekt betrifft die vorliegende Anmeldung eine optische Vorrichtung. Die optische Vorrichtung ist eingerichtet, um eine Position eines Objekts parallel zur bzw. entlang der optischen Achse der optischen Vorrichtung zu bestimmen. Die optische Vorrichtung umfasst eine Beleuchtungsvorrichtung. Die Beleuchtungsvorrichtung ist eingerichtet, um das Objekt aus einer ersten Beleuchtungsrichtung und aus einer zweiten Beleuchtungsrichtung zu beleuchten. Die optische Vorrichtung umfasst ferner einen Detektor, der eingerichtet ist, um ein erstes Bild des Objekts während des Beleuchtens aus der ersten Beleuchtungsrichtung zu erfassen. Der Detektor ist weiterhin eingerichtet, um ein zweites Bild des Objekts während des Beleuchtens aus der zweiten Beleuchtungsrichtung zu erfassen. Die optische Vorrichtung umfasst weiterhin eine Recheneinheit, die eingerichtet ist, um einen Abstand zwischen Abbildungsorten des Objekts in dem ersten Bild und in dem zweiten Bild zu bestimmen. Die Recheneinheit ist weiterhin eingerichtet, um eine Position des Objekts parallel zur optischen Achse basierend auf dem Abstand zu bestimmen.
  • Zum Beispiel kann die optische Vorrichtung gemäß dem gegenwärtig diskutierten Aspekt eingerichtet sein, um das Verfahren zum Bestimmen einer Position eines Objekts parallel zur optischen Achse gemäß einem weiteren Aspekt der vorliegenden Anmeldung durchzuführen.
  • Für eine solche optische Vorrichtung können Effekte erzielt werden, die vergleichbar sind mit den Effekten, die für das Verfahren zum Bestimmen einer Position eines Objekts parallel zur optischen Achse gemäß einem weiteren Aspekt der vorliegenden Anmeldung erzielt werden können.
  • Die oben dargelegten Merkmale und Merkmale, die nachfolgend beschrieben werden, können nicht nur in den entsprechenden explizit dargelegten Kombinationen verwendet werden, sondern auch in weiteren Kombinationen oder isoliert, ohne den Schutzumfang der vorliegenden Erfindung zu verlassen.
  • Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Zeichnungen näher erläutert werden.
  • 1 illustriert eine Position eines Objekts parallel zur optischen Achse einer optischen Vorrichtung.
  • 2 illustriert Abbildungsorte des Objekts in einem ersten Bild und in einem zweiten Bild, die für verschiedene Beleuchtungsrichtungen aufgenommen sind, für das Szenario der 1.
  • 3 zeigt schematisch die optische Vorrichtung.
  • 4 ist ein Flussdiagramm eines Verfahrens zum Bestimmen der Position des Objekts parallel zur optischen Achse.
  • 5 zeigt das iterative Positionieren des Objekts an verschiedenen Referenzpositionen parallel zur optischen Achse, um die Position qualitativ zu bestimmen.
  • 6 illustriert eine Abbildung eines Objekt in ersten und zweiten Bildern, wobei das Objekt senkrecht zur optischen Achse ausgedehnt ist, wobei Referenzpunkte zur Bestimmung des Abstands dargestellt sind.
  • Nachfolgend wird die vorliegende Erfindung anhand bevorzugter Ausführungsformen unter Bezugnahme auf die Zeichnungen näher erläutert. In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder ähnliche Elemente. Die Figuren sind schematische Repräsentationen verschiedener Ausführungsformen der Erfindung. In den Figuren dargestellte Elemente sind nicht notwendigerweise maßstabsgetreu dargestellt. Vielmehr sind die verschiedenen in den Figuren dargestellten Elemente derart wiedergegeben, dass ihre Funktion und genereller Zweck dem Fachmann verständlich wird. In den Figuren dargestellte Verbindungen und Kopplungen zwischen funktionellen Einheiten und Elementen können auch als indirekte Verbindung oder Kopplung implementiert werden. Eine Verbindung oder Kopplung kann drahtgebunden oder drahtlos implementiert sein. Funktionale Einheiten können als Hardware, Software oder eine Kombination aus Hardware und Software implementiert werden.
  • Nachfolgend werden Techniken beschrieben, mittels derer eine Position eines Objekts parallel zur optischen Achse einer optischen Vorrichtung (z-Position) bestimmt werden kann. Im dreidimensionalen Raum, der durch x,y,z-Achsen aufgespannt ist, kann also die z-Komponente der Position bestimmt werden; die optische Achse definiert die z-Achse und ist z.B. parallel zu dieser. Basierend auf der bestimmten z-Position kann z.B. eine Fokuseinheit der optischen Vorrichtung angesteuert werden und derart das Objekt in der Fokusebene der optischen Vorrichtung in Abhängigkeit der bestimmten z-Position positioniert werden (Fokussieren des Objekts). Anschließen können Bilder des Objekts erfasst werden, welche das Objekt besonders scharf abbilden. Solche Techniken können in verschiedensten Gebieten Anwendung finden, z.B. in der Mikroskopie oder in der Fluoreszenz-Messung oder parallel zur Phasenkontrast-Bildgebung.
  • Für den beispielhaften Anwendungsfall der Fluoreszenz-Messung kann es z.B. möglich sein, mittels der nachfolgend beschriebenen Techniken die z-Position vor und / oder während der Fluoreszenz-Messung zu bestimmen. Damit kann sichergestellt werden, dass sich das fluoreszierende Objekt bei der Messung in der Fokusebene der optischen Vorrichtung befindet; derart kann eine Genauigkeit bei der Fluoreszenz-Messung erhöht werden. Die nachfolgend im Detail beschriebenen Techniken beruhen darauf, dass ein erstes Bild und ein zweites Bild unter Beleuchtung des Objekts aus unterschiedlichen ersten und zweiten Beleuchtungsrichtungen ausgewertet wird. Hierbei kann die Beleuchtung z.B. insbesondere mit einer Wellenlänge durchgeführt werden, die außerhalb des Fluoreszenz-aktiven Bereichs der fluoreszierenden Probe liegt. Grundsätzlich kann also gleichzeitig zur Fluoreszenz-Messung die z-Position bestimmt werden. Dies kann es z.B. insbesondere ermöglichen, bewegte Proben als Funktion der Zeit zuverlässig in der Fokusebene zu positionieren. Ferner kann die z-Position im Allgemeinen aus nur zwei Beleuchtungsvorgängen bestimmt werden; auch dadurch kann eine Licht-toxische Wirkung auf das fluoreszierende Objekt reduziert werden. Bei einer Vermessung von Farbstoffen kann die Wellenlänge des Lichts zur Bestimmung der z-Position z.B. außerhalb des Anregungsbereichs der Farbstoffe gewählt werden. Derart kann ein Bleaching der Farbstoffe verringert bzw. vermieden werden. Eine mögliche Wellenlänge des Lichts, die zum Bestimmen der z-Position verwendet wird, läge z.B. im Infrarotbereich.
  • In verschiedenen Szenarien können insbesondere bereits Bilder aus verschiedenen Beleuchtungsrichtungen vorhanden sein, ohne dass diese extra für die Fokussierung gemäß vorliegender Techniken erfasst werden müssten. Ein solches Szenario wäre z.B. die Bestimmung eines Phasenkontrast-Bilds etwa mit Techniken der Fourier-Ptychographie. Dann kann es – ohne weitere Lichtexposition des Objekts – möglich sein, die vorliegenden Techniken anzuwenden, um die z-Position zu bestimmen.
  • In 1 ist eine optische Vorrichtung 1, z.B. ein Mikroskop, schematisch dargestellt. Ein Strahlengang des Lichts verläuft von einer Beleuchtungsvorrichtung 111 zu einem Detektor 112. In 1 sind die optische Achse 120 und die Fokusebene 160 dargestellt. Aus 1 ist ersichtlich, dass das Objekt 100 parallel zur optischen Achse 120 außerhalb der Fokusebene 160 positioniert ist. Dargestellt ist eine z-Position 150, die in Bezug auf die Fokusebene 160 gemessen wird (in 1 mit Δz bezeichnet). In einem solchen Fall kann es besonders einfach und schnell möglich sein, die Fokuseinheit der optischen Vorrichtung 1 anzusteuern, um eine Fokussierung durchzuführen. Insbesondere kann es entbehrlich sein, z.B. eine Umrechnung der z-Position 150 in Bezug auf die Fokusebene 160 durchzuführen. Es wäre auch möglich, die Position des Objekts 100 in einem anderen geeigneten Referenzkoordinatensystem der optischen Vorrichtung zu bestimmen.
  • In 2 sind ferner eine erste Beleuchtungsrichtung 210-1 und eine zweite Beleuchtungsrichtung 210-2 dargestellt. Für die erste Beleuchtungsrichtung 210-1 wird ein erstes Bild 230-1 erfasst. Für die zweite Beleuchtungsrichtung 210-2 wird ein zweites Bild 230-2 erfasst. Wie aus 2 ersichtlich ist, schließt die erste Beleuchtungsrichtung 210-1 einen ersten Winkel 251-1 mit der optischen Achse 120 ein. Deshalb erscheint ein Abbildungsort 220-1 des Objekts 100 in dem ersten Bild 230-1 gemäß 2 nach links gegenüber der optischen Achse 120 versetzt. In 2 ist der erste Winkel 251-1 als α bezeichnet. Wie aus 2 ferner ersichtlich ist, ist der Abbildungsort 220-2 des Objekts 100 in dem zweiten Bild 230-2 in der Darstellung der 2 nach rechts gegenüber der optischen Achse 120 versetzt. Dies ist der Fall aufgrund des zweiten Winkels 251-2 (in 2 mit β bezeichnet), den die zweite Beleuchtungsrichtung 210-2 mit der optischen Achse 120 einschließt. Aus 2 ist ersichtlich, dass ein Betrag des ersten Winkels 251-1 verschieden von einem Betrag des zweiten Winkels 251-2 ist. Im Allgemeinen wäre es möglich, dass die ersten und zweiten Beleuchtungsrichtungen 210-1, 210-2 symmetrisch in Bezug auf die optische Achse 120 angeordnet sind. Es wäre z.B. auch möglich, dass eine der beiden Beleuchtungsrichtungen 210-1, 210-2 parallel zur optischen Achse 120 orientiert ist. Im Allgemeinen ist es auch möglich, dass das Objekt 100 einen Versatz gegenüber der optischen Achse 120 aufweist, d.h. innerhalb einer xy-Ebene gegenüber der optischen Achse 120 verschoben ist. Im Allgemeinen ist es ferner nicht notwendig, dass die erste Beleuchtungsrichtung 210-1, die zweite Beleuchtungsrichtung 210-2 und die optische Achse 120 in einer Ebene liegen (in dem Szenario der 2 in der xz-Ebene). Dies bedeutet, dass z.B. die erste Beleuchtungsrichtung 210-1 und/oder die zweite Beleuchtungsrichtung 210-2 aus der xy-Ebene herausgekippt sein können.
  • Da eine Beleuchtung des Objekts 100 mit endlichen Winkeln 251-1, 251-2 gegenüber der optischen Achse 120 stattfindet, kann auch ein reines Phasenobjekt, welches keine oder nur eine geringe Schwächung der Amplitude des durchtretenden Lichts bewirkt, in dem ersten und zweiten Bild 230-1, 230-2 abgebildet werden. Dies ermöglicht eine vielfältige Anwendung der vorliegenden Techniken auf verschiedene Proben, insbesondere z.B. biologische Proben.
  • In 2 ist ferner ein Abstand 250 zwischen den Abbildungsorten 220-1, 220-2 des Objekts 100 in den ersten und zweiten Bildern 230-1, 230-2 dargestellt (in 2 mit Δx bezeichnet). Zunächst kann qualitativ festgestellt werden, dass der Abstand 250 nicht verschwindet. Derart kann die z-Position 150 bereits qualitativ als ungleich Null bestimmt werden. Z.B. wäre es möglich, durch iteratives Repositionieren des Objekts 100 an verschiedenen Referenzpositionen (in 2 nicht gezeigt) parallel zur optischen Achse 120, die z-Position 150 qualitativ als gleich bzw. nahe Null zu bestimmen. Dazu könnte das Objekt etwa iterativ solange parallel zur optischen Achse 120 repositioniert werden, bis der Abstand 250 minimiert ist.
  • Es wäre aber auch möglich, dass das Bestimmen der z-Position 150 weiterhin auf dem ersten Winkel 251-1 und dem zweiten Winkel 251-2 basiert. Dann kann die z-Position 150 quantitativ bestimmt werden. Hierzu können, wie nachfolgend dargelegt, trigonometrische Beziehungen zwischen dem ersten Winkel 251-1, dem zweiten Winkel 251-2 und dem Abstand 250 berücksichtigt werden.
  • Für das Szenario der 2 gilt: Δz = a·cosα = b·cosβ, (1) wobei a einen Abstand zwischen dem Objekt 100 und dem Abbildungsort 220-1 des Objekts 100 in dem ersten Bild 230-1 entlang der ersten Beleuchtungsrichtung 210-1 bezeichnet und b einen Abstand zwischen dem Objekt 100 und dem Abbildungsort 220-2 des Objekts 100 in dem zweiten Bild 230-2 entlang der zweiten Beleuchtungsrichtung 210-2 bezeichnet (a und b sind in 2 nicht dargestellt). Diese Formel ergibt sich aus der Definition des Cosinus für rechtwinklige Dreiecke.
  • Unter Anwendung des Sinussatzes für allgemeine Dreiecke erhält man: Δx / sin(α + β) = b / sin(90° – α) = b / cosα. (2)
  • Durch Kombination von Gleichung 1 und 2 ergibt sich: Δz = Δx· cosαcosβ / sin(α + β). (3)
  • Anhand von Gleichung 3 ist es möglich, basierend auf dem ersten Winkel 251-1 und dem zweiten Winkel 251-2 und ferner basierend auf dem Abstand 250 der Abbildungsorte 220-1, 220-2, die z-Position 150 zu bestimmen. Insbesondere kann die z-Position 150 allein durch zweimaliges Beleuchten und gleichzeitiges Erfassen des ersten und zweiten Bilds 230-1, 230-2 bestimmt werden. Eine Lichtbelastung des Objekts 100 kann minimiert werden, z.B. im Vergleich zu dem oben genannten Szenario mit iterativer Positionierung des Objekts 100 an verschiedenen Referenzpositionen parallel zur optischen Achse 120.
  • Es kann erstrebenswert sein, eine Genauigkeit des Bestimmens der z-Position 150 zu erhöhen. Die Genauigkeit des Bestimmens der z-Position 150 hängt typischerweise direkt mit dem ersten Winkel 251-1, dem zweiten Winkel 251-2 und dem Abstand 250 zusammen. Daher kann die Genauigkeit bei dem Bestimmen der z-Position 150 limitiert sein zumindest durch eine Pixelgröße in dem ersten Bild 230-1 und dem zweiten Bild 230-2.
  • Ein Fehler im Abstand 250 – nachfolgend als Δx' bezeichnet – überträgt sich wie folgt auf einen Fehler der z-Position 150: Δz' = Δx'· cosαcosβ / sin(α + β). (4)
  • Sofern das Objekt 100 eine signifikante Ausdehnung in der xy-Ebene aufweist, kann es z.B. erstrebenswert sein, den Abstand 250 zwischen bestimmten Referenzpunkten in dem ersten Bild 230-1 und dem zweiten Bild 230-2 zu bestimmen. Die Referenzpunkte können einen bestimmten Teil des Objekts 100 markieren, z.B. einen besonders markanten Teil oder einen für die Abbildung besonders wichtigen Teil. Im Allgemeinen ist es auch möglich, den Abstand 250 für mehrere Paare von Referenzpunkten des Objekts 100 zu bestimmen. Derart kann es möglich sein, durch mehrmaliges Anwenden von Gleichung 3, für verschiedene Teile des Objekts 100 jeweils die z-Position 150 zu bestimmen. In anderen Worten kann also die z-Position 150 ortsaufgelöst in der xy-Ebene bestimmt werden.
  • Es kann also erstrebenswert sein, den Abstand 250 besonders genau zu bestimmen. In diesem Zusammenhang kann es möglich sein, verschiedenste Techniken anzuwenden, die eine besonders genaue Bestimmung des Abstands 250 ermöglichen. Solche Techniken können z.B. umfassen: Landmarkenerkennung; Bestimmung eines optischen Schwerpunkts des Objekts 100 in dem ersten Bild 230-1 und/oder in dem zweiten Bild 230-2; eine Benutzereingabe; eine Aberrationskorrektur. In einem einfachen Szenario könnte z.B. der Benutzer einen bestimmen Referenzpunkt des Objekts 100 in dem ersten Bild 230-1 auswählen und den entsprechenden Referenzpunkt in dem zweiten Bild 230-2 auswählen. Mittels Landmarkenerkennung kann es z.B. möglich sein, eine solche Auswahl von Referenzpunkten zumindest teil-automatisiert durchzuführen. Es wäre auch möglich, den optischen Schwerpunkt als Referenzpunkt zum Bestimmen des Abstands 250 zu verwenden. Die Aberrationskorrektur kann z.B. dazu eingesetzt werden, bekannte Fehlabbildungen aufgrund von Aberrationen in der optischen Vorrichtung 1 zu berücksichtigen.
  • Eine weitere Begrenzung der Genauigkeit beim Bestimmen der z-Position 150 kann sich aus der kohärenten Tiefenschärfe des Detektors 112 der optischen Vorrichtung 1 ergeben. Insbesondere sollte gewährleistet werden, dass das Objekt 100 – auch bei einer signifikanten Verschiebung gegenüber der Fokusebene 160 – noch in dem ersten Bild 230-1 und dem zweiten Bild 230-2 abgebildet wird. Es kann jedoch entbehrlich sein, eine scharfe Abbildung des Objekts 100 zu erreichen; insbesondere obenstehend beschriebene Techniken, wie z.B. die Bestimmung des optischen Schwerpunkts des Objekts 100, können auch in einem Fall angewendet werden, in dem das Objekt 100 nur sehr unscharf in den Bildern 230-1, 230-2 abgebildet ist.
  • Während in den 1 und 2 eine Situation gezeigt ist, in denen das Objekt 100 entlang der optischen Achse 120 positioniert ist, d.h. es die optische Achse 120 schneidet, kann mittels der voranstehend beschriebenen Techniken die z-Position auch für solche Szenarien bestimmt werden, in denen das Objekt 100 einen bestimmten Versatz parallel zur x-Richtung und / oder parallel zur y-Richtung gegenüber der optischen Achse 120 aufweist. Allgemein formuliert können die voranstehend beschriebenen Techniken zum Bestimmen der Position 150 des Objekts parallel zur optischen Achse 120 also die Bestimmung der z-Komponente der Position des Objekts 100 im dreidimensionalen Raum, der durch die x,y,z-Achsen aufgespannt ist, ermöglichen.
  • In der 2 ist ferner eine Situation gezeigt, in der zwei Beleuchtungsrichtungen 210-1, 210-2 zum Bestimmen der z-Position verwendet werden. Im Allgemeinen ist es auch möglich, eine größere Anzahl von Beleuchtungsrichtungen 210-1, 210-2 zum Bestimmen der z-Position 150 des Objekts 100 zu verwenden. Z.B. können drei oder vier oder zehn oder mehr Beleuchtungsrichtungen 210-1, 210-2 verwendet werden. Es wäre z.B. möglich, für die verschiedenen Beleuchtungsrichtungen 210-1, 210-2 jeweils paarweise die oben genannten Techniken anzuwenden, z.B. jeweils paarweise die Gleichung 3 anzuwenden. Derart kann z.B. die z-Position 150 des Objekts 100 mehrfach bestimmt werden und daraus ein geeigneter Mittelwert gebildet werden. Derart kann es z.B. möglich sein, die z-Position 150 des Objekts 100 besonders genau zu bestimmen. Im Allgemeinen können verschiedenste Techniken zum Kombinieren eines größeren Datensatzes bestehend aus Abbildungsorten 220-1, 220-2 mehrerer Beleuchtungsrichtungen 210-1, 210-2 eingesetzt werden. Z.B. könnte Gleichung 3 geeignet modifiziert werden oder mehrere z-Positionen, die aus den verschiedenen Beleuchtungsrichtungen 210-1, 210-2 erhalten werden, könnten nach mehrfachem Anwenden der Gleichung 3 konsolidiert werden. In anderen Worten kann es durch mehrere Beleuchtungsrichtungen 210-1, 210-2 bzw. redundante Beleuchtungsrichtungen 210-1, 210möglich sein, eine höhere Genauigkeit beim Bestimmen der z-Position 150 zu erreichen; es ist z.B. insbesondere möglich, eine Genauigkeit zu erreichen, die höher ist, als eine Auflösung entsprechender Bilder, aus denen die Abbildungsorte 220-1, 220-2 bestimmt werden.
  • In 3 ist die optische Vorrichtung 1 schematisch dargestellt. Die optische Vorrichtung 1 weist die Beleuchtungsvorrichtung 111 und den Detektor 112 auf. Weiterhin ist ein Probenhalter mit Fokuseinheit 311 vorgesehen. Die Fokuseinheit kann dazu eingerichtet sein, um das Objekt 100 parallel zur optischen Achse 120 zu positionieren, z.B. um verschiedene Referenzpositionen anzufahren oder zu fokussieren. Die optische Vorrichtung 1 weist weiterhin eine Recheneinheit 312 auf. Die Recheneinheit 312 ist eingerichtet, verschiedene Schritte im Zusammenhang mit dem Bestimmen der z-Position 150, wie voranstehend erläutert, durchzuführen. Die Recheneinheit 312 kann mit einem Speicher (in 3 nicht gezeigt) gekoppelt sein. In dem Speicher, z.B. einem nicht flüchtigen oder flüchtigen Speicher, können entsprechende Arbeitsanweisungen und Befehle zum Durchführen der voranstehenden Techniken durch die Recheneinheit 312 hinterlegt sein. Z.B. kann die Recheneinheit 312 vom Speicher Befehle erhalten, um anhand der Gleichung 3 die z-Position 150 zu bestimmen bzw. innerhalb des ersten und zweiten Bilds 230-1, 230-2 Referenzpunkte aufzufinden und dann den Abstand 250 zu ermitteln.
  • Im Allgemeinen ist es möglich, dass mittels der optischen Vorrichtung 1 noch weitere Aufgaben – neben der Bestimmung der z-Position 150 – durchgeführt werden, wie z.B. Fluoreszenzmessungen. Insbesondere in einem solchen Fall kann das Bestimmen der z-Position 150 basierend auf den ersten und zweiten Bildern 230-1, 230-2 durch eine Hilfsoptik durchgeführt werden, welche z.B. eine kleine Blende mit großer Tiefenschärfe aufweist – wodurch sichergestellt werden kann, dass auch für große z-Positionen 150 der Abstand 250 noch zuverlässig zu ermitteln ist. Zum Durchführen der eigentlichen Fluoreszenzmessung kann dann eine weitere Optik verwendet werden, welche z.B. eine große Blende aufweist, um besonders lichtintensiv zu arbeiten. Auch paralleles Erfassen der ersten und zweiten Bilder 230-1, 230-2 und Durchführen der Fluoreszenzmessung kann derart möglich sein.
  • Grundsätzlich können verschiedenste Beleuchtungsvorrichtungen 111 verwendet werden, um das Beleuchten des Objekts 100 mit den verschiedenen Beleuchtungsrichtungen 210-1, 210-2 durchzuführen. Es kann z.B. ein Scan-Spiegel z.B. in einer Feldblendenebene der Beleuchtungsvorrichtung 111 verwendet werden. Es könnte auch eine adaptive Komponente in einer Aperturblende bzw. Beleuchtungspupille der Beleuchtungseinrichtung verwendet werden; z.B. könnte die Beleuchtungsvorrichtung 111 gemäß Deutscher Patentanmeldung 10 2014 101 219.4 verwendet werden. Eine adaptive Komponente könnte z.B. ein Flächenlichtmodulator (engl. spatial light modulator, SLM) oder ein Digitale Mikrospiegelvorrichtung (engl. Digital Micromirror Device, DMD) oder eine bewegliche bzw. verschiebbare Sigma-Blende sein. Es wäre auch möglich, dass die Beleuchtungsvorrichtung 111 ein Leuchtdioden-Array umfasst. Z.B. können die Leuchtdioden des Leuchtdioden-Arrays auf einem kartesischen Raster angeordnet sein. Dann kann z.B. durch Ansteuern einer bestimmten Leuchtdiode des Leuchtdioden-Arrays, die einen bestimmten Abstand gegenüber der optischen Achse 120 aufweist, eine bestimmte Beleuchtungsrichtung 210-1, 210-2 implementiert werden.
  • In 4 ist ein Verfahren zum Bestimmen der z-Position 150 des Objekts 100 gemäß verschiedener Ausführungsformen dargestellt. Das Verfahren beginnt in Schritt S1. Zunächst wird in Schritt S2 das Objekt 100 aus der ersten Beleuchtungsrichtung 210-1 beleuchtet und das erste Bild 230-1 erfasst. In Schritt S3 wird das Objekt 100 aus der zweiten Beleuchtungsrichtung 210-2 beleuchtet und das zweite Bild 230-2 erfasst. Dann wird in Schritt S4 der Abstand 250 zwischen den beiden Abbildungsorten des Objekts in den ersten und zweiten Bildern 230-1, 230-2 bestimmt. Anschließend erfolgt in Schritt S5 das Bestimmen der z-Position 150. In Schritt S5 kann das Bestimmen der z-Position 150 z.B. qualitativ erfolgen oder quantitativ erfolgen. Zur quantitativen Bestimmung der z-Position 150 kann z.B. die Gleichung 3 verwendet werden. Es wäre auch möglich, dass – zusätzlich zu den Schritten S2–S4 – das Objekt aus weiteren Beleuchtungsrichtungen 210-1, 210-2 beleuchtet wird, z.B. aus einer dritten Beleuchtungsrichtung und einer vierten Beleuchtungsrichtung. Diese redundante Information kann in Schritt S5 berücksichtigt werden.
  • Es wäre aber auch möglich, in Schritt S5 die z-Position 150 durch iteratives Repositionieren des Objekts 100 parallel zur optischen Achse 120 qualitativ zu bestimmen. Ein solches Szenario ist in 5 dargestellt. Zunächst wird in Schritt T1 der Abstand 250 des Objekts 100 zwischen dem ersten Bild 230-1 und dem zweiten Bild 230-2 für eine aktuelle Referenzposition des Objekts 100 parallel zur optischen Achse 120 bestimmt. In Schritt T2 wird überprüft, ob der Abstand 250 minimiert ist. Zum Beispiel kann in Schritt T2 ein Schwellenwertvergleich mit einem vorgegebenen Schwellenwert durchgeführt werden. Es wäre in Schritt T2 auch möglich, zu überprüfen, ob der Abstand 250 gegenüber früheren Bestimmungen des Abstands (bei vorher ausgeführten Iterationen des Schritts T1) reduziert wurde.
  • Wurde in Schritt T2 festgestellt, dass der Abstand 250 nicht minimiert wurde, so wird Schritt T3 durchgeführt. Im Schritt T3 wird das Objekt 100 an einer nächsten Referenzposition parallel zur optischen Achse 120 positioniert. Die Referenzpositionen können durch ein iteratives Verfahren ermittelt werden; die Referenzpositionen könnten auch fest vorgegeben sein. Das Verfahren wird dann bei Schritt S2 fortgeführt (vgl. 4). Insbesondere für eine Bestimmung der z-Position 150 mittels iterativer Techniken, wie in 5 dargestellt, kann es erstrebenswert sein, mehr als zwei Beleuchtungsrichtungen 210-1, 210-2 zum Bestimmen des Abstands 250 zu verwenden. Z.B. könnte dann in Schritt T2 überprüft werden, ob der Abstand 250 für alle Paare von Beleuchtungsrichtungen 210-1, 210-2 minimiert ist.
  • Wird in Schritt T3 jedoch festgestellt, dass der Abstand 250 minimiert ist, so wird in Schritt T4 die z-Position 150 als Null gegenüber der Fokusebene 160 bestimmt.
  • In 6 ist eine Abbildung von Objekt 100 in dem ersten Bild 230-1 (in 6 mit einer durchgezogenen Line gezeigt) und in dem zweiten Bild 230-2 (in 6 mit einer gestrichelten Linie) schematisch dargestellt. Das Objekt 100 weist eine signifikante Ausdehnung in der xy-Ebene, d.h. senkrecht zur optischen Achse 120 aufweist. Es sind drei mögliche Referenzpunkte 600-1, 600-2, 600-3, 600-4 für die Abbildung des Objekts 100 im ersten Bild 230-1 dargestellt. Grundsätzlich ist die Wahl der Referenzpunkte 600-1600-4 nicht besonders beschränkt. Die in 6 dargestellten Referenzpunkte 600-1600-4 können aber besonders zuverlässig in dem ersten und zweiten Bild 230-1, 230-1 aufgefunden werden. Z.B. könnte der Abstand 250 zwischen dem ersten Referenzpunkt 600-1 bestimmt werden (vgl. 6), denn dies ist der höchstgelegene Punkt des Objekts 100 in den Bildern 230-1, 230-2 und damit leicht und zuverlässig aufzufinden. Der Referenzpunkt 600-4 bezeichnet z.B. den optischen Schwerpunkt des Objekts 100 in den Bildern 230-1, 230-2.
  • Zusammenfassend wurden obenstehend Techniken beschrieben, die – z.B. durch Anwenden der Gleichung 3 oder durch Repositionieren des Objekts parallel zur optischen Achse – ein besonders schnelles und genaues Bestimmen der z-Position 150 ermöglichen. Eine schnelle Fokussierung des Objekts 100 wird dadurch möglich.
  • Selbstverständlich können die Merkmale der vorab beschriebenen Ausführungsformen und Aspekte der Erfindung miteinander kombiniert werden. Insbesondere können die Merkmale nicht nur in den beschriebenen Kombinationen, sondern auch in anderen Kombinationen oder für sich genommen verwendet werden, ohne das Gebiet der Erfindung zu verlassen.
  • Zum Beispiel wurden voranstehend insbesondere Techniken beschrieben, bei denen das Objekt aus zwei Beleuchtungsrichtungen beleuchtet wird. Dies kann insbesondere dann vorteilhaft sein, wenn eine Exposition des Objekts gegenüber Licht minimiert werden soll. Es wäre aber im Allgemeinen auch möglich, eine größere Anzahl von Beleuchtungsrichtungen zu verwenden, z.B. wenn es erforderlich ist, die Position des Objekts parallel zur optischen Achse besonders genau zu bestimmen.
  • Weiterhin wurden voranstehend in Bezug auf die Figuren hauptsächlich Szenarien diskutiert, bei denen im Wesentlichen das gesamte Objekt fokussiert wird. Im Allgemeinen kann es aber möglich sein, jeweils nur einen relevanten Bildausschnitt, der nur einen Teil des Objekts abbildet, zu fokussieren bzw. die z-Position des relevanten Teils des Objekts zu bestimmen.
  • Ferner wurden voranstehend hauptsächlich solche Szenarien diskutiert, in denen das Objekt senkrecht zur optischen Achse derart positioniert ist, dass es die optische Achse schneidet. Es wäre aber auch möglich, dass das Objekt gegenüber der optischen Achse versetzt ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102014101219 [0052]

Claims (10)

  1. Verfahren zum Bestimmen einer Position (150) eines Objekts (100) parallel zur optischen Achse (120) einer optischen Vorrichtung (1), wobei das Verfahren umfasst: – Beleuchten des Objekts (100) aus einer ersten Beleuchtungsrichtung (210-1) und Erfassen eines ersten Bilds (230-1) des Objekts (100) während des Beleuchtens, – Beleuchten des Objekts (100) aus einer zweiten Beleuchtungsrichtung (210-2) und Erfassen eines zweiten Bilds (230-2) des Objekts (100) während des Beleuchtens, – Bestimmen eines Abstands (250) zwischen Abbildungsorten (220-1, 220-2) des Objekts (100) in dem ersten Bild (230-1) und in dem zweiten Bild (230-2), – Bestimmen einer Position (150) des Objekts (100) parallel zur optischen Achse (120) basierend auf dem Abstand (250).
  2. Verfahren nach Anspruch 1 wobei die erste Beleuchtungsrichtung (210-1) durch einen ersten Winkel (251-1) gegenüber der optischen Achse (120) charakterisiert ist, wobei die zweite Beleuchtungsrichtung (210-2) durch einen zweiten Winkel (251-2) gegenüber der optischen Achse (120) charakterisiert ist, wobei das Bestimmen der Position (150) des Objekts (100) weiterhin auf dem ersten Winkel (251-1) und auf dem zweiten Winkel (251-2) basiert.
  3. Verfahren nach Anspruch 2, wobei das Bestimmen der Position (150) des Objekts (100) weiterhin umfasst: – Quantifizieren der Position (150) des Objekts (100) in Bezug auf die Fokusebene (162) der optischen Vorrichtung (1) anhand von trigonometrischen Beziehungen zwischen dem ersten Winkel (251-1), dem zweiten Winkel (251-2) und dem Abstand (250).
  4. Verfahren nach Anspruch 1, wobei das Verfahren weiterhin umfasst: – Positionieren des Objekts (100) an verschiedenen Referenzpositionen parallel zur optischen Achse (120), wobei das Verfahren für jede Referenzposition parallel zur optischen Achse (120) das Beleuchten des Objekts (100) aus der ersten Beleuchtungsrichtung (210-1) und das Erfassen des ersten Bilds (230-1) und das Beleuchten des Objekts (100) aus der zweiten Beleuchtungsrichtung (210-2) und das Erfassen des zweiten Bilds (230-2) und das Bestimmen des Abstands (250) umfasst, wobei das Bestimmen der Position (150) des Objekts (100) umfasst: – Minimieren des Abstands (250) für die verschiedenen Referenzpositionen.
  5. Verfahren nach einem der voranstehenden Ansprüche, wobei das Verfahren weiterhin umfasst: – Ansteuern einer Fokuseinheit (311) der optischen Vorrichtung (1) zum Positionieren des Objekts (100) in der Fokusebene (162) der optischen Vorrichtung (1) in Abhängigkeit der bestimmten Position (150).
  6. Verfahren nach einem der voranstehenden Ansprüche wobei das Bestimmen des Abstands (250) umfasst: – Bestimmen eines ersten Referenzpunkts (600-1600-4) des Objekts (100) in dem ersten Bild (230-1), – Bestimmen eines zweiten Referenzpunkts (600-1600-4) in dem zweiten Bild (230-2), wobei der Abstand (250) zwischen dem ersten Referenzpunkt (600-1600-4) und dem zweiten Referenzpunkt (600-1600-4) bestimmt wird.
  7. Verfahren nach Anspruch 6, wobei das Bestimmen des Abstands (250) für mehrere Paare von ersten Referenzpunkten und zweiten Referenzpunkten durchgeführt wird, wobei das Bestimmen der Position (150) des Objekts (100) ortsaufgelöst in einer Ebene senkrecht zur optischen Achse (120) basierend auf den mehreren Paaren von ersten Referenzpunkten und zweiten Referenzpunkten geschieht.
  8. Verfahren nach einem der voranstehenden Ansprüchen, wobei der Abstand (250) mittels Techniken bestimmt wird, die aus folgender Gruppe ausgewählt sind: Landmarkenerkennung; Bestimmung eines optischen Schwerpunkts des Objekts (100) in dem ersten Bild (230-1) und / oder dem zweiten Bild (230-2); eine Benutzereingabe; Aberrationskorrektur.
  9. Optische Vorrichtung (1), die eingerichtet ist, um eine Position (150) eines Objekts (100) parallel zur optischen Achse (120) der optischen Vorrichtung (1) zu bestimmen, wobei die optische Vorrichtung (1) umfasst: – eine Beleuchtungsvorrichtung (111), die eingerichtet ist, um das Objekt (100) aus einer ersten Beleuchtungsrichtung (210-1) und aus einer zweiten Beleuchtungsrichtung (210-2) zu beleuchten, – einen Detektor (112), der eingerichtet ist, um ein erstes Bild (230-1) des Objekts (100) während des Beleuchtens aus der ersten Beleuchtungsrichtung (210-1) zu erfassen und ein zweites Bild (230-2) des Objekts (100) während des Beleuchtens aus der zweiten Beleuchtungsrichtung (210-2) zu erfassen, – eine Recheneinheit (312), die eingerichtet ist, um einen Abstand (250) zwischen Abbildungsorten (220-1, 220-2) des Objekts (100) in dem ersten Bild (230-1) und in dem zweiten Bild (230-2) zu bestimmen und eine Position (150) des Objekts (100) parallel zur optischen Achse (120) basierend auf dem Abstand (250) zu bestimmen.
  10. Optisches Vorrichtung nach Anspruch 9, wobei die optische Vorrichtung (1) eingerichtet ist, um ein Verfahren nach einem der Ansprüche 1–8 durchzuführen.
DE102014109687.8A 2014-07-10 2014-07-10 Positionsbestimmung eines Objekts im Strahlengang einer optischen Vorrichtung Active DE102014109687B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102014109687.8A DE102014109687B4 (de) 2014-07-10 2014-07-10 Positionsbestimmung eines Objekts im Strahlengang einer optischen Vorrichtung
PCT/EP2015/065862 WO2016005571A1 (de) 2014-07-10 2015-07-10 Positionsbestimmung eines objekts im strahlengang einer optischen vorrichtung
US15/324,474 US10670387B2 (en) 2014-07-10 2015-07-10 Determining the position of an object in the beam path of an optical device
CN201580047434.XA CN106662734B (zh) 2014-07-10 2015-07-10 确定物体在光学装置的光束路径中的位置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014109687.8A DE102014109687B4 (de) 2014-07-10 2014-07-10 Positionsbestimmung eines Objekts im Strahlengang einer optischen Vorrichtung

Publications (2)

Publication Number Publication Date
DE102014109687A1 true DE102014109687A1 (de) 2016-01-14
DE102014109687B4 DE102014109687B4 (de) 2020-03-19

Family

ID=53610872

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014109687.8A Active DE102014109687B4 (de) 2014-07-10 2014-07-10 Positionsbestimmung eines Objekts im Strahlengang einer optischen Vorrichtung

Country Status (4)

Country Link
US (1) US10670387B2 (de)
CN (1) CN106662734B (de)
DE (1) DE102014109687B4 (de)
WO (1) WO2016005571A1 (de)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016180960A1 (de) 2015-05-13 2016-11-17 Carl Zeiss Ag Vorrichtung und verfahren zur bildaufnahme mittels beleuchtung unter unterschiedlichen beleuchtungswinkeln
WO2017109053A2 (de) 2015-12-23 2017-06-29 Carl Zeiss Microscopy Gmbh Vorrichtung und verfahren zur bildaufnahme
DE102016116311A1 (de) 2016-05-02 2017-11-02 Carl Zeiss Microscopy Gmbh Winkelselektive Beleuchtung
DE102016108079A1 (de) 2016-05-02 2017-11-02 Carl Zeiss Microscopy Gmbh Artefaktreduktion bei der winkelselektiven beleuchtung
DE102016123154A1 (de) 2016-11-30 2018-05-30 Carl Zeiss Microscopy Gmbh Bestimmung der Anordnung eines Probenobjekts mittels winkelselektiver Beleuchtung
DE102016124612A1 (de) 2016-12-16 2018-06-21 Carl Zeiss Microscopy Gmbh Segmentierte Optik für ein Beleuchtungsmodul zur winkelselektiven Beleuchtung
WO2019007698A1 (de) 2017-07-05 2019-01-10 Carl Zeiss Microscopy Gmbh Digitale bestimmung der fokusposition
WO2019011581A1 (de) 2017-07-12 2019-01-17 Carl Zeiss Microscopy Gmbh Flackern bei winkel-variabler beleuchtung
DE102017121291A1 (de) 2017-09-14 2019-03-14 Carl Zeiss Microscopy Gmbh Bestimmung von Aberrationen mittels Winkel-variabler Beleuchtung
DE102018107356A1 (de) 2018-03-28 2019-10-02 Carl Zeiss Microscopy Gmbh Autofokus mit winkelvariabler Beleuchtung
US10670387B2 (en) 2014-07-10 2020-06-02 Carl Zeiss Microscopy Gmbh Determining the position of an object in the beam path of an optical device
DE102020210592A1 (de) 2020-08-20 2022-02-24 Carl Zeiss Microscopy Gmbh Verfahren und Mikroskop zum Erzeugen einer artefaktreduzierten Übersichtsaufnahme eines Probenträgers

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10176567B2 (en) * 2015-12-21 2019-01-08 Canon Kabushiki Kaisha Physical registration of images acquired by Fourier Ptychography
CN107545593A (zh) * 2017-10-19 2018-01-05 深圳大学 视觉辅助的傅里叶叠层成像位置标定方法及装置
CN109961455B (zh) * 2017-12-22 2022-03-04 杭州萤石软件有限公司 一种目标检测方法及装置
EP3961287A3 (de) * 2020-09-01 2022-06-29 BMG Labtech GmbH Autofokussystem für eine optische mess- oder mikroskopievorrichtung, verfahren zur fokuseinstellung bei einer optischen mess- oder mikroskopievorrichtung sowie optische mess- oder mikroskopievorrichtung
DE102022130975A1 (de) 2022-11-23 2024-05-23 Carl Zeiss Microscopy Gmbh Lokalisierung von verschmutzungen in mikroskopiesystemen

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012218863A1 (de) * 2012-10-16 2014-04-17 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Stereoskopisches Abbildungssystem
DE102014101219A1 (de) 2014-01-31 2015-08-06 Carl Zeiss Ag Beleuchtungseinrichtung zur Fourier-Ptychographie

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3906555A1 (de) * 1989-03-02 1989-07-06 Zeiss Carl Fa Auflicht-objektbeleuchtungseinrichtung
US5808291A (en) * 1995-08-30 1998-09-15 Minolta Co., Ltd. Image information detection system and optical equipment using the system
JP2960013B2 (ja) * 1996-07-29 1999-10-06 慧 清野 移動物体の検出用目盛及びこれを用いた移動物体の検出装置
DE102004012125B3 (de) 2004-03-12 2005-09-01 Nanofilm Technologie Gmbh Ellipsometrisches Messverfahren mit ROI-gestützter Bildkorrektur
DE102009012248A1 (de) * 2008-03-14 2009-09-17 Carl Zeiss Sms Gmbh Autofokusverfahren und Abbildungsvorrichtung zur Durchführung des Verfahrens
CN101320094B (zh) 2008-05-21 2011-05-04 旭丽电子(广州)有限公司 一种光源扫描定位系统及其定位方法
CN101566692B (zh) * 2009-05-26 2011-04-13 吉林大学 利用卫星遥感数据中的云影信息检测云高的方法
US8310531B2 (en) 2009-08-03 2012-11-13 Genetix Corporation Methods and apparatuses for processing fluorescence images
JP5814684B2 (ja) * 2010-09-03 2015-11-17 オリンパス株式会社 位相物体の可視化方法及び可視化装置
US9569664B2 (en) * 2010-10-26 2017-02-14 California Institute Of Technology Methods for rapid distinction between debris and growing cells
CN103154662A (zh) * 2010-10-26 2013-06-12 加州理工学院 扫描投影无透镜显微镜系统
US9605941B2 (en) 2011-01-06 2017-03-28 The Regents Of The University Of California Lens-free tomographic imaging devices and methods
JP5780865B2 (ja) 2011-07-14 2015-09-16 キヤノン株式会社 画像処理装置、撮像システム、画像処理システム
DE102011054106A1 (de) 2011-09-30 2013-04-04 Jörg Piper Vorrichtung zur Erzeugung einer variablen Phasenkontrast-/Dunkelfeld-Beleuchtung
US9679215B2 (en) * 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
WO2013148360A1 (en) 2012-03-30 2013-10-03 Trustees Of Boston University Phase contrast microscopy with oblique back-illumination
US9451147B2 (en) * 2012-06-11 2016-09-20 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image pickup apparatus, method of controlling image pickup apparatus, and non-transitory computer-readable storage medium
JP6046929B2 (ja) * 2012-06-25 2016-12-21 株式会社キーエンス 光学測定装置
JP5988790B2 (ja) * 2012-09-12 2016-09-07 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム
US9864184B2 (en) 2012-10-30 2018-01-09 California Institute Of Technology Embedded pupil function recovery for fourier ptychographic imaging devices
SG11201503293VA (en) 2012-10-30 2015-05-28 California Inst Of Techn Fourier ptychographic imaging systems, devices, and methods
WO2014200589A2 (en) * 2013-03-15 2014-12-18 Leap Motion, Inc. Determining positional information for an object in space
CN103727919B (zh) 2014-01-16 2016-06-08 中国地质调查局西安地质调查中心 一种静止轨道地球同步卫星数字寻星方法
CN103905797A (zh) * 2014-04-18 2014-07-02 山东神戎电子股份有限公司 一种具有测距功能的监控设备及测距方法
US9817224B2 (en) 2014-04-30 2017-11-14 University Of Connecticut Methods and systems for Fourier ptychographic imaging
DE102014109687B4 (de) 2014-07-10 2020-03-19 Carl Zeiss Microscopy Gmbh Positionsbestimmung eines Objekts im Strahlengang einer optischen Vorrichtung
DE102014112242A1 (de) 2014-08-26 2016-03-03 Carl Zeiss Ag Phasenkontrast-Bildgebung
DE102014112666A1 (de) 2014-08-29 2016-03-03 Carl Zeiss Ag Bildaufnahmevorrichtung und Verfahren zur Bildaufnahme
DE102014112648A1 (de) 2014-08-29 2016-03-03 Carl Zeiss Ag Bildaufnahmevorrichtung und Verfahren zur Bildaufnahme
DE102014113433B4 (de) 2014-09-17 2016-07-14 Carl Zeiss Ag Vorrichtung und Verfahren zur dreidimensionalen Abbildung eines Objekts
TWI529661B (zh) * 2014-10-17 2016-04-11 國立臺灣大學 快速建立景深圖的方法及影像處理裝置
CN107203034B (zh) * 2016-03-18 2021-02-26 松下知识产权经营株式会社 图像生成装置、图像生成方法以及记录介质
CN107205113B (zh) * 2016-03-18 2020-10-16 松下知识产权经营株式会社 图像生成装置、图像生成方法及计算机可读存储介质
JP6765057B2 (ja) * 2016-03-18 2020-10-07 パナソニックIpマネジメント株式会社 画像生成装置、画像生成方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012218863A1 (de) * 2012-10-16 2014-04-17 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Stereoskopisches Abbildungssystem
DE102014101219A1 (de) 2014-01-31 2015-08-06 Carl Zeiss Ag Beleuchtungseinrichtung zur Fourier-Ptychographie

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10670387B2 (en) 2014-07-10 2020-06-02 Carl Zeiss Microscopy Gmbh Determining the position of an object in the beam path of an optical device
WO2016180960A1 (de) 2015-05-13 2016-11-17 Carl Zeiss Ag Vorrichtung und verfahren zur bildaufnahme mittels beleuchtung unter unterschiedlichen beleuchtungswinkeln
US10755429B2 (en) 2015-05-13 2020-08-25 Carl Zeiss Microscopy Gmbh Apparatus and method for capturing images using lighting from different lighting angles
WO2017109053A2 (de) 2015-12-23 2017-06-29 Carl Zeiss Microscopy Gmbh Vorrichtung und verfahren zur bildaufnahme
DE102015122712A1 (de) 2015-12-23 2017-06-29 Carl Zeiss Microscopy Gmbh Vorrichtung und Verfahren zur Bildaufnahme
US10948705B2 (en) 2015-12-23 2021-03-16 Carl Zeiss Microscopy Gmbh Device and method for capturing images
DE102015122712B4 (de) 2015-12-23 2023-05-04 Carl Zeiss Microscopy Gmbh Vorrichtung und Verfahren zur Bildaufnahme
DE102016116311A1 (de) 2016-05-02 2017-11-02 Carl Zeiss Microscopy Gmbh Winkelselektive Beleuchtung
WO2017191009A3 (de) * 2016-05-02 2017-12-28 Carl Zeiss Microscopy Gmbh Winkelselektive beleuchtung
WO2017191011A2 (de) 2016-05-02 2017-11-09 Carl Zeiss Microscopy Gmbh Artefaktreduktion bei der winkelselektiven beleuchtung
US11092794B2 (en) 2016-05-02 2021-08-17 Carl Zeiss Microscopy Gmbh Angularly-selective illumination
WO2017191009A2 (de) 2016-05-02 2017-11-09 Carl Zeiss Microscopy Gmbh Winkelselektive beleuchtung
US10838184B2 (en) * 2016-05-02 2020-11-17 Carl Zeiss Microscopy Gmbh Artefact reduction for angularly-selective illumination
DE102016108079A1 (de) 2016-05-02 2017-11-02 Carl Zeiss Microscopy Gmbh Artefaktreduktion bei der winkelselektiven beleuchtung
US20190155012A1 (en) * 2016-05-02 2019-05-23 Carl Zeiss Microscopy Gmbh Artefact reduction for angularly-selective illumination
DE102016123154A1 (de) 2016-11-30 2018-05-30 Carl Zeiss Microscopy Gmbh Bestimmung der Anordnung eines Probenobjekts mittels winkelselektiver Beleuchtung
WO2018099652A1 (de) 2016-11-30 2018-06-07 Carl Zeiss Microscopy Gmbh Bestimmung der anordnung eines probenobjekts mittels winkelselektiver beleuchtung
CN110121629A (zh) * 2016-11-30 2019-08-13 卡尔蔡司显微镜有限责任公司 借助角度选择的照射确定样本对象的布置
CN110121629B (zh) * 2016-11-30 2022-01-11 卡尔蔡司显微镜有限责任公司 借助角度选择的照射确定样本对象的布置
WO2018109226A2 (de) 2016-12-16 2018-06-21 Carl Zeiss Microscopy Gmbh Segmentierte optik für ein beleuchtungsmodul zur winkelaufgelösten beleuchtung
US11614611B2 (en) 2016-12-16 2023-03-28 Carl Zeiss Microscopy Gmbh Segmented optical system for a lighting module for angle-resolved illumination
DE102016124612A1 (de) 2016-12-16 2018-06-21 Carl Zeiss Microscopy Gmbh Segmentierte Optik für ein Beleuchtungsmodul zur winkelselektiven Beleuchtung
WO2019007698A1 (de) 2017-07-05 2019-01-10 Carl Zeiss Microscopy Gmbh Digitale bestimmung der fokusposition
DE102017115021A1 (de) 2017-07-05 2019-01-10 Carl Zeiss Microscopy Gmbh Digitale Bestimmung der Fokusposition
US11460683B2 (en) 2017-07-05 2022-10-04 Carl Zeiss Microscopy Gmbh Digital determination of focus position
WO2019011581A1 (de) 2017-07-12 2019-01-17 Carl Zeiss Microscopy Gmbh Flackern bei winkel-variabler beleuchtung
DE102017115658A1 (de) 2017-07-12 2019-01-17 Carl Zeiss Microscopy Gmbh Flackern bei Winkel-variabler Beleuchtung
DE102017121291A1 (de) 2017-09-14 2019-03-14 Carl Zeiss Microscopy Gmbh Bestimmung von Aberrationen mittels Winkel-variabler Beleuchtung
WO2019053136A1 (de) 2017-09-14 2019-03-21 Carl Zeiss Microscopy Gmbh Bestimmung von aberrationen mittels winkel-variabler beleuchtung
US10955653B2 (en) 2018-03-28 2021-03-23 Cad Zeiss Microscopy GmbH Autofocus with an angle-variable illumination
EP3557306A3 (de) * 2018-03-28 2020-01-15 Carl Zeiss Microscopy GmbH Autofokus mit winkelvariabler beleuchtung
DE102018107356A1 (de) 2018-03-28 2019-10-02 Carl Zeiss Microscopy Gmbh Autofokus mit winkelvariabler Beleuchtung
DE102020210592A1 (de) 2020-08-20 2022-02-24 Carl Zeiss Microscopy Gmbh Verfahren und Mikroskop zum Erzeugen einer artefaktreduzierten Übersichtsaufnahme eines Probenträgers

Also Published As

Publication number Publication date
DE102014109687B4 (de) 2020-03-19
WO2016005571A1 (de) 2016-01-14
CN106662734A (zh) 2017-05-10
CN106662734B (zh) 2021-02-02
US20170167856A1 (en) 2017-06-15
US10670387B2 (en) 2020-06-02

Similar Documents

Publication Publication Date Title
DE102014109687B4 (de) Positionsbestimmung eines Objekts im Strahlengang einer optischen Vorrichtung
DE102014206309B4 (de) System und Verfahren zum Erhalten von Bildern mit Versatz zur Verwendung für verbesserte Kantenauflösung
DE102010035104A1 (de) Vorrichtung und Verfahren zur automatischen Fokussierung für die Mikroskopie schwach leuchtender Substrate
WO2016030390A2 (de) Phasenkontrast-bildgebung
DE102013106895B4 (de) Lichtmikroskopisches Verfahren zur Lokalisierung von Punktobjekten
DE102014216227B4 (de) Verfahren und Vorrichtung zum Bestimmen eines Abstandes zweier voneinander entlang einer ersten Richtung beabstandeter optischer Grenzflächen
DE102019008989B3 (de) Verfahren zur Störungskorrektur und Laserscanningmikroskop mit Störungskorrektur
DE102013021542A1 (de) Mikroskop und Verfahren zur SPIM Mikroskopie
DE102018207821A1 (de) Verfahren zur Bereitstellung eines Übersichtsbildes
EP3452858B1 (de) Artefaktreduktion bei der winkelselektiven beleuchtung
DE102010036709A1 (de) Einrichtung und Verfahren zur mikroskopischen Bildaufnahme einer Probenstruktur
DE102013017124A1 (de) Scanmikroskop und Verfahren zum Betreiben eines Scanmikroskops
DE102012223128A1 (de) Autofokusverfahren für Mikroskop und Mikroskop mit Autofokuseinrichtung
EP3195250A1 (de) Verfahren zum erzeugen eines ergebnisbilds und optische vorrichtung
DE102018107356A1 (de) Autofokus mit winkelvariabler Beleuchtung
DE102015116452A1 (de) Mikroskop
EP3345032B1 (de) Verfahren zur bestimmung einer höhenlage eines objekts
EP3548836B1 (de) Bestimmung der anordnung eines probenobjekts mittels winkelselektiver beleuchtung
DE102010017630B4 (de) Verfahren und Einrichtung zur lichtmikroskopischen Abbildung einer Probenstruktur
WO2014147257A1 (de) Lichtmikroskopisches verfahren zur lokalisierung von punktobjekten
DE102018122816B4 (de) Verfahren und Vorrichtung zum Bestimmen einer Eigenschaft eines Objekts
DE102011001091C5 (de) Verfahren und Einrichtung zur mikroskopischen Bildaufnahme einer Probenstruktur
DE102017223435B9 (de) Verfahren zum Betrieb eines Mikroskops
DE102016108384B3 (de) Vorrichtung und Verfahren zur lichtblattartigen Beleuchtung einer Probe
EP2767797A1 (de) Niedrigkohärenzinterferometer und Verfahren zur ortsaufgelösten optischen Vermessung des Oberflächenprofils eines Objekts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: CARL ZEISS MICROSCOPY GMBH, DE

Free format text: FORMER OWNERS: CARL ZEISS AG, 73447 OBERKOCHEN, DE; CARL ZEISS MICROSCOPY GMBH, 07745 JENA, DE

R082 Change of representative

Representative=s name: KRAUS & WEISERT PATENTANWAELTE PARTGMBB, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final