WO2016005571A1 - Positionsbestimmung eines objekts im strahlengang einer optischen vorrichtung - Google Patents

Positionsbestimmung eines objekts im strahlengang einer optischen vorrichtung Download PDF

Info

Publication number
WO2016005571A1
WO2016005571A1 PCT/EP2015/065862 EP2015065862W WO2016005571A1 WO 2016005571 A1 WO2016005571 A1 WO 2016005571A1 EP 2015065862 W EP2015065862 W EP 2015065862W WO 2016005571 A1 WO2016005571 A1 WO 2016005571A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
determining
optical axis
distance
illumination
Prior art date
Application number
PCT/EP2015/065862
Other languages
English (en)
French (fr)
Inventor
Lars STOPPE
Christoph HUSEMANN
Markus Sticker
Original Assignee
Carl Zeiss Ag
Carl Zeiss Microscopy Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Ag, Carl Zeiss Microscopy Gmbh filed Critical Carl Zeiss Ag
Priority to CN201580047434.XA priority Critical patent/CN106662734B/zh
Priority to US15/324,474 priority patent/US10670387B2/en
Publication of WO2016005571A1 publication Critical patent/WO2016005571A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/241Devices for focusing
    • G02B21/245Devices for focusing using auxiliary sources, detectors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/30Systems for automatic generation of focusing signals using parallactic triangle with a base line
    • G02B7/32Systems for automatic generation of focusing signals using parallactic triangle with a base line using active means, e.g. light emitter
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/645Specially adapted constructive features of fluorimeters
    • G01N21/6456Spatial resolved fluorescence measurements; Imaging
    • G01N21/6458Fluorescence microscopy

Definitions

  • Various aspects relate to a method for determining a position of an object parallel to the optical axis of an optical device and a corresponding device.
  • Determining the position of an object to be imaged parallel to the optical axis of an optical device may be desirable for a variety of reasons.
  • z-position it may be possible to position the object as well as possible within the focal plane of the optical device so as to be able to produce a particularly sharp image of the object.
  • the present application relates to a method for determining a position of an object parallel to the optical axis of an optical device.
  • the method comprises illuminating the object from a first illumination direction and capturing a first image of the object during illumination.
  • the method further comprises illuminating the object from a second illumination direction and capturing a second image of the object during illumination.
  • the method further comprises determining a distance between image locations of the object in the first image and the second image.
  • the method further comprises determining a position of the object parallel to the optical axis based on the distance.
  • the first illumination direction and / or the second illumination direction may include an angle with that axis of the optical device along which an idealized light beam undergoes little or no deflection (optical axis).
  • the imaging location of the object may be shifted in a corresponding image, as long as the object is not in the focal plane of the optical device.
  • Determining the position may in this case mean: quantitative determination of the position, for example with respect to the focal plane or with respect to another suitable reference system of the optical device; and / or qualitatively determining the position, for example with respect to the criterion whether or not a certain predetermined position parallel to the optical axis, such as the focal plane, has been reached or not.
  • the first illumination direction is characterized by a first angle with respect to the optical axis
  • the second illumination direction is characterized by a second angle with respect to the optical axis.
  • Determining the position of the object may continue at the first angle and at the second angle based.
  • determining the position of the object may further include: quantifying the position of the object with respect to the focal plane of the optical device based on trigonometric relationships between the angles and the distance.
  • the method further comprises: positioning the object at different reference positions parallel to the optical axis.
  • the method may include illuminating the object from the first illumination direction and capturing the first image and illuminating the object from the second illumination direction and capturing the second image and determining the distance for each of the reference positions parallel to the optical axis. Determining the position of the object may then include: minimizing the distance for the various reference positions. In such a case, it may in particular be possible to qualitatively determine the position of the object parallel to the optical axis.
  • the corresponding reference position parallel to the optical axis is in or near the focal plane.
  • two, three or more reference positions can be used.
  • the object has a certain periodicity or is a periodic structure, such a particularly accurate determination of the position may be possible.
  • determining the distance may include determining a first reference point of the object in the first image and determining a second reference point in the second image. The distance can be determined between the first reference point and the second reference point. The first and second reference points may correspond to a particular part of the object. By suitable choice of the reference point, the distance can be determined very accurately.
  • a suitable reference point is not particularly limited. In particular, it may be desirable to choose a reference point that can be found and determined in both the first image and the second image with comparatively high reliability and accuracy. Then, an accuracy of the particular position can be comparatively high. Reference points would be e.g. in question: distinctive features of the object; Landmarks; machine-readable characters; points set by a user, etc.
  • the choice of the reference point can influence for which part of the object the position is determined. This may be particularly important in scenarios in which the object has a significant height profile. Namely, a scenario may occur in which the focusing of one part of the object is accompanied by the defocusing of another part of the object. In such a case, it may be desirable to create a so-called focus map, i. e.g. perpendicular to the optical axis to determine spatially resolved information about the position of the object.
  • determining the distance may be performed for a plurality of pairs of first reference points and second reference points. Determining the position of the object may be spatially resolved in a plane perpendicular to the optical axis and based on the multiple pairs of first reference points and second reference points. For example, it may be possible to target individual parts of the object to be positioned in a focal plane of the optical device. This may be desirable in particular for samples extended perpendicular to the optical axis.
  • an accuracy of determining the position of the object parallel to or along the optical axis correlates with an accuracy of determining the distance between the imaging locations of the object in the first image and the second image.
  • the distance may be determined by techniques selected from the following group: landmark recognition; Determining an optical centroid of the object in the first image and / or the second image; a user input; Aberration correction.
  • the present application relates to an optical device.
  • the optical device is configured to determine a position of an object parallel to or along the optical axis of the optical device.
  • the optical device comprises a lighting device.
  • the illumination device is set up to illuminate the object from a first illumination direction and from a second illumination direction.
  • the optical device further comprises a detector configured to capture a first image of the object during illumination from the first direction of illumination.
  • the detector is further configured to capture a second image of the object during illumination from the second direction of illumination.
  • the optical device further comprises a computing unit configured to determine a distance between image locations of the object in the first image and in the second image.
  • the arithmetic unit is further configured to determine a position of the object parallel to the optical axis based on the distance.
  • the optical device may be configured to perform the method of determining a position of an object parallel to the optical axis according to another aspect of the present application.
  • effects comparable to the effects that can be achieved for the method of determining a position of an object parallel to the optical axis according to another aspect of the present application can be achieved.
  • Fig. 1 illustrates a position of an object parallel to the optical axis of an optical device.
  • FIG. 2 illustrates image locations of the object in a first image and in a second image taken for different illumination directions for the scenario of FIG. 1.
  • Fig. 3 shows schematically the optical device.
  • FIG. 4 is a flowchart of a method for determining the position of the object parallel to the optical axis.
  • Fig. 5 shows the iterative positioning of the object at different reference positions parallel to the optical axis to qualitatively determine the position.
  • FIG. 6 illustrates an image of an object in first and second images, with the object extended perpendicular to the optical axis, with reference points for determining the distance.
  • FIG. 7 illustrates experimental results of a method according to various embodiments.
  • a position of an object parallel to the optical axis of an optical device can be determined.
  • the z-component of the position can thus be determined; the optical axis defines the z-axis and is e.g. parallel to this.
  • a focus unit of the optical device are driven and thus the object in the focal plane of the optical device in dependence of the determined z-position are positioned (focusing of the object). Then you can capture images of the object that make the subject very sharp.
  • Such techniques can find application in a variety of fields, e.g. in microscopy or in the fluorescence measurement or in parallel to the phase-contrast imaging.
  • the z-position before and / or during the fluorescence measurement by means of the techniques described below.
  • This can ensure that the fluorescent object is located in the focal plane of the optical device during the measurement; such an accuracy in the fluorescence measurement can be increased.
  • the techniques described in detail below are based on the fact that a first image and a second image under illumination of the object from different first and second illumination directions is evaluated.
  • the illumination can be carried out, for example, in particular with a wavelength which lies outside the fluorescence-active region of the fluorescent sample. In principle, therefore, the z position can be determined simultaneously with the fluorescence measurement.
  • the z-position in Generally determined from only two lighting operations; this can also reduce a light-toxic effect on the fluorescent object.
  • the wavelength of the light to determine the z-position for example, outside the excitation range of the dyes can be selected. In this way, bleaching of the dyes can be reduced or avoided.
  • One possible wavelength of the light used to determine the z-position would be, for example, in the infrared range.
  • a scenario would be e.g. the determination of a phase contrast image using, for example, Fourier Ptychography techniques.
  • an optical device e.g. a microscope, shown schematically. An optical path of the light extends from an illumination device 11 to a detector 12.
  • the optical axis 120 and the focal plane 160 are shown. From Fig. 1 it can be seen that the object 100 is positioned parallel to the optical axis 120 outside the focal plane 160.
  • it may be particularly easy and fast to drive the focus unit of the optical device 1 to perform focusing.
  • it may be dispensable, e.g. to perform a conversion of the z-position 150 with respect to the focal plane 160. It would also be possible to determine the position of the object 100 in another suitable reference coordinate system of the optical device.
  • FIG. 2 also shows a first illumination direction 210-1 and a second illumination direction 210-2.
  • a first illumination direction 210-1 For the first illumination direction 210-1, a first image 230-1 is detected.
  • a second image 230-2 is acquired.
  • the first illumination direction 210-1 includes a first angle 251 -1 with the optical axis 120. Therefore, an imaging location 220-1 of the object 100 in the first image 230-1 according to FIG. 2 appears offset to the left relative to the optical axis 120.
  • the first angle 251 -1 is designated as ⁇ .
  • first and second illumination directions 210-1, 210-2 are arranged symmetrically with respect to the optical axis 120.
  • one of the two illumination directions 210-1, 210-2 to be oriented parallel to the optical axis 120.
  • the object 100 has an offset with respect to the optical axis 120, ie, is displaced within an xy plane with respect to the optical axis 120.
  • a distance 250 between the imaging locations 220-1, 220-2 of the object 100 is further shown in the first and second images 230-1, 230-2 (denoted ⁇ in Fig. 2).
  • the z-position 150 can already be qualitatively determined to be unequal to zero. For example, by iteratively repositioning the object 100 at different reference positions (not shown in FIG. 2) parallel to the optical axis 120, it would be possible to qualitatively determine the z-position 150 equal to or near zero.
  • the object could be iteratively repositioned parallel to the optical axis 120 until the distance 250 is minimized.
  • the determination of the z-position 150 is still based on the first angle 251 -1 and the second angle 251 -2. Then the z-position 150 can be determined quantitatively. For this purpose, as explained below, trigonometric relationships between the first angle 251 -1, the second angle 251 -2 and the distance 250 can be taken into account. For the scenario of FIG. 2:
  • the z-position 150 can be determined solely by illuminating and simultaneously detecting the first and second image 230-1, 230-2 twice.
  • a light load of the object 100 can be minimized, e.g. compared to the above scenario with iterative positioning of the object 100 at different reference positions parallel to the optical axis 120.
  • the accuracy of determining the z-position 150 is typically directly related to the first angle 251 -1, the second angle 251 -2, and the distance 250. Therefore, the accuracy in determining the z-position 150 may be limited by at least one pixel size in the first image 230-1 and the second image 230-2.
  • An error at a distance of 250 - hereinafter referred to as Ax '- translates to an error of z-position 150 as follows:
  • the object 100 may be desirable to determine the distance 250 between certain reference points in the first image 230-1 and the second image 230-2.
  • the reference points can mark a specific part of the object 100, eg a particularly prominent part or a part which is particularly important for the image.
  • Such techniques may include, for example: landmark recognition; Determining an optical centroid of the object 100 in the first image 230-1 and / or in the second image 230-2; a user input; an aberration correction.
  • landmark recognition Determining an optical centroid of the object 100 in the first image 230-1 and / or in the second image 230-2
  • a user input an aberration correction.
  • the user could select a particular reference point of the object 100 in the first image 230-1 and select the corresponding reference point in the second image 230-2.
  • landmark detection it may be possible, for example, to perform such a selection of reference points at least partially automated. It would also be possible to use the optical center of gravity as the reference point for determining the distance 250.
  • the aberration correction can be used, for example, to take into account known aberrations due to aberrations in the optical device 1. Further limiting the accuracy in determining the z-position 150 may result from the coherent depth of field of the detector 12 of the optical device 1. In particular, it should be ensured that the object 100 is still being imaged in the first image 230-1 and the second image 230-2, even with a significant shift relative to the focal plane 160. However, it may be unnecessary to achieve a sharp image of the object 100; In particular, techniques described above, such as the determination of the optical centroid of the object 100, may also be applied in a case where the object 100 is imaged very blurred in the images 230-1, 230-2. While FIGS.
  • the z-position can also be determined for such scenarios by means of the techniques described above in which the object 100 has a certain offset parallel to the x-direction and / or has parallel to the y-direction relative to the optical axis 120.
  • the above-described techniques for determining the position 150 of the object parallel to the optical axis 120 can thus enable the determination of the z-component of the position of the object 100 in three-dimensional space spanned by the x, y, z-axes.
  • FIG. 2 also shows a situation in which two illumination directions 210-1, 210-2 are used to determine the z-position.
  • three or four or ten or more illumination directions 210-1, 210-2 may be used.
  • the z-position 150 of the object 100 are determined several times and from this a suitable mean value is formed.
  • Equation 3 could be suitably modified or multiple z-positions obtained from the different illumination directions 210-1, 210-2 could be consolidated after multiple application of Equation 3.
  • a plurality of illumination directions 210-1, 210-2 or redundant illumination directions 210-1, 210- it may be possible to achieve a higher accuracy in determining the z-position 150; it is e.g. In particular, it is possible to achieve an accuracy which is higher than a resolution of corresponding images from which the imaging locations 220-1, 220-2 are determined.
  • the optical device 1 is shown schematically.
  • the optical device 1 has the lighting device 1 1 1 and the detector 1 12.
  • a sample holder with focus unit 31 1 is provided.
  • the focus unit may be configured to position the object 100 parallel to the optical axis 120, eg, to approach or focus on different reference positions.
  • the optical device 1 also has a computing unit 312.
  • the arithmetic unit 312 is configured to perform various steps associated with determining the z-position 150, as discussed above.
  • the arithmetic unit 312 may be coupled to a memory (not shown in FIG. 3).
  • the memory eg a non-volatile or volatile memory, corresponding work instructions and instructions for carrying out the above-mentioned techniques can be stored by the computing unit 312.
  • the arithmetic unit 312 may receive instructions from the memory to determine the z-position 150 from equation 3. find reference points within the first and second image 230-1, 230-2 and then determine the distance 250.
  • the optical device 1 still further tasks - in addition to the determination of the z-position 150 - are performed, such as fluorescence measurements.
  • the determination of the z-position 150 based on the first and second images 230-1, 230-2 can be performed by auxiliary optics having, for example, a small aperture with great depth of field - which can be used to ensure that as well for large z positions 150 the distance 250 can still be reliably determined.
  • auxiliary optics having, for example, a small aperture with great depth of field - which can be used to ensure that as well for large z positions 150 the distance 250 can still be reliably determined.
  • a further optic which, for example, has a large diaphragm in order to work in a particularly light-intensive manner.
  • parallel detection of the first and second images 230-1, 230-2 and performing the fluorescence measurement may be possible.
  • a wide variety of lighting devices 1 1 1 can be used to perform the illumination of the object 100 with the different illumination directions 210-1, 210-2.
  • a scan mirror for example in a field stop plane of the illumination device 11.
  • An adaptive component could also be used in an aperture stop or illumination pupil of the illumination device;
  • the lighting device 1 1 1 according to German Patent Application 10 2014 101 219.4 could be used.
  • An adaptive component could be, for example, a spatial light modulator (SLM) or a digital micromirror device (DMD) or a movable sigma diaphragm.
  • SLM spatial light modulator
  • DMD digital micromirror device
  • the lighting device 11 1 could comprise a light-emitting diode array.
  • the light-emitting diodes (LEDs) of the LED array can be arranged on a Cartesian grid. Then, for example, by activating a specific light-emitting diode of the light-emitting diode array, which has a specific distance from the optical axis 120, a specific illumination direction 210-1, 210-2 can be implemented. 4, a method for determining the z-position 150 of the object 100 according to various embodiments is shown. The process starts in step S1. First, in step S2, the object 100 is illuminated from the first illumination direction 210-1 and the first image 230-1 is acquired.
  • step S3 the object 100 is illuminated from the second illumination direction 210-2 and the second image 230-2 is detected. Then, in step S4, the distance 250 between the two imaging locations of the object in the first and second images 230-1, 230-2 is determined. Subsequently, in step S5, the z position 150 is determined. In step S5, the z position 150 can be determined qualitatively or quantitatively, for example. For the quantitative determination of the z-position 150, for example, the equation 3 be used. It would also be possible for the object to be illuminated from further illumination directions 210-1, 210-2, for example from a third illumination direction and a fourth illumination direction, in addition to steps S2-S4. This redundant information can be taken into account in step S5.
  • step T1 the distance 250 of the object 100 between the first image 230-1 and the second image 230-2 for a current reference position of the object 100 parallel to the optical axis 120 is determined.
  • step T2 it is checked whether the distance 250 is minimized. For example, in step T2, a threshold comparison may be made with a predetermined threshold. It would also be possible in step T2 to check if the distance 250 was reduced from previous determinations of the distance (in previous iterations of step T1).
  • step T3 is performed.
  • the object 100 is positioned at a next reference position parallel to the optical axis 120.
  • the reference positions can be determined by an iterative method; the reference positions could also be fixed.
  • the process then proceeds to step S2 (see Fig. 4).
  • step T4 the z-position 150 is determined to be zero relative to the focal plane 160.
  • a map of object 100 is schematically shown in the first image 230-1 (shown by a solid line in Fig. 6) and in the second image 230-2 (by a dashed line in Fig. 6).
  • the object 100 has a significant extension in the xy plane, ie perpendicular to the optical axis 120.
  • Three possible reference points 600-1, 600-2, 600-3, 600-4 for the imaging of the object 100 in the first image 230-1 are shown.
  • the choice of reference points 600-1 - 600-4 is not particularly limited.
  • the reference points 600-1 - 600-4 shown in FIG. 6 can be found particularly reliably in the first and second image 230 - 1, 230 - 1.
  • the distance 250 between the first reference point 600-1 could be determined (see Fig. 6), because this is the highest point of the object 100 in the images 230-1, 230-2, and thus light and reliable to find.
  • the reference point 600-4 designates, for example, the optical center of gravity of the object 100 in the images 230-1, 230-2.
  • FIG. 7 illustrates experimental results for a sequence of four images acquired during illumination of a sample from four different illumination directions 210-1, 210-2, 210-3, 210-4 according to techniques described herein.
  • the different illumination directions 210-1, 210-2, 210-3, 210-4 all had different angles with respect to the optical axis 120.
  • the experimental setup included a microscope 1 with a lighting device 11, which had an LED array with twenty-four LEDs. In the present case, only four images are shown, in which the sample was illuminated in each case with a single one of the twenty-four LEDs. Apart from the illumination direction 210-1, 210-2, 210-3, 210-4, no other experimental parameters were varied. The images were recorded in transmission geometry.
  • the sample included an immersion fluid containing immobile cells, i. the cells did not change their position as a function of time.
  • the cells collected in two different levels of immersion fluid, i. at different positions parallel to the optical axis.
  • a particular cell positioned in the upper level of the immersion liquid is indicated by a solid line (the cell is at the intersection of the lines); moreover, a particular cell positioned in the lower level of the immersion fluid is indicated by a dotted line (the cell is at the intersection of the lines).

Abstract

Zum Bestimmen einer Position eines Objekts (100) parallel zur optischen Achse (120) einer optischen Vorrichtung (1) wird das Objekt (100) aus einer ersten Beleuchtungsrichtung (210-1) und aus einer zweiten Beleuchtungsrichtung (210-2) beleuchtet und jeweils ein Bild (230-1, 230-2) erfasst. Basierend auf einem Abstand (250) zwischen Abbildungsorten des Objekt (220-1, 220-2) in den Bildern (230-1, 230-2) wird die Position des Objekts (100) bestimmt.

Description

Beschreibung
Positionsbestimmung eines Objekts im Strahlengang einer optischen Vorrichtung
TECHNISCHES GEBIET
Verschiedene Aspekte betreffen ein Verfahren zum Bestimmen einer Position eines Objekts parallel zur optischen Achse einer optischen Vorrichtung und eine entsprechende Vorrichtung.
HINTERGRUND
Das Bestimmen der Position eines abzubildenden Objekts parallel zur optischen Achse einer optischen Vorrichtung (z-Position) kann aus verschiedenen Gründen erstrebenswert sein. So kann es mittels der bekannten z-Position möglich sein, das Objekt möglichst gut innerhalb der Fokusebene der optischen Vorrichtung zu positionieren, um derart ein besonders scharfes Abbild des Objekts erzeugen zu können. Bei senkrecht zur optischen Achse ausgedehnten Objekten kann es erstrebenswert sein, die z-Position für verschiedene Punkte des Objekts senkrecht zur optischen Achse zu bestimmen, um den relevanten Bildausschnitts fokussieren zu können. Es kann auch erstrebenswert sein, mittels optischer Techniken ein Höhenprofil des Objekts zu erstellen.
Bestehende Techniken erlauben ein Bestimmen der z-Position z.B. über eine Positionierung des Objekts an verschiedenen Referenzpositionen. Anhand einer Schärfe des Objekts and den verschiedenen Referenzpositionen kann dann beurteilt werden, ob sich das Objekt in der Fokusebene befindet oder nicht. Jedoch kann es häufig nur mit einer eingeschränkten Genauigkeit möglich sein, eine Schärfe des Objekts zu bestimmen. Deshalb kann eine solche vorbekannte Technik vergleichsweise ungenau sein. Ferner sind interferometrische Techniken zum Bestimmen der z-Position bekannt. Solche Techniken erlauben eine vergleichsweise hohe Genauigkeit beim Bestimmen der z-Position; die entsprechenden Vorrichtungen können aber vergleichsweise kompliziert und teuer sein.
ZUSAMMENFASSUNG Deshalb besteht ein Bedarf für verbesserte Techniken zum Bestimmen einer Position eines Objekts parallel zur optischen Achse einer optischen Vorrichtung. Insbesondere besteht ein Bedarf für solche Techniken, welche vergleichsweise einfach in optische Vorrichtungen zu implementieren sind, d.h. keine oder nur wenige bauliche Veränderungen benötigen, und die eine vergleichsweise hohe Genauigkeit des Bestimmens der Position ermöglichen.
Diese Aufgabe wird von den unabhängigen Ansprüchen gelöst. Die abhängigen Ansprüche definieren Ausführungsformen.
Gemäß einem Aspekt betrifft die vorliegende Anmeldung ein Verfahren zum Bestimmen einer Position eines Objekts parallel zur optischen Achse einer optischen Vorrichtung. Das Verfahren umfasst das Beleuchten des Objekts aus einer ersten Beleuchtungsrichtung und das Erfassen eines ersten Bilds des Objekts während des Beleuchtens. Das Verfahren umfasst weiterhin das Beleuchten des Objekts aus einer zweiten Beleuchtungsrichtung und das Erfassen eines zweiten Bilds des Objekts während des Beleuchtens. Das Verfahren umfasst weiterhin das Bestimmen eines Abstands zwischen Abbildungsorten des Objekts in dem ersten Bild und dem zweiten Bild. Das Verfahren umfasst weiterhin das Bestimmen einer Position des Objekts parallel zur optischen Achse basierend auf dem Abstand.
In anderen Worten kann es also möglich sein, das Objekt sequentiell aus der ersten und zweiten Beleuchtungsrichtung zu beleuchten und jeweils ein Bild des Objekts zu erfassen. Insbesondere können die erste Beleuchtungsrichtung und/oder die zweite Beleuchtungsrichtung einen Winkel mit derjenigen Achse der optischen Vorrichtung einschließen, entlang derer ein idealisierter Lichtstrahl keine oder nur eine geringe Ablenkung erfährt (optische Achse). In einem solchen Fall kann der Abbildungsort des Objekts in einem entsprechenden Bild verschoben sein, sofern sich das Objekt nicht in der Fokusebene der optischen Vorrichtung befindet. Durch das Bestimmen des Abstands in Bezug auf die erste und zweite Beleuchtungsrichtung kann es möglich sein, Rückschlüsse auf die Position zu ziehen. In einem einfachen Modell kann dieser Effekt als durch eine veränderte Parallaxe in Bezug auf die Beleuchtungsrichtung interpretiert werden.
Bestimmen der Position kann hierbei bedeuten: quantitatives Bestimmen der Position, z.B. in Bezug auf die Fokusebene oder in Bezug auf ein sonstiges geeignetes Referenzsystem der optischen Vorrichtung; und/oder qualitatives Bestimmen der Position, z.B. in Bezug auf das Kriterium, ob eine bestimmte vorgegebene Position parallel zur optischen Achse, wie z.B. die Fokusebene, erreicht ist oder nicht. Zum Beispiel kann es möglich sein, dass die erste Beleuchtungsrichtung durch einen ersten Winkel gegenüber der optischen Achse charakterisiert ist und die zweite Beleuchtungsrichtung durch einen zweiten Winkel gegenüber der optischen Achse charakterisiert ist. Das Bestimmen der Position des Objekts kann weiterhin auf dem ersten Winkel und auf dem zweiten Winkel basieren. In einem solchen Fall kann es insbesondere möglich sein, dass das Bestimmen der Position des Objekts weiterhin umfasst: Quantifizieren der Position des Objekts in Bezug auf die Fokusebene der optischen Vorrichtung anhand von trigonometrischen Beziehungen zwischen den Winkeln und dem Abstand.
Mit einem solchen Ansatz kann es möglich sein, z.B. allein basierend auf dem ersten und zweiten Bild eine vergleichsweise genaue Bestimmung der Position des Objekts parallel zur optischen Achse durchzuführen. Insbesondere kann es entbehrlich sein, z.B. eine Serie von verschiedenen Bildern des Objekts für verschiedene Referenzpositionen des Objekts parallel zur optischen Achse durchzuführen. In anderen Worten kann es möglich sein, die Position des Objekts nur anhand der Bilder für verschiedene Beleuchtungsrichtungen zu bestimmen; es kann entbehrlich sein, das Objekt mechanisch parallel zur optischen Achse zu verschieben. Dies kann ein besonders schnelles und genaues Bestimmen der Position ermöglichen. Dies kann eine besonders einfache Implementierung des entsprechenden Messvorgangs ermöglichen. Z.B. kann es möglich sein, im Vergleich zu herkömmlichen optischen Vorrichtungen, wie z.B. Mikroskopievorrichtungen, lediglich eine Beleuchtungsvorrichtung der optischen Vorrichtung zu verändern; z.B. kann es möglich sein, dass eine Detektionsvorrichtung der optischen Vorrichtung unverändert bleibt. Es ist aber auch möglich, dass das Verfahren weiterhin umfasst: Positionieren des Objekts an verschiedenen Referenzpositionen parallel zur optischen Achse. Das Verfahren kann z.B. für jede der Referenzpositionen parallel zur optischen Achse das Beleuchten des Objekts aus der ersten Beleuchtungsrichtung und das Erfassen des ersten Bilds und das Beleuchten des Objekts aus der zweiten Beleuchtungsrichtung und das Erfassen des zweiten Bilds und das Bestimmen des Abstands umfassen. Das Bestimmen der Position des Objekts kann dann umfassen: Minimieren des Abstands für die verschiedenen Referenzpositionen. In einem solchen Fall kann es insbesondere möglich sein, die Position des Objekts parallel zur optischen Achse qualitativ zu bestimmen. Zum Beispiel kann für den Fall, dass der Abstand minimal wird, angenommen werden, dass die entsprechende Referenzposition parallel zur optischen Achse in oder nahe bei der Fokusebene liegt. Z.B. können zwei, drei oder mehr Referenzpositionen verwendet werden. Grundsätzlich ist es auch möglich, die Beleuchtungsrichtungen in Abhängigkeit der Referenzposition anzupassen. Es kann auch vorgesehen sein, für die verschiedenen Referenzpositionen mehr als zwei Bilder aus mehr als zwei Beleuchtungsrichtungen zu erfassen. Derart können mehrere Abbildungsorte bestimmt werden bzw. redundante Informationen erhalten werden, wodurch eine besonders genaue Positionsbestimmung ermöglicht wird. Insbesondere in Szenarien, in denen das Objekt eine gewisse Periodizität aufweist bzw. eine periodische Struktur ist, kann derart ein besonders genaues Bestimmen der Position möglich sein. Im Allgemeinen kann es möglich sein, z.B. im Anschluss an das Bestimmen der Position des Objekts, eine Fokuseinheit der optischen Vorrichtung anzusteuern, zum Positionieren des Objekts in der Fokusebene der optischen Vorrichtung in Abhängigkeit der bestimmten Position. Derart kann es möglich sein, eine besonders schnelle und zuverlässige und genaue Fokussierung auf das Objekt vorzunehmen. Nachfolgend können dann Bilder des Objekts erfasst werden, die eine besonders hohe Qualität aufweisen.
Zum Bestimmen des Abstands können verschiedene Techniken Anwendung finden. Zum Beispiel kann das Bestimmen des Abstands umfassen: Bestimmen eines ersten Referenzpunkts des Objekts in dem ersten Bild und Bestimmen eines zweiten Referenzpunkts in dem zweiten Bild. Der Abstand kann zwischen dem ersten Referenzpunkt und dem zweiten Referenzpunkt bestimmt werden. Der erste und zweite Referenzpunkt können einem bestimmten Teil des Objekts entsprechen. Durch geeignete Wahl des Referenzpunkts kann der Abstand besonders genau bestimmt werden.
Im Allgemeinen ist die Wahl eines geeigneten Referenzpunkts nicht besonders beschränkt. Insbesondere kann es erstrebenswert sein, einen Referenzpunkt zu wählen, der sowohl in dem ersten Bild, als auch in dem zweiten Bild mit einer vergleichsweise hohen Zuverlässigkeit und Genauigkeit aufgefunden und bestimmt werden kann. Dann kann eine Genauigkeit der bestimmten Position vergleichsweise hoch sein. Als Referenzpunkte kämen z.B. in Frage: markante Merkmale des Objekts; Landmarken; maschinenlesbare Zeichen; durch einen Benutzer festgelegte Punkte, usf.
Sofern das Objekt eine signifikante Ausdehnung senkrecht zur optischen Achse aufweist, kann die Wahl des Referenzpunkts einen Einfluss darauf haben, für welchen Teil des Objekts die Position bestimmt wird. Dies kann insbesondere in solchen Szenarien von Bedeutung sein, in denen das Objekt ein signifikantes Höhenprofil aufweist. Dann kann nämlich ein Szenario auftreten, bei dem die Fokussierung eines Teils des Objekts einhergeht mit der Defokussierung eines anderen Teils des Objekts. In einem solchen Fall kann es erstrebenswert sein, eine sog. Fokusmap zu erzeugen, d.h. z.B. senkrecht zur optischen Achse ortsaufgelöste Information über die Position des Objekts zu bestimmen.
Zum Beispiel kann das Bestimmen des Abstands für mehrere Paare von ersten Referenzpunkten und zweiten Referenzpunkten durchgeführt werden. Das Bestimmen der Position des Objekts kann ortsaufgelöst in einer Ebene senkrecht zur optischen Achse geschehen und auf den mehreren Paaren von ersten Referenzpunkten und zweiten Referenzpunkten basieren. Derart kann es z.B. möglich sein, gezielt einzelne Teile des Objekts in einer Fokusebene der optischen Vorrichtung zu positionieren. Dies kann insbesondere bei senkrecht zur optischen Achse ausgedehnten Proben erstrebenswert sein.
Typischerweise korreliert eine Genauigkeit des Bestimmens der Position des Objekts parallel zur bzw. entlang der optischen Achse mit einer Genauigkeit des Bestimmens des Abstands zwischen den Abbildungsorten des Objekts in dem ersten Bild und dem zweiten Bild. Dies bedeutet, dass es erstrebenswert sein kann, den Abstand zwischen den Abbildungsorten besonders genau zu bestimmen. Zum Beispiel kann der Abstand mittels Techniken bestimmt werden, die aus folgender Gruppe ausgewählt sind: Landmarkenerkennung; Bestimmen eines optischen Schwerpunkts des Objekts in dem ersten Bild und/oder dem zweiten Bild; eine Benutzereingabe; Aberrationskorrektur.
Zum Beispiel kann es möglich sein, durch Berücksichtigen von vorbekannten Aberrationen z.B. in der Beleuchtungsvorrichtung der optischen Vorrichtung und/oder in der Detektoroptik der optischen Vorrichtung Verzerrungen in dem ersten und zweiten Bild, die zu einer Verschiebung der Abbildungsorte des Objekts führen können, zu berücksichtigen. Solche Verschiebungen können dann herausgerechnet werden bzw. rechnerisch reduziert werden und der tatsächliche Abstand besonders genau bestimmt werden. Gemäß einem weiteren Aspekt betrifft die vorliegende Anmeldung eine optische Vorrichtung. Die optische Vorrichtung ist eingerichtet, um eine Position eines Objekts parallel zur bzw. entlang der optischen Achse der optischen Vorrichtung zu bestimmen. Die optische Vorrichtung umfasst eine Beleuchtungsvorrichtung. Die Beleuchtungsvorrichtung ist eingerichtet, um das Objekt aus einer ersten Beleuchtungsrichtung und aus einer zweiten Beleuchtungsrichtung zu beleuchten. Die optische Vorrichtung umfasst ferner einen Detektor, der eingerichtet ist, um ein erstes Bild des Objekts während des Beleuchtens aus der ersten Beleuchtungsrichtung zu erfassen. Der Detektor ist weiterhin eingerichtet, um ein zweites Bild des Objekts während des Beleuchtens aus der zweiten Beleuchtungsrichtung zu erfassen. Die optische Vorrichtung umfasst weiterhin eine Recheneinheit, die eingerichtet ist, um einen Abstand zwischen Abbildungsorten des Objekts in dem ersten Bild und in dem zweiten Bild zu bestimmen. Die Recheneinheit ist weiterhin eingerichtet, um eine Position des Objekts parallel zur optischen Achse basierend auf dem Abstand zu bestimmen.
Zum Beispiel kann die optische Vorrichtung gemäß dem gegenwärtig diskutierten Aspekt eingerichtet sein, um das Verfahren zum Bestimmen einer Position eines Objekts parallel zur optischen Achse gemäß einem weiteren Aspekt der vorliegenden Anmeldung durchzuführen. Für eine solche optische Vorrichtung können Effekte erzielt werden, die vergleichbar sind mit den Effekten, die für das Verfahren zum Bestimmen einer Position eines Objekts parallel zur optischen Achse gemäß einem weiteren Aspekt der vorliegenden Anmeldung erzielt werden können.
Die oben dargelegten Merkmale und Merkmale, die nachfolgend beschrieben werden, können nicht nur in den entsprechenden explizit dargelegten Kombinationen verwendet werden, sondern auch in weiteren Kombinationen oder isoliert, ohne den Schutzumfang der vorliegenden Erfindung zu verlassen.
Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Zeichnungen näher erläutert werden.
KURZBESCHREIBUNG DER FIGUREN
Fig. 1 illustriert eine Position eines Objekts parallel zur optischen Achse einer optischen Vorrichtung.
Fig. 2 illustriert Abbildungsorte des Objekts in einem ersten Bild und in einem zweiten Bild, die für verschiedene Beleuchtungsrichtungen aufgenommen sind, für das Szenario der Fig. 1 .
Fig. 3 zeigt schematisch die optische Vorrichtung.
Fig. 4 ist ein Flussdiagramm eines Verfahrens zum Bestimmen der Position des Objekts parallel zur optischen Achse.
Fig. 5 zeigt das iterative Positionieren des Objekts an verschiedenen Referenzpositionen parallel zur optischen Achse, um die Position qualitativ zu bestimmen.
Fig. 6 illustriert eine Abbildung eines Objekt in ersten und zweiten Bildern, wobei das Objekt senkrecht zur optischen Achse ausgedehnt ist, wobei Referenzpunkte zur Bestimmung des Abstands dargestellt sind.
Fig. 7 illustriert experimentelle Ergebnisse eines Verfahrens gemäß verschiedener Ausführungsformen. DETAILLIERTE BESCHREIBUNG VON AUSFÜHRUNGSFORMEN
Nachfolgend wird die vorliegende Erfindung anhand bevorzugter Ausführungsformen unter Bezugnahme auf die Zeichnungen näher erläutert. In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder ähnliche Elemente. Die Figuren sind schematische Repräsentationen verschiedener Ausführungsformen der Erfindung. In den Figuren dargestellte Elemente sind nicht notwendigerweise maßstabsgetreu dargestellt. Vielmehr sind die verschiedenen in den Figuren dargestellten Elemente derart wiedergegeben, dass ihre Funktion und genereller Zweck dem Fachmann verständlich wird. In den Figuren dargestellte Verbindungen und Kopplungen zwischen funktionellen Einheiten und Elementen können auch als indirekte Verbindung oder Kopplung implementiert werden. Eine Verbindung oder Kopplung kann drahtgebunden oder drahtlos implementiert sein. Funktionale Einheiten können als Hardware, Software oder eine Kombination aus Hardware und Software implementiert werden. Nachfolgend werden Techniken beschrieben, mittels derer eine Position eines Objekts parallel zur optischen Achse einer optischen Vorrichtung (z-Position) bestimmt werden kann. Im dreidimensionalen Raum, der durch x,y,z-Achsen aufgespannt ist, kann also die z-Komponente der Position bestimmt werden; die optische Achse definiert die z-Achse und ist z.B. parallel zu dieser. Basierend auf der bestimmten z-Position kann z.B. eine Fokuseinheit der optischen Vorrichtung angesteuert werden und derart das Objekt in der Fokusebene der optischen Vorrichtung in Abhängigkeit der bestimmten z-Position positioniert werden (Fokussieren des Objekts). Anschließen können Bilder des Objekts erfasst werden, welche das Objekt besonders scharf abbilden. Solche Techniken können in verschiedensten Gebieten Anwendung finden, z.B. in der Mikroskopie oder in der Fluoreszenz-Messung oder parallel zur Phasenkontrast- Bildgebung.
Für den beispielhaften Anwendungsfall der Fluoreszenz-Messung kann es z.B. möglich sein, mittels der nachfolgend beschriebenen Techniken die z-Position vor und / oder während der Fluoreszenz-Messung zu bestimmen. Damit kann sichergestellt werden, dass sich das fluoreszierende Objekt bei der Messung in der Fokusebene der optischen Vorrichtung befindet; derart kann eine Genauigkeit bei der Fluoreszenz-Messung erhöht werden. Die nachfolgend im Detail beschriebenen Techniken beruhen darauf, dass ein erstes Bild und ein zweites Bild unter Beleuchtung des Objekts aus unterschiedlichen ersten und zweiten Beleuchtungsrichtungen ausgewertet wird. Hierbei kann die Beleuchtung z.B. insbesondere mit einer Wellenlänge durchgeführt werden, die außerhalb des Fluoreszenz-aktiven Bereichs der fluoreszierenden Probe liegt. Grundsätzlich kann also gleichzeitig zur Fluoreszenz-Messung die z-Position bestimmt werden. Dies kann es z.B. insbesondere ermöglichen, bewegte Proben als Funktion der Zeit zuverlässig in der Fokusebene zu positionieren. Ferner kann die z-Position im Allgemeinen aus nur zwei Beleuchtungsvorgängen bestimmt werden; auch dadurch kann eine Licht-toxische Wirkung auf das fluoreszierende Objekt reduziert werden. Bei einer Vermessung von Farbstoffen kann die Wellenlänge des Lichts zur Bestimmung der z-Position z.B. außerhalb des Anregungsbereichs der Farbstoffe gewählt werden. Derart kann ein Bleaching der Farbstoffe verringert bzw. vermieden werden. Eine mögliche Wellenlänge des Lichts, die zum Bestimmen der z-Position verwendet wird, läge z.B. im Infrarotbereich.
In verschiedenen Szenarien können insbesondere bereits Bilder aus verschiedenen Beleuchtungsrichtungen vorhanden sein, ohne dass diese extra für die Fokussierung gemäß vorliegender Techniken erfasst werden müssten. Ein solches Szenario wäre z.B. die Bestimmung eines Phasenkontrast-Bilds etwa mit Techniken der Fourier-Ptychographie. Dann kann es - ohne weitere Lichtexposition des Objekts - möglich sein, die vorliegenden Techniken anzuwenden, um die z-Position zu bestimmen. In Fig. 1 ist eine optische Vorrichtung 1 , z.B. ein Mikroskop, schematisch dargestellt. Ein Strahlengang des Lichts verläuft von einer Beleuchtungsvorrichtung 1 1 1 zu einem Detektor 1 12. In Fig. 1 sind die optische Achse 120 und die Fokusebene 160 dargestellt. Aus Fig. 1 ist ersichtlich, dass das Objekt 100 parallel zur optischen Achse 120 außerhalb der Fokusebene 160 positioniert ist. Dargestellt ist eine z-Position 150, die in Bezug auf die Fokusebene 160 gemessen wird (in Fig. 1 mit Az bezeichnet). In einem solchen Fall kann es besonders einfach und schnell möglich sein, die Fokuseinheit der optischen Vorrichtung 1 anzusteuern, um eine Fokussierung durchzuführen. Insbesondere kann es entbehrlich sein, z.B. eine Umrechnung der z-Position 150 in Bezug auf die Fokusebene 160 durchzuführen. Es wäre auch möglich, die Position des Objekts 100 in einem anderen geeigneten Referenzkoordinatensystem der optischen Vorrichtung zu bestimmen.
In Fig. 2 sind ferner eine erste Beleuchtungsrichtung 210-1 und eine zweite Beleuchtungsrichtung 210-2 dargestellt. Für die erste Beleuchtungsrichtung 210-1 wird ein erstes Bild 230-1 erfasst. Für die zweite Beleuchtungsrichtung 210-2 wird ein zweites Bild 230-2 erfasst. Wie aus Fig. 2 ersichtlich ist, schließt die erste Beleuchtungsrichtung 210-1 einen ersten Winkel 251 -1 mit der optischen Achse 120 ein. Deshalb erscheint ein Abbildungsort 220- 1 des Objekts 100 in dem ersten Bild 230-1 gemäß Fig. 2 nach links gegenüber der optischen Achse 120 versetzt. In Fig. 2 ist der erste Winkel 251 -1 als α bezeichnet. Wie aus Fig. 2 ferner ersichtlich ist, ist der Abbildungsort 220-2 des Objekts 100 in dem zweiten Bild 230-2 in der Darstellung der Fig. 2 nach rechts gegenüber der optischen Achse 120 versetzt. Dies ist der Fall aufgrund des zweiten Winkels 251 -2 (in Fig. 2 mit ß bezeichnet), den die zweite Beleuchtungsrichtung 210-2 mit der optischen Achse 120 einschließt. Aus Fig. 2 ist ersichtlich, dass ein Betrag des ersten Winkels 251 -1 verschieden von einem Betrag des zweiten Winkels 251 -2 ist. Im Allgemeinen wäre es möglich, dass die ersten und zweiten Beleuchtungsrichtungen 210-1 , 210-2 symmetrisch in Bezug auf die optische Achse 120 angeordnet sind. Es wäre z.B. auch möglich, dass eine der beiden Beleuchtungsrichtungen 210-1 , 210-2 parallel zur optischen Achse 120 orientiert ist. Im Allgemeinen ist es auch möglich, dass das Objekt 100 einen Versatz gegenüber der optischen Achse 120 aufweist, d.h. innerhalb einer xy-Ebene gegenüber der optischen Achse 120 verschoben ist. Im Allgemeinen ist es ferner nicht notwendig, dass die erste Beleuchtungsrichtung 210-1 , die zweite Beleuchtungsrichtung 210-2 und die optische Achse 120 in einer Ebene liegen (in dem Szenario der Fig. 2 in der xz-Ebene). Dies bedeutet, dass z.B. die erste Beleuchtungsrichtung 210-1 und/oder die zweite Beleuchtungsrichtung 210-2 aus der xy-Ebene herausgekippt sein können.
Da eine Beleuchtung des Objekts 100 mit endlichen Winkeln 251 -1 , 251 -2 gegenüber der optischen Achse 120 stattfindet, kann auch ein reines Phasenobjekt, welches keine oder nur eine geringe Schwächung der Amplitude des durchtretenden Lichts bewirkt, in dem ersten und zweiten Bild 230-1 , 230-2 abgebildet werden. Dies ermöglicht eine vielfältige Anwendung der vorliegenden Techniken auf verschiedene Proben, insbesondere z.B. biologische Proben.
In Fig. 2 ist ferner ein Abstand 250 zwischen den Abbildungsorten 220-1 , 220-2 des Objekts 100 in den ersten und zweiten Bildern 230-1 , 230-2 dargestellt (in Fig. 2 mit Δχ bezeichnet). Zunächst kann qualitativ festgestellt werden, dass der Abstand 250 nicht verschwindet; es liegt ein Parallaxen-Effekt vor. Derart kann die z-Position 150 bereits qualitativ als ungleich Null bestimmt werden. Z.B. wäre es möglich, durch iteratives Repositionieren des Objekts 100 an verschiedenen Referenzpositionen (in Fig. 2 nicht gezeigt) parallel zur optischen Achse 120, die z-Position 150 qualitativ als gleich bzw. nahe Null zu bestimmen. Dazu könnte das Objekt etwa iterativ solange parallel zur optischen Achse 120 repositioniert werden, bis der Abstand 250 minimiert ist.
Es wäre aber auch möglich, dass das Bestimmen der z-Position 150 weiterhin auf dem ersten Winkel 251 -1 und dem zweiten Winkel 251 -2 basiert. Dann kann die z-Position 150 quantitativ bestimmt werden. Hierzu können, wie nachfolgend dargelegt, trigonometrische Beziehungen zwischen dem ersten Winkel 251 -1 , dem zweiten Winkel 251 -2 und dem Abstand 250 berücksichtigt werden. Für das Szenario der Fig. 2 gilt:
Az = a - cosa = b · cos ß , (1 ) wobei a einen Abstand zwischen dem Objekt 100 und dem Abbildungsort 220-1 des Objekts 100 in dem ersten Bild 230-1 entlang der ersten Beleuchtungsrichtung 210-1 bezeichnet und b einen Abstand zwischen dem Objekt 100 und dem Abbildungsort 220-2 des Objekts 100 in dem zweiten Bild 230-2 entlang der zweiten Beleuchtungsrichtung 210-2 bezeichnet (a und b sind in Fig. 2 nicht dargestellt). Diese Formel ergibt sich aus der Definition des Cosinus für rechtwinklige Dreiecke.
Unter Anwendung des Sinussatzes für allgemeine Dreiecke erhält man:
sin(a + ß) sin(90° - Gi ) cosce
Durch Kombination von Gleichung 1 und 2 ergibt sich:
. . cosa cos ß
Az = Ax — . (3)
sin(a + ß)
Anhand von Gleichung 3 ist es möglich, basierend auf dem ersten Winkel 251 -1 und dem zweiten Winkel 251 -2 und ferner basierend auf dem Abstand 250 der Abbildungsorte 220-1 , 220-2, die z-Position 150 zu bestimmen. Insbesondere kann die z-Position 150 allein durch zweimaliges Beleuchten und gleichzeitiges Erfassen des ersten und zweiten Bilds 230-1 , 230-2 bestimmt werden. Eine Lichtbelastung des Objekts 100 kann minimiert werden, z.B. im Vergleich zu dem oben genannten Szenario mit iterativer Positionierung des Objekts 100 an verschiedenen Referenzpositionen parallel zur optischen Achse 120.
Es kann erstrebenswert sein, eine Genauigkeit des Bestimmens der z-Position 150 zu erhöhen. Die Genauigkeit des Bestimmens der z-Position 150 hängt typischerweise direkt mit dem ersten Winkel 251 -1 , dem zweiten Winkel 251 -2 und dem Abstand 250 zusammen. Daher kann die Genauigkeit bei dem Bestimmen der z-Position 150 limitiert sein zumindest durch eine Pixelgröße in dem ersten Bild 230-1 und dem zweiten Bild 230-2. Ein Fehler im Abstand 250 - nachfolgend als Ax' bezeichnet - überträgt sich wie folgt auf einen Fehler der z-Position 150:
, cos a cos ß
Az' = Ax (4)
sin(a + ß) Sofern das Objekt 100 eine signifikante Ausdehnung in der xy-Ebene aufweist, kann es z.B. erstrebenswert sein, den Abstand 250 zwischen bestimmten Referenzpunkten in dem ersten Bild 230-1 und dem zweiten Bild 230-2 zu bestimmen. Die Referenzpunkte können einen bestimmten Teil des Objekts 100 markieren, z.B. einen besonders markanten Teil oder einen für die Abbildung besonders wichtigen Teil. Im Allgemeinen ist es auch möglich, den Abstand 250 für mehrere Paare von Referenzpunkten des Objekts 100 zu bestimmen. Derart kann es möglich sein, durch mehrmaliges Anwenden von Gleichung 3, für verschiedene Teile des Objekts 100 jeweils die z-Position 150 zu bestimmen. In anderen Worten kann also die z- Position 150 ortsaufgelöst in der xy-Ebene bestimmt werden.
Es kann also erstrebenswert sein, den Abstand 250 besonders genau zu bestimmen. In diesem Zusammenhang kann es möglich sein, verschiedenste Techniken anzuwenden, die eine besonders genaue Bestimmung des Abstands 250 ermöglichen. Solche Techniken können z.B. umfassen: Landmarkenerkennung; Bestimmung eines optischen Schwerpunkts des Objekts 100 in dem ersten Bild 230-1 und/oder in dem zweiten Bild 230-2; eine Benutzereingabe; eine Aberrationskorrektur. In einem einfachen Szenario könnte z.B. der Benutzer einen bestimmen Referenzpunkt des Objekts 100 in dem ersten Bild 230-1 auswählen und den entsprechenden Referenzpunkt in dem zweiten Bild 230-2 auswählen. Mittels Landmarkenerkennung kann es z.B. möglich sein, eine solche Auswahl von Referenzpunkten zumindest teil-automatisiert durchzuführen. Es wäre auch möglich, den optischen Schwerpunkt als Referenzpunkt zum Bestimmen des Abstands 250 zu verwenden. Die Aberrationskorrektur kann z.B. dazu eingesetzt werden, bekannte Fehlabbildungen aufgrund von Aberrationen in der optischen Vorrichtung 1 zu berücksichtigen. Eine weitere Begrenzung der Genauigkeit beim Bestimmen der z-Position 150 kann sich aus der kohärenten Tiefenschärfe des Detektors 1 12 der optischen Vorrichtung 1 ergeben. Insbesondere sollte gewährleistet werden, dass das Objekt 100 - auch bei einer signifikanten Verschiebung gegenüber der Fokusebene 160 - noch in dem ersten Bild 230-1 und dem zweiten Bild 230-2 abgebildet wird. Es kann jedoch entbehrlich sein, eine scharfe Abbildung des Objekts 100 zu erreichen; insbesondere obenstehend beschriebene Techniken, wie z.B. die Bestimmung des optischen Schwerpunkts des Objekts 100, können auch in einem Fall angewendet werden, in dem das Objekt 100 nur sehr unscharf in den Bildern 230-1 , 230-2 abgebildet ist. Während in den Fig. 1 und 2 eine Situation gezeigt ist, in denen das Objekt 100 entlang der optischen Achse 120 positioniert ist, d.h. es die optische Achse 120 schneidet, kann mittels der voranstehend beschriebenen Techniken die z-Position auch für solche Szenarien bestimmt werden, in denen das Objekt 100 einen bestimmten Versatz parallel zur x-Richtung und / oder parallel zur y-Richtung gegenüber der optischen Achse 120 aufweist. Allgemein formuliert können die voranstehend beschriebenen Techniken zum Bestimmen der Position 150 des Objekts parallel zur optischen Achse 120 also die Bestimmung der z-Komponente der Position des Objekts 100 im dreidimensionalen Raum, der durch die x,y,z-Achsen aufgespannt ist, ermöglichen.
In der Fig. 2 ist ferner eine Situation gezeigt, in der zwei Beleuchtungsrichtungen 210-1 , 210-2 zum Bestimmen der z-Position verwendet werden. Im Allgemeinen ist es auch möglich, eine größere Anzahl von Beleuchtungsrichtungen 210-1 , 210-2 zum Bestimmen der z-Position 150 des Objekts 100 zu verwenden. Z.B. können drei oder vier oder zehn oder mehr Beleuchtungsrichtungen 210-1 , 210-2 verwendet werden. Es wäre z.B. möglich, für die verschiedenen Beleuchtungsrichtungen 210-1 , 210-2 jeweils paarweise die oben genannten Techniken anzuwenden, z.B. jeweils paarweise die Gleichung 3 anzuwenden. Derart kann z.B. die z-Position 150 des Objekts 100 mehrfach bestimmt werden und daraus ein geeigneter Mittelwert gebildet werden. Derart kann es z.B. möglich sein, die z-Position 150 des Objekts 100 besonders genau zu bestimmen. Im Allgemeinen können verschiedenste Techniken zum Kombinieren eines größeren Datensatzes bestehend aus Abbildungsorten 220-1 , 220-2 mehrerer Beleuchtungsrichtungen 210-1 , 210-2 eingesetzt werden. Z.B. könnte Gleichung 3 geeignet modifiziert werden oder mehrere z-Positionen, die aus den verschiedenen Beleuchtungsrichtungen 210-1 , 210-2 erhalten werden, könnten nach mehrfachem Anwenden der Gleichung 3 konsolidiert werden. In anderen Worten kann es durch mehrere Beleuchtungsrichtungen 210-1 , 210-2 bzw. redundante Beleuchtungsrichtungen 210-1 , 210- möglich sein, eine höhere Genauigkeit beim Bestimmen der z-Position 150 zu erreichen; es ist z.B. insbesondere möglich, eine Genauigkeit zu erreichen, die höher ist, als eine Auflösung entsprechender Bilder, aus denen die Abbildungsorte 220-1 , 220-2 bestimmt werden.
In Fig. 3 ist die optische Vorrichtung 1 schematisch dargestellt. Die optische Vorrichtung 1 weist die Beleuchtungsvorrichtung 1 1 1 und den Detektor 1 12 auf. Weiterhin ist ein Probenhalter mit Fokuseinheit 31 1 vorgesehen. Die Fokuseinheit kann dazu eingerichtet sein, um das Objekt 100 parallel zur optischen Achse 120 zu positionieren, z.B. um verschiedene Referenzpositionen anzufahren oder zu fokussieren. Die optische Vorrichtung 1 weist weiterhin eine Recheneinheit 312 auf. Die Recheneinheit 312 ist eingerichtet, verschiedene Schritte im Zusammenhang mit dem Bestimmen der z-Position 150, wie voranstehend erläutert, durchzuführen. Die Recheneinheit 312 kann mit einem Speicher (in Fig. 3 nicht gezeigt) gekoppelt sein. In dem Speicher, z.B. einem nicht flüchtigen oder flüchtigen Speicher, können entsprechende Arbeitsanweisungen und Befehle zum Durchführen der voranstehenden Techniken durch die Recheneinheit 312 hinterlegt sein. Z.B. kann die Recheneinheit 312 vom Speicher Befehle erhalten, um anhand der Gleichung 3 die z-Position 150 zu bestimmen bzw. innerhalb des ersten und zweiten Bilds 230-1 , 230-2 Referenzpunkte aufzufinden und dann den Abstand 250 zu ermitteln.
Im Allgemeinen ist es möglich, dass mittels der optischen Vorrichtung 1 noch weitere Aufgaben - neben der Bestimmung der z-Position 150 - durchgeführt werden, wie z.B. Fluoreszenzmessungen. Insbesondere in einem solchen Fall kann das Bestimmen der z- Position 150 basierend auf den ersten und zweiten Bildern 230-1 , 230-2 durch eine Hilfsoptik durchgeführt werden, welche z.B. eine kleine Blende mit großer Tiefenschärfe aufweist - wodurch sichergestellt werden kann, dass auch für große z-Positionen 150 der Abstand 250 noch zuverlässig zu ermitteln ist. Zum Durchführen der eigentlichen Fluoreszenzmessung kann dann eine weitere Optik verwendet werden, welche z.B. eine große Blende aufweist, um besonders lichtintensiv zu arbeiten. Auch paralleles Erfassen der ersten und zweiten Bilder 230- 1 , 230-2 und Durchführen der Fluoreszenzmessung kann derart möglich sein. Grundsätzlich können verschiedenste Beleuchtungsvorrichtungen 1 1 1 verwendet werden, um das Beleuchten des Objekts 100 mit den verschiedenen Beleuchtungsrichtungen 210-1 , 210-2 durchzuführen. Es kann z.B. ein Scan-Spiegel z.B. in einer Feldblendenebene der Beleuchtungsvorrichtung 1 1 1 verwendet werden. Es könnte auch eine adaptive Komponente in einer Aperturblende bzw. Beleuchtungspupille der Beleuchtungseinrichtung verwendet werden; z.B. könnte die Beleuchtungsvorrichtung 1 1 1 gemäß Deutscher Patentanmeldung 10 2014 101 219.4 verwendet werden. Eine adaptive Komponente könnte z.B. ein Flächenlichtmodulator (engl, spatial light modulator, SLM) oder ein Digitale Mikrospiegelvorrichtung (engl. Digital Micromirror Device, DMD) oder eine bewegliche bzw. verschiebbare Sigma-Blende sein. Es wäre auch möglich, dass die Beleuchtungsvorrichtung 1 1 1 ein Leuchtdioden-Array umfasst. Z.B. können die Leuchtdioden (LEDs) des LED-Arrays auf einem kartesischen Raster angeordnet sein. Dann kann z.B. durch Ansteuern einer bestimmten Leuchtdiode des Leuchtdioden-Arrays, die einen bestimmten Abstand gegenüber der optischen Achse 120 aufweist, eine bestimmte Beleuchtungsrichtung 210-1 , 210-2 implementiert werden. In Fig. 4 ist ein Verfahren zum Bestimmen der z-Position 150 des Objekts 100 gemäß verschiedener Ausführungsformen dargestellt. Das Verfahren beginnt in Schritt S1 . Zunächst wird in Schritt S2 das Objekt 100 aus der ersten Beleuchtungsrichtung 210-1 beleuchtet und das erste Bild 230-1 erfasst. In Schritt S3 wird das Objekt 100 aus der zweiten Beleuchtungsrichtung 210-2 beleuchtet und das zweite Bild 230-2 erfasst. Dann wird in Schritt S4 der Abstand 250 zwischen den beiden Abbildungsorten des Objekts in den ersten und zweiten Bildern 230-1 , 230-2 bestimmt. Anschließend erfolgt in Schritt S5 das Bestimmen der z- Position 150. In Schritt S5 kann das Bestimmen der z-Position 150 z.B. qualitativ erfolgen oder quantitativ erfolgen. Zur quantitativen Bestimmung der z-Position 150 kann z.B. die Gleichung 3 verwendet werden. Es wäre auch möglich, dass - zusätzlich zu den Schritten S2 - S4 - das Objekt aus weiteren Beleuchtungsrichtungen 210-1 , 210-2 beleuchtet wird, z.B. aus einer dritten Beleuchtungsrichtung und einer vierten Beleuchtungsrichtung. Diese redundante Information kann in Schritt S5 berücksichtigt werden.
Es wäre aber auch möglich, in Schritt S5 die z-Position 150 durch iteratives Repositionieren des Objekts 100 parallel zur optischen Achse 120 qualitativ zu bestimmen. Ein solches Szenario ist in Fig. 5 dargestellt. Zunächst wird in Schritt T1 der Abstand 250 des Objekts 100 zwischen dem ersten Bild 230-1 und dem zweiten Bild 230-2 für eine aktuelle Referenzposition des Objekts 100 parallel zur optischen Achse 120 bestimmt. In Schritt T2 wird überprüft, ob der Abstand 250 minimiert ist. Zum Beispiel kann in Schritt T2 ein Schwellenwertvergleich mit einem vorgegebenen Schwellenwert durchgeführt werden. Es wäre in Schritt T2 auch möglich, zu überprüfen, ob der Abstand 250 gegenüber früheren Bestimmungen des Abstands (bei vorher ausgeführten Iterationen des Schritts T1 ) reduziert wurde.
Wurde in Schritt T2 festgestellt, dass der Abstand 250 nicht minimiert wurde, so wird Schritt T3 durchgeführt. Im Schritt T3 wird das Objekt 100 an einer nächsten Referenzposition parallel zur optischen Achse 120 positioniert. Die Referenzpositionen können durch ein iteratives Verfahren ermittelt werden; die Referenzpositionen könnten auch fest vorgegeben sein. Das Verfahren wird dann bei Schritt S2 fortgeführt (vgl. Fig. 4). Insbesondere für eine Bestimmung der z- Position 150 mittels iterativer Techniken, wie in Fig. 5 dargestellt, kann es erstrebenswert sein, mehr als zwei Beleuchtungsrichtungen 210-1 , 210-2 zum Bestimmen des Abstands 250 zu verwenden. Z.B. könnte dann in Schritt T2 überprüft werden, ob der Abstand 250 für alle Paare von Beleuchtungsrichtungen 210-1 , 210-2 minimiert ist.
Wird in Schritt T3 jedoch festgestellt, dass der Abstand 250 minimiert ist, so wird in Schritt T4 die z-Position 150 als Null gegenüber der Fokusebene 160 bestimmt.
In Fig. 6 ist eine Abbildung von Objekt 100 in dem ersten Bild 230-1 (in Fig. 6 mit einer durchgezogenen Line gezeigt) und in dem zweiten Bild 230-2 (in Fig. 6 mit einer gestrichelten Linie) schematisch dargestellt. Das Objekt 100 weist eine signifikante Ausdehnung in der xy- Ebene, d.h. senkrecht zur optischen Achse 120 aufweist. Es sind drei mögliche Referenzpunkte 600-1 , 600-2, 600-3, 600-4 für die Abbildung des Objekts 100 im ersten Bild 230-1 dargestellt. Grundsätzlich ist die Wahl der Referenzpunkte 600-1 - 600-4 nicht besonders beschränkt. Die in Fig. 6 dargestellten Referenzpunkte 600-1 - 600-4 können aber besonders zuverlässig in dem ersten und zweiten Bild 230-1 , 230-1 aufgefunden werden. Z.B. könnte der Abstand 250 zwischen dem ersten Referenzpunkt 600-1 bestimmt werden (vgl. Fig. 6), denn dies ist der höchstgelegene Punkt des Objekts 100 in den Bildern 230-1 , 230-2 und damit leicht und zuverlässig aufzufinden. Der Referenzpunkt 600-4 bezeichnet z.B. den optischen Schwerpunkt des Objekts 100 in den Bildern 230-1 , 230-2.
Zusammenfassend wurden obenstehend Techniken beschrieben, die - z.B. durch Anwenden der Gleichung 3 oder durch Repositionieren des Objekts parallel zur optischen Achse - ein besonders schnelles und genaues Bestimmen der z-Position 150 ermöglichen. Eine schnelle Fokussierung des Objekts 100 wird dadurch möglich.
In Fig. 7 sind experimentelle Ergebnisse für eine Sequenz von vier Bildern, die während des Beleuchtens einer Probe aus vier unterschiedlichen Beleuchtungsrichtungen 210-1 , 210-2, 210- 3, 210-4 gemäß hierin beschriebenen Techniken erfasst wurden, dargestellt. Die unterschiedlichen Beleuchtungsrichtungen 210-1 , 210-2, 210-3, 210-4 wiesen alle unterschiedliche Winkel gegenüber der optischen Achse 120 auf. Im Detail umfasste der Versuchsaufbau ein Mikroskop 1 mit einer Beleuchtungseinrichtung 1 1 1 , die ein LED-Array mit vierundzwanzig LEDs aufwies. Dabei sind vorliegend lediglich vier Bilder dargestellt, bei denen die Probe jeweils mit einer einzelnen der vierundzwanzig LEDs beleuchtet wurde. Außer der Beleuchtungsrichtung 210-1 , 210-2, 210-3, 210-4 wurden keine anderen experimentellen Parameter variiert. Die Bilder wurden in Transmissionsgeometrie erfasst.
Die Probe beinhaltete eine Immersionsflüssigkeit, in der sich unbewegte Zellen befanden, d.h. die Zellen veränderten ihre Position nicht als Funktion der Zeit. Die Zellen sammelten sich in zwei verschiedenen Ebenen der Immersionsflüssigkeit, d.h. an unterschiedlichen Positionen parallel zur optischen Achse.
In Fig. 7 ist für jedes der vier Bilder eine bestimmte Zelle, die in der oberen Ebene der Immersionsflüssigkeit positioniert war, mit durchgezogenen Linie gekennzeichnet (die Zelle befindet sich am Schnittpunkt der Linien); außerdem ist eine bestimmte Zelle, die in der unteren Ebene der Immersionsflüssigkeit positioniert war, mit gestrichelten Linie gekennzeichnet (die Zelle befindet sich am Schnittpunkt der Linien).
Aus einem Vergleich der vier Einzelbilder ist ersichtlich, dass sich eine Abbildungsposition der beiden Zellen in den Bildern in Abhängigkeit der Beleuchtungsrichtung 210-1 , 210-2, 210-3, 210-4 veränderten. Dies kann in einem einfachen Modell durch die veränderte Parallaxe in Bezug auf die Beleuchtungsrichtungen 210-1 , 210-2, 210-3, 210-4 beschrieben werden. Es treten Schatteneffekte auf. Aus einem Vergleich der vier Einzelbilder ist ferner ersichtlich, dass sich eine Richtung der Veränderung der Abbildungsposition der beiden Zellen zwischen den Bildern in Abhängigkeit der Beleuchtungsrichtung 210-1 , 210-2, 210-3, 210-4 gegenläufig verhält (in Fig. 7 durch die Pfeile illustriert). Dies ist der Fall, da sich in dem Experiment die z-Position der einen Zelle vor der Fokusebene 160 befand und die z-Position der anderen Zelle hinter der Fokusebene 160 befand. Durch eine quantitative Analyse der Veränderung war es möglich, die genaue Position der Zellen entlang der optischen Achse zu bestimmen. Dazu wurden die verschiedenen Winkel der Beleuchtungsrichtungen 210-1 , 210-2, 210-3, 210-4 betrachtet (in FIG. 7 nicht gezeigt). Selbstverständlich können die Merkmale der vorab beschriebenen Ausführungsformen und Aspekte der Erfindung miteinander kombiniert werden. Insbesondere können die Merkmale nicht nur in den beschriebenen Kombinationen, sondern auch in anderen Kombinationen oder für sich genommen verwendet werden, ohne das Gebiet der Erfindung zu verlassen. Zum Beispiel wurden voranstehend insbesondere Techniken beschrieben, bei denen das Objekt aus zwei Beleuchtungsrichtungen beleuchtet wird. Dies kann insbesondere dann vorteilhaft sein, wenn eine Exposition des Objekts gegenüber Licht minimiert werden soll. Es wäre aber im Allgemeinen auch möglich, eine größere Anzahl von Beleuchtungsrichtungen zu verwenden, z.B. wenn es erforderlich ist, die Position des Objekts parallel zur optischen Achse besonders genau zu bestimmen.
Weiterhin wurden voranstehend in Bezug auf die Figuren hauptsächlich Szenarien diskutiert, bei denen im Wesentlichen das gesamte Objekt fokussiert wird. Im Allgemeinen kann es aber möglich sein, jeweils nur einen relevanten Bildausschnitt, der nur einen Teil des Objekts abbildet, zu fokussieren bzw. die z-Position des relevanten Teils des Objekts zu bestimmen.
Ferner wurden voranstehend hauptsächlich solche Szenarien diskutiert, in denen das Objekt senkrecht zur optischen Achse derart positioniert ist, dass es die optische Achse schneidet. Es wäre aber auch möglich, dass das Objekt gegenüber der optischen Achse versetzt ist.

Claims

Patentansprüche
1 . Verfahren zum Bestimmen einer Position (150) eines Objekts (100) parallel zur optischen Achse (120) einer optischen Vorrichtung (1 ),
wobei das Verfahren umfasst:
- Beleuchten des Objekts (100) aus einer ersten Beleuchtungsrichtung (210-1 ) und Erfassen eines ersten Bilds (230-1 ) des Objekts (100) während des Beleuchtens,
- Beleuchten des Objekts (100) aus einer zweiten Beleuchtungsrichtung (210-2) und Erfassen eines zweiten Bilds (230-2) des Objekts (100) während des Beleuchtens,
- Bestimmen eines Abstands (250) zwischen Abbildungsorten (220-1 , 220-2) des Objekts (100) in dem ersten Bild (230-1 ) und in dem zweiten Bild (230-2),
- Bestimmen einer Position (150) des Objekts (100) parallel zur optischen Achse (120) basierend auf dem Abstand (250).
2. Verfahren nach Anspruch 1
wobei die erste Beleuchtungsrichtung (210-1 ) durch einen ersten Winkel (251 -1 ) gegenüber der optischen Achse (120) charakterisiert ist,
wobei die zweite Beleuchtungsrichtung (210-2) durch einen zweiten Winkel (251 -2) gegenüber der optischen Achse (120) charakterisiert ist,
wobei das Bestimmen der Position (150) des Objekts (100) weiterhin auf dem ersten Winkel (251 -1 ) und auf dem zweiten Winkel (251 -2) basiert.
3. Verfahren nach Anspruch 2,
wobei das Bestimmen der Position (150) des Objekts (100) weiterhin umfasst:
- Quantifizieren der Position (150) des Objekts (100) in Bezug auf die Fokusebene (160) der optischen Vorrichtung (1 ) anhand von trigonometrischen Beziehungen zwischen dem ersten Winkel (251 -1 ), dem zweiten Winkel (251 -2) und dem Abstand (250).
4. Verfahren nach Anspruch 1 ,
wobei das Verfahren weiterhin umfasst:
- Positionieren des Objekts (100) an verschiedenen Referenzpositionen parallel zur optischen Achse (120),
wobei das Verfahren für jede Referenzposition parallel zur optischen Achse (120) das Beleuchten des Objekts (100) aus der ersten Beleuchtungsrichtung (210-1 ) und das Erfassen des ersten Bilds (230-1 ) und das Beleuchten des Objekts (100) aus der zweiten Beleuchtungsrichtung (210-2) und das Erfassen des zweiten Bilds (230-2) und das Bestimmen des Abstands (250) umfasst,
wobei das Bestimmen der Position (150) des Objekts (100) umfasst:
- Minimieren des Abstands (250) für die verschiedenen Referenzpositionen.
5. Verfahren nach einem der voranstehenden Ansprüche,
wobei das Verfahren weiterhin umfasst:
- Ansteuern einer Fokuseinheit (31 1 ) der optischen Vorrichtung (1 ) zum Positionieren des Objekts (100) in der Fokusebene (160) der optischen Vorrichtung (1 ) in Abhängigkeit der bestimmten Position (150).
6. Verfahren nach einem der voranstehenden Ansprüche
wobei das Bestimmen des Abstands (250) umfasst:
- Bestimmen eines ersten Referenzpunkts (600-1 - 600-4) des Objekts (100) in dem ersten Bild (230-1 ),
- Bestimmen eines zweiten Referenzpunkts (600-1 - 600-4)in dem zweiten Bild (230-2), wobei der Abstand (250) zwischen dem ersten Referenzpunkt (600-1 - 600-4)und dem zweiten Referenzpunkt (600-1 - 600-4 )bestimmt wird.
7. Verfahren nach Anspruch 6,
wobei das Bestimmen des Abstands (250) für mehrere Paare von ersten Referenzpunkten und zweiten Referenzpunkten durchgeführt wird,
wobei das Bestimmen der Position (150) des Objekts (100) ortsaufgelöst in einer Ebene senkrecht zur optischen Achse (120) basierend auf den mehreren Paaren von ersten Referenzpunkten und zweiten Referenzpunkten geschieht.
8. Verfahren nach einem der voranstehenden Ansprüchen,
wobei der Abstand (250) mittels Techniken bestimmt wird, die aus folgender Gruppe ausgewählt sind: Landmarkenerkennung; Bestimmung eines optischen Schwerpunkts des Objekts (100) in dem ersten Bild (230-1 ) und / oder dem zweiten Bild (230-2); eine Benutzereingabe; Aberrationskorrektur.
9. Optische Vorrichtung (1 ), die eingerichtet ist, um eine Position (150) eines Objekts (100) parallel zur optischen Achse (120) der optischen Vorrichtung (1 ) zu bestimmen,
wobei die optische Vorrichtung (1 ) umfasst:
- eine Beleuchtungsvorrichtung (1 1 1 ), die eingerichtet ist, um das Objekt (100) aus einer ersten Beleuchtungsrichtung (210-1 ) und aus einer zweiten Beleuchtungsrichtung (210-2) zu beleuchten, - einen Detektor (1 12), der eingerichtet ist, um ein erstes Bild (230-1 ) des Objekts (100) während des Beleuchtens aus der ersten Beleuchtungsrichtung (210-1 ) zu erfassen und ein zweites Bild (230-2) des Objekts (100) während des Beleuchtens aus der zweiten Beleuchtungsrichtung (210-2) zu erfassen,
- eine Recheneinheit (312), die eingerichtet ist, um einen Abstand (250) zwischen Abbildungsorten (220-1 , 220-2) des Objekts (100) in dem ersten Bild (230-1 ) und in dem zweiten Bild (230-2) zu bestimmen und eine Position (150) des Objekts (100) parallel zur optischen Achse (120) basierend auf dem Abstand (250) zu bestimmen.
10. Optisches Vorrichtung nach Anspruch 9,
wobei die optische Vorrichtung (1 ) eingerichtet ist, um ein Verfahren nach einem der Ansprüche 1 - 8 durchzuführen.
PCT/EP2015/065862 2014-07-10 2015-07-10 Positionsbestimmung eines objekts im strahlengang einer optischen vorrichtung WO2016005571A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201580047434.XA CN106662734B (zh) 2014-07-10 2015-07-10 确定物体在光学装置的光束路径中的位置
US15/324,474 US10670387B2 (en) 2014-07-10 2015-07-10 Determining the position of an object in the beam path of an optical device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102014109687.8A DE102014109687B4 (de) 2014-07-10 2014-07-10 Positionsbestimmung eines Objekts im Strahlengang einer optischen Vorrichtung
DE102014109687.8 2014-07-10

Publications (1)

Publication Number Publication Date
WO2016005571A1 true WO2016005571A1 (de) 2016-01-14

Family

ID=53610872

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2015/065862 WO2016005571A1 (de) 2014-07-10 2015-07-10 Positionsbestimmung eines objekts im strahlengang einer optischen vorrichtung

Country Status (4)

Country Link
US (1) US10670387B2 (de)
CN (1) CN106662734B (de)
DE (1) DE102014109687B4 (de)
WO (1) WO2016005571A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017191011A3 (de) * 2016-05-02 2017-12-28 Carl Zeiss Microscopy Gmbh Artefaktreduktion bei der winkelselektiven beleuchtung
DE102017115658A1 (de) 2017-07-12 2019-01-17 Carl Zeiss Microscopy Gmbh Flackern bei Winkel-variabler Beleuchtung
WO2019053136A1 (de) * 2017-09-14 2019-03-21 Carl Zeiss Microscopy Gmbh Bestimmung von aberrationen mittels winkel-variabler beleuchtung
EP3961287A3 (de) * 2020-09-01 2022-06-29 BMG Labtech GmbH Autofokussystem für eine optische mess- oder mikroskopievorrichtung, verfahren zur fokuseinstellung bei einer optischen mess- oder mikroskopievorrichtung sowie optische mess- oder mikroskopievorrichtung

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014109687B4 (de) 2014-07-10 2020-03-19 Carl Zeiss Microscopy Gmbh Positionsbestimmung eines Objekts im Strahlengang einer optischen Vorrichtung
DE102015107517B3 (de) 2015-05-13 2016-06-23 Carl Zeiss Ag Vorrichtung und Verfahren zur Bildaufnahme mit erhöhter Schärfentiefe
US10176567B2 (en) * 2015-12-21 2019-01-08 Canon Kabushiki Kaisha Physical registration of images acquired by Fourier Ptychography
DE102015122712B4 (de) 2015-12-23 2023-05-04 Carl Zeiss Microscopy Gmbh Vorrichtung und Verfahren zur Bildaufnahme
DE102016116309A1 (de) 2016-05-02 2017-11-02 Carl Zeiss Microscopy Gmbh Beleuchtungsmodul für winkelselektive Beleuchtung
DE102016123154A1 (de) 2016-11-30 2018-05-30 Carl Zeiss Microscopy Gmbh Bestimmung der Anordnung eines Probenobjekts mittels winkelselektiver Beleuchtung
DE102016124612A1 (de) 2016-12-16 2018-06-21 Carl Zeiss Microscopy Gmbh Segmentierte Optik für ein Beleuchtungsmodul zur winkelselektiven Beleuchtung
DE102017115021A1 (de) 2017-07-05 2019-01-10 Carl Zeiss Microscopy Gmbh Digitale Bestimmung der Fokusposition
CN107545593A (zh) * 2017-10-19 2018-01-05 深圳大学 视觉辅助的傅里叶叠层成像位置标定方法及装置
CN109961455B (zh) * 2017-12-22 2022-03-04 杭州萤石软件有限公司 一种目标检测方法及装置
DE102018107356A1 (de) * 2018-03-28 2019-10-02 Carl Zeiss Microscopy Gmbh Autofokus mit winkelvariabler Beleuchtung
DE102020210592A1 (de) 2020-08-20 2022-02-24 Carl Zeiss Microscopy Gmbh Verfahren und Mikroskop zum Erzeugen einer artefaktreduzierten Übersichtsaufnahme eines Probenträgers

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3906555A1 (de) * 1989-03-02 1989-07-06 Zeiss Carl Fa Auflicht-objektbeleuchtungseinrichtung
US20120057013A1 (en) * 2010-09-03 2012-03-08 Olympus Corporation Method and apparatus for visualizing phase object
US20140118529A1 (en) * 2012-10-30 2014-05-01 California Institute Of Technology Fourier Ptychographic Imaging Systems, Devices, and Methods

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5808291A (en) * 1995-08-30 1998-09-15 Minolta Co., Ltd. Image information detection system and optical equipment using the system
JP2960013B2 (ja) * 1996-07-29 1999-10-06 慧 清野 移動物体の検出用目盛及びこれを用いた移動物体の検出装置
DE102004012125B3 (de) 2004-03-12 2005-09-01 Nanofilm Technologie Gmbh Ellipsometrisches Messverfahren mit ROI-gestützter Bildkorrektur
DE102009012248A1 (de) * 2008-03-14 2009-09-17 Carl Zeiss Sms Gmbh Autofokusverfahren und Abbildungsvorrichtung zur Durchführung des Verfahrens
CN101320094B (zh) * 2008-05-21 2011-05-04 旭丽电子(广州)有限公司 一种光源扫描定位系统及其定位方法
CN101566692B (zh) * 2009-05-26 2011-04-13 吉林大学 利用卫星遥感数据中的云影信息检测云高的方法
US8310531B2 (en) 2009-08-03 2012-11-13 Genetix Corporation Methods and apparatuses for processing fluorescence images
EP2633267A4 (de) * 2010-10-26 2014-07-23 California Inst Of Techn Linsenloses scanprojektiv-mikroskopsystem
US9569664B2 (en) * 2010-10-26 2017-02-14 California Institute Of Technology Methods for rapid distinction between debris and growing cells
JP2014507645A (ja) 2011-01-06 2014-03-27 ザ・リージェンツ・オブ・ザ・ユニバーシティー・オブ・カリフォルニア 無レンズ断層撮影装置及び方法
JP5780865B2 (ja) 2011-07-14 2015-09-16 キヤノン株式会社 画像処理装置、撮像システム、画像処理システム
DE102011054106A1 (de) 2011-09-30 2013-04-04 Jörg Piper Vorrichtung zur Erzeugung einer variablen Phasenkontrast-/Dunkelfeld-Beleuchtung
US9679215B2 (en) * 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US20150253428A1 (en) * 2013-03-15 2015-09-10 Leap Motion, Inc. Determining positional information for an object in space
WO2013148360A1 (en) 2012-03-30 2013-10-03 Trustees Of Boston University Phase contrast microscopy with oblique back-illumination
US9451147B2 (en) * 2012-06-11 2016-09-20 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image pickup apparatus, method of controlling image pickup apparatus, and non-transitory computer-readable storage medium
JP6046929B2 (ja) * 2012-06-25 2016-12-21 株式会社キーエンス 光学測定装置
JP5988790B2 (ja) * 2012-09-12 2016-09-07 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム
DE102012218863A1 (de) * 2012-10-16 2014-04-17 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Stereoskopisches Abbildungssystem
US9864184B2 (en) 2012-10-30 2018-01-09 California Institute Of Technology Embedded pupil function recovery for fourier ptychographic imaging devices
CN103727919B (zh) * 2014-01-16 2016-06-08 中国地质调查局西安地质调查中心 一种静止轨道地球同步卫星数字寻星方法
DE102014101219A1 (de) 2014-01-31 2015-08-06 Carl Zeiss Ag Beleuchtungseinrichtung zur Fourier-Ptychographie
CN103905797A (zh) * 2014-04-18 2014-07-02 山东神戎电子股份有限公司 一种具有测距功能的监控设备及测距方法
US9817224B2 (en) 2014-04-30 2017-11-14 University Of Connecticut Methods and systems for Fourier ptychographic imaging
DE102014109687B4 (de) 2014-07-10 2020-03-19 Carl Zeiss Microscopy Gmbh Positionsbestimmung eines Objekts im Strahlengang einer optischen Vorrichtung
DE102014112242A1 (de) 2014-08-26 2016-03-03 Carl Zeiss Ag Phasenkontrast-Bildgebung
DE102014112648A1 (de) 2014-08-29 2016-03-03 Carl Zeiss Ag Bildaufnahmevorrichtung und Verfahren zur Bildaufnahme
DE102014112666A1 (de) 2014-08-29 2016-03-03 Carl Zeiss Ag Bildaufnahmevorrichtung und Verfahren zur Bildaufnahme
DE102014113433B4 (de) 2014-09-17 2016-07-14 Carl Zeiss Ag Vorrichtung und Verfahren zur dreidimensionalen Abbildung eines Objekts
TWI529661B (zh) * 2014-10-17 2016-04-11 國立臺灣大學 快速建立景深圖的方法及影像處理裝置
CN107203034B (zh) * 2016-03-18 2021-02-26 松下知识产权经营株式会社 图像生成装置、图像生成方法以及记录介质
CN107205113B (zh) * 2016-03-18 2020-10-16 松下知识产权经营株式会社 图像生成装置、图像生成方法及计算机可读存储介质
JP6765057B2 (ja) * 2016-03-18 2020-10-07 パナソニックIpマネジメント株式会社 画像生成装置、画像生成方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3906555A1 (de) * 1989-03-02 1989-07-06 Zeiss Carl Fa Auflicht-objektbeleuchtungseinrichtung
US20120057013A1 (en) * 2010-09-03 2012-03-08 Olympus Corporation Method and apparatus for visualizing phase object
US20140118529A1 (en) * 2012-10-30 2014-05-01 California Institute Of Technology Fourier Ptychographic Imaging Systems, Devices, and Methods

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017191011A3 (de) * 2016-05-02 2017-12-28 Carl Zeiss Microscopy Gmbh Artefaktreduktion bei der winkelselektiven beleuchtung
CN109416464A (zh) * 2016-05-02 2019-03-01 卡尔蔡司显微镜有限责任公司 在选择角度地照明时的伪迹减少
US10838184B2 (en) 2016-05-02 2020-11-17 Carl Zeiss Microscopy Gmbh Artefact reduction for angularly-selective illumination
DE102017115658A1 (de) 2017-07-12 2019-01-17 Carl Zeiss Microscopy Gmbh Flackern bei Winkel-variabler Beleuchtung
WO2019011581A1 (de) 2017-07-12 2019-01-17 Carl Zeiss Microscopy Gmbh Flackern bei winkel-variabler beleuchtung
WO2019053136A1 (de) * 2017-09-14 2019-03-21 Carl Zeiss Microscopy Gmbh Bestimmung von aberrationen mittels winkel-variabler beleuchtung
EP3961287A3 (de) * 2020-09-01 2022-06-29 BMG Labtech GmbH Autofokussystem für eine optische mess- oder mikroskopievorrichtung, verfahren zur fokuseinstellung bei einer optischen mess- oder mikroskopievorrichtung sowie optische mess- oder mikroskopievorrichtung

Also Published As

Publication number Publication date
DE102014109687A1 (de) 2016-01-14
DE102014109687B4 (de) 2020-03-19
CN106662734B (zh) 2021-02-02
US20170167856A1 (en) 2017-06-15
CN106662734A (zh) 2017-05-10
US10670387B2 (en) 2020-06-02

Similar Documents

Publication Publication Date Title
DE102014109687B4 (de) Positionsbestimmung eines Objekts im Strahlengang einer optischen Vorrichtung
DE102014206309B4 (de) System und Verfahren zum Erhalten von Bildern mit Versatz zur Verwendung für verbesserte Kantenauflösung
DE102010035104A1 (de) Vorrichtung und Verfahren zur automatischen Fokussierung für die Mikroskopie schwach leuchtender Substrate
DE102014216227B4 (de) Verfahren und Vorrichtung zum Bestimmen eines Abstandes zweier voneinander entlang einer ersten Richtung beabstandeter optischer Grenzflächen
DE102011055294B4 (de) Mikroskopische Einrichtung und Verfahren zur dreidimensionalen Lokalisierung von punktförmigen Objekten in einer Probe
DE102013021542A1 (de) Mikroskop und Verfahren zur SPIM Mikroskopie
DE102006031177A1 (de) Verfahren und Vorrichtung zur Erzeugung eines Bildes einer dünnen Schicht eines Objekts
DE102013106895B4 (de) Lichtmikroskopisches Verfahren zur Lokalisierung von Punktobjekten
DE102010036709A1 (de) Einrichtung und Verfahren zur mikroskopischen Bildaufnahme einer Probenstruktur
DE102018207821A1 (de) Verfahren zur Bereitstellung eines Übersichtsbildes
DE102013017124A1 (de) Scanmikroskop und Verfahren zum Betreiben eines Scanmikroskops
DE102012223128A1 (de) Autofokusverfahren für Mikroskop und Mikroskop mit Autofokuseinrichtung
DE102011053232A1 (de) Mikroskopische Einrichtung und mikroskopisches Verfahren zur dreidimensionalen Lokalisierung von punktförmigen Objekten
WO2017191009A2 (de) Winkelselektive beleuchtung
DE102009032210A1 (de) Bearbeitungsanlage
EP3345032B1 (de) Verfahren zur bestimmung einer höhenlage eines objekts
EP3374755B1 (de) Lichtmikroskop und verfahren zum bestimmen einer wellenlängenabhängigen brechzahl eines probenmediums
DE102015116452A1 (de) Mikroskop
EP3548836B1 (de) Bestimmung der anordnung eines probenobjekts mittels winkelselektiver beleuchtung
DE102018131427A1 (de) Verfahren zur automatischen Positionsermittlung auf einer Probenanordnung und entsprechendes Mikroskop
WO2014147257A1 (de) Lichtmikroskopisches verfahren zur lokalisierung von punktobjekten
DE102009012248A1 (de) Autofokusverfahren und Abbildungsvorrichtung zur Durchführung des Verfahrens
DE102018122816A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Eigenschaft eines Objekts
DE102011001091C5 (de) Verfahren und Einrichtung zur mikroskopischen Bildaufnahme einer Probenstruktur
DE102020127071B3 (de) Verfahren und Mikroskop mit einer Einrichtung zum Erfassen von Verlagerungen einer Probe gegenüber einem Objektiv

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15738309

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15324474

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15738309

Country of ref document: EP

Kind code of ref document: A1