WO2015040127A1 - Hochauflösende scanning-mikroskopie - Google Patents

Hochauflösende scanning-mikroskopie Download PDF

Info

Publication number
WO2015040127A1
WO2015040127A1 PCT/EP2014/069927 EP2014069927W WO2015040127A1 WO 2015040127 A1 WO2015040127 A1 WO 2015040127A1 EP 2014069927 W EP2014069927 W EP 2014069927W WO 2015040127 A1 WO2015040127 A1 WO 2015040127A1
Authority
WO
WIPO (PCT)
Prior art keywords
sample
pixels
spot
detector array
image
Prior art date
Application number
PCT/EP2014/069927
Other languages
English (en)
French (fr)
Inventor
Thomas Kalkbrenner
Ingo Kleppe
Helmut Lippert
Ralf Netz
Original Assignee
Carl Zeiss Microscopy Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Microscopy Gmbh filed Critical Carl Zeiss Microscopy Gmbh
Publication of WO2015040127A1 publication Critical patent/WO2015040127A1/de

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/008Details of detection or image processing, including general computer control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J9/00Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength
    • G01J9/02Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength by interferometric methods
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/0032Optical details of illumination, e.g. light-sources, pinholes, beam splitters, slits, fibers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/0052Optical details of the image generation
    • G02B21/0072Optical details of the image generation details concerning resolution or correction, including general design of CSOM objectives
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/008Details of detection or image processing, including general computer control
    • G02B21/0084Details of detection or image processing, including general computer control time-scale detection, e.g. strobed, ultra-fast, heterodyne detection
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/02Objectives
    • G02B21/025Objectives with variable magnification
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/0816Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/0816Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements
    • G02B26/0833Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements the reflecting element being a micromechanical device, e.g. a MEMS mirror, DMD
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/04Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings formed by bundles of fibres
    • G02B6/06Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings formed by bundles of fibres the relative position of the fibres being the same at both ends, e.g. for transporting images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/0052Optical details of the image generation
    • G02B21/0076Optical details of the image generation arrangements using fluorescence or luminescence
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/58Optics for apodization or superresolution; Optical synthetic aperture systems

Definitions

  • the invention relates to a microscope for high-resolution scanning microscopy of a sample, comprising a lighting device for illuminating the sample, an imaging device for scanning a spot or line spot over the sample and for imaging the spot or line spot in a diffraction-limited , resting single image under a magnification in a detection plane, a detector device for detecting the single image in the detection plane for different scan positions with a local resolution, which is at least twice as large as a half width of the diffraction limited frame, an evaluation device for evaluating a diffraction structure of the taking into account the magnification A frame for the scan positions from data of the detector means and for producing an image of the sample having a resolution which is increased above the diffraction limit.
  • the invention further relates to a method for high-resolution scanning microscopy of a sample, in which the sample is illuminated, a scanned over the sample guided spot or line spot is imaged into a single image, wherein the spot diffraction limited in a magnification in the Frame is imaged and the frame is resting in a detection plane, for different scan positions, the single image is detected with a local resolution, which is at least twice as large as a half width of the diffraction-limited frame so that a diffraction structure of the frame is detected, taking into account the magnification each scan position evaluates the diffraction structure of the frame and produces an image of the sample having a resolution that is increased beyond the diffraction limit.
  • This approach achieves an increase in resolution by mapping a spot diffraction-limited to a detection plane.
  • the diffraction-limited image forms a point spot as an Airy disc.
  • This diffraction disk is detected in the detection plane so that its structure can be resolved. Based on the imaging performance of the microscope thus takes place detector side oversampling. When you spot a spot, the shape of the Airy disk is resolved.
  • CCD arrays which are commonly used in microscopy, do not achieve a sufficient signal-to-noise ratio, so that even extending the imaging time, which would be detrimental in practice, would not help.
  • APD arrays are also subject to excessive dark noise, so that an extension of the measurement time would result in an insufficient signal / noise ratio.
  • CMOS detectors which are also disadvantageous in terms of the detector element size, since the diffraction-limited single image of the spot would fall on too few pixels. Similar space problems bring about PMT arrays; the pixels are too big there too.
  • a method which also achieves a high resolution (ie a resolution of a sample image beyond the diffraction limit) without the described detector limitations is known from WO 2006127692 and DE 10200602137.
  • This PALM abbreviated method uses a marking substance which can be activated by means of an optical activation signal. Only in the activated state, the marking substance can be excited with excitation radiation for the delivery of certain fluorescence radiation; Non-activated molecules do not emit fluorescence radiation even after the excitation radiation has been irradiated. The activation radiation thus switches the activation substance to a state in which it can be excited to fluoresce. Therefore, one generally speaks of a switching signal.
  • the activated marker of neighboring, also activated marker molecules is spaced so that the activated marker molecules are separated or subsequently separated according to the optical resolution of the microscopy.
  • the PAL method uses the fact that the probability with which a label molecule is activated by the switchover signal given the intensity of the switchover signal is the same for all label molecules. The intensity of the switching signal is thus applied so that the desired isolation takes place.
  • the spot scanned on the sample is mapped in a detection plane.
  • the radiation from the detection plane is then redistributed nchtchtstoryend and directed to the detector array.
  • individual areas of this individual image to be imaged in accordance with the imaging laws, which means that the imaging array and the redistribution element can be completely imaging optics, but the individual image present in the detection plane remains not redistributed as such.
  • diffraction-limited should not be limited to the diffraction limit according to Abbe's theory, but should also cover cases in which, due to real imperfections or limitations, the theoretical maximum is missed by 20% It is oversampled here as a diffraction structure.
  • the detector array is advantageously larger or smaller than the single image to be acquired in at least one extension.
  • the term of the different geometrical design includes both a different extent of the detector array and an arrangement with different aspect relationship with regard to the height and width of the extent of the individual image in the detection plane.
  • the pixels of the detector array can additionally be used for the required resolution to be too big.
  • the outline of the pixel array of the detector array is fundamentally different than the outline that the frame has in the detection plane.
  • the detector array has a different size than the single image in the detection plane.
  • the redistribution in the method or the redistribution element in the microscope makes it possible to select a detector array without having to pay attention to the dimensional constraints and pixel size constraints imposed by the frame and its size.
  • a detector row can be used as detector array.
  • the image of the sample is formed LSM-customary by scanning the sample with the spot from a plurality of individual images, which are each assigned to a different scanning location, ie a different scanning position.
  • the inventive concept can also be carried out in paralielarraer form for several spots simultaneously, as is known for laser scanning microscopy. Several spots are then scanned on the sample by scanning, and the individual images of the plurality of spots lie dormant in the detection plane next to one another. They are then redistributed either by a common redistribution element that is correspondingly large in terms of surface area or redistributed by a plurality of individual redistribution elements and then directed to a correspondingly larger single or multiple individual detector arrays.
  • the ISM method can be carried out at satisfactory speed and with reasonable expenditure on equipment be executed.
  • the invention opens up a wide field of application for a high-resolution microscopy principle, which has not hitherto been the case.
  • the redistribution or the redistribution element is to use a bundle of optical fibers.
  • These can preferably be embodied as multimode optical fibers.
  • the bundle has an input which is arranged in the detection plane and in its outline satisfies the dimensions of the diffraction-limited single image in the detection plane.
  • the optical fibers are arranged in the geometric arrangement which is predetermined by the detector array and which differs from that of the input.
  • the output ends of the optical fibers can be guided directly onto the pixels of the detector array. It is particularly advantageous if the output of the bundle is combined in a plug which can be conveniently plugged onto a detector line, for example an APD or PMT line.
  • each Schmixei is usually assigned to exactly one pixel of the detector array; however, the two are different in their arrangement.
  • Characteristic of the invention is, inter alia, that in the detection plane, the radiation is recorded on image pixels, which cause oversampling of the individual image in terms of their size and arrangement. In this way, the structure of the frame is resolved, which is a diffraction structure due to the diffraction-limited generation of the frame.
  • the redistribution element has an input side on which these image pixels are provided. The input side lies in the detection plane.
  • the redistribution element directs the radiation at each image pixel to one of the pixels of the detector array.
  • the assignment of image pixels to pixels of the detector array does not maintain the image structure, which is why the redistribution with respect to the individual image is non-imaging.
  • the invention could also be characterized in that in a generic microscope, the detector device has a non-imaging redistribution element, which is one in the detection plane Siegende Has input side at which the radiation is recorded with image pixels.
  • the redistribution element further has an output side at which the radiation received at the image pixels is supplied to pixels of a detector array, wherein the radiation is redistributed non-imagewise from the input side to the output side relative to the individual image.
  • the method according to the invention could be characterized in that, in a generic method, the radiation in the detection plane is recorded with image pixels which are redistributed non-imagewise to pixels of the detector array in relation to the individual image.
  • the detector array differs in the arrangement and / or size of its pixels from the arrangement and / or size of the image pixels in the detection plane.
  • the image pixels in the detection plane are provided by the redistribution element so that, with respect to the diffraction limit, the diffraction pattern of the frame is oversampled.
  • the redistribution element instead of redistribution based on optical fibers, it is also possible to equip the redistribution element with a mirror which has differently inclined mirror elements.
  • a mirror can be configured, for example, as a facet mirror, DMD or adaptive mirror, wherein in the last two variants a corresponding setting or activation ensures the inclination of the mirror elements.
  • the mirror elements direct the radiation from the detection plane onto the pixels of the detector array whose geometric configuration differs from that of the mirror elements.
  • the mirror elements like the optical fiber ends in the input of the fiber optic bundle, represent the image pixels with regard to the resolution of the diffraction structure of the single image. Their size is decisive for the overload, not (more) the pixel size of the detector array. In this respect, a group of several individual detectors is also understood here as a detector array, since these are always different in their arrangement (ie larger) than the image pixels in the detection plane.
  • LSSvl uses different lenses depending on the desired resolution.
  • the change of a lens changes the extent of a single image in the detection plane. It is therefore preferable to pre-allocate the detection plane in the imaging direction to a zoom lens for adapting the size of the single image to that of the detector device.
  • a zoom lens varies the size of the frame in a percentage range significantly less than 100%, so it is much easier to perform, as a multiplication of the size of the frame, which was initially described as disadvantageous.
  • the illumination of the sample is preferably carried out as in a conventional LSM scanning, although this is not mandatory. However, one then reaches the maximum Auffösungssteig réelle.
  • the illumination device and the imaging device it is expedient for the illumination device and the imaging device to have a common scanning device which guides an illumination spot over the sample and at the same time reproduces the spot coincident with the illumination spot at which the sample is imaged with respect to the detector descanned so that the frame is at rest in the detection plane.
  • the zoom optics in the common part of the illumination and imaging device. It then not only makes it possible to adapt the individual image to the size of the detector in the detection plane, but also allows the available illumination radiation to be completely coupled into the objective pupil, which can change with the choice of objective, without edge losses.
  • a radiation intensity-dependent crosstalk between adjacent pixels of the detector array can, as already mentioned, during redistribution by means of optical fiber bundles by suitable arrangement of the optical fibers in the bundle be reduced. Additionally or alternatively, it is also possible to carry out a calibration. For this purpose, each optical fiber is sequentially exposed to radiation and detects the interference signal in adjacent pixels. In this way, a calibration matrix is set up, with which, in the later microscopy of the sample, a radiation intensity-dependent crosstalk of adjacent pixels is corrected.
  • the resolution of the diffraction structure of the single image additionally allows to determine a movement direction of the spot along which it is displaced during the scanning of the sample.
  • this direction of movement is basically known from the mechanics of the scanner (for example, a scan mirror or a movable sample table), this results in residual inaccuracies due to mechanical reasons.
  • These can be eliminated by evaluating signals of individual pixels of the detector array by cross-correlation. It makes use of the fact that, based on adjacent image pixels in the sample overlap due to the diffraction-limited imaging of the spot to some extent, however, their centers are adjacent. By subjecting the signals of such image pixels to cross-correlation, one can reduce or completely eliminate residual uncertainty, which remains due to unavoidable tolerances of the scan mechanics.
  • the increased resolution can be on the spatial and temporal correlation of the signals from a series of measurements of the individual detector elements (the image pixels are assigned in the detection plane) detect a temporal change in the fluorescence detected by the spot detection volume, z.
  • diffusion coefficients can be determined from a temporal correlation as in fluorescence correlation spectroscopy, and also diffusion and diffusion barriers directed by incorporating the spatial correlation between image pixels can be visualized. Movements of the fluorescence molecules are also of great interest for tracking applications since the illumination spot there should follow the movement of the fluorescence molecules.
  • the arrangement described here makes it possible to determine the movement direction with high precision within a pixel exposure time. It is therefore preferred as a development that Changes in the sample can be detected by a temporal change of the diffraction-limited single image is determined and evaluated at resting in the sample point or line spot.
  • the procedure according to the invention further makes it possible to modify the illumination distribution when the illumination is scanned, for example by means of a phase filter. It is thus very easy to realize the method as described in Gong et al., Opt. Let., 34, 3508 (2009).
  • a control device realizes these method steps in the operation of the microscope.
  • Fig. 1 is a Schemadarstelfung a laser scanning microscope for
  • Fig. 2 is an enlarged view of a detector device of the microscope
  • 3 and 4 are plan views of possible embodiments of the detector device
  • Fig. 5 shows a development of the microscope of FIG. 1 by a zoom optics for
  • Fig. 6 shows a modification of the microscope of Fig. 5 with respect to the zoom optics
  • Fig. 7 shows a modification of the microscope of Fig. 1, wherein the modification of the
  • Detector device relates, and
  • FIG. 8 shows a modification of the detector device 19 of FIG. 7.
  • 1 schematically shows a laser scanning microscope 1, which is designed for microscopy of a sample 2.
  • the laser scanning microscope (hereinafter abbreviated to LSM) 1 is controlled by a control unit C and comprises a light beam path 3 and an imaging beam path 4.
  • the illumination beam path illuminates a spot in the sample 2, and the imaging beam path 4 images this spot diffraction-limited for detection.
  • Illumination beam path 3 and imaging beam path 4 share a plurality of elements. But this is just as imperative as a scanned spot illumination of sample 2. This could also be far-field illumination.
  • the illumination of the sample 2 takes place in the LSM 1 by means of a provided laser beam 5 which is coupled to a mirror 8 via a deflection mirror 6 which is not required to be functionally necessary and a lens 7.
  • the mirror 8 ensures that the laser beam 5 falls on an emission filter 9 at a reflection angle. For clarity, only the main axis of the laser beam 5 is shown.
  • the laser beam 5 is biaxially deflected by a scanner 10 and focused by means of lenses 11 and 12 through a lens 13 into a spot 14 in the sample 2.
  • the spot is punctiform in the illustration of Fig. 1, but it is also a line-shaped spot possible.
  • Fiuoreszenzstrahlung is returned via the lens 13, the lenses 11 and 12 to the scanner 10, after in Abbifdungscardi again a dormant light beam is present.
  • a lens 16 ensures that overall the spot 14 is imaged in a diffraction-limited image 17 which lies in a detection plane 18.
  • the detection plane 18 is a conjugate plane to the plane in which the spot 14 lies in the sample 2.
  • the image 7 of the spot 14 is recorded in the detection plane 18 by a detector device 19, which is explained in more detail with reference to FIGS. 2 to 4. It is essential here that the detector device 19 the diffraction-limited image 17 of the spot 14 in the detection plane 18 spatially resolved.
  • the intensity distribution of the spot over the detection cross section (Gaussian distribution) in FIG. 18 is shown as 18a below it in FIG.
  • the control unit C controls all components of the LSM 1, in particular scanner 10 and detector device 19.
  • the control unit records the data of each individual image 17 for various scan positions, analyzes its diffraction structure and generates a high-resolution overall image of the sample 2.
  • the LSM 1 of Fig. 1 is exemplified for a single spot scanned on the sample. However, it can also be used for scanning according to a line spot, which extends for example perpendicular to the plane of the drawing of FIG. It is also possible to design the LSM 1 of FIG. 1 so that several adjacent spot spots in the sample are scanned. Their corresponding individual images 17 are then also adjacent to one another in the detection plane 18. The detector device 19 is then designed accordingly to detect the adjacent individual images 17 in the detection plane 18.
  • the detector device 19 is shown enlarged in FIG. 2. It consists of an optical fiber bundle 20, which feeds a detector array 24.
  • the optical fiber bundle 20 is constructed of single light fibers 21.
  • the ends of the optical fibers 21 form the Lichtleitmaschinebündeleingang 22, which lies in the detection plane 18.
  • the individual ends of the optical fibers 21 thus represent pixels with which the diffraction-limited image 17 of the spot 14 is recorded. Since the spot 14 in the embodiment of FIG. 1 is an example of a spot spot, the image 17 is an Airy disk whose extent lies within the circle which illustrates the detection plane 18 in FIGS. 1 and 2.
  • the extent of the Lichtleitmaschinebündeleingangs 22 is so large that so that the expansion of the Airy disk is covered.
  • the individual optical fibers 21 in the light fiber bundle 20 are placed at their outputs in a different geometric arrangement, as at the Lichtieitmaschinebündeleingang 22, namely in the form of a longitudinally extended plug 23 in which the output ends of the optical fibers 21 are adjacent.
  • the Plug 23 is designed to match the geometric arrangement of the detector line 24, ie each output end of an optical fiber 21 is located exactly in front of a pixel 25 of the detector line 24th
  • the geometric extension of the redistribution element is quite fundamental, d. H. regardless of its implementation, which takes place in Fig. 4 by a fiber bundle, the input side adapted to the extent of the frame (or in the case of multiple point spots of the adjacent frames).
  • the redistribution element has the function of detecting the radiation from the detection plane 18 in such a way that the intensity distribution of the individual image 17 is oversampled in relation to the diffraction limit, ie the redistribution element has pixels (in the construction of FIG. 3) lying in the detection plane 18 the input ends of the optical fibers are formed), which are smaller by at least a factor of 2 than the smallest resolvable structure resulting from the diffraction limit taking into account the magnification in the detection plane 8.
  • a plug 23 is just one of many ways to place the output-side ends of the optical fibers 21 in front of the pixels 25.
  • the individual pixels 25 can be fused directly to the optical fibers 21. It is not even necessary to use a detector array 24; instead, a single detector can be used for each pixel 25.
  • FIGS. 3 and 4 show possible embodiments of the optical fiber bundle input 22.
  • the optical fibers 21 can be fused together at the optical fiber bundle input 22. This achieves a higher fill factor, i. H. Gaps between the individual optical fibers 21 at Lichtleitmaschinebündeleingang 22 are minimized. On the other hand, the merging leads to a certain crosstalk between adjacent ones
  • the optical fibers can be glued. Also, a square arrangement of the ends of the optical fibers 21 is possible, as shown in FIG. 4.
  • the individual optical fibers 21 are preferably assigned to the individual pixels 25 of the detector array 24 in such a way that adjacent optical fibers 21 adjoining one another at the optical fiber bundle input 22 are also located next to the detector array 24. This procedure minimizes crosstalk between adjacent pixels 25, which can occur, for example, due to scattered radiation or in the signal processing of the individual pixels 25.
  • the detector array 24 is a line, the corresponding arrangement can be achieved by determining the order of the individual optical fibers on the detector line by means of a spiral which, in plan view of the detection plane 18, successively connects the individual optical fibers.
  • FIG. 3 further shows dummy fibers 26 which lie in the corners of the arrangement of the optical fibers 21 at the optical fiber bundle inlet 22. These dummy fibers are not guided on pixels 25 of the detector array. At the locations of the dummy fibers, signal intensity required for evaluating the signals would no longer be present. It is thereby possible to reduce the number of optical fibers 21 and thus the number of pixels 25 in the detector line 24 or the detector array so that it is possible, for example, to work with 32 pixels.
  • detector lines 24 are already in use elsewhere in laser scanning microscopes, which has the advantage that the signal evaluation electronics in such laser scanning microscopes only need to be kept once and between an already existing detector line 24 and the other added by the detector device 19 Detector line 24 is switched.
  • optical fibers having a square basic shape are used for the bundle. They also have a high degree of coverage in the detection plane, thus efficiently collecting the radiation.
  • FIG. 5 shows a further development of the LSM 1 of FIG. 1, in which the detection plane 18 is preceded by a zoom lens 27.
  • the conjugate plane in which the detection plane 18 has been arranged in the construction of FIG. 1 now forms an intermediate image plane 28, from which the zoom optical system 27 receives the radiation and conducts it to the detection plane 18.
  • the zoom optics 27 allow the image 7 to be optimally adapted to the extent of the input of the detector device 19.
  • FIG. 6 shows a further modification of the laser scanning microscope 1 of FIG. 1.
  • the zoom optics are arranged here as zoom optics 29 so that they lie in the part of the beam path which is traversed both by the illumination beam path 3 and by the imaging beam path 4.
  • the LSM 1 is still two channels formed by the emission filter 9 is followed by a steel divider, which separates the radiation into two separate color channels.
  • the corresponding elements of the color channels correspond in each case to the elements which are arranged downstream of the emission filter 9 in the imaging direction in the LSM 1 of FIG.
  • the color channels are distinguished in the illustration of FIG. 6 by the reference suffix "a" or "b".
  • the realization with two color channels is independent of the use of the zoom optics 29.
  • the combination has the advantage that a zoom lens 27, which would have to be provided independently in each color channels and thus would be duplicated, only once required.
  • the zoom optics 27 can also be used in the construction according to FIG. 1 and the LSM 1 of FIG. 6 can also be realized without zoom optics 29.
  • FIG. 7 shows a modification of the LSM 1 of FIG. 1 with respect to the detector device 19.
  • the detector device 19 now has a facet mirror 30 which carries individual facets 31.
  • the facets 31 correspond in terms of the resolution of the image 17 to the ends of the optical fibers 21 at the optical fiber bundle input 22.
  • the individual facets 31 differ in their inclination to the optical axis of the radiation incidence.
  • each facet 31 forms a surface portion of the frame 7 on a pixel 25 of a detector array 24 from.
  • the Detector array 24 preferably be a 2D array, but also a detector line is possible.
  • FIG. 8 shows a development of the detector device 19 of FIG. 7, in which the lens 32 is preceded by a refractive element 35 which distributes the radiation particularly well onto a detector line.
  • the detector array 24 can be selected with regard to its geometry without further restrictions. Of course you have to. the redistribution element in the detector device 19 then be adapted to the corresponding detector array. The individual pixels with which the image 17 is resolved are ultimately no longer predetermined by the detector array 24 with regard to their size, but rather by the element which effects the redistribution of the radiation from the detection plane 18.
  • the diameter of the disk results in a diffraction-limited image according to the formula 1, 22 K / A, where ⁇ is the mean wavelength of the imaged radiation and NA is the numerical aperture of the objective 13. The half-width is then 0.15 K. /N / A.
  • a facet element 31 or one end of an optical fiber 21 at the optical fiber bundle input 22 may thus be at most half as large as the half-width of the diffraction-limited individual image.
  • this is true taking into account the magnification that the optics after the lens 13 causes. In the simplest case, therefore, a 4x4 array of pixels in the detection plane 18 per half width would more than satisfy.
  • the zoom optics which was explained with reference to FIGS. 5 and 6, permits not only an adaptation such that the diffraction distribution of the diffraction-limited image 17 of the spot 14 optimally fills the input surface of the detector device 19, but also a further mode of operation, namely if more than one airy Disc is imaged in the detection plane 18.
  • a further mode of operation namely if more than one airy Disc is imaged in the detection plane 18.
  • light from further depth planes of the sample 2 is detected at the outer pixels of the detector device 19.
  • additional signal strength is obtained without impairing the depth resolution of the LSM 1.
  • the Zoom optics 27 and 29 thus make it possible to set a compromise between signal-to-noise ratio of the image and depth resolution.
  • Gerchberg R.W. and Saxton W.O . Phase determination from image and diffraction plane pictures in the electron microscope; In Optics 35 (1972), p. 237
  • Airy is defined over the first zeros of a diffraction-limited illumination spot and is an established term in optics literature.
  • a PMT array means large detector elements, so it would take very long lengths.
  • a SPAD array does not achieve large counting rates in Geiger mode, as they can occur despite spatially resolved sub-Airy detection.
  • sensitive wide-field detectors e.g., CCD or EMCCD
  • CCD or EMCCD EMCCD
  • They can not be read full-frame with the necessary speed. If the method is nevertheless to be combined with a far-field detector, it is necessary to produce illumination patterns analogous to the structured wide-field microscopes, which disadvantageously increases the number of images required.
  • An essential feature of the invention is that with the technically preferred embodiments increased resolution can be achieved with good signal-to-noise ratio and in material samples also with a priori better weighting of the higher spatial frequencies.
  • the present invention relates to a plurality of methods according to the invention for spatially measuring the complex transmission and / or reflection properties (amplitude and phase distribution) of a sample comprising microstructures, for example a material sample or e.g. a semiconductor chip.
  • Interferometric measurement methods are generally used to determine the phase function of a sample [11]. However, these methods require complex optical arrangements that must ensure high interferometric system stability. In addition, for the unambiguous determination of the spatial phase distribution, a plurality of phase shifts between the illumination light transmitted and reflected by the object and the reference light are necessary.
  • Suitable methods in Weitfeid are generally accompanied by disturbing Snterferenzmustern (bacon) or have the lack of a direct optical cutting action.
  • PMT arrays are suitable for higher photon currents, which are necessary for a "good" image with a high SNR, but PMT arrays generally have a larger size, so that a suitable illumination is associated with large optical focal lengths of the focusing optics At this point, fiber bundles [16] provide a non-ablative flexible redistribution of light.
  • phase distribution would not yet be accessible.
  • wavefront sensors or interferometric or holographic methods or so-called “phase retrieval” methods can be used.
  • the Hartmann-Shack sensor consists of a two-dimensional lens array and an optical 2D detector (CMOS or CCD chip).
  • Each of the lenses generates an image in the focal plane which is shifted in relation to the local inclination of the wavefront with respect to a reference position.
  • This shift can be measured by the location-sensitive detectors
  • statements can be made about the local slope behavior of the incident front of the fence. This phase information is converted into a measurable intensity distribution
  • a two-dimensional lens array is combined with a two-dimensional detector.
  • Each microlens generates a spot of its location in its focal plane relative to a reference position may be shifted depending on the slope of the local wavefront.
  • an ikrolens array is set in order to be able to apply the principle of the Shack-Hartmann sensor to confocal laser scanning microscopy.
  • Wavefront Imaging Sensor Another alternative to wavefront measurement is the so-called “Wavefront Imaging Sensor” which was developed by Yang et al., Eg Opt. Lett 37, 199, 2012. Instead of a lens array, an aperture array would be used here can be applied to the fiber bundle at a certain distance.
  • the wave-front sensor SID4Bio offered by Phasics SA whose basic principle, quadriwave lateral shearing interferometry, has been described by Bon et al., For example, belongs to the field of interferometric sensors (eg Opt., Express 17, 13080, 2009) a pattern in the form of a chess-width pattern is placed in front of the sensor in the intermediate image plane and the interference of the different diffraction orders for phase measurement is exploited.Also, such an arrangement is conceivable in an LSM with array detector.
  • Various other examples are described in a review by G.ffy (Methods in Cell Biology, Vol. 90, 87, 2008).
  • phase retrieval method which is typically based on the Gerchberg-Saxton algorithm [12] .
  • phase retrieval method typically based on the Gerchberg-Saxton algorithm [12] .
  • the said phase retrieval method is applied to a confocal laser scanning microscope described with reference to FIGS. 1-8.
  • the detection light distribution belonging to each position of the diffraction-limited illumination spot is detected with spatially resolved sub-airy resolution (below the diffraction limit) can the coherent transfer function be widened (doubled) by the subsequent data sorting without the weighting of the higher spatial frequencies being smaller than which is the low frequencies.
  • FIGS. 1-8 show:
  • AOTF acousto-optic tunable filter
  • the radiation reflected or transmitted by the sample is coherent
  • the specific position of the wavefront and distortion of the wavefront of the wavefront is determined using a front-of-frame sensor and the phase position calculated therefrom.
  • the overall achievable resolution is thereby reduced at four pixels, but this is compensated by the detection of the wavefront distribution again. If necessary, the number of individual sensors and fibers can be increased.
  • An algorithm calculates a high-resolution image from the local phase / amplitude.
  • a calibration determination of the zero points in the undisturbed wavefront, for example, by a plane mirror in the sample plane or a conjugate to this plane done (zero measurement of the phase).
  • a correction of the phase on the basis of the determined values can be carried out pointwise (per scanned pixel of the LSM) upper picturewise after the taking of an image by the LSM, wherein the pointwise correction can be faster.
  • 9 shows a schematic illustration of a (laser scanning) light microscope 70 according to FIGS. 1-8 with sub-airy spatially resolved amplitude and phase measurement using an ultrafast wavefront sensor 60 with a detector array 61, 62, 63, fiber bundle 65, micro lens array 64 in one of the pinhole plane of the LSM corresponding image plane 54 which is conjugate to the sample plane.
  • the sample plane is transmitted via the elements described in FIGS. 1-8 as well as detection optics 50 into the plane of the microcorns whose foci lie on the entry surfaces of the fiber bundle 65.
  • Fig. 10a shows the assignment between Mikroünsen and optical fibers of a fiber bundle.
  • a micro-lens 64 focuses on a plurality of fibers (> 4) of a bundle 65, here four in each case.
  • each optical lens includes a plurality of optical fibers (23), which allow a lateral position determination of the focus position, in particular relative to a reference position. This makes it possible to determine the gradient of the wavefront so that, after mathematical integration, the spatially resolved course of the wave (phase) front results over the light distribution in an extent of approximately one airy.
  • 64 may represent an aperture array.
  • each 4 receivers are shown behind the optical fibers each corresponding to 4 acted upon by a micro lens optical fiber inputs.
  • the four receivers receive the same amount of light through the central location of 66 and produce the same measurement signal. On the right side, a shifted light spot 66 is shown.
  • the four receivers receive different amounts of light. From the measured
  • Amounts of light of the four receivers, the location of the spot 66 can be determined as
  • Fig. 10 e is a wavefront sensor according to the PAW method (Partitiones
  • Wavefront imager according to ertz et al (s.o.) shown schematically with four off-axis lenses.
  • the light passes through a 3f arrangement (fe focal length of the lenses),
  • the fiber entrance surfaces are acted upon by each individual lens of the PAW lens and an intensity measurement takes place via these associated detectors in order to determine the deformation of the wavefront.
  • the glass pyramids already mentioned above can also be used in 68.
  • an ultrasonic wavefront sensor 60 is integrated in a laser scanning microscope 70 into a detection plane 63 or a pupil plane following this plane (FIG. 9), the sub-airy amplitude and phase (Wels! ) distribution, which in turn allows the application of the Sheppard method, ie a better transfer function for high spatial frequencies and therefore better resolution is calculable.
  • the preferred embodiment of a laser scanning microscope 70 as shown in detail in FIGS. 1-8 consists of an illumination beam path, a scanning device, a typical microscope system comprising at least one tube lens, comprising at least one objective and a sample room with sample on which the illumination light is directed. After interaction with the sample, the sample light is guided in a detection beam path to finally enter the uitrachnical wavefront sensor 60 and be detected.
  • 11 shows a schematic representation of a laser scanning microscope 70 with sub-airy spatially resolved amplitude and phase measurement using an ultra-fast wavefront sensor 60.
  • the size adaptation of the light distribution of the detection light 53 to the ultrafast wavefront sensor 60 for optimum sub-airy Scanning is an adjustable focusing lens 50 with a fixed focus position in the beam path.
  • the size / diameter of a single fiber should not be greater than Airy / 3.
  • FIG. 12 shows a schematic representation of a (laser scanning) light microscope 70 with sub-airy spatially resolved amplitude and phase measurement using an ultrafast whelplate sensor 60.
  • Airy scan is a zoom optics 47 in the common illumination and detection beam path (pupil).
  • the lens can be optimally illuminated and the detection light always retains the same diameter in front of the detection optics 50.
  • the wavelength dependence of the light distribution in the so-called "pinhole plane" 54 which is optically conjugate to the detected sample plane, can be compensated be in which the lens pupil is optimally irradiated for the smallest illumination wavelength used and outshined for the longer wavelengths to always ensure an equal size distribution of light in the pinhole plane 54 on the microlens array 64.
  • a 50:50 beam splitter which may optionally be interchangeable with a color divider for chromatic separation, is used to realize detection via at least two substantially identical fiber bundles.
  • One of the detection units should lie in the depth of field of the objective in the detection plane because of the correct location information (amplitude).
  • the two partial beam paths generated by the beam splitter have a Wegiticianendifferenz on which can be adjusted.
  • the path length difference should be constant in order to avoid corresponding corrections.
  • FIG. 13 shows a technically preferred embodiment in which the phase retrieval method is used to determine the amplitude and phase distribution.
  • the technically preferred embodiment is designed such that two Sub-Airy spatially resolving, sensitive, fast, fiber-based detection system 60 and 60.1 without microlens arrays 65 and 65.1 in two different planes with respect to the Ptnhole level 64 (focal plane) used to implement the above method become.
  • One of the two Detekttons wornen 60 and 60.1 can be in the pinhole level 64.
  • the spatial amplitude and wavefront distribution and then the better resolved image of the (material) sample can be calculated.
  • two or more images are taken with different sample position in the axial direction and the two sub-array resolved intensity values are to be calculated.

Abstract

Mikroskop zur hochauflösenden Scanning-Mikroskopie einer Probe (2), mit einer Beleuchtungseinrichtung (3), einer Abbildungseinrichtung (4) zum Scannen mindestens eines Punkt- oder Linien-Spots (14) über die Probe (2) und zum Abbilden des Punkt- oder Linien-Spots (14) in ein beugungsbegrenztes, ruhendes Einzelbild (17) unter einem Abbildungsmaßstab in eine Detektionsebene (18), einer Auswerteeinrichtung (C), einer Detektoreinrichtung (19) zum Erfassen des Einzelbildes (17) in der Detektionsebene (18) für verschiedene Scanpositionen mit einer Ortauflösung, welche in mindestens einer Ausdehnung/ Dimension mindestens doppelt so groß ist wie eine Halbwertsbreite des beugungsbegrenzten Einzelbildes (17), wobei die Detektoreinrichtung (19) aufweist: ein Detektorarray (24), das Pixel (25) aufweist und größer ist als das Einzelbild (17), und ein nicht-abbildendes Umverteilungselement (20-21; 30-34; 30-35), das dem Detektorarray (24) vorgeordnet ist und die Strahlung aus der Detektionsebene (18) nicht-abbildend auf die Pixel (25) des Detektorarrays (24) verteilt.

Description

Hochauflösende Scanning-Mikroskopie
Die Erfindung bezieht sich auf ein Mikroskop zur hochauflösenden Scanning- Mikroskopie einer Probe, mit einer Beleuchtungseinrichtung zum Beleuchten der Probe, einer Abbildungsetnrichtung zum Scannen eines Punkt- oder Linien-Spots über die Probe und zum Abbilden des Punkt- oder Linien-Spots in ein beugungsbegrenztes, ruhendes Einzelbild unter einem Abbildungsmaßstab in eine Detektionsebene, einer Detektoreinrichtung zum Erfassen des Einzelbildes in der Detektionsebene für verschiedene Scanpositionen mit einer Ortauflösung, welche unter Berücksichtigung des Abbildungsmaßstabes mindestens doppelt so groß ist wie eine Halbwertsbreite des beugungsbegrenzten Einzelbildes, einer Auswerteeinrichtung zum Auswerten einer Beugungsstruktur des Einzelbildes für die Scanpositionen aus Daten der Detektoreinrichtung und zum Erzeugen eines Bildes der Probe, das eine Auflösung aufweist, die über die Beugungsgrenze gesteigert ist. Die Erfindung bezieht sich weiter auf ein Verfahren zur hochauflösenden Scanning- Mikroskopie einer Probe, bei dem die Probe beleuchtet wird, ein scannend über die Probe geführter Punkt- oder Linien-Spot in ein Einzelbild abgebildet wird, wobei der Spot unter einem Abbildungsmaßstab beugungsbegrenzt in das Einzelbild abgebildet wird und das Einzelbild ruhend in einer Detektionsebene liegt, für verschiedene Scanpositionen das Einzelbild mit einer Ortauflösung erfaßt wird, weiche unter Berücksichtigung des Abbildungsmaßstabes mindestens doppelt so groß ist wie eine Halbwertsbreite des beugungsbegrenzten Einzelbildes, so daß eine Beugungsstruktur des Einzelbildes erfaßt wird, für jede Scanposition die Beugungsstruktur des Einzelbildes ausgewertet wird und ein Bild der Probe erzeugt wird, das eine Auflösung aufweist, die über die Beugungsgrenze gesteigert ist.
Ein solches Mikroskop bzw. Mikroskopieverfahren ist beispielsweise aus der Veröffentlichung C. Müller und J. Enderlein, Physica! Review Letters, 104, 198101 (2010), oder der EP 2317362 A1 bekannt, die auch weitere Nachweise zum Stand der Technik aufführt.
Dieser Ansatz erreicht eine Auflösungserhöhung, indem ein Spot beugungsbegrenzt auf eine Detektionsebene abgebildet wird. Die beugungsbegrenzte Abbildung bildet einen Punkt-Spot als Airy-Scheibe ab. Diese Beugungsscheibe wird in der Detektionsebene so erfaßt, daß ihre Struktur aufgelöst werden kann. Bezogen auf die Abbildungsleistung des Mikroskops erfolgt somit detektorseitig eine Überabtastung. Bei der Abbildung eines Punkt-Spots wird die Form der Airy-Scheibe aufgelöst. Durch geeignete Auswertung der Beugungsstruktur, die in den genannten Schriften geschildert ist und deren Offenbarung diesbezüglich vollumfänglich hier einbezogen sei, erreicht man eine Auflösungssteigerung um den Faktor 2 über die Beugungsgrenze.
Detektionsseitig ist es dabei jedoch unvermeidlich, daß für jeden Punkt, der auf der Probe in dieser Weise abgetastet wird, verglichen mit einem herkömmlichen Laser- Scanning- ikroskop (nachfolgend auch als LSM abgekürzt) ein Einzelbild mit einem Vielfachen an BÜdinformation aufgenommen werden muß. Erfaßt man die Struktur des Einzelbildes des Spots beispielsweise mit 16 Pixeln, hat man pro Spot nicht nur die 6-fache Datenmenge, ein einzelnes Pixel enthält auch im Mittel nur ein 1/16 der Strahlungsintensität, die bei einer üblichen Pinhoie-Detektion auf den Detektor eines LSM fallen würde. Da die Strahlungsintensität über die Struktur des Einzelbildes, beispielsweise die Airy-Scheibe, natürlich nicht gleichmäßig verteilt ist, fällt am Rande dieser Struktur tatsächlich sogar noch bedeutend weniger Strahlungsintensität an, als der Mittelwert von 1/n bei n-Pixeln.
Man steht also vor der Aufgabe, detektorseitig Strahlungsmengen hochauflösend erfassen zu können. Herkömmliche CCD-Arrays, die üblicherweise in der Mikroskopie eingesetzt werden, erreichen kein hinreichendes Signal/Rausch- Verhältnis, so daß selbst eine Verlängerung der Bildaufnahmedauer, die per se schon als nachteilig in der Anwendung wäre, nicht weiterhelfen würde. APD-Arrays sind auch mit einem zu hohen Dunkelrauschen behaftet, so daß auch eine Verlängerung der Meßdauer in einem unzureichenden Signal/Rausch-Verhältnis resultieren würde. Gleiches gilt für CMOS-Detektoren, die zudem hinsichtlich der Detektorelementgröße nachteilig sind, da das beugungsbegrenzte Einzelbild des Spots auf zu wenige Pixel fallen würde. Ähnliche Bauraumprobleme bringen PMT- Arrays mit sich; die Pixel sind dort ebenfalls zu groß. Die Bauraumprobieme ruhen insbesondere daher, daß eine Realisierung eines Mikroskops zur Hochauflösung vom Entwicklungsaufwand wie von der Geräteverbreitung nur realisierbar ist, wenn eine Integration in bestehende LSM-Konstruktionen möglich ist. Hier sind jedoch bestimmte Größen des Einzelbildes vorgegeben. Ein flächenmäßig größerer Detektor könnte nur dann eingebracht werden, wenn zusätzlich eine Optik vorgesehen wird, die das Bild noch einmal signifikant, d. h. um mehrere Größenordnungen aufweitet. Eine solche Optik gestaltet sich, will man die beugungsbegrenzte Struktur ohne weitere Abbildungsfehler erhalten, als sehr aufwendig.
Es sind im Stand der Technik andere Verfahren bekannt, welche die geschilderten detektionsseitigen Probleme bei der Hochauflösung vermeiden. So ist beispielsweise in der EP 1157297 B1 ein Verfahren angesprochen, bei dem mittels strukturierter Beleuchtung nicht linearer Prozesse ausgenützt werden. Eine strukturierte Beleuchtung wird in mehreren Dreh- und Ortsiagen über die Probe verschoben und die Probe in diesen unterschiedlichen Zuständen auf einen Weitfelddetektor abgebildet, für den die geschilderten Beschränkungen nicht bestehen.
Ein Verfahren, das ohne die geschilderten Detektoreinschränkungen ebenfalls eine Hochauflösung (also eine Auflösung eines Probenbildes jenseits der Beugungsgrenze) erreicht, ist aus der WO 2006127692 und der DE 1020060213 7 bekannt. Dieses mit PALM abgekürzte Verfahren verwendet eine Markierungssubstanz, welche mittels eines optischen Aktivierungssignals aktiviert werden kann. Nur im aktivierten Zustand kann die Markierungssubstanz mit Anregungsstrahlung zur Abgabe von bestimmter Fluoreszenzstrahlung angeregt werden; nicht aktivierte Moleküle senden auch nach Einstrahlung von Anregungsstrahlung keine Fluoreszenzstrahlung aus. Die Aktivierungsstrahlung schaltet die Aktivierungssubstanz also in einen Zustand, in dem sie zur Fluoreszenz anregbar ist. Man spricht deshalb allgemein von einem Umschaltsignal. Dieses wird nun so aufgebracht, daß zumindest ein gewisser Anteil der aktivierten Markierungsmoieküle von benachbarten, ebenfalls aktivierten Markierungsmolekülen so beabstandet ist, daß die aktivierten Markierungsmoleküle gemessen an der optischen Auflösung der Mikroskopie getrennt oder nachträglich trennbar sind. Man spricht von Isolierung der aktivierten Moleküle. Für diese isolierten Moleküle ist es einfach, das Zentrum deren auflösungsbegrenzt bedingter Strahlungsverteilung zu ermitteln und somit rechnerisch die Lage der Moleküle mit höherer Genauigkeit zu bestimmen, als es die optische Abbildung eigentlich zuläßt. Zum Abbilden der gesamten Probe benutzt das PAL -Verfahren die Tatsache, daß die Wahrscheinlichkeit, mit der ein Markierungsmolekül durch das Umschaltsignal bei gegebener Intensität des Umschaltsignals aktiviert wird, für alle Markierungsmoleküle gleich ist. Die Intensität des Umschaltsignals wird also so aufgebracht, daß die gewünschte Isolierung erfolgt. Diese Verfahrensschritte werden so lange wiederholt, bis möglichst alle Markierungsmoleküle einmal in einer Teilmenge, die zur Fluoreszenz angeregt wurde, enthalten waren.
Im Rahmen der Erfindung wird der auf der Probe abgetastete Spot ruhend in eine Detektionsebene abgebildet. Die Strahlung aus der Detektionsebene wird dann ntcht- abbildend umverteilt und auf das Detektorarray geleitet. Der Begriff„nicht-abbildend" ist dabei auf das in der Detektionsebene vorhandene Einzelbild bezogen. Einzelne Flächenbereiche dieses Einzelbildes können natürlich dennoch gemäß den Abbildungsgesetzen abgebildet werden. Insofern kann zwischen Detektorarray und Umverteilungselement durchaus abbildende Optik liegen. Das in der Detektionsebene vorliegende Einzelbild bleibt jedoch bei der Umverteilung als solches nicht erhalten.
Der Begriff „beugungsbegrenzt" soll nicht auf die Beugungsgrenze gemäß der Abbe'schen Theorie beschränkt sein, sondern auch Fälle erfassen, in denen auf Grund realer Unzulänglichkeiten oder Einschränkungen das theoretische Maximum um 20 % verfehlt wird. Auch dann hat das Einzelbild eine Struktur, die hier als Beugungsstruktur bezeichnet wird. Sie wird überabgetastet.
Dieses Prinzip ermöglicht es, ein Detektorarray zu verwenden, das in seiner Größe nicht zum Einzelbild paßt. Das Detektorarray ist vorteilhaft in mindestens einer Ausdehnung größer oder kleiner als das zu erfassende Einzelbild. Unter den Begriff der unterschiedlichen geometrischen Ausbildung fallen sowohl eine unterschiedliche Ausdehnung des Detektorarrays als auch eine Anordnung mit unterschiedlichen Aspekiverhäitnis bezogen auf Höhe und Breite der Ausdehnung des Einzelbildes in der Detektionsebene. Die Pixel des Detektorarrays können zusätzlich für die erforderliche Auflösung zu groß sein. Auch ist es nun zulässig, daß der Umriß der Pixelanordnung des Detektorarrays grundlegend anders ist, als der Umriß, den das Einzelbild in der Detektionsebene hat. Letztlich hat das Detektorarray erfindungsgemäß eine andere Größe als das Einzelbild in der Detektionsebene. Die Umverteilung im Verfahren bzw. das Umverteilungselement im Mikroskop ermöglichen es, ein Detektorarray zu wählen, ohne die Abmessungseinschränkungen und Pixelgrößeneinschränkungen beachten zu müssen, welche durch das Einzelbild und dessen Größe entstehen. Insbesondere kann als Detektorarray eine Detektorzeile verwendet werden.
Das Bild der Probe entsteht LSM-üblich durch Abtasten der Probe mit dem Spot aus einer Vielzahl von Einzelbildern, die jeweils einem anderen Abtastort, also einer anderen Scanposition, zugeordnet sind.
Das erfindungsgemäße Konzept kann auch in paralielisierter Form für mehrere Spots gleichzeitig durchgeführt werden, wie dies für die Laserscanningmikroskopie bekannt ist. Es werden dann mehrere Spots auf der Probe scannend abgetastet, und die Einzelbilder der mehreren Spots liegen ruhend in der Detektionsebene nebeneinander. Sie werden dann entweder von einem gemeinsamen Umverteilungseiement, das flächenmäßig entsprechend groß ist bzw. von mehreren einzelnen Umverteiiungselementen umverteilt und dann auf ein entsprechend größeres einzelnes oder mehrere einzelne Detektorarrays geleitet.
Die nachfolgende Beschreibung konzentriert sich exemplarisch auf die Abtastung mit einem einzelnen Punkt-Spot. Dies soll jedoch nicht als Einschränkung verstanden werden, und die erläuterten Merkmale und Grundsätze gelten sinngemäß auch für die parallel Abtastung mehrerer Punkt-Spots wie auch für die Verwendung eines Linienspots. Letzterer ist natürlich nur quer zur Linienerstreckung beugungsbegrenzt, so daß die diesbezüglichen Merkmale dieser Beschreibung dann nur in einer Richtung (quer zur Linienerstreckung) gelten.
Durch das erfindungsgemäße Vorgehen kann das ISM-Verfahren bei zufriedenstellender Geschwindigkeit und mit vertretbarem apparativen Aufwand ausgeführt werden. Die Erfindung eröffnet für ein hochauflösendes Mikroskopieprinzip ein breites Anwendungsfeid, das so bislang nicht gegeben war.
Eine Möglichkeit der Umverteilung bzw. das Umverteilungselement zu realisieren besteht darin, ein Bündel aus Lichtleitfasern zu verwenden. Diese können vorzugsweise als Multimode-Lichtleitfasern ausgeführt werden. Das Bündel hat einen Eingang, der in der Detektionsebene angeordnet ist und in seinem Umriß den Ausdehnungen des beugungsbegrenzten Einzelbildes in der Detektionsebene genügt. Am Ausgang sind die Lichtleitfasern hingegen in der geometrischen Anordnung angeordnet, welche durch das Detektorarray vorgegeben ist, und welche sich von der des Eingangs unterscheidet. Die ausgangsseitigen Enden der Lichtleitfasern können dabei direkt auf die Pixel des Detektorarrays geführt werden. Besonders vorteilhaft ist es, wenn der Ausgang des Bündels in einem Stecker zusammengefaßt ist, der bequem auf eine Detektorzeile, beispielsweise eine APD- oder PMT-Zeile aufgesteckt werden kann.
Für das Verständnis der Erfindung ist es wichtig, zwischen den Pixeln des Detektorarrays und Bildpixeln zu unterscheiden, mit denen das Einzelbild in der Detektionsebene aufgelöst wird. Jedes Bildpixei ist i. d. R. genau einem Pixel des Detektorarrays zugeordnet; hinsichtlich ihrer Anordnung sind die beiden aber unterschiedlich. Kennzeichnend für die Erfindung ist es unter anderem, daß in der Detektionsebene die Strahlung an Bildpixeln aufgenommen wird, welche hinsichtlich ihrer Große und Anordnung eine Überabtastung des Einzelbildes bewirken. Auf diese Weise wird die Struktur des Einzelbildes aufgelöst, die aufgrund der beugungsbegrenzten Erzeugung des Einzelbildes eine Beugungsstruktur ist. Das Umverteilungselement hat eine Eingangsseite, an der diese Bildpixel vorgesehen sind. Die Eingangsseite liegt in der Detektionsebene. Das Umverteilungselement leitet die Strahlung an jedem Bildpixel zu einem der Pixel des Detektorarrays. Die Zuordnung von Bildpixeln zu Pixeln des Detektorarrays hält die Bildstruktur nicht aufrecht, weshalb die Umverteilung bezogen auf das Einzelbild nicht-abbildend ist. Die Erfindung könnte also auch dadurch charakterisiert werden, daß in einem gattungsgemäßen Mikroskop die Detektoreinrichtung ein nicht-abbildendes Umverteilungseiement aufweist, das eine in der Detektionsebene Siegende Eingangsseite aufweist, an der die Strahlung mit Bildpixeln aufgenommen wird. Das Umverteilungselement weist weiter eine Ausgangsseite auf, an der die an den Bildpixeln aufgenommene Strahlung Pixeln eines Detektorarrays zugeführt wird, wobei die Strahlung von der Eingangsseite zur Ausgangsseite bezogen auf das Einzelbild nicht-abbildend umverteilt ist. Analog könnte das erfindungsgemäße Verfahren dadurch charakterisiert werden, daß bei einem gattungsgemäßen Verfahren die Strahlung in der Detektionsebene mit Bildpixeln aufgenommen wird, die bezogen auf das Einzelbild nicht-abbildend auf Pixel des Detektorarrays umverteilt werden. Das Detektorarrays unterscheidet sich hinsichtlich Anordnung und/Größe seiner Pixel von der Anordnung und/oder Größe der Bildpixel in der Detektionsebene. Weiter sind die Bildpixel in der Detektionsebene vom Umverteilungselement so bereitgestellt, daß bezogen auf die Beugungsgrenze die Beugungsstruktur des Einzelbildes überabgetastet ist.
Bei hochempfindlichen Detektorarrays ist es bekannt, daß benachbarte Pixel bei hohen Strahlungsintensitätsunterschieden eine Störung durch Übersprechen zeigt. Um solches zu vermeiden, ist eine Weiterbildung bevorzugt, bei der die Lichtleitfasern so vom Eingang zum Ausgang geführt sind, daß am Ausgang benachbarte Lichtleitfasern auch am Eingang benachbart sind. Da das beugungsbegrenzte Einzelbild keine sprungartigen Strahlungsintensitätsänderungen zeigt, stellt eine derartige Ausgestaltung des Umverteilungselementes automatisch sicher, daß nebeneinanderliegende Pixel des Detektorarrays möglichst geringe Strahlungsintensitätsunterschiede erhalten, was das Übersprechen minimiert.
Anstelle einer auf Lichtleitfasern basierten Umverteilung ist es auch möglich, das Umverteilungselement mit einem Spiegel auszurüsten, der unterschiedlich geneigte Spiegelelemente hat. Ein solcher Spiegel kann beispielsweise als Facettenspiegel, DMD oder adaptiver Spiegel ausgestaltet werden, wobei bei den letzten beiden Varianten eine entsprechende Einstellung bzw. Ansteuerung die Neigung der Spiegelelemente sicherstellt. Die Spiegelelemente leiten die Strahlung aus der Detektionsebene auf die Pixel des Detektorarrays, dessen geometrische Ausbildung sich von der der Spiegelelemente unterscheidet. Die Spiegelelemente stellen wie die Lichtleitfaserenden im Eingang des Uchtfeitfaserbündels die Bildpixel hinsichtlich der Auflösung der Beugungsstruktur des Einzelbildes dar. Ihre Größe ist für die Überlastung entscheidend, nicht (mehr) die Pixelgröße des Detektorarrays. Insofern wird hier auch eine Gruppe aus mehreren Einzeldetektoren als Detektorarray verstanden, da diese in ihrer Anordnung immer anders (also größer) als die Bildpixel in der Detektionsebene sind.
Bei LSSvl werden je nach erwünschter Auflösung unterschiedliche Objektive verwendet. Der Wechsel eines Objektivs verändert die Ausdehnung eines Einzelbildes in der Detektionsebene. Es ist deshalb bevorzugt, der Detektionsebene in Abbildungsrichtung eine Zoomoptik zur Anpassung der Größe des Einzelbildes an die der Detektoreinrichtung vorzuordnen. Eine solche Zoomoptik variiert die Größe des Einzelbildes in einem Prozentbereich deutlich kleiner 100 %, ist also sehr viel einfacher auszuführen, als eine Vervielfachung der Größe des Einzelbildes, die eingangs als nachteilig geschildert wurde.
Die Beleuchtung der Probe erfolgt bevorzugt wie in einem üblichen LSM ebenfalls scannend, obwohl dies nicht zwingend ist. Man erreicht dann allerdings die maximale Auffösungssteigerung. Beleuchtet man die Probe scannend, ist es zweckmäßig, daß die Beleuchtungseinrichtung und die Abbildungseinrichtung eine gemeinsame Scaneinrichtung haben, welche einen Beleuchtungsspot über die Probe führt und zugleich den mit dem Beleuchtungsspot zusammenfallenden Spot, an dem die Probe abgebildet wird, in Bezug auf den Detektor wieder descannt, so daß das Einzelbild ruhend in der Detektionsebene ist. Bei einem solchen Aufbau kann man die Zoomoptik in dem gemeinsamen Teil von Beieuchtungs- und Abbildungseinrichtung setzen. Sie erlaubt es dann nicht nur, die Anpassung des Einzelbildes an die Größe des Detektors in der Detektionsebene vorzunehmen, sondern erlaubt auch zusätzlich die verfügbare Beleuchtungsstrahlung ohne Randverluste vollständig in die Objektivpupille, welche sich mit Wahl des Objektives ändern kann, einzukoppeln.
Ein strahlungsintensitätabhängiges Übersprechen zwischen nebeneinanderliegenden Pixeln des Detektorarrays kann, wie bereits eingangs erwähnt, bei Umverteilung mittels Lichtleitfaserbündel durch geeignete Anordnung der Lichtleitfasern im Bündel reduziert werden. Zusätzlich oder alternativ ist es auch möglich, eine Kalibrierung durchzuführen. Dazu wird jede Lichtleitfaser nacheinander mit Strahlung beaufschlagt und das Störsignal in benachbarten Pixeln erfaßt. Auf diese Weise wird eine Kalibriermatrix aufgestellt, mit der bei der späteren Mikroskopie der Probe ein strahfungsintensitätsabhängiges Übersprechen nebeneinanderliegender Pixel korrigiert wird.
Die Auflösung der Beugungsstruktur des Einzelbildes erlaubt es zusätzlich, eine Bewegungsrichtung des Spots zu ermitteln, entlang dieser während des Abtastens der Probe verschoben wird. Diese Bewegungsrichtung ist zwar grundsätzlich aus der Mechanik des Scanners (beispielsweise eines Scanspiegeis oder eines beweglichen Probentisches) bekannt, jedoch ergeben sich hier mechanisch bedingte Restungenauigkeiten. Diese können eliminiert werden, indem Signale einzelner Pixel des Detektorarrays mitteis Kreuzkorrelation ausgewertet werden. Dabei macht man sich zunutze, daß sich, bezogen nebeneinanderliegende Bildpixel in der Probe aufgrund der beugungsbegrenzten Abbildung des Spots in einem gewissen Maß überlappen, ihre Zentren jedoch nebeneinander liegen. Unterzieht man die Signale solcher Bildpixel einer Kreuzkorrelation, kann man eine Restungenauigkeit, welche aufgrund unvermeidlicher Toleranzen der Scanmechanik verbleibt, reduzieren bzw. vollständig eliminieren.
Neben der erhöhten Auflösung läßt sich über die räumliche und zeitliche Korrelation der Signale aus einer Meßreihe der einzelnen Detektorelemente (die Bildpixeln in der Detektionsebene zugeordnet sind) eine zeitliche Veränderung der Fluoreszenz im vom Spot erfaßten Detektionsvolumen erfassen, z. B. können aus einer zeitlichen Korrelation wie bei der Fluoreszenzkorrelationsspektroskopie Diffusionskoeffizienten bestimmt werden und auch durch das Einbeziehen der räumlichen Korrelation zwischen Bildpixeln gerichtete Diffusion und Diffusionsbarrieren visualisiert werden. Bewegungsabläufe der Fluoreszenzmoleküle sind darüber hinaus auch für Trackinganwendungen von großem Interesse, da dort der Beleuchtungsspot der Bewegung der Fluoreszenzmoleküle folgen soll. Die hier beschriebene Anordnung erlaubt es hochgenau die Bewegungsrichtung schon innerhalb einer Pixelbeichtungszeit zu ermitteln. Es ist deshalb als Weiterbildung bevorzugt, daß Veränderungen in der Probe erfaßt werden, indem bei in der Probe ruhendem Punktoder Linien-Spot eine zeitliche Veränderung des beugungsbegrenzten Einzelbildes ermittelt und ausgewertet wird.
Das erfindungsgemäße Vorgehen ermöglicht weiter bei gescannter Beleuchtung die Beleuchtungsverteilung zu modifizieren, beispielsweise mittels eines Phasenfilters. Kann damit sehr einfach das Verfahren realisiert werden, wie es beschrieben ist in Gong et al., Opt. Let., 34, 3508 (2009).
Soweit hier ein Verfahren beschrieben wird, realisiert ein Steuergerät diese Verfahrensschritte im Betrieb des Mikroskops.
Es versteht sich, daß die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in den angegebenen Kombinationen, sondern auch in anderen Kombinationen oder in Alieinstellung einsetzbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
Nachfolgend wird die Erfindung beispielsweise anhand der beigefügten Zeichnungen, die auch erfindungswesentliche Merkmale offenbaren, noch näher erläutert. Es zeigen:
Fig. 1 eine Schemadarstelfung eines Laser-Scanning-Mikroskops zur
hochauflösenden Mikroskopie,
Fig. 2 eine vergrößerte Darstellung einer Detektoreinrichtung des Mikroskops der
Fig. 1 ;
Fig. 3 und 4 Draufsichten auf mögliche Ausführungsformen der Detektoreinrichtung
19 in einer Detektionsebene,
Fig. 5 eine Weiterbildung des Mikroskops der Fig. 1 durch eine Zoom-Optik zur
Anpassung der Größe des Detektorfelde,
Fig. 6 eine Abwandlung des Mikroskops der Fig. 5 hinsichtlich der Zoom-Optik
sowie hinsichtlich einer Weiterbildung zur mehrfarbigen Abbildung,
Fig. 7 eine Abwandlung des Mikroskops der Fig. 1 , wobei die Abwandlung die
Detektoreinrichtung betrifft, und
Fig. 8 eine Abwandlung der Detektoreinrichtung 19 der Fig. 7. Fig. 1 zeigt schematisch ein Laserscanningmikroskop 1 , das zum Mikroskopieren einer Probe 2 ausgebildet ist. Das Laserscanningmikroskop (nachfolgend als LSM abgekürzt) 1 wird von einem Steuergerät C gesteuert und umfaßt einen Beleuchiungsstrahlengang 3 sowie einen Abbildungsstrahlengang 4. Der Beleuchtungsstrahlengang beleuchtet einen Spot in der Probe 2, und der Abbildungsstrahlengang 4 bildet diesen Spot beugungsbegrenzt zur Detektion ab. Beleuchtungsstrahlengang 3 und Abbildungsstrahlengang 4 teilen sich eine Vielzahl von Elementen. Dies ist aber ebenso wenig zwingend, wie eine gescannte Spot- Beleuchtung der Probe 2. Diese könnte auch weitfeldbeleuchtet werden.
Die Beleuchtung der Probe 2 erfolgt im LSM 1 mittels eines bereitgestellten Laserstrahls 5, der über einen nicht weiter funktionell erforderlichen Umlenkspiegel 6 und eine Linse 7 auf einen Spiegel 8 eingekoppelt wird. Der Spiegel 8 sorgt dafür, daß der Laserstrahl 5 unter einem Reflexionswinkel auf einen Emissionsfilter 9 fällt. Zur übersichtlicheren Darstellung ist für den Laserstrahl 5 lediglich dessen Hauptachse eingezeichnet.
Nach Reflexion am Emissionsfilter 9 wird der Laserstrahl 5 von einem Scanner 10 zweiachsig abgelenkt und mittels Linsen 11 und 12 durch ein Objektiv 13 in einen Spot 14 in der Probe 2 fokussiert. Der Spot ist dabei in der Darstellung der Fig. 1 punktförmig, es ist jedoch auch ein linienförmiger Spot möglich. Im Spot 14 angeregte Fiuoreszenzstrahlung wird über das Objektiv 13, die Linsen 11 und 12 wieder zum Scanner 10 gelangt, nachdem in Abbifdungsrichtung wiederum ein ruhender Lichtstrahl vorliegt. Dieser fällt durch die Emissionsfilter 9 und 15, welche die Funktion haben, die Fluoreszenzstrahlung im Spot 14 hinsichtlich ihrer Weilenlänge zu selektieren und insbesondere von der Beleuchtungsstrahlung des Laserstrahls 5, die beispielsweise als Anregungsstrahiung dienen kann, zu trennen. Eine Linse 16 sorgt dafür, daß insgesamt der Spot 14 in ein beugungsbegrenztes Bild 17 abgebildet wird, welches in einer Detektionsebene 18 liegt. Die Detektionsebene 18 ist eine konjugierte Ebene zur Ebene, in welcher der Spot 14 in der Probe 2 liegt. Das Bild 7 des Spots 14 wird in der Detektionsebene 18 von einer Detektoreinrichtung 19 aufgenommen, die nachfoigend anhand der Figuren 2 bis 4 näher erläutert wird. Wesentlich ist hier, daß die Detektoreinrichtung 19 das beugungsbegrenzte Bild 17 des Spots 14 in der Detektionsebene 18 räumlich auflöst.
Die Intensitätsverteilung des Spots über den Detektionsquerschnitt (Gaussverteilung) in 18 ist als 18a darunter in Fig. 1 dargestellt.
Das Steuergerät C steuert alle Komponenten des LSM 1 , insbesondere Scanner 10 und Detektoreinrichtung 19. Das Steuergerät nimmt für verschiedene Scanstellungen die Daten jedes einzelnen Bildes 17 auf, analysiert dessen Beugungsstruktur und erzeugt ein hochaufgelöstes Gesamtbild der Probe 2.
Das LSM 1 der Fig. 1 ist exemplarisch für einen einzigen Spot, der auf der Probe abgetastet wird, dargestellt. Es kann jedoch zugleich auch zur Abtastung gemäß einem Linien-Spot verwendet werden, der sich beispielsweise senkrecht zur Zeichnungsebene der Fig. 1 erstreckt. Auch ist es möglich, das LSM 1 der Fig. 1 so auszuführen, daß mehrere nebeneinanderliegende Punkt-Spots in der Probe abgetastet werden. Ihre entsprechenden Einzelbilder 17 liegen dann in der Detektionsebene 18 ebenfalls nebeneinander. Die Detektoreinrichtung 19 ist dann entsprechend ausgestaltet, um die nebeneinanderliegenden Einzelbilder 17 in der Detektionsebene 18 zu erfassen.
Die Detektoreinrichtung 19 ist vergrößert in Fig. 2 dargestellt. Sie besteht aus einem Lichtleitfaserbündel 20, welches ein Detektorarray 24 speist. Das Lichtleitfaserbündel 20 ist aus Einzeliichtfasern 21 aufgebaut. Die Enden der Lichtleitfasern 21 bilden den Lichtleitfaserbündeleingang 22, der in der Detektionsebene 18 liegt. Die einzelnen Enden der Lichtleitfasern 21 stellen somit Pixel dar, mit denen das beugungsbegrenzte Bild 17 des Spots 14 aufgenommen wird. Da der Spot 14 in der Ausführungsform der Fig. 1 exemplarisch ein Punkt-Spot ist, ist das Bild 17 ein Airy- Scheibchen, dessen Ausdehnung innerhalb des Kreises liegt, welcher in den Figuren 1 und 2 die Detektionsebene 18 veranschaulicht. Die Ausdehnung des Lichtleitfaserbündeleingangs 22 ist also so groß, daß damit die Ausdehnung der Airy- Scheibe abgedeckt wird. Die einzelnen Lichtleitfasern 21 im Leichtleitfaserbündel 20 sind an ihren Ausgängen in eine andere geometrische Anordnung gebracht, als am Lichtieitfaserbündeleingang 22, nämlich in Form eines iängserstreckten Steckers 23, in dem die ausgangsseitigen Enden der Lichtleitfasern 21 nebeneinander liegen. Der Stecker 23 ist passend zur geometrischen Anordnung der Detektorzeile 24 ausgebildet, d. h. jedes ausgangsseitige Ende einer Lichtleitfaser 21 liegt genau vor einem Pixel 25 der Detektorzeile 24.
Die geometrische Ausdehnung des Umverteilungselementes ist ganz grundsätzlich, d. h. unabhängig von seiner Realisierung, die in Fig. 4 durch ein Faserbündel erfolgt, eingangsseitig an die Ausdehnung des Einzelbildes (bzw. im Falle mehrerer Punkt- Spots der nebeneinanderliegenden Einzelbilder) angepaßt. Das Umverteilungseiement hat die Funktion, aus der Detektionsebene 18 die Strahlung so aufzunehmen, daß gemessen am Abtasttheorem die Intensitätsverteilung des Einzelbildes 17 bezogen auf die Beugungsgrenze überabgetastet wird, das Umverteilungselement hat also in der Detektionsebene 18 liegende Pixel (in der Bauweise der Fig. 3 durch die Eingangsenden der Lichtleitfasern gebildet), die mindestens um den Faktor 2 kleiner sind als die kleinste auflösbare Struktur, die sich aus der Beugungsgrenze unter Berücksichtigung des Abbildungsmaßstabes in der Detektionsebene 8 ergibt.
Natürlich ist die Verwendung eines Steckers 23 nur eine von vielen Möglichkeiten, die ausgangsseitigen Enden der Lichtleitfasern 21 vor den Pixeln 25 anzuordnen. Gleichermaßen ist es möglich, andere Verbindungen zu verwenden. Auch können die einzelnen Pixel 25 direkt mit den Lichtleitfasern 21 fusioniert werden. Es ist nicht einmal erforderlich, eine Detektorzeile 24 zu verwenden; stattdessen kann für jedes Pixel 25 ein einzelner Detektor verwendet werden.
Die Figuren 3 und 4 zeigen mögliche Ausführungsformen des Lichtleitfaserbündeleingangs 22. Die Lichtleitfasern 21 können am Lichtleitfaserbündeleingang 22 miteinander verschmolzen werden. Hierdurch wird ein höherer Füllfaktor erreicht, d. h. Lücken zwischen den einzelnen Lichtleitfasern 21 am Lichtleitfaserbündeleingang 22 werden minimiert. Das Verschmelzen führ andererseits zu einem gewissen Übersprechen zwischen benachbarten
Lichtleitfasern. Möchte man dieses vermeiden, können die Lichtleitfasern geklebt werden. Auch ist eine quadratische Anordnung der Enden der Lichtleitfasern 21 möglich, wie Fig. 4 zeigt. Bevorzugt sind die einzelnen Lichtleitfasern 21 so den einzelnen Pixeln 25 des Detektorarrays 24 zugeordnet, daß am Lichtleitfaserbündeleingang 22 nebeneinander liegende Lichtleitfasern 21 auch am Detektorarray 24 nebeneinander liegen. Durch dieses Vorgehen minimiert man Übersprechen zwischen benachbarten Pixeln 25, das beispielsweise durch Streustrahlung oder in der Signalverarbeitung der einzelnen Pixel 25 auftreten kann. Ist das Detektorarray 24 eine Zeile, kann man die entsprechende Anordnung dadurch erreichen, indem die Reihenfolge der Einzellichtleitfasern auf der Detektorzeiie durch eine Spirale festgelegt wird, welche in Draufsicht auf die Detektionsebene 18 die Einzellichtleitfasern nacheinander verbindet.
Fig. 3 zeigt weiter noch Blindfasern 26, die in den Ecken der Anordnung der Lichtleitfasern 21 am Lichtleitfaserbündeleingang 22 liegen. Diese Blindfasern sind nicht auf Pixel 25 des Detektorarrays geführt. An den Orten der Blindfasern wäre keine für die Auswertung der Signale erforderliche Signalintensität mehr vorhanden. Man kann dadurch die Anzahl der Lichtleitfasern 21 und damit die Anzahl der Pixel 25 in der Detektorzeile 24 oder dem Detektorarray so reduzieren, daß beispielsweise mit 32 Pixeln gearbeitet werden kann. Solche Detektorzeilen 24 sind bereits anderweitig in Laser-Scanning-Mikroskopen im Einsatz, was den Vorteil hat, daß die Signalauswerteelektronik in solchen Laser-Scanning-Mikroskopen nur einmal vorgehalten werden muß und zwischen einer bereits bestehenden Detektorzeile 24 und der durch die Detektoreinrichtung 19 hinzugekommenen weiteren Detektorzeile 24 umgeschaltet wird.
Gemäß Fig. 4 werden Lichtleitfasern mit quadratischer Grundform für das Bündel verwendet. Sie haben ebenfalls einen hohen Abdeckungsgrad in der Detektionsebene, sammeln die Strahlung also effizient auf.
Fig. 5 zeigt eine Weiterbildung des LSM 1 der Fig. 1 , in dem der Detektionsebene 18 eine Zoomoptik 27 vorgeordnet ist. Die konjugierte Ebene, in welcher bei der Bauweise der Fig. 1 die Detektionsebene 18 angeordnet wurde, bildet nun eine Zwischenbildebene 28, aus welcher die Zoomoptik 27 die Strahlung aufnimmt und zur Detektionsebene 18 leitet. Die Zoomoptik 27 erlaubt es, das Bild 7 optimal an die Ausdehnung des Eingangs der Detektoreinrichtung 19 anzupassen. Fig. 6 zeigt eine nochmalige Abwandlung des Laser-Scanning-Mikroskops 1 der Fig. 1 . Zum einen ist hier die Zoomoptik als Zoomoptik 29 so angeordnet, daß sie im Teil des Strahlenganges liegt, der sowohl vom Beleuchtungsstrahlengang 3 als auch vom Abbildungsstrahlengang 4 durchlaufen wird. Man erhält damit den Vorteil, daß nicht nur die Größe des Bildes 17 auf der Eingangsseite der Detektoreinrichtung 19 angepaßt werden kann, es kann auch bezüglich des Abbiidungsstrahlenganges 4 die Pupilienfüilung des Objektivs 13 und damit die Ausnutzung des Laserstrahls 5 angepaßt werden.
Zusätzlich ist in Fig. 6 das LSM 1 noch zweikanalig ausgebildet, indem dem Emissionsfilter 9 ein Stahlteiler nachgeordnet ist, welcher die Strahlung in zwei getrennte Farbkanäle abtrennt. Die entsprechenden Elemente der Farbkanäle entsprechen jeweils den Elementen, die im LSM 1 der Fig. 1 dem Emissionsfilter 9 in Abbildungsrichtung nachgeordnet sind. Die Farbkanäle sind in der Darstellung der Fig. 6 durch das Bezugszeichensuffix„a" bzw.„b" unterschieden.
Natürlich ist die Realisierung mit zwei Farbkanälen unabhängig von der Verwendung der Zoomoptik 29. Die Kombination hat jedoch den Vorteil, daß eine Zoomoptik 27, die in beiden Farbkanälen jeweils eigenständig vorgesehen werden müßte und damit doppelt vorhanden wäre, nur einmal erforderlich ist. Selbstverständlich kann jedoch die Zoomoptik 27 auch in der Bauweise gemäß Fig. 1 zum Einsatz kommen und das LSM 1 der Fig. 6 kann auch ohne Zoomoptik 29 verwirklicht werden.
Fig. 7 zeigt eine Abwandlung des LSM 1 der Fig. 1 hinsichtlich der Detektoreinrichtung 19.
Die Detektoreinrichtung 19 weist nun einen Facettenspiegel 30 auf, der einzelne Facetten 31 trägt. Die Facetten 31 entsprechen hinsichtlich der Auflösung des Bildes 17 den Enden der Lichtleitfasern 21 am Lichtleitfaserbündeleingang 22. Die einzelnen Facetten 31 unterscheiden sich hinsichtlich ihrer Neigung zur optischen Achse des Strahlungseinfalls. Zusammen mit einer Linse 32 und einem Minilinsenarray 33 sowie einem nur der Strahlfaltung dienenden Umienkspiegel 34 bildet jede Facette 31 einen Flächenabschnitt des Einzelbildes 7 auf ein Pixel 25 eines Detektorarrays 24 ab. Je nach Orientierung der Facetten 31 kann das Detektorarray 24 dabei bevorzugt ein 2D-Array sein, aber auch eine Detektorzeile ist möglich.
Fig. 8 zeigt eine Weiterbildung der Detektoreinrichtung 19 der Fig. 7, in welcher der Linse 32 noch ein refraktives Element 35 vorgeordnet ist, das die Strahlung besonders gut auf eine Detektorzeile verteilt.
Das Detektorarray 24 kann, wie bereits erwähnt, hinsichtlich seiner Geometrie ohne weitere Einschränkungen gewählt werden. Selbstverständlich muß. das Umverteilungselement in der Detektoreinrichtung 19 dann auf das entsprechende Detektorarray angepaßt werden. Die einzelnen Pixel, mit denen das Bild 17 aufgelöst wird, sind letztlich hinsichtlich ihrer Größe nicht mehr durch das Detektorarray 24 vorgegeben, sondern durch das Element, welches die Umverteilung der Strahlung aus der Detektionsebene 18 bewirkt. Bei einer Airy-Scheibe ergibt sich der Durchmesser der Scheibe bei einer beugungsbegrenzten Abbildung gemäß der Formel 1 ,22 K/ A, wobei λ die mittlere Wellenlänge der abgebildeten Strahlung und NA die numerische Apertur des Objektivs 13 ist Die Halbwertsbreite ist dann 0,15 K/NA. Um die Hochauflösung zu erreichen, genügt es, die Ortsauflösung bei der Detektion doppelt so groß wie die Halbwertsbreite zu gestalten, d. h. die Halbwertsbreite zweimal abzutasten. Ein Facetteneiement 31 bzw. ein Ende einer Lichtleitfaser 21 am Lichtleitfaserbündeleingang 22 darf somit maximal halb so groß wie die Halbwertsbreite des beugungsbegrenzten Einzelbildes sein. Dies gilt natürlich unter Berücksichtigung des Abbildungsmaßstabes, den die Optik nach dem Objektiv 13 bewirkt. Im einfachsten Fall würde also ein 4x4-Array von Pixeln in der Detektionsebene 18 pro Halbwertsbreite mehr als genügen.
Die Zoomoptik, welche anhand der Figuren 5 und 6 erläutert wurde, erlaubt neben einer Anpassung dergestalt, daß die Beugungsverteilung des beugungsbegrenzten Bildes 17 des Spots 14 die Eingangsfläche der Detektoreinrichtung 19 optimal ausfüllt, auch noch eine weitere Betriebsart, wenn nämlich mehr als eine Airy- Scheibe in die Detektionsebene 18 abgebildet wird. Bei einer Messung, bei der mehr als eine Airy-Scheibe auf die Detektoreinrichtung 19 abgebildet wird , wird Licht aus weiteren Tiefenebenen der Probe 2 an den äußeren Pixeln der Detektoreinrichtung 19 detektiert. Im Zuge der Verarbeitung des Bildes erhält man dabei zusätzliche Signalstärke, ohne daß die Tiefenauflösung des LSM 1 beeinträchtigt wäre. Die Zoomoptik 27 bzw. 29 erlaubt es somit, einen Kompromiß zwischen Signal- /Rauschverhältnis des Bildes und Tiefenauflösung einzustellen.
Stand der Technik
[1] Heintzmann R.; Cremer C: Lateraily Modulated Excitatson icroscopy: Improvement of resolution by using a diffraction grating; in Proceedings of SPSE, Vol. 3568 (1998)
[2] Shao L.; Kner P.; Hesper E.; Gustafsson Mats G, L: Super-resolution 3D- microscopy of live whole cells using structured Illumination; In Nature Methods, Vol. 8 (2011 )
[3] Littieton B.; Lai K.; Longstaff D.; Sarafis V.; Munroe P.; Heckenberg N.; Rubinsztein-Dunlop H.: Coherent super-resolution microscopy via iaterally structured Illumination ; In Micron, Vol. 38 (2007), S. 150
|4] Karadaglic D. and Wilson T.: Image formation in structured Illumination wide-field fluorescence microscopy; In Micron, Vol. 39 (2008), S. 808
[5] Chowdhury S.; Dhalla A.-H.; Izatt J.i Structured oblique Illumination microscopy for enhanced resolution imaging of non-fluorescent, coherently scattering samples; In
Biomedical Optics Express, Vol. 3 (2012), S. 1841
[6] Bertero et al., Inverse Problems 3, 95 (1987)
[7] Cox et al., Optik 60, No. 4 391 , (1982)
[8] Sheppard C; Optik 80, No. 2 391 , (1988)
[9] Grochmalicki et al., J. Opt. Soc. Am. A 10, 1074 (1993)
[10] C.B. Mueller et al., Phys. Rev. Lett. 104, (2010)
[1 1 ] Hamilton D.K. and Sheppard J.R.: A confocai interference microscope; In Optica Acta 29 (1982), p. 1573
[12] Gerchberg R.W. and Saxton W.O.: Phase determination from image and diffraction plane pictures in the electron microscope; In Optik 35 (1972), p. 237
[13] Ralph W. Gerchberg: SYSTEM AND ETHOD FOR RECOVERING PHASE INFORMATION OF A WAVE FRONT; In US 6545790 B2
[14] Ralph W. Gerchberg; Louise Gerchberg: LIGHT MICROSCOPE WITH NOVEL DIGITAL METHOD TO ACHIEVE SUPER-RESOLUTION; in US 2011/0032586A 1 [15] Foreman M.R.; Giusca C.L.; Török P.; Leach R.K.: Phase retrieved pupil function and coherent transfer function; in Journal of Microscopy 251 (2013), p. 99 [16] W. Becker, „Advanced time-correlated Single photon counting techniques", Springer 2005, S. 144
In einem gattungsgemäßen Laser-Scanning-Mikroskop (LS ) wird eine erhöhte Auflösung dadurch erreicht, dass das sogenannte Pinhole (Lochblende} vor dem Detektor auf eine Größe deutlich kleiner als die Beugungsgrenze (< Airy / 4) reduziert wird. Man spricht dann von einem konfokalen Laser-Scanning-Mikroskop.
Das „Airy" wird über die ersten Nullstellen eines beugungsbegrenzten Beleuchtungsspots definiert und ist ein etablierter Begriff in der Optikliteratur.
Für den Fall eines gattungsgemäßen Fluoreszenz-LSMs besteht ein entscheidender Nachteil bei der gegenwärtigen Methode zur Erlangung erhöhter Auflösung: Das sehr schlechte Signal-zu-Rausch-Verhältnis aufgrund der wegen fast geschlossenem Pinhoie geringen Anzahl detektierter Photonen, die von der Probe kommen, was in der Praxis dazu führt, das keine verbesserte Auflösung erreicht werden kann.
Bei der konfokalen Laser-Scanntng-Materialmikroskopie besteht dieser Nachteil nicht. Hier sind im Allgemeinen ausreichend viele Photonen für die Detektion vorhanden. Die optische Transfer-Funktion des Gesamtsystems mit quasi geschlossenem Pinhole besteht in erster Näherung aus der Faltung der Pupillenfunktionen. Bis auf die Stokes» Verschiebung der Fluoreszenz zur Beleuchtung hat die Transferfunktion die Form und Breite der Transferfunktion der Fluoreszenz-Weitfeldmikroskopie. Das bedeutet zwar, dass höhere Objektfrequenzen übertragen werden, aber ihre Gewichtung ist kleiner als die der tieferen Objektfrequenzen.
Es ist nun aber auch möglich, die Auflösung eines Laser-Scanning-Mikroskops bei gleichzeitig besserem Signal-zu-Rausch-Verhältnis zu erhöhen. Dazu muss mit einem größeren Pinhole-Durchmesser (ca. 1 Airy), was eine höhere Anzahl detektierbarer Photonen bedeutet, und mit einer Sub-Airy-ortsaufgelösten Detektion gearbeitet werden. Nach der Bildaufnahme erfolgt eine Umsortierung und Verrechnung der Daten mittels eines speziellen Algorithmus. Dies führt dann zu einer erhöhten Auflösung im Probenbild. Diese Methode, beruhend auf Colin Sheppard, wird in der Literatur auch Akkumulation verschobener Sub-Airy-Detektorwerte genannt [6-10]. Die genannte Methode funktioniert nicht nur mit fluoreszierenden Proben, sie kann auch für die Bildgebung an kohärent wechselwirkenden Materialproben angewendet werden. Hier bietet die Methode kaum Vorteile hinsichtlich des Detektionsphotonenbudgets. Vielmehr besteht der Vorteil darin, dass die Gesamt- Übertragungsfunktion im Wesentlichen durch die Pupillenfunktion mit doppelter Bandbreite gegeben ist. Das heißt, dass die höheren Objektfrequenzen die gleiche Gewichtung wie die tieferen Objektfrequenzen erfahren.
Voraussetzung für die Anwendbarkeit der Methode auf kohärent wechselwirkende Materialproben ist aber, dass sowohl Amplitude als auch Phase mit einer Sub-Airy- Ortsauflösung und mit hoher Sampling-Rate vermessen werden.
Die Ausführung der genannten Methode konnte sich bisher nicht durchsetzten, da es an schnellen (Integrationszeit typ. ^ΐμε), geeignet großen, sensitiven und rauscharmen Multi-Element-Detektoranordnungen mit einer entsprechend hohen Anzahl an Detektorelementen (typ. >30 notwendig) im Sub-mm-Bereich im Laser- Scanning-Mikroskop-Bereich mangelt. Außerdem muss die räumliche Lichtverteilung auf der Detektionseinrichtung sehr genau erfasst werden, was entsprechend Justieraufwand bedeutet und fehleranfällig ist.
Ein PMT-Array bedeutet große Detektor-Elemente, es wären deshalb sehr große Baulängen nötig.
Ein SPAD-Array erreicht im Geiger-Mode keine großen Zählraten, wie sie trotz ortsaufgelöster Sub-Airy Detektion aber auftreten können.
Außerdem können empfindliche Weitfelddetektoren (z.B. CCD oder EMCCD) bei der genannten Methode nicht zur Anwendung kommen. Sie können nicht Full-Frame mit der notwendigen Geschwindigkeit ausgelesen werden. Soll die Methode dennoch mit einem Weitfeiddetektor kombiniert werden, so müssen analog zur Strukturierten Weitfeldmikroskopte stehende Beleuchtungsmuster erzeugt werden, was die Anzahl notwendiger Bilder wieder nachteilig erhöht.
Als Aufgabe der Erfindung kann daher angesehen werden, die Nachteile der genannten etablierten lichtmikroskopischen Verfahren mit strukturiertem Beleuchtungslicht zu überwinden. Ein wesentliches Merkmal der Erfindung ist, dass mit den technisch bevorzugten Ausführungsformen eine erhöhte Auflösung mit gutem Signal-zu-Rausch-Verhältnis und bei Materialproben auch mit einer a priori besseren Gewichtung der höheren Raumfrequenzen erzielt werden kann.
Erfindungsgemässe Lösungen
sind im Folgenden Gegenstände der unabhängigen Patentansprüche.
Bevorzugte Weiterbildungen sind Gegenstand der abhängigen Patentansprüche.
Die vorliegende Erfindung betrifft mehrere erfindungsgemässe Verfahren zur räumlichen Messung der komplexen Transmissions- und/oder Reflexionseigenschaften (Amplituden- und Phasenverteüung) einer Mikrostrukturen aufweisenden Probe, beispielsweise einer Materialprobe oder z.B. eines Halbleiter- Chips.
Zur Bestimmung der Phasenfunktion einer Probe kommen im Allgemeinen interferometrische Messmethoden zur Anwendung [11]. Diese Verfahren benötigen jedoch aufwendige optische Anordnungen, die eine hohe interferometrische Systemstabilität gewährleisten müssen. Für die eindeutige Bestimmung der räumlichen Phasenverteilung sind außerdem mehrere Phasenverschiebungen zwischen dem vom Objekt transmittierten bzw. reflektierten Beleuchtungslicht und dem Referenzlicht notwendig.
Geeignete Verfahren im Weitfeid sind im Allgemeinen von störenden Snterferenzmustern (Speckte) begleitet oder weisen den Mangel einer direkten optischen Schnittwirkung auf.
Hier zeigen beleuchtungspunktscannende Methoden geeignetere Eigenschaften: Bereits mit einer Pinholegröße von einem Airy ergibt sich eine optische Schnittwirkung, störende Interferenzmuster sind weitaus weniger sichtbar als im Weitfeld.
Aber beleuchtungspunktscannende Methoden zeichnen sich nicht durch hohe Bildaufnahmegeschwindigkeiten aus. Eine Verbesserung in dieser Hinsicht ist durch die Verwendung resonanter Galvo-Scanner gegeben (bis zu 30 frames / s). Bei diesen hohen Scan-Geschwindigkeiten resultieren aber kleine Pixelintegrationszeiten, was die Anwendung von PMT-Arrays oder APD-Arrays erforderlich macht, im Falle der Material mikroskopie können mitunter auch einfache Photodiodenarrays (PDAs) zum Einsatz kommen.
PMT - Arrays eignen sich für höhere Photonenströme, die für ein„gutes" Bild mit hohem SNR notwendig sind. PMT-Arrays weisen aber i.a. eine größere Ausdehnung auf, so dass eine geeignete Ausleuchtung mit großen optischen Brennweiten der Fokussieroptik verknüpft ist. Abhilfe können an dieser Stelle Faserbündel [16] leisten, die eine nichtabbiidende flexible Umverteilung des Lichtes ermöglichen.
Dies ist oben anhand der Fig- 1-8 ausführlich dargestellt.
Die Kombination Faserbündel mit einem Array-Detektor ist aber noch nicht ausreichend, um die Methode implementieren zu können. Damit wäre noch nicht die Phasenverteilung zugänglich. Um diese zu erhalten können entweder Wellenfrontsensoren oder interferometrische bzw. holographische Methoden oder sogen.„Phase Retrieval" Methoden eingesetzt werden.
Eine erste vorteilhafte Alternative zur iPhasenmessung stellt die Phasengradienten- Methode nach Shack und Hartmann dar:
http://de.wikipedia.org/wiki/Hartmann-Shack-Sensor
Der Hartmann-Shack- Sensor besteht aus einem zweidimensionalen Linsenarray und einem optischen 2D Detektor (CMOS-bzw. CCD Chip).
Jede der Linsen erzeugt in der Fokusebene ein Bild, das entsprechend der lokalen Neigung der Wellenfront gegenüber einer Referenzposition verschoben ist,
Diese Verschiebung kann durch die ortsempfindlichen Detektoren gemessen werden Durch Analyse der lokalen Ablenkungen der Punkte von ihren Idealpositionen können Aussagen über das lokale Steigungsverhalten der einfallenden Weilenfront getroffen werden. Diese Phaseninformation wird in eine messbare Intensitätsverteilung umgewandelt
Es wird ein zweidimensionales Linsen-Array mit einem zweidimensionalem Detektor kombiniert. Jede Mikrolinse erzeugt in ihrer Fokalebene einen Spot dessen Lage gegenüber einer Referenzposition je nach Neigung der lokalen Wellenfront verschoben sein kann.
Vor das Faserbündel gemäß der obigen Beschreibung wird erfindungsgemäß ein ikrolinsen-Array gesetzt, um das Prinzip des Shack-Hartmann-Sensors auf die konfokale Laser-Scanning-Mikroskopie anwenden zu können.
Darauf beruht erfindungsgemäß diese bevorzugte Ausführungsform eines ultraschnellen Shack-Hartmann-Sensors für die konfokale Laser-Scanning-
Materialmikroskopie.
Eine andere Alternative zur Wellenfrontmessung ist der sogen.„Wavefront Imaging Sensor" weicher von Yang et ai. (z.B. Opt. Lett. 37, 199, 2012) entwickelt wurde. Statt eines Linsen-Arrays käme hier ein Apertur-Array zum Einsatz, welches in einem gewissen Abstand auf das Faserbündel aufgebracht werden kann.
Eine ebenfalls weitere Alternative zur Wellenfrontmessung ist das sogen.„Pariitioned Aperture Wavefront (PAW)" - Verfahren von Mertz et al. bzw. Iglesias (z.B. Mertz et ai., Opt. Lett. 37, 4062, 2012 oder Iglesias, Opt.Lett. 36, 3636, 2011). Hier müsste in der Fourierebene vor der Pinhole-Ebene ein Linsenarray bzw. ein Pyramidenprisma als partitionierendes Element eingebracht werden, welches in der Pinhole-Ebene auf einem Kamera-Array typischerweise 4 jedoch mindestens 3 lateral versetzte Replica- Bilder erzeugt. Da die Replica aufgrund des partitionierenden Elements für aus unterschiedlichen Teilbereichen des Winkelspektrum generiert werden, kann aus der relativen Intensität der Replica auf die Wellenfront und damit auf die Phasen geschlossen werden.
In den Bereich der interferometrischen Sensoren fällt beispielsweise der von der Firma Phasics S.A. angebotene Wellenfrontsensor SID4Bio, dessen Grundprinzip, die „Quadriwave Lateral Shearing"-lnterferometrie beispielsweise von Bon et al. erläutert wurde {z.B. Opt. Express 17, 13080, 2009). Hier wird eine schachbreitmusterförmige Maske in die Zwischenbildebene vor den Sensor gebracht und die Interferenz der unterschiedlichen Beugungsordnungen zur Phasenmessung ausgenutzt. Auch eine solche Anordnung ist in einem LSM mit Array-Detektor denkbar. Gleiches gilt für andere vergleichbare interferometrische bzw. holographische Anordnungen, bei denen ebenfalls das Referenzfeid direkt aus Lichtanteilen gewonnen wird, die von der Probe dstammen. Ein Beispiel ist das holographische Lloyd-Mikroskop von Anand et al. (Opt. Lett 37, 5127, 2012). Verschiedene weitere Beispiele sind in einem Review von G. Popescu beschrieben (Methods in Cell Biology, Vol. 90, 87, 2008).
Eine interferometrische Anordnung, die nicht auf Selbstinterferenz beruht ist beispielsweise von Zhao et al. beschrieben (Appl. Opt. 50, 655, 2010). Hier ist ein Strahlengang mit einem auf einem Referenzspiegel basierenden Interferometer beschrieben. Das Referenzlicht stammt somit nicht von der Probe selber. Durch eine geschickte Anordnung werden 4 unterschiedliche Phasenhübe im Sinne des sogen. „Phase Shifting"-Prinzips parallelvermessen. Alternativ könnte auch der Referenzspiegel axial bewegt werden. Wird das gezeigt Konfokalmikroskop erfindungsgemäß mit mindestens einem Array-Detektor statt mit Punktdetektoren ausgestattet, so ist wiederum die Vermessung der ortsaufgelösten Phase möglich.
Neben Interferometrie bzw. Holographie-Verfahren sowie den Wellenfrontmethoden wie der Shack-Hartmann-Wellenfront-Gradientenmethode gibt es eine weitere vorteilhafte Methode zur Bestimmung der räumlichen Amplituden- und Wellenfrontverteilung. Hierbei handelt es sich um die sogenannte„Phase-Retrieval- Methode", die typischerweise auf dem Gerchberg-Saxton-Aigorithmus beruht [12]. Es gibt im Wesentlichen zwei Ausführungsformen was die Messungen zur Umsetzung der Methode angeht:
a) Die Intensität wird in zwei durch die optische Wellenpropagation miteinander verbundene Ebenen gemessen und anschließende wird die räumliche Wellenfrontverteilung mitteis iterativer (Fourier- )A!gohthmen [13] berechnet (Fig. 13).
b) Die Intensität wird mehrfach in nur einer Ebene gemessen, wobei dabei in einer hinsichtlich der Propagationsrichtung vorgeschalteten Ebene geeignete Filterfunktionen zur Anwendung kommen und die räumliche Wellenfrontverteilung wiederum mittels iterativer (Fourier-)Algorithmen berechnet wird [14].
Die genannte Phase-Retrieval-Methode wird wie auch die anderen oben erwähnten Methoden erfindungsgemäß auf ein anhand der Figuren 1 -8 beschriebenes konfokales Laser-Scanning-Mikroskop angewendet. Hierbei geht es darum, die Wellenfront der Lichtverteilung unterhalb der Beugungsgrenze, d.h. mit Sub-Airy- Auflösung zu vermessen. Dies bedeutet Neuland und stellt eine Abgrenzung zu aktuellen Publikationen dar (z.B. Punktdetektor in konfokalem Mikroskop [15]). Nur wenn die zu jeder Position des beugungsbegrenzten Beleuchtungsspot gehörenden Detektionslichtverteiiung mit ortsaufgelöster Sub-Airy-Auflösung (unterhalb des Beugungsgrenze) delektiert wird, kann durch die anschließende Datenumsortierung die kohärente Transfer-Funktion verbreitert (verdoppelt) werden ohne dass die Gewichtung der höheren Raumfrequenzen kleiner als die der tiefen Frequenzen ist. in der Literatur gibt es momentan kein Experiment was dies zeigt [15].
**********************************************************************
Weitere Merkmale und Vorteile der Erfindung werden im Folgenden in Bezug auf die beigefügten schematischen Figuren beschrieben.
Die zusätzlich zu Fig. 1-8 hinzukommenden Bezugszeichen zeigen:
41 Lichtquelle
42 Spiegeltreppe mit teildurchlässigen Spiegeln / Farbteilern
3 Akusto-optischer durchstimmbarer Filter (AOTF)
4 Beleuchtungslicht
,45 Spiegel
6 Kollimationsoptik
7 Zoomoptik
Hauptfarbteiler
0 (durchstimmbare) Detektionsoptik
3 Probenlicht
4 Pinhole-Ebene
5 (Neutra!-) Strahlteiler
0 (Ultraschneller) Wellenfrontsensor, Sub-Airy ortsauflösende
Detektionseinrichtung
0.1 zweiter (Ultraschneller) Wellenfrontsensor, zweite Sub-Airy
ortsauflösende Detektionseinrichtung
1 Detektionseinrichtung
1.1 zweite Detektionseinrichtung 62 Detektorelement, Detektor-Pixel
62.1 Detektorelement, Detektor-Pixel der zweiten Detektionseinrichtung
63 Detektionsebene
63.1 zweite Detektionsebene
64 Mikrolinsen-Array
65 Faserbünde!
66 Mikrol nsenspot
70 Lichtmikroskop
Erstes Verfahren (Weilenfrontsensor)
Bei der Materialanwendung ist die von der Probe reflektierte oder transmittierte bzw. gestreute Strahlung kohärent,
im Gegensatz zur inkohärenten Fluoreszenzstrahlung bei der Fluoreszenzanwendung. Es wird für die kohärente Probenstrahlung die konkrete Welienfront Lage und Verzerrung der Welienfront mit einem Weilenfrontsensor bestimmt und daraus die Phasenlage berechnet.
Es werden hierzu mindestens 3, bevorzugt (wegen der Symmetrie) vier Pixel
(= Fasereintrittsflächen ) pro Einzellinse verwendet.
Die erzielbare Auflösung insgesamt wird dadurch bei vier Pixeln zwar geringer, jedoch wird das durch die Erfassung der Wellenfrontverteilung wieder ausgeglichen, Gegebenenfalls kann die Anzahl der Einzelsensoren und Fasern erhöht werden.
Durch einen Algorithmus wird aus der lokalen Phase/ Amplitude ein hochauflösendes Bild errechnet.
Eine Eichung (Festlegung der Nullpunkte bei ungestörter Wellenfront kann beispielsweise durch einen ebenen Spiegel in der Probenebene oder einer hierzu konjugierten Ebene erfolgen (Nullmessung der Phase).
Eine Korrektur der Phase anhand der ermittelten Werte kann punktweise (pro abgerasterten Bildpunkt des LSM) ober bildweise nach der Aufnahme eines Bildes durch das LSM erfolgen, wobei die punktweise Korrektur schneller sein kann. Fig. 9 zeigt eine schematische Darstellung eines (Laser-Scanning-)Lichtmikroskops 70 nach den Figuren 1-8 mit Sub-Airy ortsaufgelöste Amplituden- und Phasenmessung unter Verwendung eines ultraschnellen Wellenfrontsensors 60 mit einem Detektorarray 61 ,62,63, Faserbündel 65, Mikroiinsenarray 64 in einer der Pinholeebene des LSM entsprechenden Bildebene 54 die konjugiert zur Probenenbene liegt. Die Probenebene wird über die in Fig. 1-8 beschriebenen Elemente sowie eine Detektionsoptik 50 in die Ebene der Mikroünsen übertragen, deren Foki auf den Eintrittsflächen des Faserebündels 65 liegen.
Fig. 10a) zeigt die Zuordnung zwischen Mikroünsen und Lichtleitfasern eines Faserbündels. Eine Mikroiinse 64 fokussiert auf mehrere Fasern (>4) eines Bündels 65, hier jeweils vier.
Fig. 10b) zeigt die erfindungsgemäße Ausführungsform eines schnellen Wellenfrontsensors 60 bestehend aus einem Mikrolinsen-Array 64, einem Faserbündel 65 und einer sensitiven, rauscharmen und schnellen ulti-E!ement-Detektoreinrichtung 61. Das ikrolinsen-Array 64 fokussiert ortsaufgelöst die Lichtverteilung 53 innerhalb eines Airy-Durchmessers auf das Faserbündel-Array 65. Dabei gehören zu jeder Mikroiinse mehrere Lichtleitfasern (23), die eine laterale Lagebestimmung der Fokusposition insbesondere relativ zu einer Referenzposition ermöglichen. Dadurch wird eine Bestimmung des Gradienten der Wellenfront ermöglicht, so dass sich nach mathematischer Integration der ortsaufgelöste Verlauf der Wellen-(Phasen)front über die Lichtverteilung in einer Ausdehnung von ca. einem Airy ergibt. Mittels des Faserbündels 65 erfolgt eine nichtabbildende Umverteilung der Photonen auf eine sensitive, rauscharme und schnelle Mutti-Element-Detektoreinrichtung 61. Alternativ kann 64 ein Apertur-Array darstellen.
In Fig.10c sind jeweils 4 Empfänger hinter den Lichtleitfasern dargestellt die jeweils 4 durch eine Mikroiinse beaufschlagten Lichtleitfasereingängen entsprechen.
Auf der finken Seite ist eine ideale Lage des Lichtspots 66 der durch eine Mikroiinse des Arrays 64 erzeugt wird, bezüglich der vier Empfänger dargestellt.
Sie entsteht wie oben erwähnt beispielsweise durch Eichung mittels eines ebenen
Spiegels.
Die vier Empfänger erhalten durch die mittige Lage von 66 dieselbe Lichtmenge und erzeugen das gleiche Messsignal. Auf der rechten Seite ist ein verschobener Lichtspot 66dargestellt.
Die vier Empfänger erhalten unterschiedliche Lichtmengen. Aus den gemessenen
Lichtmengen der vier Empfänger kann die Lage des Spots 66 ermittelt werden als
Voraussetzung für die Berechnung der Verschiebung der Phasenfront.
in Fig. 10 e ist ein Wellenfrontsensor nach dem PAW Verfahren (Partitiones
Wavefront imager) nach ertz et al (s.o.) mit vier off axis Linsen schematisch dargestellt.
Über die Detektionsoptik 50 und eine einstellbare Blende LB in einer Fokusebene 54 zur Begrenzung des Lichtspots, beispielsweise auf etwa ein Airy .geht das Licht mittels einer eine 3f Anordnung (fe Fokailänge der Linsen),
über eine Linse in Ebene 67 und vier PAW Linsen 69 in der Ebene 69 (hier sind von der Seite nur zwei dargestellt) die in einer zur Fourierebene des Objektives optisch konjugierten Ebene angeordnet sind,
von diesen fokussiert in die Ebene 65 der Lichteintrittsflächen, beispielsweise der oben ausführlich beschriebenen Faseranordnung, gelangen wobei von jeder Einzeliinse der PAW Linse Fasereintrittsflächen beaufschlagt werden und über diesen zugeordnete Detektoren eine Intensitätsmessung erfolgt um die Deformation der Wellenfront zu ermitteln. Statt der PAW Linsen können in 68 auch die weiter oben schon erwähnten Glaspyramiden eingesetzt werden.
Wird die zuvor genannte erftndungsgemäß bevorzugte Ausführungsform eines uitraschnellen Wellenfrontsensors 60 in einem Laser-Scanning-Mikroskop 70 in eine Detektionsebene 63 oder eine auf diese Ebene nachfolgende Pupillenebene integriert (Fig. 9) so kann die Sub-Airy Amplituden- und Phasen(Wel!en)-vertei!ung ermittelt werden, was wiederum die Anwendung der Sheppard-Methode ermöglicht, d.h. eine für hohe Ortsfrequenzen bessere Übertragungsfunktion und damit bessere Auflösung ist berechenbar.
Gemäß Fig. 9 besteht die gezeigte bevorzugte Ausführungsform eines Laser- Scanning-Mikroskops 70 wie anhand der Abbildungen 1-8 ausführlich beschrieben aus einem Beleuchtungsstrahlengang, einer Scan-Einrichtung, einem typischen Mikroskop-System bestehend aus mindestens einer Tubuslinse, bestehend aus mindestens einem Objektiv und einem Probenraum mit Probe, auf die das Beleuchtungslicht gelenkt wird. Nach Wechselwirkung mit der Probe wird das Probenlicht in einem Detektionsstrahlengang geführt um schließlich in den uitraschnellen Wellenfrontsensor 60 einzutreten und detektiert zu werden. Fig. 11 zeigt in schematischer Darstellung eines Laser-Scanning-mikroskops 70 mit Sub-Airy ortsaufgelöste Amplituden- und Phasenmessung unter Verwendung eines ultraschnellen Weüenfrontsensors 60. Für die Größenanpassung der Lichtverteilung des Detektionsiichts 53 an den ultraschnellen Wellenfrontsensor 60 für eine optimale Sub-Airy-Abtastung befindet sich eine einstellbare Fokussieroptik 50 mit fester Fokuslage im Strahlengang. Insbesondere sollte die Größe/ Durchmesser einer einzelnen Faser sollte nicht größer als Airy / 3 sein.
Fig. 12 zeigt eine schematische Darstellung eines (Laser-Scanning-) Lichtmikroskops 70 mit Sub-Airy ortsaufgelöste Amplituden- und Phasenmessung unter Verwendung eines ultraschnellen Welfenfrontsensors 60. Für die Größenanpassung der Lichtverteilung des Detektionsiichts 53 an den ultraschnellen Wellenfrontsensor 60 für eine optimale Sub-Airy-Abtastung befindet sich eine Zoom-Optik 47 im gemeinsamen Beleuchtungs-und Detektionsstrahlengang (Pupille).
Ist dies der Fall, so kann hiermit das Objektiv optimal ausgeleuchtet werden und das Detektionslicht behält stets den gleichen Durchmesser vor der Detektionsoptik 50. Die Wellenlängenabhängigkeit der Lichtverteilung in der sogenannten„Pinhole- Ebene" 54, die optisch konjugiert zur erfassten Probenebene liegt, kann kompensiert werden, in dem die Objektivpupille für die kleinste benutzte Beleuchtungswellenlänge optimal bestrahlt und für die größeren Wellenlängen überstrahlt wird, um stets eine gleich große Lichtverteilung in der Pinhole-Ebene 54 auf dem Mikrolinsen-Array 64 zu gewährleisten.
Zweites Verfahren (Phase Retrival):
In einer ersten Ausführung wird ein 50:50 Strahlteiler, der ggf. mit einem Farbteiler zur chromatischen Trennung auswechselbar sein kann eingesetzt um eine Detektion über mindestens zwei im Wesentlichen identische Faserbündel zu realisieren.
Eine der Detekiionseinheiten sollte hierbei in der Schärfentiefe des Objektives in der Detektionsebene liegen wegen der korrekten Ortsinformation (Amplitude).
Die beiden durch den Strahlteiler erzeugten Teilstrahlengänge weisen eine Wegiängendifferenz auf die einsteilbar sein kann. Während der Abtastung der Probe (Bilderzeugung) sollte die Weglängendifferenz konstant sein, um entsprechende Korrekturen zu vermeiden.
Fig. 13 zeigt eine technisch bevorzugte Ausführungsform bei der zur Bestimmung der Amplituden- und Phasenverteilung die Phase-Retrieval-fvtethode zur Anwendung kommt. Die technisch bevorzugte Ausführungsform ist derart gestaltet, dass zur Umsetzung der genannten Methode zwei Sub-Airy ortsauflösende, sensitive, schnelle, faserbasierte Detektionssystems 60 und 60.1 ohne Mikrolinsen-Arrays 65 und 65.1 in zwei unterschiedlichen Ebenen bezüglich der Ptnhole-Ebene 64 (Fokusebene) verwendet werden. Eine der beiden Detekttonseinrichtungen 60 und 60.1 kann dabei in der Pinhole-Ebene 64 stehen. Unter Verwendung der ortsaufgelöst gemessenen beiden Intensitätsbilder für jede Scan-Position des (beugungsbegrenzten) Beleuchtungsspots kann die räumliche Amplituden- und Wellenfrontverteiiung und anschließend das besser aufgelöste Bild von der (Material) Probe berechnet werden.
In einer noch einfacheren Ausführungsform werden 2 oder mehrere Bilder Bilder mit unterschiedlicher Probenposition in axialer Richtung aufgenommen und die beiden sub-Array-aufgelösten Intensitätswerte sind zu verrechnen.
Dies kann mit einer Anordnung gemäß den Fig.1-8 vorteilhaft erfolgen.
Weiterhin denkbar sind Ansätze, bei denen zur Erfassung der Defokusinformation chromatische Längsfehler zusammen mit einer spektral-gefilterten Detektion ausgenutzt werden. Zudem gibt es Ansätze, bei denen diffraktive Optiken zum
Einsatz kommen, um unterschiedliche Fokusebenen zu realisieren.

Claims

Patentansprüche
1.
Mikroskop zur hochauflösenden Scanning-Mikroskopie einer Probe (2), mit
einer Beleuchtungseinrichtung (3) zum Beleuchten der Probe (2),
einer Abbildungseinrichtung (4) zum Scannen mindestens eines Punkt- oder Linien-Spots (14) über die Probe (2) und zum Abbilden des Punkt- oder Linien-Spots (14) in ein beugungsbegrenztes, ruhendes Einzelbild (17) unter einem Abbildungsmaßstab in eine Detektionsebene (18),
einer Detektoreinrichtung (19) zum Erfassen des Einzelbildes (17) in der Detektionsebene (18) für verschiedene Scanpositionen mit einer Ortauflösung, welche unter Berücksichtigung des Abbiidungsmaßstabes in mindestens einer Ausdehnung/ Dimension mindestens doppelt so groß ist wie eine Halbwertsbreite des beugungsbegrenzten Einzelbildes (17),
einer Auswerteeinrichtung (C) zum Auswerten einer Beugungsstruktur des Einzelbildes ( 7) für die Scanpositionen aus Daten der Detektoreinrichtung (19) und zum Erzeugen eines Bildes der Probe (17), das eine Auflösung aufweist, die über die Beugungsgrenze gesteigert ist, wobei
die Detektoreinrichtung (19) aufweist:
ein Detektorarray (24), das Pixel (25) aufweist und größer ist als das
Einzelbild ( 7), und
ein nicht-abbildendes Umverteilungselement (20-21 ; 30-34; 30-35), das dem Detektorarray (24) vorgeordnet ist und die Strahlung aus der Detektionsebene (18) nicht-abbildend auf die Pixel (25) des Detektorarrays (24) verteilt.
2.
Mikroskop nach Anspruch 1 , dadurch gekennzeichnet, dass das Umverteilungselement ein Bündel (20) aus Lichtleitfasern (21 ), vorzugsweise aus Multi-Mode Lichtleitfasern, umfaßt welches einen in der Detektionsebene (18) angeordneten Eingang (22) und einen Ausgang (23) aufweist, an dem die Lichtleitfasern (21 ) in einer geometrischen Anordnung, welche sich von der des Eingangs (22) unterscheidet, an den Pixeln (25) des Detektorarrays (24) enden.
3.
Mikroskop nach Anspruch 2, dadurch gekennzeichnet, daß die Lichtleitfasern (21 ) so vom Eingang (22) zum Ausgang (23) laufen, daß am Ausgang (23) benachbarte Lichtleitfasern (21 ) auch am Eingang (22) benachbart sind, um ein strahlungsintensitätsabhängiges Übersprechen nebeneinanderliegender Pixel (25) zu minimieren.
4.
Mikroskop nach Anspruch 1 , dadurch gekennzeichnet, daß das Umverteilungselement einen Spiegel (30) mit unterschiedlich geneigten Spiegelelementen (31 ), insbesondere einen Facettenspiegel, ein DMD oder einen adaptiven Spiegel, umfaßt, der Strahlung aus der Detektionsebene (18) auf die Pixel (25) des Detektorarrays (24) lenkt, wobei die Pixel (25) des Detektorarrays (25) eine geometrische Anordnung haben, welche sich von der der Spiegelelemente (31 ) unterscheidet.
5.
Mikroskop nach einem der obigen Ansprüche, dadurch gekennzeichnet, daß die Abbildungseinrichiung (4) eine der Detektionsebene (18) in Abbildungsrichtung vorgeordnete Zoomoptik (27) zur Anpassung der Größe des Einzelbildes (17) an die der Detektoreinrichtung (19) au weist.
6.
Mikroskop nach Anspruch 5, dadurch gekennzeichnet, daß die Beleuchtungseinrichtung (3) und die Abbildungseinrichiung (4) sich eine Scaneinrichtung (10) teilen, so daß die Beleuchtungseinrichtung (3) die Probe (2) mit einem beugungsbegrenzten Punkt- oder Linien-Spot beleuchtet, der mit dem von der Abbildungseinrichiung abgebildeten Spot (14) zusammenfällt, wobei die Zoomoptik (27) so angeordnet ist, daß sie auch Bestandteil der Beleuchtungseinrichtung (3) ist.
7.
Mikroskop nach einem der obigen Ansprüche, dadurch gekennzeichnet, daß das Detektorarray (24) eine Detektorzeile, bevorzugt eine APD- oder PMT-Zeiie ist.
8.
Verfahren zur hochauflösenden Scanning-Mikroskopie einer Probe (2), bei dem
die Probe (2) befeuchtet wird,
mindestens ein scannend über die Probe (2) geführter Punkt- oder Linien-Spot (14) in ein Einzelbild (17) abgebildet wird, wobei der Spot (14) unter einem Abbildungsmaßstab beugungsbegrenzt in das Einzelbild (17) abgebildet wird und das Einzelbild (17) ruhend in einer Detektionsebene (18) liegt,
für verschiedene Scanpositionen das Einzelbild (17) mit einer Ortaufiösung erfaßt wird, welche unter Berücksichtigung des Abbiidungsmaßstabes mindestens doppelt so groß ist wie eine Halbwertsbreite des beugungsbegrenzten Einzelbildes (17), so daß eine Beugungsstruktur des Einzelbildes ( 7) erfaßt wird,
für jede Scanposition die Beugungsstruktur des Einzelbildes (17) ausgewertet wird und ein Bild der Probe (2) erzeugt wird, das eine Auflösung aufweist, die über die Beugungsgrenze gesteigert ist, wobei
ein Detektorarray (24) bereitgestellt wird, das Pixel (25) aufweist und größer ist als das Einzelbild (17), und
Strahlung des Einzelbildes aus der Detektionsebene (18) nicht-abbildend auf die Pixel (25) des Detektorarrays (24) umverteilt wird.
9.
Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß die Strahlung des Einzelbildes (17) mittels eines Bündels (20) aus Lichtleitfasern (21 ), vorzugsweise aus Multi-Mode Lichtleitfasern, umverteilt wird, welches einen in der Detektionsebene (18) angeordneten Eingang (22) und einen Ausgang (23) aufweist, an dem die Lichtleitfasern (21 ) in einer geometrischen Anordnung, welche sich von der des Eingangs (22) unterscheidet, an den Pixeln (25) des Detektorarrays (24) enden.
10.
Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß die Lichtleitfasern (21 ) so vom Eingang (22) zum Ausgang (23) geführt werden, daß am Ausgang (23) benachbarte Lichtleitfasern (21 ) auch am Eingang (22) benachbart sind, um ein strahlungsintensitätsabhängiges Übersprechen nebeneinanderliegender Pixel (25) zu minimieren.
11.
Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, daß das Bündel (20) aus Lichtleitfasern (21 ) und das Detektorarray (24) kalibriert werden, indem jede Lichtleitfaser (21 ) einzeln mit Strahlung beaufschlagt wird, Störsignai in Pixeln (25), die am Ausgang (23) benachbarten Lichtleitfasern (21 ) zugeordnet sind, erfaßt werden und eine Kalibriermatrix aufgestellt wird, mit der bei Mikroskopie der Probe (2) ein strahlungsintensitätsabhängiges Übersprechen nebeneinanderliegender Pixel (25) korrigiert wird.
12.
Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß die Strahlung des Einzelbildes (17) mittels eines Spiegels (30) mit unterschiedlich geneigten Spiegelelementen (31), insbesondere einen Facettenspiegel, ein DMD oder einen adaptiven Spiegel, umverteilt wird, wobei durch den Spiegel (30) die Strahlung aus der Detektionsebene (18) auf die Pixel (25) des Detektorarrays (24) geleitet wird und die Pixel (25) des Detektorarrays (24) eine geometrische Anordnung haben, welche sich von der der Spiegelelemente (31 ) unterscheidet.
13.
Verfahren nach einem der obigen Verfahrensansprüche, dadurch gekennzeichnet, daß als Detektorarray (24) eine Detektorzeile, bevorzugt eine APD- oder PMT-Zeile verwendet wird.
14.
Verfahren nach einem der obigen Verfahrensansprüche, dadurch gekennzeichnet, daß eine Bewegungsrichtung des Scannens des Punkt- oder Linien-Spots (14) ermittelt wird, indem Signale einzelner Pixel (25) des Detektorarrays (24) mittels Kreuzkorrelation ausgewertet werden.
15.
Verfahren nach einem der obigen Verfahrensansprüche, dadurch gekennzeichnet, daß Veränderungen in der Probe (2) erfaßt werden, indem bei in der Probe (2) ruhendem Punkt- oder Linien-Spot (14) eine zeitliche Veränderung des beugungsbegrenzten Einzelbildes (17) ermittelt und ausgewertet wird.
16.
Verfahren oder Anordnung nach einem der vorangehenden Ansprüche
wobei Amplitude und / oder Phase der durch die Probe beeinflussten Wellenfront durch Mittel zur Erfassung der Wellenfront ortsaufgelöst erfasst wird.
17.
Verfahren oder Anordnung nach Anspruch 16,
wobei mittels eines Wellenfrontsensors die Beeinflussung der Phase durch die Probe bestimmt wird.
18.
Verfahren oder Anordnung nach Anspruch 17, wobei der Wellenfrontsensor ein Shack-Hartmann Sensor ist.
19.
Verfahren oder Anordnung nach Anspruch 17, wobei der Wellenfrontsensor ein WIS-Sensor ist.
20.
Verfahren oder Anordnung nach Anspruch 17, wobei der Wellenfrontsensor ein PAW-Weilenfrontsensor oder Pyramidensensor ist.
21.
Verfahren oder Anordnung nach einem der vorangehenden Ansprüche 1-16, wobei die Wellenfrontbestimmung über interferometrische oder holographische
Verfahren erfolgt.
22.
Verfahren oder Anordnung nach einem der vorangehenden Ansprüche 1-16, wobei die Wellenfrontbestimmung über ein Phase Retrieval Verfahren erfolgt.
23.
Verfahren oder Anordnung nach einem der vorangehenden Ansprüche 1-22, wobei vor den Lichieintrittsflächen des Umverteiiungselements ein Linsenarray angeordnet ist das pro Linse mehrere, mindestens drei, vorzugsweise 4 Lichteintrittsflächen beaufschlagt.
Verfahren oder Anordnung nach Anspruch 23, wobei
mittels den Lichteintrittsflächen zugeordneten Empfängern über die Sntensitätsmessung der beaufschlagten Lichteintrittsflächen die Lage des jeweiligen Linsenspots ermittelt wird.
25.
Verfahren oder Anordnung nach einem der vorangehenden Ansprüche 23 oder 24, wobei durch eine lokale Versetzung der Linsenspots eine Wellenfrontdeformation bestimmt wird.
Verfahren oder Anordnung nach einem der vorangehenden Ansprüche 23-25, Eichmessung der Lage der Linsenspots ohne Probenbeeinflussung erfolgt, vorzugsweise über einen ebenen Spiegel in der Probenebene.
27.
Verfahren oder Anordnung nach einem der vorangehenden Ansprüche 1-16, wobei Wellenfrontdeformationen bestimmt werden indem mehrere Bildaufnahmen bzw, Detektionen des Beleuchtungsspots bei in Richtung der optischen Achse versetzter Position der Detektion erfolgen.
28.
Verfahren oder Anordnung nach einem der vorangehenden Ansprüche 1-16, mit mindestens einem Strahlteiler zur Aufteilung des Detektionslichtes in mindestens zwei Teilstrahlengänge in denen sich jeweils ein Umverteilungselement nach Anspruch 1-15 befindet, die unterschiedliche Weglängen zueinander aufweisen, vorgesehen ist.
29.
Verfahren oder Anordnung nach einem der vorangehenden Ansprüche 1-16, wobei zur Ermittlung der Wellenfront und Phasenlage Bilder oder Beieuchiungsspots aus unterschiedlichen axialen Ebenen miteinander verglichen werden die durch eine Verschiebung der Probe und/ oder der Detektion in axialer Richtung aufgenommen werden.
30.
Verfahren oder Anordnung nach einem der vorangehenden Ansprüche 16-29, mit einer variablen Optik im Detektionsstrahlengang und/ oder gemeinsamen
Beieuchtungs/ Detektionsstrahlengang.
PCT/EP2014/069927 2013-09-19 2014-09-18 Hochauflösende scanning-mikroskopie WO2015040127A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE201310015931 DE102013015931A1 (de) 2013-09-19 2013-09-19 Hochauflösende Scanning-Mikroskopie
DE102013015931.8 2013-09-19

Publications (1)

Publication Number Publication Date
WO2015040127A1 true WO2015040127A1 (de) 2015-03-26

Family

ID=51844668

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2014/069927 WO2015040127A1 (de) 2013-09-19 2014-09-18 Hochauflösende scanning-mikroskopie

Country Status (3)

Country Link
US (1) US9470883B2 (de)
DE (1) DE102013015931A1 (de)
WO (1) WO2015040127A1 (de)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015052663A (ja) * 2013-09-06 2015-03-19 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置およびプログラム
DE102013015933A1 (de) * 2013-09-19 2015-03-19 Carl Zeiss Microscopy Gmbh Hochauflösende Scanning-Mikroskopie
DE102013015932A1 (de) * 2013-09-19 2015-03-19 Carl Zeiss Microscopy Gmbh Hochauflösende Scanning-Mikroskopie
CA2952633C (en) 2014-06-20 2018-03-06 Velo3D, Inc. Apparatuses, systems and methods for three-dimensional printing
DE102014111167A1 (de) 2014-08-06 2016-02-11 Carl Zeiss Microscopy Gmbh Hochauflösende Scanning-Mikroskopie mit der Unterscheidung mindestens zweier Wellenlängenbereiche
CN104198164B (zh) * 2014-09-19 2017-02-15 中国科学院光电技术研究所 一种基于哈特曼波前检测原理的检焦方法
DE102015116435A1 (de) 2015-09-29 2017-03-30 Carl Zeiss Microscopy Gmbh Hochauflösende Scanning-Mikroskopie mit der Unterscheidung mindestens zweier Spektralbereiche
CN108367498A (zh) 2015-11-06 2018-08-03 维洛3D公司 Adept三维打印
JP6635125B2 (ja) * 2015-11-27 2020-01-22 株式会社ニコン 顕微鏡、観察方法、及び画像処理プログラム
DE102015121403A1 (de) 2015-12-09 2017-06-14 Carl Zeiss Microscopy Gmbh Lichtfeld-bildgebung mit scanoptik
US10207454B2 (en) 2015-12-10 2019-02-19 Velo3D, Inc. Systems for three-dimensional printing
JP6779234B2 (ja) 2015-12-25 2020-11-04 株式会社キーエンス 共焦点変位計
WO2017110837A1 (ja) * 2015-12-25 2017-06-29 株式会社キーエンス 共焦点変位計
US10382701B2 (en) * 2016-01-27 2019-08-13 Raytheon Company Active imaging systems and method
US10602070B2 (en) 2016-01-27 2020-03-24 Raytheon Company Variable magnification active imaging system
US10434573B2 (en) 2016-02-18 2019-10-08 Velo3D, Inc. Accurate three-dimensional printing
EP3492244A1 (de) 2016-06-29 2019-06-05 VELO3D, Inc. Dreidimensionales drucksystem und verfahren zum dreidimensionalen drucken
US11691343B2 (en) 2016-06-29 2023-07-04 Velo3D, Inc. Three-dimensional printing and three-dimensional printers
DE102016119730A1 (de) 2016-10-17 2018-04-19 Carl Zeiss Microscopy Gmbh Optikgruppe für Detektionslicht für ein Mikroskop, Verfahren zur Mikroskopie und Mikroskop
US10661341B2 (en) 2016-11-07 2020-05-26 Velo3D, Inc. Gas flow in three-dimensional printing
US20180186081A1 (en) 2017-01-05 2018-07-05 Velo3D, Inc. Optics in three-dimensional printing
US10442003B2 (en) 2017-03-02 2019-10-15 Velo3D, Inc. Three-dimensional printing of three-dimensional objects
EP3375367B1 (de) * 2017-03-17 2019-06-19 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Vorrichtung zur in-vivo-bildgebung mit faseroptik
US20180281283A1 (en) 2017-03-28 2018-10-04 Velo3D, Inc. Material manipulation in three-dimensional printing
US11002966B2 (en) * 2017-05-04 2021-05-11 Google Llc Systems, devices, and methods for eyebox expansion in wearable heads-up display
JP6971645B2 (ja) * 2017-06-13 2021-11-24 株式会社キーエンス 共焦点変位計
JP6971646B2 (ja) * 2017-06-13 2021-11-24 株式会社キーエンス 共焦点変位計
JP7408265B2 (ja) * 2017-06-13 2024-01-05 株式会社キーエンス 共焦点変位計
US10272525B1 (en) 2017-12-27 2019-04-30 Velo3D, Inc. Three-dimensional printing systems and methods of their use
US10144176B1 (en) 2018-01-15 2018-12-04 Velo3D, Inc. Three-dimensional printing systems and methods of their use
EP3518017B1 (de) * 2018-01-24 2020-06-17 Technische Universität Dresden Verfahren und faseroptisches system zur beleuchtung und detektion eines objekts mit licht
JP7449629B2 (ja) 2018-11-26 2024-03-14 カール ツァイス マイクロスコピー ゲーエムベーハー 光学顕微鏡および顕微鏡法
CN110942423B (zh) * 2019-10-08 2023-04-28 杭州电子科技大学 一种基于傅里叶叠层成像的远场超分辨率重建方法
DE102019127775A1 (de) * 2019-10-15 2021-04-15 Carl Zeiss Microscopy Gmbh Lichtmikroskop und Verfahren zur Bildaufnahme mit einem Lichtmikroskop
TWI770951B (zh) * 2021-04-21 2022-07-11 芯聖科技股份有限公司 平行光學掃描檢測裝置
DE102021206433A1 (de) * 2021-06-23 2022-12-29 Carl Zeiss Microscopy Gmbh Verfahren und Vorrichtung zur Erfassung von Helligkeitsinformationen einer Probe

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62218823A (ja) * 1986-03-20 1987-09-26 Fujitsu Ltd 赤外線撮像装置
EP1157297B1 (de) 1999-03-02 2002-11-06 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Verfahren und vorrichtung zur objektabbildung
US6545790B2 (en) 1999-11-08 2003-04-08 Ralph W. Gerchberg System and method for recovering phase information of a wave front
WO2006127692A2 (en) 2005-05-23 2006-11-30 Hess Harald F Optical microscopy with phototransformable optical labels
DE102006021317B3 (de) 2006-05-06 2007-10-11 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Verfahren und Fluoreszenzlichtmikroskop zum räumlich hochauflösenden Abbilden einer Struktur einer Probe
US20110032586A1 (en) 2007-11-02 2011-02-10 Gerchberg Ralph W Light microscope with novel digital method to achieve super-resolution
EP2317362A1 (de) 2009-10-28 2011-05-04 Carl Zeiss MicroImaging GmbH Mikroskopisches Verfahren und Mikroskop mit gesteigerter Auflösung
US20120019821A1 (en) * 2010-07-23 2012-01-26 National Taipei University Of Technology Linear chromatic confocal microscopic system
WO2013135487A1 (de) * 2012-03-15 2013-09-19 Carl Zeiss Microscopy Gmbh Hochauflösende scanning-mikroskopie

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US65457A (en) 1867-06-04 peters
DE102013015932A1 (de) * 2013-09-19 2015-03-19 Carl Zeiss Microscopy Gmbh Hochauflösende Scanning-Mikroskopie

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62218823A (ja) * 1986-03-20 1987-09-26 Fujitsu Ltd 赤外線撮像装置
EP1157297B1 (de) 1999-03-02 2002-11-06 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Verfahren und vorrichtung zur objektabbildung
US6545790B2 (en) 1999-11-08 2003-04-08 Ralph W. Gerchberg System and method for recovering phase information of a wave front
WO2006127692A2 (en) 2005-05-23 2006-11-30 Hess Harald F Optical microscopy with phototransformable optical labels
DE102006021317B3 (de) 2006-05-06 2007-10-11 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Verfahren und Fluoreszenzlichtmikroskop zum räumlich hochauflösenden Abbilden einer Struktur einer Probe
US20110032586A1 (en) 2007-11-02 2011-02-10 Gerchberg Ralph W Light microscope with novel digital method to achieve super-resolution
EP2317362A1 (de) 2009-10-28 2011-05-04 Carl Zeiss MicroImaging GmbH Mikroskopisches Verfahren und Mikroskop mit gesteigerter Auflösung
US20120019821A1 (en) * 2010-07-23 2012-01-26 National Taipei University Of Technology Linear chromatic confocal microscopic system
WO2013135487A1 (de) * 2012-03-15 2013-09-19 Carl Zeiss Microscopy Gmbh Hochauflösende scanning-mikroskopie

Non-Patent Citations (23)

* Cited by examiner, † Cited by third party
Title
ANAND ET AL., OPT. LETT, vol. 37, 2012, pages 5127
BERTERO ET AL., INVERSE PROBLEMS, vol. 3, 1987, pages 195
C. MÜLLER; J. ENDERLEIN, PHYSICAL REVIEW LETTERS, vol. 104, 2010, pages 198101
C.B. MUEFLER ET AL., PHYS. REV. LETT., 2010, pages 104
CHOWDHURY S.; DHALLA A.-H.; IZATT J.: "Structured oblique illumination microscopy for enhanced resolution imaging of non-fluorescent, coherently scattering sampies", BIOMEDICAL OPTICS EXPRESS, vol. 3, 2012, pages 1841
COX ET AL., OPTIK, vol. 60, no. 4, 1982, pages 391
FOREMAN M.R.; GIUSCA C.L.; TÖRÖK P.; LEACH R.K.: "Phase retrieved pupil function and coherent transfer function", JOURNAL OF MICROSCOPY, vol. 251, 2013, pages 99
G. POPESCU, METHODS IN COLL BIOLOGY, vol. 90, 2008, pages 87
GERCHBERG R.W.; SAXTON W.O.: "Phase determination from image and diffraction plane pictures in the electron microscope", OPTIK, vol. 35, 1972, pages 237
GONG, OPT. LET., vol. 34, 2009, pages 3508
GROCHMALICKI ET AL., J. OPT. SOC. AM. A, vol. 10, 1993, pages 1074
HAMILTON D.K.; SHEPPARD J.R.: "A confocal interference microscope", OPTICA ACTA, vol. 29, 1982, pages 1573
HEINTZMANN R.; CREMER C.: "Laterally Modulated Excitation Microscopy: Improvement of resolution by using a diffraction grating", PROCEEDINGS OF SPIE, vol. 3568, 1998
KARADAGLIC D.; WILSON T.: "lmage formation in structured illumination wide-field fluorescence microscopy", MICRON, vol. 39, 2008, pages 808
LGLESIAS, OPT.LETT., vol. 36, 2011, pages 3636
LITTLETON B.; LAI K.; LONGSTAFF D.; SARAFIS V.; MUNROE P.; HECKENBERG N.; RUBINSZTEIN-DUNLOP H.: "Coherent super-resolution microscopy via laterally structured illumination", MICRON, vol. 38, 2007, pages 150
MERTZ ET AL., OPT. LETT., vol. 37, 2012, pages 4062
OPT. EXPRESS, vol. 17, 2009, pages 13080
SHAO L.; KNER P.; HESPER E.; GUSTAFSSON MATS G. L: "Super-resolution 3D-microscopy of live whole cells using structured illumination", NATURE METHODS, vol. 8, 2011
SHEPPARD C., OPTIK, vol. 80, no. 2, 1988, pages 391
W. BECKER: "Advanced time-correlated single photon counting techniques", 2005, SPRINGER, pages: 144
YANG ET AL., OPT. LETT., vol. 37, 2012, pages 199
ZHAO ET AL., APPL. OPT., vol. 50, 2010, pages 655

Also Published As

Publication number Publication date
US9470883B2 (en) 2016-10-18
DE102013015931A1 (de) 2015-03-19
US20150185454A1 (en) 2015-07-02

Similar Documents

Publication Publication Date Title
WO2015040127A1 (de) Hochauflösende scanning-mikroskopie
EP2860566B1 (de) Hochauflösende Scanning-Mikroskopie
EP2825908B1 (de) Hochauflösende scanning-mikroskopie
EP3033645B1 (de) Hochauflösende scanning-mikroskopie
EP3295236B1 (de) Auswertung von signalen der fluoreszenzrastermikroskopie unter verwendung eines konfokalen laserscanning-mikroskops
EP2860567B1 (de) Hochauflösende Scanning-Mikroskopie
DE102014002328B4 (de) Multifokales Fluoreszenzrastermikroskop
EP1248132B1 (de) Verfahren und Anordnung zur tiefenaufgelösten optischen Erfassung einer Probe
EP1264169B1 (de) Verbesserung der spektralen und/oder räumlichen auflösung in einem laser-scanning mikroskop
EP3526634B1 (de) Optikgruppe für detektionslicht für ein mikroskop, verfahren zur mikroskopie und mikroskop
DE102011055294B4 (de) Mikroskopische Einrichtung und Verfahren zur dreidimensionalen Lokalisierung von punktförmigen Objekten in einer Probe
DE102013019348A1 (de) Hochauflösende Scanning-Mikroskopie
WO2011085766A1 (de) Hochauflösendes mikroskop und verfahren zur zwei- oder dreidimensionalen positionsbestimmung von objekten
EP3179288B1 (de) Lichtfeld-bildgebung mit scanoptik
DE19801139A1 (de) Punktabtastendes Luminiszenz-Mikroskop
DE102013218795A1 (de) Laserscanningmikroskop und Verfahren zur Korrektur von Abbildungsfehlern insbesondere in der hochauflösenden Scanning-Mikroskopie
DE102008049886A1 (de) Vorrichtung, insbesondere ein Mikroskop, zur Untersuchung von Proben
EP1882970A1 (de) Laser-Scanning-Mikroskop zur Fluoreszenzuntersuchung
DE10118463A1 (de) Verfahren und Anordnung zur tiefenaufgelösten optischen Erfassung einer Probe
DE102004032953A1 (de) Phasenfilter
DE102013005563A1 (de) Lichtmikroskop und verfahren zum untersuchen einer mikroskopischen probe
EP3832370A1 (de) Mikroskopie-verfahren und mikroskop zur abbildung von proben mittels manipulierter anregungsstrahlung
DE10206004A1 (de) Vorrichtung zur konfokalen optischen Mikroanalyse

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14792397

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14792397

Country of ref document: EP

Kind code of ref document: A1