WO2021151792A1 - Method and device for characterising a coherent light field in amplitude and phase - Google Patents

Method and device for characterising a coherent light field in amplitude and phase Download PDF

Info

Publication number
WO2021151792A1
WO2021151792A1 PCT/EP2021/051457 EP2021051457W WO2021151792A1 WO 2021151792 A1 WO2021151792 A1 WO 2021151792A1 EP 2021051457 W EP2021051457 W EP 2021051457W WO 2021151792 A1 WO2021151792 A1 WO 2021151792A1
Authority
WO
WIPO (PCT)
Prior art keywords
light field
area
light
detector
transmission
Prior art date
Application number
PCT/EP2021/051457
Other languages
German (de)
French (fr)
Inventor
Jens Limpert
Jan ROTHHARDT
Getnet Kassa Tadesse
Wilhelm Eschen
Original Assignee
Gsi Helmholtzzentrum Für Schwerionenforschung Gmbh
Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Friedrich-Schiller-Universität Jena
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gsi Helmholtzzentrum Für Schwerionenforschung Gmbh, Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V., Friedrich-Schiller-Universität Jena filed Critical Gsi Helmholtzzentrum Für Schwerionenforschung Gmbh
Publication of WO2021151792A1 publication Critical patent/WO2021151792A1/en

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/42Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect
    • G02B27/46Systems using spatial filters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/42Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect
    • G02B27/4205Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect having a diffractive optical element [DOE] contributing to image formation, e.g. whereby modulation transfer function MTF or optical aberrations are relevant
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J9/00Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength
    • G01J2009/002Wavefront phase distribution

Definitions

  • the invention relates to the characterization of light fields, in particular of focused light fields in the range of 10 12 Hz (THz - Terra Hertz) to 10 19 Hz (10 Exahertz - X-ray radiation), in particular a characterization of the Light field of a light source (especially before passing through an object).
  • a characterization of the Light field of a light source especially before passing through an object.
  • emitted radiation must be determined directly in terms of amplitude and phase.
  • the radiation to be examined can be terahertz radiation, visible light, XUV radiation (extreme ultraviolet radiation XUV in the order of 10 15 Hz (PHz - Petahertz)) or X-rays, as long as the radiation is coherent.
  • XUV radiation extreme ultraviolet radiation XUV in the order of 10 15 Hz (PHz - Petahertz)
  • X-rays as long as the radiation is coherent.
  • focused radiation is often used, the amplitude and phase of which must be precisely known in the focus spot (ie in a small area in which it strikes the object).
  • a light wave (light field) (emitted by a light source) is characterized by measuring the intensity distribution lo (x, y) in a two-dimensional plane (x, y), mostly transverse to the direction of propagation and its phase phio (x, y).
  • the phase phi indicates in which section within a period the wave is at a reference time and place. The phase phi therefore describes the course of the intensity distribution when the wave propagates in space and time.
  • a method of coherent diffracting imaging for characterizing light radiation, which reconstructs a light wave after it has passed through an object by measuring a diffraction image, i.e. the intensity of the light wave in a plane after the object has passed through , reconstructed.
  • a complex object with many structural details is used for this, for which a complex transmission function in amplitude and phase must be determined, which describes the behavior of the light wave when passing through the object at each point (x, y). With this information it is then possible to determine the properties of the light wave before the passage of the object in the object plane.
  • a reconstruction algorithm is used to reconstruct the light wave, as can be seen, for example, from the review article J. R. Fientrup, "Phase retrieval based on wave-front relay and modulation", Appl. Opt., Vol. 21, No. 15, pages 2758-2769, 1982 results.
  • DE 102007009661 A1 describes a method for spatially resolved determination of the phase in the image of an object, in which the phase and / or the amplitude of the light is modified by spatial frequency filtering in a pupil plane between the object and the image plane, i.e. after the passage of the Light field through an object. Between the object and the image or detector plane. For this purpose, a spatial frequency filter is introduced into the light beam between the object and the detector, and the phase and / or amplitude of the light is modified in a predetermined manner. At least two images with different modifications are generated. The phase in the image of the object in the image plane is determined in a spatially resolved manner from the images generated.
  • lo (x, y) describe the intensity distribution of the light wave
  • phio (x, y) describe the phase of the light wave in a plane perpendicular to the direction of propagation 100 of the light wave.
  • the light wave now has the properties uo (x, y).
  • the complex function u ′ (x, y) contains the spatial intensity distribution l ′ (x, y), which is measured by the detector 120.
  • the phase phi '(x, y) is unknown and cannot be measured.
  • the light wave can be reconstructed.
  • the light propagation of the light field 101 in front of the object uo (x, y) can be described mathematically in two steps.
  • the light propagation between the object plane 111 and the detector plane 121 which takes place in the free space, can always be described in the forward direction by a suitable propagator.
  • the propagator can be described mathematically by a Fourier transformation F (as an example for propagators).
  • F a Fourier transformation
  • a far field is used when the distance between the detector 120 and the object 110 is greater than 2 D 2 / lambda, where D is the largest dimension of the diffracting object 110 and lambda is the wavelength of the diffracted radiation.
  • the aim is now to determine the light field 101 in the object plane 111, i.e. the complex function uo (x, y), with knowledge of the experimental setup and the transmission function T (x, y) from the measured intensity distribution l '(x, y).
  • this is possible, please include by mathematical inversion (backward calculation) of the light propagation of the light field 101 from the object plane 111 to the detector plane 121.
  • the fictitious plane 125 is an imaginary plane which - lies directly behind the object in the direction of propagation 100 - and which writes the plane after the light wave 101 has passed through the object 110.
  • phase reconstruction algorithm with which u (x, y) can be determined in the result.
  • Random phase distribution also includes the case that an initial phase can be and is estimated from certain information (if available). Random phase means that the phase phi ‘(x, y) is not exactly known, and a phase phi‘ (x, y) is assumed to be an arbitrarily selectable starting value for the reconstruction of the light wave.
  • the light field 101 i.e. the complex light wave function u (x, y)
  • the light field 101 i.e. in the plane 125 behind the object 110 and thus also behind the object plane 111. Because the light field 101 is described there by the light wave function u (x, y), the light wave function u (x, y) is also referred to as the light field in this text for short.
  • the iterative phase reconstruction algorithm comprises several steps which are run through repeatedly.
  • the light propagation from the detector plane 121 to the plane 125 is calculated.
  • a support condition P Su support constraint
  • the support condition being e.g. on the shape and size of the object 110 in the object plane 111 results.
  • the Fourier transformation F is used to transform the complex light field u (x, y) q back into the detector plane 121, ie into the light field u '(x, y) q .
  • u '(x, y) q F (u (x, y) q ).
  • a modulus condition Pmo d (modulus cons traint) is then applied in the detector plane 121, in which the magnitude of the complex field u '(x, y) q is determined by the measured intensity distribution l' (x, y) (amplitude) while maintaining the be calculated phases is replaced, i.e.
  • SQRT (l '(x, y)).
  • the algorithm can determine the correct phase phi '(x, y,) finai in the detector plane with the aid of the boundary conditions used, ie the modulus condition (modulus contract Pmod) and the support condition (support constraint P S up) .
  • the light wave in front of the object uo (x, y) can also be finally calculated at all points of the object with sufficient transparency from the determined complex light wave u (x, y) finai.
  • This is the goal of beam characterization. In principle, only the recording of a single diffraction image is necessary for this (single-shot beam characterization).
  • This method which has been described by way of example with reference to FIG. 2 and can be applied accordingly by the person skilled in the art, is also used in the characterization of the coherent light field according to the invention in terms of amplitude and phase.
  • the object of the invention is therefore to propose a method and a device for characterizing a coherent light field in amplitude and phase, which is easy to use and also allows beam characterization of focused light fields in the range from about 10 12 to about 10 19 Hz.
  • the transmission mask can be implemented by an absorber layer, for example an absorbing metal film, as a strongly absorbing area (T «0) with openings in the metal film as non-absorbing areas (T « 1).
  • Such transmission masks can be produced with very high precision, so that correspondingly small structures in the sub-wave range (for example in the nanometer range) can be produced.
  • the openings in the absorber layer, for example a metal film can be produced, for example, with a focused ion beam.
  • the object can have a transmission mask which is highly absorbent (optically impermeable to the light wave) outside a defined structure area, ie has a transmission of T «o.
  • the structure area of the object is surrounded by a diaphragm area which only provides strongly absorbing areas with a transmission T «o.
  • the delimitation between the aperture area and the structure area of the object can be done, for example, by an (imaginary) line-like and closed contour curve, which envelops the non-absorbing areas in the outer area of the structure area (hereinafter also referred to as openings), for example by the contour curve connects external openings in such a way that all openings of the structural area lie within the closed contour curve.
  • the closed contour curve can be made as small as possible, for example by making the length of the (imaginary) contour curve line as short as possible.
  • the structural area can be formed, for example, by a metal or any other absorber layer that is impermeable to the light wave and, for example, in the form of a matrix having arranged openings.
  • a linear curve can be selected as the contour curve, which connects the openings of the first and the last row and column with one another and completely includes all openings.
  • the strongly absorbing area outside the closed contour curve surrounding the matrix arrangement of the openings forms the diaphragm area.
  • the object simultaneously takes on the function of an entrance aperture that is frequently used in the prior art.
  • the inventive reduction in the number of optical elements used when applying the proposed method leads to a higher stability of both the apparatus (in the mechanical sense) and the characterization of the light field obtained by the method (in the sense of a solution for iteratively carried out Reconstruction of the light wave function).
  • boundary conditions also make it possible to reduce the requirements for the signal-to-noise ratio. This leads to shorter measuring times. It is particularly advantageous to determine the entire structure of the object (ie its structural area) and to apply this boundary condition.
  • the object can be examined or recorded, for example, by an electron microscope and the holes or the areas of the metal film or more generally the strongly absorbing areas (for example in the sense of material Areas) of the structure of the object are measured.
  • another material that is optically non-transparent for the light field can also be selected by the person skilled in the art, that is to say any absorber material suitable for the light wave for forming an absorber layer.
  • Another aspect of the invention provides that an object with an asymmetrically designed structure, ie an asymmetrically designed structure area, is used.
  • Simple periodic or symmetrical test objects cannot be used because the reconstruction of the light wave due to the so-called "twin-image" problem is not unambiguous: Without additional knowledge of an asymmetry of the object, the result gives an image behind the test object as well as a twin image that has been rotated 180 degrees an unambiguous assignment of the coordinates in the object plane is not possible, and the light wave function u (x, y) cannot be unambiguously reconstructed.
  • FIG. 2 This is illustrated in FIG. 2 by two reconstructed images 140 of the object 101, which are currently mirror images of one another.
  • a known asymmetry of the object results in a further boundary condition for the reconstruction (support condition or support constraint Psup), which allows an unambiguous reconstruction.
  • additional statements about the coherence of the radiation can be obtained from the contrast of the diffraction image.
  • the invention relates to a device for characterizing a coherent light field in amplitude and phase with the following elements:
  • Computing device which is connected to the area detector and is designed to carry out the previously described method for reconstructing the light wave function u (x, y) or parts thereof.
  • the object has a structure area which is defined by a transmission mask which provides only strongly absorbing areas with a transmission T «o and non-absorbing areas with a transmission of T « 1. This makes it easy to describe the transmission function T (x, y) of the object.
  • the structural area of the object is designed asymmetrically in order to avoid the "twin-image" problem already described.
  • the object can preferably have a strongly absorbing diaphragm area which only provides strongly absorbing areas with a transmission T «o and which surrounds the structural area.
  • the object itself thus forms a screen for the light field, so that parts of the light field that illuminate around the structure area of the object are absorbed and this prevents these parts of the light field from being detected by the area detector.
  • the device can have the object and the area detector as the only optical elements (ie elements that interact with the light field).
  • This described device (structure) has a further important advantage that it has only two static optical elements (ie that cannot be changed during the measurement), namely the object as a sample in the beam and the area detector behind the sample.
  • the area detector can have a pixelated sensor, ie a sensor consisting of a large number of individual pixel elements with which a spatial distribution of the intensity distribution of the diffraction image of the light field in the detector plane can be detected.
  • the resolution of the spatial distribution is given by the pixel structure (spatial arrangement of the pixels on the detector surface or sensor surface) and the pixel size (surface size of a pixel).
  • the area size can be in the range // m 2 (square micrometers), for long-wave light (eg IR and THz) also in the range mm 2 (square millimeters).
  • the area detector can be designed to detect the light of the light wave in a wavelength-selective manner, in particular in order to minimize incidence of light not generated by the light wave.
  • the term "light” in the context of this text is not restricted to visible light, but rather includes the wavelength or frequency range specified at the beginning.
  • the method described above and the structure described above are so precise that a characterization of the light field can be carried out with the acquisition of only one diffraction image, i.e. single shot measurements are possible. This enables short measurement and evaluation times for the characterization of the light field, so that de facto real-time measurements are possible by using the method according to the invention.
  • the rapid convergence of the inversion algorithm also contributes to this.
  • the reconstruction can also be accelerated by parallelization and methods of artificial intelligence. Corresponding methods from the prior art are known. Because the method also enables very small objects to be used due to the simple optical structure of the object used, very large wavefront curvatures can also be measured, for example with measuring angles of up to +/- 90 ° to the optical axis. The invention is therefore also particularly suitable for characterizing small focus spots of light waves.
  • the invention also makes it possible to achieve spatial resolution down to the sub-wavelength range (for example with a numerical aperture of NA> 0.5). This covers practically all applications (even with small focus spots of the light wave).
  • the invention described can preferably be used to adjust objects in optical structures and / or to adjust light sources in optical structures.
  • Fig. 1 schematically shows the passage of a light field through an object and the detection of the resulting diffraction image in the detector plane in a structure that can also be used for the device according to the invention and the implementation of the method for characterizing a coherent light field in amplitude and phase; ts
  • FIG. 3 schematically shows the implementation of the method proposed according to the invention in a device according to the invention according to a preferred embodiment.
  • FIG. 3 also shows schematically an object 10 or its structure area 12 used in the device and the method.
  • the structure area 12 is defined by a transmission mask, the strongly absorbing areas 13 (shown in light color in FIG. 3) and non-absorbing areas surface 14 (shown in dark in FIG. 3), for example in the form of an absorption layer such as a metal foil or some other material that absorbs the wavelength (s) of the light field.
  • the known structure of the object 10 makes it possible to identify all locations with the intensity of zero.
  • the known information about the object is used as a boundary condition P S up (support constraint) in the iterative algorithm. According to the invention, this improves the convergence of the algorithm enormously and accelerates the finding of a solution during the iteration.
  • the non-absorbent areas 14 are openings in the absorption layer, and a transmission of T «1 applies there. Also the phase of the object is not influenced by the non-absorbing area of the object.
  • the structure area 12 of the object 10 is constructed asymmetrically. This is a further boundary condition that enables the image points to be clearly assigned to the object, so that the “twin-image” problem, as described in connection with FIG. 2, can be avoided.
  • the object 10 is highly absorbent, that is to say that a transmission T «o can be assumed.
  • the structural area 12 of the object 10, which causes the detected diffraction image 22, is thus de facto an isolated object, the size (maximum extent) of which is known. This defines the maximum size of the measuring field, which defines the minimum number of pixels required for the detector can.
  • the distance of the detector 20 from the object 10 or the object plane 11 from the detector plane 21 can then be selected so that the detector 20 can scan the diffraction image 22 with sufficient precision.
  • the transmission mask only has an amplitude modulation of the light wave or the light field 1 because the openings (non-absorbing regions 14) have a transmission of T «1. This does not modulate the phase of the light wave. This, too, represents a boundary condition that leads to faster convergence of the iterative algorithm.
  • a light wave function u (x, y) is reconstructed which reconstructs the image 40 of the object 10 well from the diffraction image 22 recorded in the detector 20.
  • the light wave 1 in the object plane 111 can then pass through using the known transmission function of the object T (x, y) the object uo (x, y) can be determined.
  • the amplitude and phase of the light wave 1 are thus characterized.
  • the known structure can be used to accelerate the convergence of the reconstruction algorithm and / or to reduce the requirements for the signal-to-noise ratio (to allow shorter measurement times).
  • the object 10 has a known transmission characteristic T (x, y) with areas of a transmission of T «1 which do not influence the phase of the light wave, and with areas of a transmission of T « o which completely absorb the light wave striking the object 10 .
  • This simple geometric structure of the object 10 can be determined before the method is carried out, for example by recording with an electron microspot or another suitable determination method. All areas with a transmission of T «o can be used as boundary conditions in which the light wave function u (x, y) in the object plane 11 is equal to zero. This accelerates the convergence of the reconstruction algorithm.
  • F 1 described as an inverse Fourier transformation propagator for the light wave between detector and object

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

The invention relates to a method and a device for characterising a coherent light field (1) in amplitude and phase, the method having the following steps: • providing an object (10) with known transmission function T(x,y) for the light field (1) in amplitude and phase; • irradiating the object (10) with the coherent light field (1) to be characterised in an object plane (11) in which the object (10) is arranged; • detecting an intensity distribution l'(x,y) of the diffraction image (22) of the light field (1) spatially behind the irradiated object (10) in a detector plane (21) by means of a flat detector (20); • reconstructing the light wave function u(x,y) after passage of same through the object (10) by iterative determination of phase and amplitude of the light wave from the intensity distribution l'(x,y) detected; • calculating the light wave (1) before passage through the object by applying the known transmission function T(x,y) to the reconstructed light wave function u(x,y). According to the invention, an object with a structure region (12) is used as the object (10), the structure region (12) of the object (10) being defined by a transmission mask which provides for only strong absorbing regions (13) with a transmission T ≈ 0 and non-absorbing regions (14) with a transmission of T ≈ 1.

Description

Verfahren und Vorrichtung zur Charakterisierung eines kohärenten Lichtfelds in Amplitude und Phase Die Erfindung betrifft die Charakterisierung von Lichtfeldern, insbesondere von fokussierten Lichtfeldern im Bereich von 1012 Hz (THz - Terrahertz) bis 1019 Hz (10 Exahertz - Röntgenstrahlung), insbesondere eine Charakterisierung des Lichtfelds einer Lichtquelle (insbesondere vor Durchtritt durch ein Objekt). Die Kenntnis der genauen Intensitätsverteilung (proportional zum Quadrat der Amplitude) und der Wellenfront (Phase) von Lichtfeldern ist für viele Anwendun gen, die Licht als (Untersuchungs-)Werkzeug oder als Informationsträger verwen den, von enormer Wichtigkeit. Häufig werden bei diesen Anwendungen Lichtfel der (Lichtstrahlung) fokussiert und auf zu untersuchende Objekte (Proben) oder Optiken gerichtet, deren Eigenschaften bestimmt oder die justiert werden sollen. Für andere Anwendungen, bspw. für wissenschaftliche Experimente, muss emit tierte Strahlung direkt in Amplitude und Phase bestimmt werden. Bei der zu un tersuchenden Strahlung kann es sich um Terahertzstrahlung, sichtbares Licht, XUV-Strahlung (extremer Ultraviolettstrahlung XUV in der Größenordnung von 1015 Hz (PHz - Petahertz)) oder Röntgenstrahlung handeln, solange die Strah lung kohärent ist. Bei der Untersuchung von Objekten kommt häufig fokussierte Strahlung zum Einsatz, die im Fokusspot (d.h. in einer kleinen Fläche, in der sie auf das Objekt trifft) in Amplitude und Phase genau bekannt sein muss. Charakterisiert wird eine (von einer Lichtquelle ausgesandte) Lichtwelle (Licht feld) durch Messung der Intensitätsverteilung lo(x,y) in einer zweidimensionalen Ebene (x,y) meist transversal zur Ausbreitungsrichtung und deren Phase phio(x,y). Die Phase phi gibt an, in welchem Abschnitt innerhalb einer Periode sich die Welle zu einem Referenzzeitpunkt und -ort befindet. Die Phase phi be schreibt also den Verlauf der Intensitätsverteilung bei dem Ausbreiten der Welle in Raum und Zeit. Method and device for characterization of a coherent light field in amplitude and phase The invention relates to the characterization of light fields, in particular of focused light fields in the range of 10 12 Hz (THz - Terra Hertz) to 10 19 Hz (10 Exahertz - X-ray radiation), in particular a characterization of the Light field of a light source (especially before passing through an object). Knowing the exact intensity distribution (proportional to the square of the amplitude) and the wavefront (phase) of light fields is of enormous importance for many applications that use light as a (examination) tool or as an information carrier. In these applications, light fields (light radiation) are often focused and directed at objects to be examined (samples) or optics whose properties are to be determined or which are to be adjusted. For other applications, e.g. for scientific experiments, emitted radiation must be determined directly in terms of amplitude and phase. The radiation to be examined can be terahertz radiation, visible light, XUV radiation (extreme ultraviolet radiation XUV in the order of 10 15 Hz (PHz - Petahertz)) or X-rays, as long as the radiation is coherent. When examining objects, focused radiation is often used, the amplitude and phase of which must be precisely known in the focus spot (ie in a small area in which it strikes the object). A light wave (light field) (emitted by a light source) is characterized by measuring the intensity distribution lo (x, y) in a two-dimensional plane (x, y), mostly transverse to the direction of propagation and its phase phio (x, y). The phase phi indicates in which section within a period the wave is at a reference time and place. The phase phi therefore describes the course of the intensity distribution when the wave propagates in space and time.
Zur Charakterisierung von Lichtstrahlung ist ein Verfahren der kohärenten Bild- gebung (coherent diffracting imaging) bekannt, das die Rekonstruktion einer Lichtwelle nach dem Durchgang durch ein Objekt durch Messung eines Beu gungsbildes, d.h. der Intensität der Lichtwelle in einer Ebene nach dem Durch gang des Objekts, rekonstruiert. Dafür wird ein komplexes Objekt mit vielen Struk turdetails verwendet, für das eine komplexe Transmissionsfunktion in Amplitude und Phase bestimmt werden muss, die das Verhalten der Lichtwelle beim Durch gang durch das Objekt an jedem Punkt (x,y) beschreibt. Mit dieser Information ist es dann möglich, die Eigenschaften der Lichtwelle vor dem Durchgang des Ob jekts in der Objektebene zu bestimmen. In der Veröffentlichung F. Zhang, J. M. Rodenburg, "Phase retrieval based on wave-front relay and modulation", Phys. Rev. B 82, 1-4 (2010) ist beispielsweise ein solches Verfahren beschrieben, wo bei als Objekt eine Eintrittsblende und zusätzlich ein Modulator mit einer komple xen Transmissionsfunktion verwendet werden. Dieses Verfahren ist so bei kohä renten Lichtfelder anwendbar, d.h. frequenz- und phasengleichen Lichtwellen des Lichtfelds. A method of coherent diffracting imaging is known for characterizing light radiation, which reconstructs a light wave after it has passed through an object by measuring a diffraction image, i.e. the intensity of the light wave in a plane after the object has passed through , reconstructed. A complex object with many structural details is used for this, for which a complex transmission function in amplitude and phase must be determined, which describes the behavior of the light wave when passing through the object at each point (x, y). With this information it is then possible to determine the properties of the light wave before the passage of the object in the object plane. In the publication F. Zhang, J. M. Rodenburg, "Phase retrieval based on wave-front relay and modulation", Phys. Rev. B 82, 1-4 (2010), for example, describes such a method in which an entrance aperture and, in addition, a modulator with a complex transmission function are used as the object. This method can be used for coherent light fields, i.e. light waves of the light field with the same frequency and phase.
Zur Rekonstruktion der Lichtwelle wird ein Rekonstruktionsalgorithmus verwen det, wie sich bspw. aus dem Übersichtsartikel J. R. Fientrup, "Phase retrieval ba sed on wave-front relay and modulation", Appl. Opt., Vol. 21 , No. 15, Seiten 2758- 2769, 1982 ergibt. A reconstruction algorithm is used to reconstruct the light wave, as can be seen, for example, from the review article J. R. Fientrup, "Phase retrieval based on wave-front relay and modulation", Appl. Opt., Vol. 21, No. 15, pages 2758-2769, 1982 results.
In der DE 102007009661 A1 wird ein Verfahren zur ortsaufgelösten Bestimmung der Phase in der Abbildung eines Objekts beschrieben, bei der die Phase und/o der Amplitude des Lichts durch eine Ortsfrequenzfilterung in einer Pupillenebene zwischen Objekt und Bildebene modifiziert wird, also nach dem Durchgang des Lichtfelds durch ein Objekt. Zwischen Objekt und Bild- bzw. Detektorebne. Dazu wird ein Ortsfrequenzfilter zwischen dem Objekt und dem Detektor in den Licht strahl eingebracht, der Phase und/oder Amplitude des Lichts in vorgegebener Weise modifiziert. Es werden mindestens zwei Bilder mit unterschiedlichen Modi- fikationen erzeugt. Aus den erzeugten Bilder wird ortsaufgelöst die Phase in der Abbildung des Objekts in der Bildebene bestimmt. DE 102007009661 A1 describes a method for spatially resolved determination of the phase in the image of an object, in which the phase and / or the amplitude of the light is modified by spatial frequency filtering in a pupil plane between the object and the image plane, i.e. after the passage of the Light field through an object. Between the object and the image or detector plane. For this purpose, a spatial frequency filter is introduced into the light beam between the object and the detector, and the phase and / or amplitude of the light is modified in a predetermined manner. At least two images with different modifications are generated. The phase in the image of the object in the image plane is determined in a spatially resolved manner from the images generated.
Nakajima, N., "Experimental verification of coherent diffractive imaging by a direct phase retrieval method with an aperture-array filter", OPTICS LEITERS, 36, 2011, 12, 2284-2286, beschreibt ein Verfahren zur Rekonstruktion eines Objekts mittels eines kohärenten Streubildes, bei ein einziges Beugungsbild in einem nicht-iterativen Verfahren ausgewertet wird. Es wird Platte mit Blendenanordnun gen in den Strahlengang zwischen Objekt und Detektor eingebracht. Das Objekt wird dann aus dem im Detektor gemessenen Beugungsbild unter Verwendung der bekannten Transmissionsfunktion der Platte mit Blendenanordnungen rekon struiert. Dazu muss das Lichtfeld der Lichtquelle bekannt sein, um das Objekt zu rekonstruieren. Die vorliegende Erfindung betrifft dagegen den Fall, in der die Amplitude und Phase des Lichtfelds der Lichtquelle, bevor es auf ein Objekt trifft, nicht bekannt ist. Nakajima, N., "Experimental verification of coherent diffractive imaging by a direct phase retrieval method with an aperture-array filter", OPTICS LEITERS, 36, 2011, 12, 2284-2286, describes a method for reconstructing an object by means of a coherent scatter pattern , in which a single diffraction image is evaluated in a non-iterative process. A plate with aperture arrangements is placed in the beam path between the object and the detector. The object is then reconstructed from the diffraction image measured in the detector using the known transmission function of the plate with diaphragm arrangements. To do this, the light field of the light source must be known in order to reconstruct the object. The present invention, on the other hand, relates to the case in which the amplitude and phase of the light field of the light source before it hits an object is not known.
Das Funktionsprinzip der bekannten kohärenten Bildgebung wird mit Bezug auf die Figuren 1 und 2 (siehe Ende des Dokuments) nachstehend allgemein ver ständlich erläutert: Figur 1 zeigt ein Lichtfeld 101, das mathematisch durch die komplexe Funktion uo(x,y) als Lichtwelle beschrieben wird uo(x,y) = SQRT(lo(x,y))*exp(i*phi0(x,y)) Hierin beschreiben lo(x,y) die Intensitätsverteilung der Lichtwelle und phio(x,y) die Phase der Lichtwelle in einer Ebene jeweils senkrecht zur Ausbreitungsrichtung 100 der Lichtwelle. The functional principle of the known coherent imaging is explained in a generally understandable manner with reference to FIGS. 1 and 2 (see end of the document): FIG. 1 shows a light field 101 which is mathematically described by the complex function uo (x, y) as a light wave uo (x, y) = SQRT (lo (x, y)) * exp (i * phi 0 (x, y)) Here lo (x, y) describe the intensity distribution of the light wave and phio (x, y) describe the phase of the light wave in a plane perpendicular to the direction of propagation 100 of the light wave.
An dem Ort, an dem das Lichtfeld 101 auf das Objekt 110 (auch als Probe oder Sample bezeichnet) trifft (d.h. in der Objektebene 111 ), habe die Lichtwelle nun die Eigenschaften uo(x,y). Das Beugungsbild 122, das durch einen Detektor 120 (Flächendetektor) nach dem Durchgang des Lichtfelds 101 durch das Objekt 110 in der Detektorebene 121 aufgenommen wird, wird durch die komplexe Funktion u'(x,y) beschrieben: u'(x,y) = SQRT(l'(x,y))*exp(i*phi'(x,y)) At the location where the light field 101 hits the object 110 (also referred to as a sample) (ie in the object plane 111), the light wave now has the properties uo (x, y). The diffraction image 122, which is recorded by a detector 120 (area detector) after the light field 101 has passed through the object 110 in the detector plane 121, is described by the complex function u '(x, y): u' (x, y) = SQRT (l '(x, y)) * exp (i * phi' (x, y))
Die komplexe Funktion u'(x,y) enthält die räumliche Intensitätsverteilung l'(x,y), die durch den Detektor 120 gemessen wird. Die Phase phi'(x,y) ist unbekannt und kann nicht gemessen werden. The complex function u ′ (x, y) contains the spatial intensity distribution l ′ (x, y), which is measured by the detector 120. The phase phi '(x, y) is unknown and cannot be measured.
In Kenntnis des Versuchsaufbaus und der Transmissionsfunktion des Objekts 110 kann die Lichtwelle aber rekonstruiert werden. However, with knowledge of the experimental setup and the transmission function of the object 110, the light wave can be reconstructed.
Die Lichtausbreitung des Lichtfelds 101 vor dem Objekt uo(x,y) kann mathema tisch in zwei Schritten beschrieben werden. Zunächst kann das Lichtfeld u(x,y) nach Durchgang durch das Objekt an jedem Punkt (xn, ym) durch Multiplikation von uo(xn,ym) mit der komplexen Transmissionsfunktion des Objektes T(xn, ym) be stimmt werden: u(xn,y )= T(xn, y ) u0(xn,ym). The light propagation of the light field 101 in front of the object uo (x, y) can be described mathematically in two steps. First, after passing through the object, the light field u (x, y) can be at any point (x n, y m ) by multiplying uo (xn, y m ) with the complex transmission function of the object T (x n, y m ) become true: u (x n , y) = T (x n, y) u 0 (x n , ym).
Danach kann die Lichtausbreitung zwischen Objektebene 111 und Detektorebene 121 , welche im Freiraum erfolgt, in Vorwärtsrichtung immer durch einen geeigne ten Propagator beschrieben werden. Befindet sich die Detektorebene 121 im Fernfeld zu der Objektebene 111 ist der Propagator mathematisch durch eine Fourier-Transformation F (als Beispiel für Propagatoren) beschreibbar. Der Einfachheit halber wird im Folgenden dieser Fernfeldfall beschrieben, womit sich ergibt u'(x,y)=F(u(x,y)). Von einem Fernfeld wird gesprochen, wenn der Abstand des Detektors 120 zum Objekt 110 größer als 2 D2/ lambda ist, wobei D die größte Dimension des beugenden Objekts 110 und lambda die Wellenlänge der gebeugten Strahlung sind. Thereafter, the light propagation between the object plane 111 and the detector plane 121, which takes place in the free space, can always be described in the forward direction by a suitable propagator. If the detector plane 121 is in the far field to the object plane 111, the propagator can be described mathematically by a Fourier transformation F (as an example for propagators). For the sake of simplicity, this far-field case is described below, which results in u '(x, y) = F (u (x, y)). A far field is used when the distance between the detector 120 and the object 110 is greater than 2 D 2 / lambda, where D is the largest dimension of the diffracting object 110 and lambda is the wavelength of the diffracted radiation.
Ziel ist es nun, in Kenntnis des Versuchsaufbaus und der Transmissionsfunktion T(x,y) aus der gemessenen Intensitätsversteilung l'(x,y) das Lichtfeld 101 in der Objektebene 111 zu bestimmen, d.h. die komplexe Funktion uo(x,y). Dies ist prin zipiell durch mathematische Umkehrung (Rückwärtsrechnung) der Lichtausbrei tung des Lichtfeldes 101 von der Objektebene 111 zur Detektorebene 121 mög lich. The aim is now to determine the light field 101 in the object plane 111, i.e. the complex function uo (x, y), with knowledge of the experimental setup and the transmission function T (x, y) from the measured intensity distribution l '(x, y). In principle, this is possible, please include by mathematical inversion (backward calculation) of the light propagation of the light field 101 from the object plane 111 to the detector plane 121.
Die umgekehrte Lichtausbreitung von der Detektorebene 121 zu einer (fiktiven) Ebene 125 hinter dem Objekt 110 kann durch eine inverse Fouriertransformation beschrieben werden: u(x,y)=F 1(u‘(x,y)). Die fiktive Ebene 125 ist eine gedachte Ebene, die - in Ausbreitungsrichtung 100 unmittelbar - hinter dem Objekt liegt und die Ebene nach dem Durchtritt der Lichtwelle 101 durch das Objekt 110 be schreibt. The reverse light propagation from the detector plane 121 to a (fictitious) plane 125 behind the object 110 can be described by an inverse Fourier transformation: u (x, y) = F 1 (u '(x, y)). The fictitious plane 125 is an imaginary plane which - lies directly behind the object in the direction of propagation 100 - and which writes the plane after the light wave 101 has passed through the object 110.
Hierzu muss allerdings zusätzlich zur detektierten Intensitätsverteilung l'(x,y) die unbekannte Phase phi'(x,y) bestimmt werden. Dies wird durch einen sogenannten Phasenrekonstruktionsalgorithmus realisiert, womit im Ergebnis u(x,y) bestimmt werden kann. For this purpose, however, in addition to the detected intensity distribution l '(x, y), the unknown phase phi' (x, y) must be determined. This is implemented by a so-called phase reconstruction algorithm, with which u (x, y) can be determined in the result.
Zusätzlich ist die Kenntnis der Transmissionsfunktion T(x,y) des Objekts 110 nö tig, um das Lichtfeld 101 in der Objektebene 111 vor dem Durchgang durch das Objekt gemäß uo(xn,ym)=u(xn,ym)/T(xn, ym) aus u(x,y) berechnen zu können. Damit ist dann die Lichtwelle 101 uo(x,y) vor der Interaktion des Lichtfelds 101 mit dem Objekt 110 charakterisiert. In addition, knowledge of the transmission function T (x, y) of the object 110 is necessary in order to detect the light field 101 in the object plane 111 before it passes through the object according to uo (xn, ym) = u (x n , ym) / T ( x n, y m ) from u (x, y). This then characterizes the light wave 101 uo (x, y) before the interaction of the light field 101 with the object 110.
Die Bestimmung der unbekannten Phase phi‘(x,y) durch einen Phasenrekonstruk tionsalgorithmus ist in Figur 2 illustriert. The determination of the unknown phase phi ‘(x, y) by a phase reconstruction algorithm is illustrated in FIG.
Hierzu wird die gemessene Intensitätsverteilung l'(x,y) zunächst mit einer zufälli gen (beliebig gewählten) Phasenverteilung phi‘(x,y)initiai zu einer initialen An nahme 130 für die komplexen Lichtwellenfunktion u‘(x,y)initiai = SQRT(l'(x,y))*exp(i*phi‘(x,y)initiai) ergänzt, die das Lichtfeld in der Detektorebene 121 beschreibt. Dies ist in der ersten Zeile der Figur 2 verdeutlicht. For this purpose, the measured intensity distribution l '(x, y) is initially used with a random (arbitrarily selected) phase distribution phi' (x, y) i nitiai to form an initial assumption 130 for the complex light wave function u '(x, y) i nitiai = SQRT (l '(x, y)) * exp (i * phi' (x, y) initiai) added, which describes the light field in the detector plane 121. This is illustrated in the first line of FIG.
Der Begriff "zufällige Phasenverteilung" schließt auch den Fall mit ein, dass aus bestimmten Informationen (soweit vorhanden) eine initiale Phase abschätzbar ist und abgeschätzt wird. Mit zufälliger Phase ist gemeint, dass die Phase phi‘(x,y) nicht genau bekannt ist, und für die Rekonstruktion der Lichtwelle eine Phase phi‘(x,y) als grundsätzlich beliebig wählbarer Startwert angenommen wird. The term "random phase distribution" also includes the case that an initial phase can be and is estimated from certain information (if available). Random phase means that the phase phi ‘(x, y) is not exactly known, and a phase phi‘ (x, y) is assumed to be an arbitrarily selectable starting value for the reconstruction of the light wave.
Anschließend wird das Lichtfeld 101 (d.h. die komplexe Lichtwellenfunktion u(x,y)) hinter dem Objekt 110, d.h. in der Ebene 125 hinter dem Objekt 110 und damit auch hinter der Objektebene 111 , iterativ bestimmt. Weil das Lichtfeld 101 dort durch die Lichtwellenfunktion u(x,y) beschrieben wird, wird in diesem Text verkürzend die Lichtwellenfunktion u(x,y) auch als Lichtfeld bezeichnet. Der ite rative Phasenrekonstruktiosalgorithmus umfasst mehrere Schritte, welche wie derholt durchlaufen werden. Then the light field 101 (i.e. the complex light wave function u (x, y)) behind the object 110, i.e. in the plane 125 behind the object 110 and thus also behind the object plane 111, is determined iteratively. Because the light field 101 is described there by the light wave function u (x, y), the light wave function u (x, y) is also referred to as the light field in this text for short. The iterative phase reconstruction algorithm comprises several steps which are run through repeatedly.
In einem ersten Schritt wird die Lichtausbreitung von der Detektorebene 121 zur Ebene 125 berechnet. Das komplexe Lichtfeld u(x,y) nach Durchgang durch das Objekt 110 (d.h. in der Ebene 125) berechnet sich dann durch die inverse Fourier- Transformation F_1 aus dem Beugungsbild 122, d.h. dem Lichtfeld u'(x,y) in der Detektorebene 121 mit der gemessenen Intensitätsverteilung l'(x,y) zu u(x,y) = P1(u'(x,y)). In a first step, the light propagation from the detector plane 121 to the plane 125 is calculated. The complex light field u (x, y) after passing through the object 110 (ie in the plane 125) is then calculated using the inverse Fourier Transformation F _1 from the diffraction image 122, ie the light field u '(x, y) in the detector plane 121 with the measured intensity distribution l' (x, y) to u (x, y) = P 1 (u '(x, y )).
Diese wird dann Ausgangspunkt für die erste bzw. jede weitere Iteration und kann entsprechend als Iterationsstützstelle bzw. als u(x,y,)q bezeichnet werden, wobei q der Laufindex der Iteration ist, d.h. bei N Iterationen von q=1 bis N läuft. This then becomes the starting point for the first or each further iteration and can accordingly be referred to as an iteration support point or as u (x, y,) q , where q is the index of the iteration, ie runs from q = 1 to N for N iterations .
Solange die Iteration ausgeführt wird (d.h. der Laufindex q < N ist), wird in der Ebene 125 eine Stützbedingung PSu (support constraint) auf das komplexe Licht feld u(x,y)q angewendet, wobei sich die Stützbedingung z.B. durch ein Wissen über die Gestalt und die Größe des Objektes 110 in der Objektebene 111 ergibt. Danach erfolgt mit der Fourier-Transformation F die Rücktransformation des kom plexen Lichtfelds u(x,y)q in die Detektorebene 121 , d.h. in des Lichtfeld u'(x,y)q. u'(x,y)q = F (u (x,y)q). As long as the iteration is carried out (ie the running index q <N), a support condition P Su (support constraint) is applied to the complex light field u (x, y) q in level 125, the support condition being e.g. on the shape and size of the object 110 in the object plane 111 results. Then the Fourier transformation F is used to transform the complex light field u (x, y) q back into the detector plane 121, ie into the light field u '(x, y) q . u '(x, y) q = F (u (x, y) q ).
In der Detektorebene 121 wird dann eine Modulusbedingung Pmod (modulus cons traint) angewendet, bei der der Betrag des komplexen Feldes u'(x,y)q durch die gemessene Intensitätsverteilung l'(x,y) (Amplitude) unter Beibehaltung der be rechneten Phasen ersetzt wird, also |u'(x,y)| =SQRT(l'(x,y)). A modulus condition Pmo d (modulus cons traint) is then applied in the detector plane 121, in which the magnitude of the complex field u '(x, y) q is determined by the measured intensity distribution l' (x, y) (amplitude) while maintaining the be calculated phases is replaced, i.e. | u '(x, y) | = SQRT (l '(x, y)).
Die in Fig. 2 in der Mitte der unteren Zeile dargestellte Schleife wird iterativ mehr fach durchlaufen (für insgesamt N Iterationen). Eine Iterationsschleife q besteht also in der Anwendung der nachfolgend mathematisch beschriebenen Schritte: u(x,y)q = F 1(u'(x,y)q) und u'(x,y)q = F (u (x,y)q), wobei jeweis entsprechend die Stützbedingung PSUp und die Modulusbedingung Pmod angewandt werden. Durch das mehrfache Durchlaufen dieser Schleife kann der Algorithmus mithilfe der verwendeten Randbedingungen, d.h. der Modulusbedingung (modulus cons- traint Pmod) und der Stützbedingung (support constraint PSup) die richtigen Phase phi'(x,y,)finai in der Detektorebene ermitteln. The loop shown in FIG. 2 in the middle of the lower line is iteratively run through several times (for a total of N iterations). An iteration loop q consists in the application of the steps described mathematically below: u (x, y) q = F 1 (u '(x, y) q) and u' (x, y) q = F (u (x, y) q ), whereby the supporting condition P SUp and the modulus condition Pmo d are applied accordingly. By running through this loop multiple times, the algorithm can determine the correct phase phi '(x, y,) finai in the detector plane with the aid of the boundary conditions used, ie the modulus condition (modulus contract Pmod) and the support condition (support constraint P S up) .
In Figur 2 ist vorgesehen, dass die Iterationsschleife verlassen wird, wenn bei der Anwendung der Modulusbedingung Pmod festgesellt wird, dass die Rekonstruktion einer Amplitude u‘(x,y) final mit der gemessenen Amplitude sqrt(l'(x,y)) mit hinrei chender (gewünschter) Genauigkeit übereinstimmt. Nach Verlassen der Iterati onsschleife wird die Lichtwellenfunktion u(x,y)finai mit der inversen Fourier-Trans formation F 1 aus der Detektorebene 121 wieder in die Objektebene 111 zurück transformiert und ein Bild 140 des Objektes 110 (u(x,y) final) damit rekonstruiert. In Figure 2 it is provided that the iteration loop is exited if, when applying the modulus condition P mod, it is established that the reconstruction of an amplitude u '(x, y) final with the measured amplitude sqrt (l' (x, y)) agrees with sufficient (desired) accuracy. After leaving the iteration loop, the light wave function u (x, y) finai is transformed back into the object plane 111 with the inverse Fourier transformation F 1 from the detector plane 121 and an image 140 of the object 110 (u (x, y)) is final ) thus reconstructed.
Dann kann an allen Stellen des Objektes mit ausreichender Transparenz aus der ermittelten komplexen Lichtwelle u(x,y)finai nach Durchgang durch das Objekt auch die Lichtwelle vor dem Objekt uo(x,y) final berechnet werden. Dies ist das Ziel der Strahlcharakterisierung. Hierfür ist grundsätzlich nur die Aufnahme eines ein zigen Beugungsbildes notwendig (single-shot-Strahlcharakterisierung). Then, after passing through the object, the light wave in front of the object uo (x, y) can also be finally calculated at all points of the object with sufficient transparency from the determined complex light wave u (x, y) finai. This is the goal of beam characterization. In principle, only the recording of a single diffraction image is necessary for this (single-shot beam characterization).
Dieses Verfahren, das anhand der Figur 2 beispielhaft beschrieben wurde und von dem Fachmann entsprechend angewandt werden kann, wird auch bei der erfindungsgemäßen Charakterisierung des kohärenten Lichtfelds in Amplitude und Phase angewandt. This method, which has been described by way of example with reference to FIG. 2 and can be applied accordingly by the person skilled in the art, is also used in the characterization of the coherent light field according to the invention in terms of amplitude and phase.
Im Stand der Technik wurde dieses Verfahren der single-shot Strahlcharakteri sierung nur mit komplexen Objekten demonstriert, deren Amplituden- und Pha- sen-Transmissionsfunktion genau bekannt war. Die Transmission muss insbe sondere für jede Wellenlänge bekannt sein, bei der gemessen werden soll. Be sonders bei exotischen Wellenlängen, z.B. im XUV- oder Röntgenbereich, ist die Herstellung solcher Objekte und die Charakterisierung ihrer Transmissionsfunk tion sehr aufwendig und schwierig. Da die Strahlcharakterisierung häufig bei stark fokussierten Strahlen (Lichtfeldern) erfolgen soll, muss sie auf sehr kleinen räum lichen Skalen erfolgen. Die Größe der Objekte limitiert letztlich also die räumliche Auflösung der Strahlcharakterisierungsmethode. Je komplexer das Objekt ist, desto schwieriger ist es, das Objekt auf kleine Größen zu skalieren und genau zu charakterisieren. In the prior art, this method of single-shot beam characterization was demonstrated only with complex objects whose amplitude and phase transmission function was precisely known. In particular, the transmission must be known for each wavelength at which measurements are to be made. Especially with exotic wavelengths, for example in the XUV or X-ray range, the Production of such objects and the characterization of their transmission function are very complex and difficult. Since the beam characterization should often take place with strongly focused beams (light fields), it must be done on very small spatial scales. The size of the objects ultimately limits the spatial resolution of the beam characterization method. The more complex the object, the more difficult it is to scale the object to small sizes and to characterize it precisely.
Aufgabe der Erfindung ist es daher, ein Verfahren und eine Vorrichtung zur Cha rakterisierung eines kohärenten Lichtfelds in Amplitude und Phase vorzuschla gen, die einfach anzuwenden ist und eine Strahlcharakterisierung auch von fo kussierten Lichtfeldern im Bereich von etwa 1012 bis etwa 1019 Hz erlaubt. The object of the invention is therefore to propose a method and a device for characterizing a coherent light field in amplitude and phase, which is easy to use and also allows beam characterization of focused light fields in the range from about 10 12 to about 10 19 Hz.
Diese Aufgabe wird durch ein Verfahren zur Charakterisierung eines kohärenten Lichtfelds in Amplitude und Phase mit den folgenden Verfahrensschritten gelöst: This object is achieved by a method for characterizing a coherent light field in amplitude and phase with the following method steps:
• Vorsehen eines Objekts mit bekannter Transmissionsfunktion T(x,y) für das Lichtfeld in Amplitude und Phase • Providing an object with known transmission function T (x, y) for the light field in amplitude and phase
• Bestrahlen des Objekts mit dem zu charakterisierenden kohärenten Licht feld in einer Objektebene, in der das Objekt angeordnet ist • Irradiating the object with the coherent light field to be characterized in an object plane in which the object is arranged
• Erfassen einer Intensitätsverteilung l'(x,y) des Beugungsbildes des Licht felds räumlich hinter bzw. nach dem bestrahlten Objekt in einer Detektor ebene mittels eines Flächendetektors • Detection of an intensity distribution l '(x, y) of the diffraction image of the light field spatially behind or after the irradiated object in a detector plane by means of an area detector
• Rekonstruieren der Lichtwellenfunktion u(x,y) (als mathematisch komplexe Funktion, d.h. als Funktion im komplexen Raum) nach deren Durchgang durch das Objekt durch iteratives Ermitteln von Phase phi(x,y) und Amplitude l(x,y) der Lichtwelle aus der erfassten Intensitätsverteilung durch wiederholtes Berechnen der Propagation der Lichtwelle zwischen der Detektorebene und der Objektebene (nach dem Durchgang der Licht welle durch das Objekt, vorstehende zur Verdeutlichung auch als Ebene io hinter dem Objekt bezeichnet) durch Anwenden von Propagatoren und in versen Propagatoren und jeweils Anwenden von Randbedingungen für das Beugungsbild in der Detektorebene und in der Objektebene (nach dem Durchgang der Lichtwelle durch das Objekt) • Reconstructing the light wave function u (x, y) (as a mathematically complex function, ie as a function in complex space) after it has passed through the object by iteratively determining the phase phi (x, y) and amplitude l (x, y) of the light wave from the detected intensity distribution by repeatedly calculating the propagation of the light wave between the detector plane and the object plane (after the light wave has passed through the object, the above for clarification also as a plane io behind the object) by applying propagators and in verse propagators and applying boundary conditions for the diffraction image in the detector plane and in the object plane (after the light wave has passed through the object)
• Berechnen der Lichtwelle vor dem Durchgang durch das Objekt (d.h. der Lichtwellenfunktion uo(x,y)) durch Anwenden der bekannten Transmissi onsfunktion T(x,y) auf die rekonstruierte Lichtwellenfunktion u(x,y). • Calculate the light wave before it passes through the object (i.e. the light wave function uo (x, y)) by applying the known transmission function T (x, y) to the reconstructed light wave function u (x, y).
Bei Anwendung dieses grundsätzlich bereits bekannten Verfahrens wird vorge schlagen ein Objekt zu verwenden, dessen Strukturbereich durch eine Transmis sionsmaske definiert wird bzw. ist, die nur stark absorbierende Bereiche (im Sinne von optisch für die Lichtwelle zumindest nahezu vollständig undurchlässigen Be reichen) mit einer Transmission T(x,y) « 0 und nicht absorbierende Bereiche (im Sinne von optisch für die Lichtwelle zumindest nahezu vollständig durchlässige Bereiche, bspw. Öffnungen) mit einer Transmission von T(x,y ) « l vorsieht. Eine solche Struktur des Objekts bewirkt ausschließlich eine Amplitudenmodulation durch die Beugung der Lichtwelle an dem Objekt. Eine Änderung der Phase der Lichtwelle an dem Objekt tritt nicht auf. Dies erleichtert die nummerische Berech nung der Propagation der Lichtwelle zwischen der Objektebene und der Detek torebene, weil die Transmissionsfunktion einfach (digital mit den Werten 0 und 1) beschreibbar ist. When using this method, which is already known in principle, it is proposed to use an object whose structural area is or is defined by a transmission mask that only has strong absorbing areas (in the sense of being at least almost completely opaque to the light wave) with a transmission T (x, y) «0 and non-absorbing areas (in the sense of optically at least almost completely transparent areas for the light wave, for example openings) with a transmission of T (x, y)« 1. Such a structure of the object only effects an amplitude modulation through the diffraction of the light wave on the object. A change in the phase of the light wave at the object does not occur. This facilitates the numerical calculation of the propagation of the light wave between the object plane and the detector plane, because the transmission function can be described simply (digitally with the values 0 and 1).
Zusätzlich können gemäß einer bevorzugten Ausführung des vorgeschlagenen Verfahrens alle undurchlässigen Bereiche mit T=0 als support constraint PSUp in der Phasenrekonstruktion verwendet werden, was die Konvergenz des Algorith mus schneller und zuverlässiger macht. Somit sind schnellere und genauere Mes sungen möglich. Derartige Transmissionsmasken sind darüber hinaus einfach herstellbar. So kann die Transmissionsmaske durch eine Absorberschicht, bspw. einen absorbieren den Metallfilm, als stark absorbierende Bereich (T « 0) mit Öffnungen in dem Me tallfilm als nicht absorbierende Bereiche (T « 1) realisiert sein. Die Herstellung solcher Transmissionsmasken kann mit sehr großer Präzision erfolgen, so dass sich entsprechend kleine Strukturen im Subwellenbereich (bspw. im Nanometer bereich) erzeugen lassen. Die Öffnungen in der Absorberschicht, bspw. einem Metallfilm, können bspw. mit einem fokussierten lonenstrahl (focused ion beam) erzeugt werden. In addition, according to a preferred embodiment of the proposed method, all impermeable areas with T = 0 can be used as support constraint P SUp in the phase reconstruction, which makes the convergence of the algorithm faster and more reliable. This enables faster and more accurate measurements. Such transmission masks are also easy to manufacture. Thus, the transmission mask can be implemented by an absorber layer, for example an absorbing metal film, as a strongly absorbing area (T «0) with openings in the metal film as non-absorbing areas (T« 1). Such transmission masks can be produced with very high precision, so that correspondingly small structures in the sub-wave range (for example in the nanometer range) can be produced. The openings in the absorber layer, for example a metal film, can be produced, for example, with a focused ion beam.
Gemäß einem weiteren Aspekt kann das Objekt eine Transmissionsmaske auf weisen, die außerhalb eines definierten Strukturbereichs stark absorbierend (op tisch für die Lichtwelle undurchlässig) ist, d.h. eine Transmission von T « o auf weist. Mit anderen Worten ist der Strukturbereich des Objekts durch einen Blen denbereich umgeben, der nur stark absorbierende Bereiche mit einer Transmis sion T « o vorsieht. Die Abgrenzung zwischen dem Blendenbereich und dem Strukturbereich des Objekts kann bspw. durch eine (gedachte) linienartige und geschlossene Konturkurve erfolgen, die die im Außenbereich des Strukturbe reichs nicht absorbierenden Bereiche (nachfolgend auch als Öffnungen bezeich net) einhüllt, bspw. indem die Konturkurve alle außen liegenden Öffnungen so verbindet, dass alle Öffnungen des Strukturbereichs innerhalb der geschlossenen Konturkurve liegen. Mit anderen Worten liegt außerhalb der Konturkurve kein nicht absorbierender Bereich (Öffnung). Dieser außerhalb der geschlossenen Konturkurve liegende Bereich ist entsprechend der Blendenbereich, der auf den Blendenbereich treffende Teile der Lichtwelle vollständig absorbiert in dem Sinne, dass diese Teile der Lichtwelle nicht im Flächendetektor nachgewiesen werden. Gemäß einer Ausgestaltung kann die geschlossene Konturkurve so klein wie möglich ausgebildet sein, bspw. indem die Länge der (gedachten) Konturkurven linie möglichst kurz sein soll. Als erläuterndes Beispiel, ohne dass dies Art und Beschaffenheit eines Struktur bereichs und des Blendenbereichs in irgendeiner Weise beschränken soll, kann der Strukturbereich bspw. durch eine Metall- oder beliebige andere Absorber schicht gebildet werden, die für die Lichtwelle undurchlässig ist und bspw. mat rixförmig angeordnete Öffnungen aufweist. Als Konturkurve kann die diesem Fall eine linienförmige Kurve gewählt werden, die die Öffnungen jeweils der ersten und der letzten Reihe und Spalte miteinander verbindet und dabei alle Öffnungen vollständig mit einschließt. Somit bildet gerade die Matrixanordnung der Öffnun gen mit den zwischen den Öffnungen liegenden stark absorbierenden Bereichen den Strukturbereich. Der Matrixanordnung der Öffnungen umgebende, stark ab sorbierende Bereich außerhalb der geschlossenen Konturkurve bildet den Blen denbereich. According to a further aspect, the object can have a transmission mask which is highly absorbent (optically impermeable to the light wave) outside a defined structure area, ie has a transmission of T «o. In other words, the structure area of the object is surrounded by a diaphragm area which only provides strongly absorbing areas with a transmission T «o. The delimitation between the aperture area and the structure area of the object can be done, for example, by an (imaginary) line-like and closed contour curve, which envelops the non-absorbing areas in the outer area of the structure area (hereinafter also referred to as openings), for example by the contour curve connects external openings in such a way that all openings of the structural area lie within the closed contour curve. In other words, there is no non-absorbing area (opening) outside the contour curve. This area lying outside the closed contour curve is correspondingly the diaphragm area, which completely absorbs the parts of the light wave hitting the diaphragm area in the sense that these parts of the light wave are not detected in the area detector. According to one embodiment, the closed contour curve can be made as small as possible, for example by making the length of the (imaginary) contour curve line as short as possible. As an illustrative example, without this being intended to restrict the type and nature of a structural area and the aperture area in any way, the structural area can be formed, for example, by a metal or any other absorber layer that is impermeable to the light wave and, for example, in the form of a matrix having arranged openings. In this case, a linear curve can be selected as the contour curve, which connects the openings of the first and the last row and column with one another and completely includes all openings. Thus, it is precisely the matrix arrangement of the openings with the highly absorbent areas between the openings that forms the structural area. The strongly absorbing area outside the closed contour curve surrounding the matrix arrangement of the openings forms the diaphragm area.
So übernimmt das Objekt gleichzeitig die Funktion einer im Stand der Technik häufig verwendeten Eintrittsblende. Das erfindungsgemäße Reduzieren der An zahl der bei der Anwendung des vorgeschlagenen Verfahrens verwendeten opti schen Elemente führt zu einer höheren Stabilität sowohl der Apparatur (im me chanischen Sinne) als auch der durch das Verfahren erhaltenen Charakterisie rung des Lichtfelds (im Sinne einer Lösung für iterativ durchgeführten Rekonstruk tion der Lichtwellenfunktion). In this way, the object simultaneously takes on the function of an entrance aperture that is frequently used in the prior art. The inventive reduction in the number of optical elements used when applying the proposed method leads to a higher stability of both the apparatus (in the mechanical sense) and the characterization of the light field obtained by the method (in the sense of a solution for iteratively carried out Reconstruction of the light wave function).
Dies kann auch durch ein als Metallfilm ausgebildetes Objekt realisiert werden, das außerhalb des Strukturbereichs keine Öffnungen aufweist. Hieraus ergibt sich eine maximale Größe des Messfeldes in der Objektebene, das das Beugungsbild hervorruft. Dadurch wird eine Konvergenz der iterativen Ermittlung der Phase des Lichtfelds in dem zuvor beschriebenen Sinne gesichert. This can also be realized by an object in the form of a metal film which has no openings outside the structural area. This results in a maximum size of the measurement field in the object plane that produces the diffraction image. This ensures a convergence of the iterative determination of the phase of the light field in the sense described above.
Ferner kann (allen oder einer Auswahl der) stark absorbierenden Bereichen des Objekts (insbesondere des Strukturbereichs des Objekts) mit T « o eine Inten- tistät von u(x,y)=0 der Lichtfeldfunktion als Randbedingung zugewiesen werden. Hierdurch wird die Konvergenz des iterativen Rekonstruktionsalgorithmus (Inver sionsalgorithmus) beschleunigt. Diese Randbedingungen erlauben es auch, die Anforderungen an das Signal-Rausch-Verhältnis zu verringern. Dies führt zu kür zeren Messzeiten. Besonders vorteilhaft ist es, die gesamte Struktur des Objekts (d.h. dessen Strukturbereich) zu ermitteln und mit dieser Randbedingung zu be legen. Furthermore, an intensity of u (x, y) = 0 of the light field function can be assigned to the light field function as a boundary condition (all or a selection of the) strongly absorbing areas of the object (in particular the structural area of the object) with T «o. This accelerates the convergence of the iterative reconstruction algorithm (inversion algorithm). These boundary conditions also make it possible to reduce the requirements for the signal-to-noise ratio. This leads to shorter measuring times. It is particularly advantageous to determine the entire structure of the object (ie its structural area) and to apply this boundary condition.
In der Praxis kann dies so erfolgen, dass die Lichtwellenfunktion u(x,y) in der Objektebene an allen Orten (x,y) des Strukturbereichs mit einer Transmission von T « o auf den Wert u(x,y)=0 gesetzt wird. Dies stellt, da alle anderen Orte des Strukturbereichs den Wert T « l aufweisen, eine Ermittlung der gesamten Struk tur des Objekts dar. In practice, this can be done in such a way that the light wave function u (x, y) in the object plane is set to the value u (x, y) = 0 at all locations (x, y) of the structural area with a transmission of T «o . Since all other locations in the structure area have the value T «1, this represents a determination of the entire structure of the object.
Um die Bereiche mit T « o in dem Objekt zu identifizieren, kann das Objekt bspw. durch ein Elektronenmikroskop untersucht bzw. aufgenommen und die Löcher bzw. die Bereiche des Metallfilms bzw. allgemeiner die stark absorbierenden Be reiche (bspw. im Sinne von Material aufweisenden Bereichen) der Struktur des Objekts vermessen werden. In order to identify the areas with T «o in the object, the object can be examined or recorded, for example, by an electron microscope and the holes or the areas of the metal film or more generally the strongly absorbing areas (for example in the sense of material Areas) of the structure of the object are measured.
Anstelle eines Metallfilms kann auch anderes, für das Lichtfeld optisch nicht durchlässiges Material durch den Fachmann ausgewählt werden, also jedes für die Lichtwelle geeignete Absorbermaterial zur Bildung einer Absorberschicht. Instead of a metal film, another material that is optically non-transparent for the light field can also be selected by the person skilled in the art, that is to say any absorber material suitable for the light wave for forming an absorber layer.
Ein weiterer Aspekt der Erfindung sieht vor, dass ein Objekt mit einer asymmet risch gestalteten Struktur, d.h. einem asymmetrisch gestalteten Strukturbereich, verwendet wird. Einfache periodische oder symmetrische Testobjekte können nicht verwendet werden, da die Rekonstruktion der Lichtwelle durch das soge nannte ,,twin-image"-Problems nicht eindeutig ist: Ohne zusätzliche Kenntnis über eine Asymmetrie des Objektes ergibt das Ergebnis sowohl ein Bild hinter dem Testobjekt als auch ein Zwillingsbild, welches um 180 Grad rotiert ist. Somit ist eine eindeutige Zuordnung der Koordinaten in der Objektebene nicht möglich, und die Lichtwellenfunktion u(x,y) kann nicht eindeutig rekonstruiert werden. Another aspect of the invention provides that an object with an asymmetrically designed structure, ie an asymmetrically designed structure area, is used. Simple periodic or symmetrical test objects cannot be used because the reconstruction of the light wave due to the so-called "twin-image" problem is not unambiguous: Without additional knowledge of an asymmetry of the object, the result gives an image behind the test object as well as a twin image that has been rotated 180 degrees an unambiguous assignment of the coordinates in the object plane is not possible, and the light wave function u (x, y) cannot be unambiguously reconstructed.
Dies ist in Figur 2 durch zwei rekonstruierte Bilder 140 des Objekts 101 darge stellt, die gerade spiegelbildlich zueinander sind. Durch eine bekannte Asymmet rie des Objekts ergibt sich für die Rekonstruktion eine weitere Randbedingung (Stützbedingung respektive support constraint Psup), die eine eindeutige Rekon struktion erlaubt. This is illustrated in FIG. 2 by two reconstructed images 140 of the object 101, which are currently mirror images of one another. A known asymmetry of the object results in a further boundary condition for the reconstruction (support condition or support constraint Psup), which allows an unambiguous reconstruction.
Ergänzend können aus dem Kontrast des Beugungsbildes ggfs auch zusätzliche Aussagen über die Kohärenz der Strahlung gewonnen werden. Die räumliche und zeitliche Kohärenz der Strahlung können über eine Analyse des Interferenzkon trastes im Beugungsbild bestimmt werden, insbesondere da die gewählte Trans missionsstruktur bei voll kohärenter Beleuchtung Beugungsbilder mit scharfen Maxima und Minima erzeugt (Kontrast= Max-Min / Max+Min = 1). Während die räumliche Kohärenz den Kontrast im gesamten Beugungsbild reduziert (Kontrast < 1), verursacht eine begrenzte zeitliche Kohärenz eine Reduktion des Kontrastes für zunehmende Beugungswinkel. Dies passiert, sobald die Laufzeitunterschiede zwischen Teilwellen, welche von beiden äußeren Enden der Probe (Objekt) stam men, in die Größenordnung der zeitlichen Kohärenzlänge kommen. Dieser Lauf zeitunterschied berechnet sich ds=sin(theta)*a, wobei theta der Beugungswinkel ist und a die Größe der Probe. In addition, additional statements about the coherence of the radiation can be obtained from the contrast of the diffraction image. The spatial and temporal coherence of the radiation can be determined by analyzing the interference contrast in the diffraction image, especially since the selected transmission structure generates diffraction images with sharp maxima and minima with fully coherent illumination (contrast = max-min / max + min = 1). While the spatial coherence reduces the contrast in the entire diffraction image (contrast <1), a limited temporal coherence causes a reduction in the contrast for increasing diffraction angles. This happens as soon as the transit time differences between partial waves, which come from both outer ends of the sample (object), come to the order of magnitude of the temporal coherence length. This transit time difference is calculated as ds = sin (theta) * a, where theta is the diffraction angle and a is the size of the sample.
Ferner betritt die Erfindung eine Vorrichtung zur Charakterisierung eines kohä renten Lichtfelds in Amplitude und Phase mit den folgenden Elementen: Furthermore, the invention relates to a device for characterizing a coherent light field in amplitude and phase with the following elements:
• Objekt mit bekannter Transmissionsfunktion für das Lichtfeld in Amplitude und Phase in einer Objektebene im Strahlengang des Lichtfeld; • Object with known transmission function for the light field in amplitude and phase in an object plane in the beam path of the light field;
• Flächendetektor hinter dem Objekt im Strahlengang des am Objekt ge beugten Lichtfelds in einer Detektorebene, wobei der Flächendetektor zum Erfassen einer Intensitätsverteilung des Beugungsbildes des Lichtfelds ausgebildet ist; • Area detector behind the object in the beam path of the light field diffracted on the object in a detector plane, the area detector for Detecting an intensity distribution of the diffraction image of the light field is formed;
• Recheneinrichtung, die mit dem Flächendetektor verbunden und dazu ein gerichtet ist, das zuvor beschriebene Verfahren zum Rekonstruieren der Lichtwellenfunktion u(x,y) oder Teile hiervon durchzuführen. Computing device which is connected to the area detector and is designed to carry out the previously described method for reconstructing the light wave function u (x, y) or parts thereof.
Erfindungsgemäß weist das Objekt einen Strukturbereich auf, der durch eine Transmissionsmaske definiert ist, die nur stark absorbierende Bereiche mit einer Transmission T « o und nicht absorbierende Bereiche mit einer Transmission von T « 1 vorsieht. Hierdurch ist die Transmissionsfunktion T(x,y) des Objekts einfach beschreibbar. Der Strukturbereich des Objekts ist in einer bevorzugten Ausfüh rung asymmetrisch gestaltet, um das bereits beschriebene ,,twin-image"-Problem zu vermeiden. According to the invention, the object has a structure area which is defined by a transmission mask which provides only strongly absorbing areas with a transmission T «o and non-absorbing areas with a transmission of T« 1. This makes it easy to describe the transmission function T (x, y) of the object. In a preferred embodiment, the structural area of the object is designed asymmetrically in order to avoid the "twin-image" problem already described.
Vorzugsweise kann das Objekt einen stark absorbierenden Blendenbereich auf weist, der nur stark absorbierende Bereiche mit einer Transmission T « o vorsieht und den Strukturbereich umgibt. Damit bildet das Objekt selbst eine Blende für das Lichtfeld, damit um den Strukturbereich des Objekts durch das Lichtfeld be leuchtende Teile absorbiert werden und so verhindert wird, dass diese Teile des Lichtfelds durch den Flächendetektor erfasst werden. The object can preferably have a strongly absorbing diaphragm area which only provides strongly absorbing areas with a transmission T «o and which surrounds the structural area. The object itself thus forms a screen for the light field, so that parts of the light field that illuminate around the structure area of the object are absorbed and this prevents these parts of the light field from being detected by the area detector.
Gemäß einer besonders bevorzugten Ausführung der erfindungsgemäßen Vor richtung kann diese als einzige optische Elemente (d.h. Elemente, die mit dem Lichtfeld Zusammenwirken) das Objekt und den Flächendetektor aufweisen. Hier durch ist die Vorrichtung sehr einfach justierbar. Diese beschriebene Vorrichtung (Aufbau) hat als weiteren wichtigen Vorteil, dass diese nur zwei statische (d.h. während der Messung nicht zu verändernde) optische Elemente aufweist, näm lich das Objekt als Probe im Strahl und den Flächendetektor hinter der Probe. Gemäß einer bevorzugten Ausführungsform kann der Flächendetektor einen pi- xelierten Sensor aufweisen, d.h. einen aus einer Vielzahl von einzelnen Pixelele menten bestehenden Sensor, mit dem eine räumliche Verteilung der Intensitäts verteilung des Beugungsbildes des Lichtfelds in der Detektorebene erfasst wer den kann. Die Auflösung der räumlichen Verteilung ist durch die Pixelstruktur (räumliche Anordnung der Pixel auf der Detektorfläche respektive Sensorfläche) und die Pixelgröße (Flächengröße eines Pixels) vorgegeben. In möglichen Aus führungen des Flächendetektors kann die Flächengröße im Bereich // m2 (Quad ratmikrometer) liegen, für langwelliges Licht (z.B. IR und THz) auch im Bereich mm2 (Quadratmillimeter). According to a particularly preferred embodiment of the device according to the invention, it can have the object and the area detector as the only optical elements (ie elements that interact with the light field). This makes the device very easy to adjust. This described device (structure) has a further important advantage that it has only two static optical elements (ie that cannot be changed during the measurement), namely the object as a sample in the beam and the area detector behind the sample. According to a preferred embodiment, the area detector can have a pixelated sensor, ie a sensor consisting of a large number of individual pixel elements with which a spatial distribution of the intensity distribution of the diffraction image of the light field in the detector plane can be detected. The resolution of the spatial distribution is given by the pixel structure (spatial arrangement of the pixels on the detector surface or sensor surface) and the pixel size (surface size of a pixel). In possible designs of the area detector, the area size can be in the range // m 2 (square micrometers), for long-wave light (eg IR and THz) also in the range mm 2 (square millimeters).
Mittels geeigneter Filter kann der Flächendetektor dazu ausgebildet sein, das Licht der Lichtwelle wellenlängenselektiv zu erfassen, insbesondere um nicht von der Lichtwelle erzeugten Lichteinfall zu minimieren. Der Begriff "Licht" im Sinne dieses Textes ist nicht auf sichtbares Licht beschränkt, sondern umfasst den ein gangs angegebenen Wellenlängen- bzw. Frequenzbereich. By means of suitable filters, the area detector can be designed to detect the light of the light wave in a wavelength-selective manner, in particular in order to minimize incidence of light not generated by the light wave. The term "light" in the context of this text is not restricted to visible light, but rather includes the wavelength or frequency range specified at the beginning.
Das zuvor beschriebene Verfahren und der zuvor beschriebene Aufbau sind so genau, dass eine Charakterisierung des Lichtfelds mit dem Erfassen nur eines Beugungsbilds durchgeführt werden kann, d.h. das Einzelschuss-Messungen ("single shot") möglich sind. Dies ermöglicht also kurze Mess- und Auswertezei ten für die Charakterisierung des Lichtfelds, sodass durch die Anwendung des erfindungsgemäßen Verfahrens de facto Echtzeit-Messungen möglich sind. Dazu trägt auch die schnelle Konvergenz des Inversionsalgorithmus bei. The method described above and the structure described above are so precise that a characterization of the light field can be carried out with the acquisition of only one diffraction image, i.e. single shot measurements are possible. This enables short measurement and evaluation times for the characterization of the light field, so that de facto real-time measurements are possible by using the method according to the invention. The rapid convergence of the inversion algorithm also contributes to this.
Die Rekonstruktion kann zusätzlich durch Parallelisierung und Methoden der künstlichen Intelligenz beschleunigt werden. Entsprechende Methoden aus dem Stand der Technik sind bekannt. Weil das Verfahren durch die einfache optische Struktur des verwendeten Objekts auch das Verwenden sehr kleiner Objekt ermöglicht, sind grundsätzlich auch sehr große Wellenfrontkrümmungen messbar, bspw. mit Messwinkeln von bis zu +/- 90° zur optischen Achse. Daher ist die Erfindung auch besonders gut zur Charak terisierung kleiner Fokusspots von Lichtwellen geeignet. The reconstruction can also be accelerated by parallelization and methods of artificial intelligence. Corresponding methods from the prior art are known. Because the method also enables very small objects to be used due to the simple optical structure of the object used, very large wavefront curvatures can also be measured, for example with measuring angles of up to +/- 90 ° to the optical axis. The invention is therefore also particularly suitable for characterizing small focus spots of light waves.
Auch lässt sich durch die Erfindung eine räumliche Auflösung bis in den sub-Wel- lenlängenbereich (bspw. mit einer numerischen Apertur von NA > 0,5) erreichen. Damit sind praktisch alle Anwendungsfälle (auch bei kleinen Fokusspots der Lichtwelle) abgedeckt. The invention also makes it possible to achieve spatial resolution down to the sub-wavelength range (for example with a numerical aperture of NA> 0.5). This covers practically all applications (even with small focus spots of the light wave).
Damit kann die beschriebene Erfindung bevorzugt zur Justage von Objekten in optischen Aufbauten und/oder zur Einstellung von Lichtquellen in optischen Auf bauten verwendet werden. Thus, the invention described can preferably be used to adjust objects in optical structures and / or to adjust light sources in optical structures.
Weitere Vorteile, Merkmale und Anwendungsmöglichkeiten der Erfindung erge ben sich auch aus der nachfolgenden Beschreibung von Ausführungsbeispielen und der Zeichnung. Dabei gehören alle beschriebenen und/oder bildlich darge stellten Merkmale zusammen oder in beliebiger fachmännisch sinnvoller Kombi nation zum Gegenstand der Erfindung, auch unabhängig von ihrer Zusammen fassung in beschriebenen bzw. dargestellten Ausführungsbeispielen oder in den Ansprüchen. Further advantages, features and possible applications of the invention also emerge from the following description of exemplary embodiments and the drawing. All of the features described and / or shown in the figures belong together or in any technically meaningful combination to the subject matter of the invention, regardless of how they are summarized in the described or illustrated exemplary embodiments or in the claims.
Es zeigen: Show it:
Fig. 1 schematisch den Durchgang eines Lichtfelds durch ein Objekt und den Nachweis des dabei entstehenden Beugungsbildes in der Detektor ebene in einem Aufbau, der auch für die erfindungsgemäße Vorrich tung und die Durchführung des Verfahrens zur Charakterisierung eines kohärenten Lichtfelds in Amplitude und Phase verwendbar ist; ts Fig. 1 schematically shows the passage of a light field through an object and the detection of the resulting diffraction image in the detector plane in a structure that can also be used for the device according to the invention and the implementation of the method for characterizing a coherent light field in amplitude and phase; ts
Fig. 2 schematisch die Verfahrensschritte zur Rekonstruktion der Lichtwell- lenfunktion u(x,y) des Lichtfelds mit dem grundsätzlich bekannten Ver fahren der kohärenten Bildgebung; und 2 schematically shows the method steps for reconstructing the light wave function u (x, y) of the light field with the basically known method of coherent imaging; and
Fig. 3 schematisch die Durchführung des erfindungsgemäß vorgeschlagenen Verfahrens in einer erfindungsgemäßen Vorrichtung nach einer bevor zugten Ausführungsform. 3 schematically shows the implementation of the method proposed according to the invention in a device according to the invention according to a preferred embodiment.
Figur 1 und Figur 2 wurden zur Erläuterung des Hintergrunds der Erfindung be reits ausführlich beschrieben. Diese Schritte sind auch Teil des erfindungsgemä ßen Verfahrens und werden an dieser Stelle nicht mehr ausführlich beschrieben. Figure 1 and Figure 2 have already been described in detail to explain the background of the invention. These steps are also part of the method according to the invention and are no longer described in detail at this point.
Anhand von Figur 3 wird das erfindungsgemäß vorgeschlagene Verfahren in einer bevorzugten Ausführungsform beschrieben, wobei die bereits in Bezug auf die Figuren 1 und 2 beschriebenen Merkmale nicht mehr ausführlich erläutert wer den. Der Fachmann versteht, dass er diese grundsätzlich bekannten Verfahrens schritte auch bei dem erfindungsgemäßen Verfahren in einer Vorrichtung anwen den kann, wie sie in Figur 1 schematisch dargestellt ist. Der grundsätzliche Ver fahrensablauf ist ähnlich, und zur Bezeichnung vergleichbarer Merkmale werden um dieselben, mit 100 subtrahierten Bezugszeichen verwendet, die auch in Figur 1 mit eingetragen sind. The method proposed according to the invention is described in a preferred embodiment with reference to FIG. 3, the features already described with reference to FIGS. 1 and 2 no longer being explained in detail. The person skilled in the art understands that he can also use these basically known method steps in the method according to the invention in a device as is shown schematically in FIG. The basic process sequence is similar, and the same reference numerals, subtracted by 100, are used to designate comparable features, which are also entered in FIG.
Wie auch in Figur 2 wird aus der im Detektor 20 erfassten Intensitätsverteilung l'(x,y) und einer beliebigen Phase phi‘(x,y) eine initiale Lichtwellenfunktion u‘(x,y)initiai festgelegt. Figur 3 zeigt außerdem schematisch ein in der Vorrichtung und dem Verfahren verwendetes Objekt 10 bzw. dessen Strukturbereich 12. Der Strukturbereich 12 ist durch eine Transmissionsmaske definiert, die stark absor bierende Bereiche 13 (in Figur 3 hell dargestellt) und nicht absorbierende Berei che 14 (in Figur 3 dunkel dargestellt) aufweist, bspw. in Form einer Absorptions schicht wie etwa einer Metallfolie oder eines sonstigen, die Wellenlänge(n) des Lichtfeldes absorbierenden Materials. As in FIG. 2, an initial light wave function u '(x, y) i nitiai is determined from the intensity distribution l' (x, y) detected in the detector 20 and any phase phi '(x, y). FIG. 3 also shows schematically an object 10 or its structure area 12 used in the device and the method. The structure area 12 is defined by a transmission mask, the strongly absorbing areas 13 (shown in light color in FIG. 3) and non-absorbing areas surface 14 (shown in dark in FIG. 3), for example in the form of an absorption layer such as a metal foil or some other material that absorbs the wavelength (s) of the light field.
Für die stark absorbierenden Bereiche 13 gibt es keine Transmission der Licht welle 1, oder die Transmission ist so gering, dass eine Transmission T « o ist. Die bekannte Struktur des Objekts 10 ermöglicht es, alle Orte mit der Intensität von Null zu identifizieren. Die bekannte Information über das Objekt wird als Randbedingung PSup (support constraint) im iterativen Algorithmus verwendet. Dies verbessert erfindungsgemäß die Konvergenz des Algorithmus enorm und beschleunigt das Auffinden einer Lösung bei der Iteration. For the strongly absorbing areas 13 there is no transmission of the light wave 1, or the transmission is so low that a transmission T «o. The known structure of the object 10 makes it possible to identify all locations with the intensity of zero. The known information about the object is used as a boundary condition P S up (support constraint) in the iterative algorithm. According to the invention, this improves the convergence of the algorithm enormously and accelerates the finding of a solution during the iteration.
Die nicht absorbierenden Bereiche 14 sind Öffnungen in der Absorptionsschicht, und dort gilt eine Transmission von T « l. Auch die Phase des Objekts wird durch die nicht absorbierenden Bereich des Objekts nicht beeinflusst. The non-absorbent areas 14 are openings in the absorption layer, and a transmission of T «1 applies there. Also the phase of the object is not influenced by the non-absorbing area of the object.
Wie durch eine Verschiebung der Anordnung der Öffnungen in einem Teil des Objekts 10 (in der Darstellung im oberen rechten Quadranten der Matrixanord nung der Öffnungen) gegenüber der Anordnung der übrigen Öffnungen angedeu tet, ist der Strukturbereich 12 des Objekts 10 asymmetrisch aufgebaut. Dies ist eine weitere Randbedingung, die eine eindeutige Zuordnung der Bildpunkte zu dem Objekt ermöglicht, so dass das "twin-image"-Problem, wie in Zusammen hang mit Figur 2 beschrieben, vermieden werden kann. As indicated by a shift in the arrangement of the openings in part of the object 10 (in the illustration in the upper right quadrant of the matrix arrangement of the openings) compared to the arrangement of the other openings, the structure area 12 of the object 10 is constructed asymmetrically. This is a further boundary condition that enables the image points to be clearly assigned to the object, so that the “twin-image” problem, as described in connection with FIG. 2, can be avoided.
Außerhalb des in Figur 3 dargestellten Strukturbereichs 12 des Objekts 10 ist das Objekt 10 stark absorbierend, d.h. dass eine Transmission T « o angenommen werden kann. Der Strukturbereich 12 des Objekts 10, der das detektierte Beu gungsbild 22 hervorruft, ist also de facto ein isoliertes Objekt, dessen Größe (ma ximale Ausdehnung) bekannt ist. Damit definiert sich die maximale Größe des Messfelds, womit die minimal nötige Pixelanzahl des Detektors festgelegt werden kann. Der Abstand des Detektors 20 von dem Objekt 10 bzw. der Objektebene 11 von der Detektorebene 21 ist dann so wählbar, dass der Detektor 20 das Beu gungsbild 22 genügend fein abtasten kann. Outside of the structural region 12 of the object 10 shown in FIG. 3, the object 10 is highly absorbent, that is to say that a transmission T «o can be assumed. The structural area 12 of the object 10, which causes the detected diffraction image 22, is thus de facto an isolated object, the size (maximum extent) of which is known. This defines the maximum size of the measuring field, which defines the minimum number of pixels required for the detector can. The distance of the detector 20 from the object 10 or the object plane 11 from the detector plane 21 can then be selected so that the detector 20 can scan the diffraction image 22 with sufficient precision.
Aufgrund der beschriebenen Struktur des Strukturbereichs 12 des Objekts 10 be wirkt die Transmissionsmaske ausschließlich eine Amplitudenmodulation der Lichtwelle respektive des Lichtfelds 1, weil die Öffnungen (nicht absorbierende Bereiche 14) eine Transmission von T « l aufweisen. Hierdurch wird die Phase der Lichtwelle nicht moduliert. Auch dies stellt eine Randbedingung dar, die zu einer schnelleren Konvergenz des iterativen Algorithmus führt. Due to the described structure of the structural region 12 of the object 10, the transmission mask only has an amplitude modulation of the light wave or the light field 1 because the openings (non-absorbing regions 14) have a transmission of T «1. This does not modulate the phase of the light wave. This, too, represents a boundary condition that leads to faster convergence of the iterative algorithm.
Die Iteration wird, wie mit Bezug auf Figur 2 bereits beschrieben, durchgeführt. Im Ergebnis wird eine Lichtwellenfunktion u(x,y) rekonstruiert, die das Bild 40 des Objekts 10 aus dem im Detektor 20 aufgenommenen Beugungsbild 22 gut rekon struiert. Aus der ermittelten Lichtwellenfunktion u(x,y) hinter dem Objekt 10 (d.h. in der Ebene 25 gemäß Figur 1) kann dann mithilfe der bekannten Transmissi onsfunktion des Objektes T(x,y) die Lichtwelle 1 in der Objektebene 111 vor dem Durchgang durch das Objekt uo(x,y) bestimmt werden. Damit sind die Amplitude und Phase der Lichtwelle 1 charakterisiert. The iteration is carried out as already described with reference to FIG. As a result, a light wave function u (x, y) is reconstructed which reconstructs the image 40 of the object 10 well from the diffraction image 22 recorded in the detector 20. From the determined light wave function u (x, y) behind the object 10 (ie in the plane 25 according to FIG. 1), the light wave 1 in the object plane 111 can then pass through using the known transmission function of the object T (x, y) the object uo (x, y) can be determined. The amplitude and phase of the light wave 1 are thus characterized.
Erfindungsgemäß kann die bekannte Struktur genutzt werden, um die Konver genz des Rekonstruktionsalgorithmus zu beschleunigen und/oder die Anforderun gen an das Signal-zu-Rausch-Verhältnis zu verringern (um kürzere Messzeiten zu erlauben). Das Objekt 10 hat eine bekannte Transmissionscharakteristik T(x,y) mit Bereichen einer Transmission von T « l, die die Phase der Lichtwelle nicht beeinflussen, und mit Bereichen einer Transmission von T « o, die die auf das Objekt 10 treffende Lichtwelle vollständig absorbieren. Diese einfache geometri sche Struktur des Objekts 10 kann vor Durchführung des Verfahrens bestimmt werden, bspw. durch Aufnahme mit einem Elektronenmikrospot oder eine andere geeignete Bestimmungsmethode. Alle Bereiche mit einer Transmission von T « o können als Randbedingung genutzt werden, in denen die Lichtwellenfunktion u(x,y) in der Objektebene 11 gleich Null ist. Dies beschleunigt die Konvergenz des Rekonstruktionsalgorithmus. According to the invention, the known structure can be used to accelerate the convergence of the reconstruction algorithm and / or to reduce the requirements for the signal-to-noise ratio (to allow shorter measurement times). The object 10 has a known transmission characteristic T (x, y) with areas of a transmission of T «1 which do not influence the phase of the light wave, and with areas of a transmission of T« o which completely absorb the light wave striking the object 10 . This simple geometric structure of the object 10 can be determined before the method is carried out, for example by recording with an electron microspot or another suitable determination method. All areas with a transmission of T «o can be used as boundary conditions in which the light wave function u (x, y) in the object plane 11 is equal to zero. This accelerates the convergence of the reconstruction algorithm.
Bezugszeichenliste: List of reference symbols:
I Lichtfeld I light field
10 Objekt 10 object
I I Objektebene I I object level
12 Strukturbereich 12 Structure area
13 stark absorbierender Bereich 13 highly absorbent area
14 nicht absorbierender Bereich 14 non-absorbent area
20 Flächendetektor 20 area detector
21 Detektorebene 21 detector level
22 Beugungsbild 22 diffraction pattern
40 Bild des Objekts 40 image of the object
100 Ausbreitungsrichtung des Lichtfelds respektive der Lichtwelle 100 Direction of propagation of the light field or the light wave
101 Lichtfeld 101 light field
110 Objekt 110 object
I I I Objektebene I I I object level
120 Flächendetektor 120 area detector
121 Detektorebene 121 detector level
122 Beugungsbild 122 diffraction pattern
125 Ebene hinter dem Objekt 140 Bild des Objekts u(x,y) Lichtwelle bzw. Lichtwellenfunktion des Lichtfelds uo(x,y) Lichtwelle in der Objektebene u'(x,y) Lichtwelle in der Detektorebene 125 plane behind the object 140 image of the object u (x, y) light wave or light wave function of the light field uo (x, y) light wave in the object plane u '(x, y) light wave in the detector plane
F als Fourier-Transformation beschriebener Propagator für die Lichtwelle zwischen Objekt und Detektor F as a Fourier transformation described propagator for the light wave between the object and detector
F 1 als inverse Fourier-Transformation beschriebener Propagator für die Lichtwelle zwischen Detektor und Objekt F 1 described as an inverse Fourier transformation propagator for the light wave between detector and object
N Anzahl der Iterationen des Rekonstruktionsalgorithmus N number of iterations of the reconstruction algorithm

Claims

Ansprüche: Expectations:
1. Verfahren zur Charakterisierung eines kohärenten Lichtfelds (1) in Amplitude und Phase mit den folgenden Verfahrensschritten: 1. Process for characterizing a coherent light field (1) in amplitude and phase with the following process steps:
• Vorsehen eines Objekts (10) mit bekannter Transmissionsfunktion T(x,y) für das Lichtfeld (1) in Amplitude und Phase; • Providing an object (10) with known transmission function T (x, y) for the light field (1) in amplitude and phase;
• Bestrahlen des Objekts (10) mit dem zu charakterisierenden kohärenten Lichtfeld (1) in einer Objektebene (11), in der das Objekt (10) angeordnet ist; • irradiating the object (10) with the coherent light field (1) to be characterized in an object plane (11) in which the object (10) is arranged;
• Erfassen einer Intensitätsverteilung l'(x,y) des Beugungsbildes (22) des Lichtfelds (1) räumlich hinter dem bestrahlten Objekt (10) in einer Detek torebene (21) mittels eines Flächendetektors (20); • Detection of an intensity distribution l '(x, y) of the diffraction image (22) of the light field (1) spatially behind the irradiated object (10) in a detector level (21) by means of an area detector (20);
• Rekonstruieren der Lichtwellenfunktion u(x,y) nach deren Durchgang durch das Objekt (10) durch iteratives Ermitteln von Phase und Amplitude der Lichtwelle aus der erfassten Intensitätsverteilung l'(x,y) durch wieder holtes Berechnen der Propagation der Lichtwelle (1) zwischen der Detek torebene (21) und der Objektebene (11) durch Anwenden von Propagato- ren (F) und inversen Propagatoren (F_1) und jeweils Anwenden von Rand bedingungen für das Beugungsbild in der Detektorebene (21) und in der Objektebene (11); • Reconstruction of the light wave function u (x, y) after it has passed through the object (10) by iteratively determining the phase and amplitude of the light wave from the recorded intensity distribution l '(x, y) by repeatedly calculating the propagation of the light wave (1) between the detector plane (21) and the object plane (11) by applying propagators (F) and inverse propagators (F _1 ) and applying boundary conditions for the diffraction image in the detector plane (21) and in the object plane (11) );
• Berechnen der Lichtwelle (1) vor dem Durchgang durch das Objekt durch Anwenden der bekannten Transmissionsfunktion T(x,y) auf die rekonstru ierte Lichtwellenfunktion u(x,y); dadurch gekennzeichnet, dass als Objekt (10) ein Objekt mit einem Strukturbe reich (12) verwendet wird, wobei der Strukturbereich (12) des Objekts (10) durch eine Transmissionsmaske definiert wird, die nur stark absorbierende Bereiche (13) mit einer Transmission T « o und nicht absorbierende Bereiche (14) mit einer Transmission von T « l vorsieht. • Calculating the light wave (1) before it passes through the object by applying the known transmission function T (x, y) to the reconstructed light wave function u (x, y); characterized in that an object with a structure area (12) is used as the object (10), the structure area (12) of the object (10) being defined by a transmission mask which only contains strongly absorbing areas (13) with a transmission T. «O and non-absorbing areas (14) with a transmission of T« l provides.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als Objekt (10) ein Objekt verwendet wird, dessen Strukturbereich (12) durch einen stark absorbierenden Blendenbereich umgeben ist, der nur stark absorbierende Berei- che mit einer Transmission T « o vorsieht. 2. The method according to claim 1, characterized in that an object is used as the object (10), the structure area (12) of which is surrounded by a strongly absorbing aperture area which only provides strongly absorbing areas with a transmission T «o.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass stark absorbierenden Bereichen (13) des Objekts (10) mit T « o eine Intentistät von u(x,y)=0 der Lichtfeldfunktion als Randbedingung zugewiesen wird. 3. The method according to claim 1 or 2, characterized in that strongly absorbing areas (13) of the object (10) with T «o an intent of u (x, y) = 0 is assigned to the light field function as a boundary condition.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass stark absor bierenden Bereiche (13) des Objekts (10) durch eine Untersuchung und Vermes sung des Objekts (10) bestimmt werden. 4. The method according to claim 3, characterized in that strongly absorbing areas (13) of the object (10) are determined by examining and measuring the object (10).
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass alle stark ab sorbierenden Bereiche (13) des Objekts (10) im Strukturbereich (12) erfasst und mit der Randbedingung einer Intensität von u(x,y)=0 der Lichtfeldfunktion belegt werden. 5. The method according to claim 4, characterized in that all strongly absorbing areas (13) of the object (10) are detected in the structure area (12) and are assigned the boundary condition of an intensity of u (x, y) = 0 of the light field function.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Objekt (10) mit einem asymmetrisch gestalteten Strukturbe reich (12) verwendet wird. 6. The method according to any one of the preceding claims, characterized in that an object (10) with an asymmetrically shaped structure area (12) is used.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenn- zeichnet, dass die Charakterisierung des Lichtfelds (1) mit dem Erfassen nur ei nes Beugungsbilds (22) durchgeführt wird. 7. The method according to any one of the preceding claims, characterized in that the characterization of the light field (1) is carried out with the acquisition of only one diffraction image (22).
8. Vorrichtung zur Charakterisierung eines kohärenten Lichtfelds (1) in Amplitude und Phase mit den folgenden Elementen: • Objekt (10) mit bekannter Transmissionsfunktion T für das Lichtfeld (1) in Amplitude und Phase in einer Objektebene (11 ) im Strahlengang des Licht felds (1); 8. Device for characterizing a coherent light field (1) in amplitude and phase with the following elements: • Object (10) with known transmission function T for the light field (1) in amplitude and phase in an object plane (11) in the beam path of the light field (1);
• Flächendetektor (20) hinter dem Objekt (10) im Strahlengang des am Ob jekt (10) gebeugten Lichtfelds (1) in einer Detektorebene (21), wobei der Flächendetektor (20) zum Erfassen einer Intensitätsverteilung l'(x,y) des Beugungsbildes (22) des Lichtfelds (1) ausgebildet ist; • Area detector (20) behind the object (10) in the beam path of the object (10) diffracted light field (1) in a detector plane (21), the area detector (20) for detecting an intensity distribution l '(x, y) des Diffraction image (22) of the light field (1) is formed;
• Recheneinrichtung, die mit dem Flächendetektor (20) verbunden und dazu eingerichtet ist, das in den Ansprüchen 1 bis 7 beschriebene Verfahren zum Rekonstruieren der Lichtwellenfunktion u(x,y) durchzuführen; dadurch gekennzeichnet, dass das Objekt (10) einen Strukturbereich (12) auf weist, wobei der Strukturbereich (12) des Objekts (10) durch eine Transmissions maske definiert ist, die nur stark absorbierende Bereiche (13) mit einer Transmis sion T « o und nicht absorbierende Bereiche (14) mit einer Transmission von T « 1 vorsieht. • Computing device which is connected to the area detector (20) and is set up to carry out the method described in claims 1 to 7 for reconstructing the light wave function u (x, y); characterized in that the object (10) has a structure area (12), the structure area (12) of the object (10) being defined by a transmission mask which only contains strongly absorbing areas (13) with a transmission T «o and provides non-absorbent areas (14) with a transmission of T «1.
9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass das Objekt (10) einen stark absorbierenden Blendenbereich aufweist, der nur stark absorbie rende Bereiche mit einer Transmission T « o vorsieht und den Strukturbereich (12) umgibt. 9. The device according to claim 8, characterized in that the object (10) has a strongly absorbing aperture area which only provides strongly absorbing areas with a transmission T «o and which surrounds the structural area (12).
10. Vorrichtung nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass das Objekt (10) einen asymmetrisch gestalteten Strukturbereich (12) aufweist. 10. The device according to claim 8 or 9, characterized in that the object (10) has an asymmetrically designed structural area (12).
11. Vorrichtung nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass die Vorrichtung als einzige optische Elemente das Objekt (10) und den Flächendetektor (20) aufweist. 11. Device according to one of claims 8 to 10, characterized in that the device has the object (10) and the area detector (20) as the only optical elements.
12. Vorrichtung nach einem der Ansprüche 8 bis 11, dadurch gekennzeichnet, dass der Flächendetektor (20) einen pixelierten Sensor aufweist. 12. Device according to one of claims 8 to 11, characterized in that the area detector (20) has a pixelated sensor.
13. Vorrichtung nach einem der Ansprüche 8 bis 11, dadurch gekennzeich- net, dass der Flächendetektor (20) mittels eines Filters dazu ausgebildet ist, das13. Device according to one of claims 8 to 11, characterized in that the area detector (20) is designed by means of a filter for this purpose
Licht des Lichtfelds (1) wellenlängenselektiv zu erfassen. Detect light of the light field (1) wavelength-selective.
14. Verwendung des Verfahrens nach einem der Ansprüche 1 bis 7 und/oder einer Vorrichtung nach einem der Ansprüche 8 bis 13 zur Justage von Objekten (10) in optischen Aufbauten und/oder zur Einstellung von Lichtquellen in opti schen Aufbauten. 14. Use of the method according to one of claims 1 to 7 and / or a device according to one of claims 8 to 13 for adjusting objects (10) in optical structures and / or for adjusting light sources in optical structures.
PCT/EP2021/051457 2020-01-28 2021-01-22 Method and device for characterising a coherent light field in amplitude and phase WO2021151792A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020101989.0 2020-01-28
DE102020101989.0A DE102020101989A1 (en) 2020-01-28 2020-01-28 Method and device for characterizing a coherent light field in amplitude and phase

Publications (1)

Publication Number Publication Date
WO2021151792A1 true WO2021151792A1 (en) 2021-08-05

Family

ID=74236196

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/051457 WO2021151792A1 (en) 2020-01-28 2021-01-22 Method and device for characterising a coherent light field in amplitude and phase

Country Status (2)

Country Link
DE (1) DE102020101989A1 (en)
WO (1) WO2021151792A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115984120B (en) * 2022-10-30 2024-02-02 华南农业大学 Method, device and storage medium for recovering object slice transmission function in stack imaging

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007009661A1 (en) 2006-08-31 2008-03-13 Carl Zeiss Sms Gmbh Method and device for the spatially resolved determination of the phase and amplitude of the electromagnetic field in the image plane of an image of an object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007009661A1 (en) 2006-08-31 2008-03-13 Carl Zeiss Sms Gmbh Method and device for the spatially resolved determination of the phase and amplitude of the electromagnetic field in the image plane of an image of an object

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
F. ZHANGJ. M. RODENBURG: "Phase retrieval based on wave-front relay and modulation", PHYS. REV. B, vol. 82, no. 1-4, 2010
FIENUP J R: "RECONSTRUCTION OF A COMPLEX-VALUED OBJECT FROM THE MODULES OF ITS FOURIER TRANSFORM USING A SUPPORT CONSTRAINT", JOURNAL OF THE OPTICAL SOCIETY OF AMERICA A,, vol. 4, no. 1, 1 January 1987 (1987-01-01), pages 118 - 123, XP000716539, ISSN: 1084-7529 *
J. R. FIENTRUP: "Phase retrieval based on wave-front relay and modulation", APPL. OPT., vol. 21, no. 15, 1982, pages 2758 - 2769
MANUEL GUIZAR SICAIROS ET AL: "Phase retrieval with Fourier-weighted projections", JOURNAL OF THE OPTICAL SOCIETY OF AMERICA A, vol. 25, no. 3, 1 January 2008 (2008-01-01), pages 701, XP055135592, ISSN: 1084-7529, DOI: 10.1364/JOSAA.25.000701 *
MILLER N J ET AL: "OPTICAL SPARSE APERTURE IMAGING", APPLIED OPTICS, OPTICAL SOCIETY OF AMERICA, WASHINGTON, DC, US, vol. 46, no. 23, 10 August 2007 (2007-08-10), pages 5933 - 5943, XP001506978, ISSN: 0003-6935, DOI: 10.1364/AO.46.005933 *
NAKAJIMA, N.: "Experimental verification of coherent diffractive imaging by a direct phase retrieval method with an aperture-array filter", OPTICS LETTERS, vol. 36, no. 12, 2011, pages 2284 - 2286, XP001563644, DOI: 10.1364/OL.36.002284
NOBUHARU NAKAJIMA: "Coherent diffractive imaging beyond the Fresnel approximation using a deterministic phase-retrieval method with an aperture-array filter", APPLIED OPTICS, OPTICAL SOCIETY OF AMERICA, WASHINGTON, DC, US, vol. 52, no. 7, 1 March 2013 (2013-03-01), pages C1 - C10, XP001580410, ISSN: 0003-6935, DOI: HTTP://DX.DOI.ORG/10.1364/AO.52.0000C1 *
NOBUHARU NAKAJIMA: "Experimental verification of coherent diffractive imaging by a direct phase retrieval method with an aperture-array filter", OPTICS LETTERS, OPTICAL SOCIETY OF AMERICA, US, vol. 36, no. 12, 15 June 2011 (2011-06-15), pages 2284 - 2286, XP001563644, ISSN: 0146-9592, [retrieved on 20110613], DOI: 10.1364/OL.36.002284 *

Also Published As

Publication number Publication date
DE102020101989A1 (en) 2021-07-29

Similar Documents

Publication Publication Date Title
DE69924136T2 (en) PHASE MEASUREMENT IN A RADIATION FIELD
DE69123091T2 (en) Tomograph with phase information of a signal bundle transmitted through a body to be tested
DE2152510C3 (en) Method for detecting surface defects and apparatus for carrying out the method
DE3422143A1 (en) WAFER INSPECTION DEVICE
DE3820862A1 (en) METHOD AND DEVICE FOR CONTACTLESS EXAMINATION OF SURFACES AND INTERNAL STRUCTURES OF A FIXED TEST BODY
EP3304025B1 (en) Method and apparatus for determining surface data and/or measurement data relating to a surface of an at least partially transparent object
WO2021151792A1 (en) Method and device for characterising a coherent light field in amplitude and phase
DE2306764A1 (en) MICROWARNING MEASURING METHODS AND MICROWARNING KNIFE AND MICRODENSITOMETER
DE2831311A1 (en) DEVICE FOR DETERMINING INTERNAL BODY STRUCTURES BY MEANS OF SPREADING RADIATION
DE10125454B4 (en) Device for X-ray analysis with a multi-layer mirror and an output collimator
DE102019210204A1 (en) Method for correcting scattered radiation in a computer tomograph and computer tomograph
AT520007B1 (en) thermography method
DE102010029133A1 (en) Method and device for characterization of pyramidal surface structures on a substrate
DE3413558A1 (en) Method, apparatus and circuitry for the contact-free determination of the direction and/or for the determination of the relative difference in the intensity of the occurrence of two extreme fibre orientations in paper, in particular in moving webs of paper
DE1622500B2 (en) Device for measuring optical path differences using the Schlieren method
DE3442061C2 (en)
DE4137673C2 (en) X-ray reflectometer
DE102004037040A1 (en) Device for the quantified evaluation of surface properties
DE102018133042B4 (en) Method and device for calibrating spectrometers
DE3903943C2 (en) Methods and devices for investigating the relative radiation flux density of electromagnetic rays, in particular Gaussian laser beams
DE4430615C2 (en) Method and device for imaging powder diffractometry
DE19814056A1 (en) Optical parameter measuring device e.g. for optical layer absolute thickness and refractive index measurement
DE102017100273B3 (en) Method for quality assurance of an exposure mask, substrate and exposure mask
DE102020119566A1 (en) Method and illumination device of adaptive optics in transmission and reflection microscopy
DE3007456C2 (en)

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21701764

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21701764

Country of ref document: EP

Kind code of ref document: A1