-
Die Erfindung betrifft die Charakterisierung von Lichtfeldern, insbesondere von fokussierten Lichtfeldern im Bereich von 1012 Hz (THz - Terrahertz) bis 1019 Hz (10 Exahertz - Röntgenstrahlung).
-
Die Kenntnis der genauen Intensitätsverteilung (proportional zum Quadrat der Amplitude) und der Wellenfront (Phase) von Lichtfeldern ist für viele Anwendungen, die Licht als (Untersuchungs-)Werkzeug oder als Informationsträger verwenden, von enormer Wichtigkeit. Häufig werden bei diesen Anwendungen Lichtfelder (Lichtstrahlung) fokussiert und auf zu untersuchende Objekte (Proben) oder Optiken gerichtet, deren Eigenschaften bestimmt oder die justiert werden sollen. Für andere Anwendungen, bspw. für wissenschaftliche Experimente, muss emittierte Strahlung direkt in Amplitude und Phase bestimmt werden. Bei der zu untersuchenden Strahlung kann es sich um Terahertzstrahlung, sichtbares Licht, XUV-Strahlung (extremer Ultraviolettstrahlung XUV in der Größenordnung von 1015 Hz (PHz - Petahertz)) oder Röntgenstrahlung handeln, solange die Strahlung kohärent ist. Bei der Untersuchung von Objekten kommt häufig fokussierte Strahlung zum Einsatz, die im Fokusspot (d.h. in einer kleinen Fläche, in der sie auf das Objekt trifft) in Amplitude und Phase genau bekannt sein muss.
-
Charakterisiert wird eine (von einer Lichtquelle ausgesandte) Lichtwelle (Lichtfeld) durch Messung der Intensitätsverteilung lo(x,y) in einer zweidimensionalen Ebene (x,y) meist transversal zur Ausbreitungsrichtung und deren Phase phi0(x,y). Die Phase phi gibt an, in welchem Abschnitt innerhalb einer Periode sich die Welle zu einem Referenzzeitpunkt und -ort befindet. Die Phase phi beschreibt also den Verlauf der Intensitätsverteilung bei dem Ausbreiten der Welle in Raum und Zeit.
-
Zur Charakterisierung von Lichtstrahlung ist ein Verfahren der kohärenten Bildgebung (coherent diffracting imaging) bekannt, das die Rekonstruktion einer Lichtwelle nach dem Durchgang durch ein Objekt durch Messung eines Beugungsbildes, d.h. der Intensität der Lichtwelle in einer Ebene nach dem Durchgang des Objekts, rekonstruiert. Dafür wird ein komplexes Objekt mit vielen Strukturdetails verwendet, für das eine komplexe Transmissionsfunktion in Amplitude und Phase bestimmt werden muss, die das Verhalten der Lichtwelle beim Durchgang durch das Objekt an jedem Punkt (x,y) beschreibt. Mit dieser Information ist es dann möglich, die Eigenschaften der Lichtwelle vor dem Durchgang des Objekts in der Objektebene zu bestimmen. In der Veröffentlichung F. Zhang, J. M. Rodenburg, „Phase retrieval based on wave-front relay and modulation", Phys. Rev. B 82, 1-4 (2010) ist beispielsweise ein solches Verfahren beschrieben, wobei als Objekt eine Eintrittsblende und zusätzlich ein Modulator mit einer komplexen Transmissionsfunktion verwendet werden. Dieses Verfahren ist so bei kohärenten Lichtfelder anwendbar, d.h. frequenz- und phasengleichen Lichtwellen des Lichtfelds.
-
Zur Rekonstruktion der Lichtwelle wird ein Rekonstruktionsalgorithmus verwendet, wie sich bspw. aus dem Übersichtsartikel J. R. Fientrup, „Phase retrieval based on wave-front relay and modulation", Appl. Opt., Vol. 21, No. 15, Seiten 2758-2769, 1982 ergibt.
-
Das Funktionsprinzip der bekannten kohärenten Bildgebung wird mit Bezug auf die 1 und 2 (siehe Ende des Dokuments) nachstehend allgemein verständlich erläutert:
- 1 zeigt ein Lichtfeld 101, das mathematisch durch die komplexe Funktion u0(x,y) als Lichtwelle beschrieben wird
-
Hierin beschreiben I0(x,y) die Intensitätsverteilung der Lichtwelle und phi0(x,y) die Phase der Lichtwelle in einer Ebene jeweils senkrecht zur Ausbreitungsrichtung 100 der Lichtwelle.
-
An dem Ort, an dem das Lichtfeld
101 auf das Objekt
110 (auch als Probe oder Sample bezeichnet) trifft (d.h. in der Objektebene
111), habe die Lichtwelle nun die Eigenschaften
u0(x,y). Das Beugungsbild
122, das durch einen Detektor
120 (Flächendetektor) nach dem Durchgang des Lichtfelds
101 durch das Objekt
110 in der Detektorebene
121 aufgenommen wird, wird durch die komplexe Funktion
u'(x,y) beschrieben:
-
Die komplexe Funktion u'(x,y) enthält die räumliche Intensitätsverteilung I'(x,y), die durch den Detektor 120 gemessen wird. Die Phase phi'(x,y) ist unbekannt und kann nicht gemessen werden.
-
In Kenntnis des Versuchsaufbaus und der Transmissionsfunktion des Objekts 110 kann die Lichtwelle aber rekonstruiert werden.
-
Die Lichtausbreitung des Lichtfelds 101 vor dem Objekt u0(x,y) kann mathematisch in zwei Schritten beschrieben werden. Zunächst kann das Lichtfeld u(x,y) nach Durchgang durch das Objekt an jedem Punkt (xn,ym) durch Multiplikation von u0(xn,ym) mit der komplexen Transmissionsfunktion des Objektes T(xn,ym) bestimmt werden: u(xn,ym)=T(xn,ym) u0(xn,ym).
-
Danach kann die Lichtausbreitung zwischen Objektebene 111 und Detektorebene 121, welche im Freiraum erfolgt, in Vorwärtsrichtung immer durch einen geeigneten Propagator beschrieben werden.
-
Befindet sich die Detektorebene 121 im Fernfeld zu der Objektebene 111 ist der Propagator mathematisch durch eine Fourier-Transformation F (als Beispiel für Propagatoren) beschreibbar. Der Einfachheit halber wird im Folgenden dieser Fernfeldfall beschrieben, womit sich ergibt u'(x,y)=F(u(x,y)). Von einem Fernfeld wird gesprochen, wenn der Abstand des Detektors 120 zum Objekt 110 größer als 2 D2/ lambda ist, wobei D die größte Dimension des beugenden Objekts 110 und lambda die Wellenlänge der gebeugten Strahlung sind.
-
Ziel ist es nun, in Kenntnis des Versuchsaufbaus und der Transmissionsfunktion T(x,y) aus der gemessenen Intensitätsversteilung I'(x,y) das Lichtfeld 101 in der Objektebene 111 zu bestimmen, d.h. die komplexe Funktion u0(x,y). Dies ist prinzipiell durch mathematische Umkehrung (Rückwärtsrechnung) der Lichtausbreitung des Lichtfeldes 101 von der Objektebene 111 zur Detektorebene 121 möglich.
-
Die umgekehrte Lichtausbreitung von der Detektorebene 121 zu einer (fiktiven) Ebene 125 hinter dem Objekt 110 kann durch eine inverse Fouriertransformation beschrieben werden: u(x,y)=F-1(u'(x,y)). Die fiktive Ebene 125 ist eine gedachte Ebene, die - in Ausbreitungsrichtung 100 unmittelbar - hinter dem Objekt liegt und die Ebene nach dem Durchtritt der Lichtwelle 101 durch das Objekt 110 beschreibt.
-
Hierzu muss allerdings zusätzlich zur detektierten Intensitätsverteilung I'(x,y) die unbekannte Phase phi'(x,y) bestimmt werden. Dies wird durch einen sogenannten Phasenrekonstruktionsalgorithmus realisiert, womit im Ergebnis u(x,y) bestimmt werden kann.
-
Zusätzlich ist die Kenntnis der Transmissionsfunktion T(x,y) des Objekts 110 nötig, um das Lichtfeld 101 in der Objektebene 111 vor dem Durchgang durch das Objekt gemäß u0(xn,ym)=u(xn,ym)/T(xn, ym) aus u(x,y) berechnen zu können.
-
Damit ist dann die Lichtwelle 101 u0(x,y) vor der Interaktion des Lichtfelds 101 mit dem Objekt 110 charakterisiert.
-
Die Bestimmung der unbekannten Phase phi'(x,y) durch einen Phasenrekonstruktionsalgorithmus ist in 2 illustriert.
-
Hierzu wird die gemessene Intensitätsverteilung I'(x,y) zunächst mit einer zufälligen (beliebig gewählten) Phasenverteilung phi'(x,y)initial zu einer initialen Annahme 130 für die komplexen Lichtwellenfunktion u'(x,y)initial = SQRT(I'(x,y))*exp(i*phi'(x,y)initial) ergänzt, die das Lichtfeld in der Detektorebene 121 beschreibt. Dies ist in der ersten Zeile der 2 verdeutlicht.
-
Der Begriff „zufällige Phasenverteilung“ schließt auch den Fall mit ein, dass aus bestimmten Informationen (soweit vorhanden) eine initiale Phase abschätzbar ist und abgeschätzt wird. Mit zufälliger Phase ist gemeint, dass die Phase phi'(x,y) nicht genau bekannt ist, und für die Rekonstruktion der Lichtwelle eine Phase phi'(x,y) als grundsätzlich beliebig wählbarer Startwert angenommen wird.
-
Anschließend wird das Lichtfeld 101 (d.h. die komplexe Lichtwellenfunktion u(x,y)) hinter dem Objekt 110, d.h. in der Ebene 125 hinter dem Objekt 110 und damit auch hinter der Objektebene 111, iterativ bestimmt. Weil das Lichtfeld 101 dort durch die Lichtwellenfunktion u(x,y) beschrieben wird, wird in diesem Text verkürzend die Lichtwellenfunktion u(x,y) auch als Lichtfeld bezeichnet. Der iterative Phasenrekonstruktiosalgorithmus umfasst mehrere Schritte, welche wiederholt durchlaufen werden.
-
In einem ersten Schritt wird die Lichtausbreitung von der Detektorebene
121 zur Ebene
125 berechnet. Das komplexe Lichtfeld
u(x,y) nach Durchgang durch das Objekt
110 (d.h. in der Ebene
125) berechnet sich dann durch die inverse Fourier-Transformation
F-1 aus dem Beugungsbild
122, d.h. dem Lichtfeld
u'(x,y) in der Detektorebene
121 mit der gemessenen Intensitätsverteilung I'(x,y) zu
-
Diese wird dann Ausgangspunkt für die erste bzw. jede weitere Iteration und kann entsprechend als Iterationsstützstelle bzw. als u(x,y,)q bezeichnet werden, wobei q der Laufindex der Iteration ist, d.h. bei N Iterationen von q=1 bis N läuft.
-
Solange die Iteration ausgeführt wird (d.h. der Laufindex q < N ist), wird in der Ebene
125 eine Stützbedingung P
sup (support constraint) auf das komplexe Lichtfeld
u(x,y)q angewendet, wobei sich die Stützbedingung z.B. durch ein Wissen über die Gestalt und die Größe des Objektes
110 in der Objektebene
111 ergibt. Danach erfolgt mit der Fourier-Transformation
F die Rücktransformation des komplexen Lichtfelds
u(x,y)q in die Detektorebene
121, d.h. in des Lichtfeld u'(x,y)
q.
-
In der Detektorebene 121 wird dann eine Modulusbedingung Pmod (modulus constraint) angewendet, bei der der Betrag des komplexen Feldes u'(x,y)q durch die gemessene Intensitätsverteilung I'(x,y) (Amplitude) unter Beibehaltung der berechneten Phasen ersetzt wird, also |u'(x,y)| =SQRT(I'(x,y)).
-
Die in 2 in der Mitte der unteren Zeile dargestellte Schleife wird iterativ mehrfach durchlaufen (für insgesamt N Iterationen). Eine Iterationsschleife q besteht also in der Anwendung der nachfolgend mathematisch beschriebenen Schritte: u(x,y)q = F-1(u'(x,y)q) und u'(x,y)q = F (u (x,y)q), wobei jeweis entsprechend die Stützbedingung Psup und die Modulusbedingung Pmod angewandt werden.
-
Durch das mehrfache Durchlaufen dieser Schleife kann der Algorithmus mithilfe der verwendeten Randbedingungen, d.h. der Modulusbedingung (modulus constraint Pmod) und der Stützbedingung (support constraint Psup) die richtigen Phase phi'(x,y,)final in der Detektorebene ermitteln.
-
In 2 ist vorgesehen, dass die Iterationsschleife verlassen wird, wenn bei der Anwendung der Modulusbedingung Pmod festgesellt wird, dass die Rekonstruktion einer Amplitude u'(x,y)final mit der gemessenen Amplitude sqrt(I'(x,y)) mit hinreichender (gewünschter) Genauigkeit übereinstimmt. Nach Verlassen der Iterationsschleife wird die Lichtwellenfunktion u(x,y)final mit der inversen Fourier-Transformation F-1 aus der Detektorebene 121 wieder in die Objektebene 111 zurücktransformiert und ein Bild 140 des Objektes 110 (u(x,y)final) damit rekonstruiert.
-
Dann kann an allen Stellen des Objektes mit ausreichender Transparenz aus der ermittelten komplexen Lichtwelle U(x,y)final nach Durchgang durch das Objekt auch die Lichtwelle vor dem Objekt u0(x,y)final berechnet werden. Dies ist das Ziel der Strahlcharakterisierung. Hierfür ist grundsätzlich nur die Aufnahme eines einzigen Beugungsbildes notwendig (single-shot-Strahlcharakterisierung).
-
Dieses Verfahren, das anhand der 2 beispielhaft beschrieben wurde und von dem Fachmann entsprechend angewandt werden kann, wird auch bei der erfindungsgemäßen Charakterisierung des kohärenten Lichtfelds in Amplitude und Phase angewandt.
-
Im Stand der Technik wurde dieses Verfahren der single-shot Strahlcharakterisierung nur mit komplexen Objekten demonstriert, deren Amplituden- und Phasen-Transmissionsfunktion genau bekannt war. Die Transmission muss insbesondere für jede Wellenlänge bekannt sein, bei der gemessen werden soll. Besonders bei exotischen Wellenlangen, z.B. im XUV- oder Röntgenbereich, ist die Herstellung solcher Objekte und die Charakterisierung ihrer Transmissionsfunktion sehr aufwendig und schwierig. Da die Strahlcharakterisierung häufig bei stark fokussierten Strahlen (Lichtfeldern) erfolgen soll, muss sie auf sehr kleinen räumlichen Skalen erfolgen. Die Größe der Objekte limitiert letztlich also die räumliche Auflösung der Strahlcharakterisierungsmethode. Je komplexer das Objekt ist, desto schwieriger ist es, das Objekt auf kleine Größen zu skalieren und genau zu charakterisieren.
-
Aufgabe der Erfindung ist es daher, ein Verfahren und eine Vorrichtung zur Charakterisierung eines kohärenten Lichtfelds in Amplitude und Phase vorzuschlagen, die einfach anzuwenden ist und eine Strahlcharakterisierung auch von fokussierten Lichtfeldern im Bereich von etwa 1012 bis etwa 1019 Hz erlaubt.
-
Diese Aufgabe wird durch ein Verfahren zur Charakterisierung eines kohärenten Lichtfelds in Amplitude und Phase mit den folgenden Verfahrensschritten gelöst:
- • Vorsehen eines Objekts mit bekannter Transmissionsfunktion T(x,y) für das Lichtfeld in Amplitude und Phase
- • Bestrahlen des Objekts mit dem zu charakterisierenden kohärenten Lichtfeld in einer Objektebene, in der das Objekt angeordnet ist
- • Erfassen einer Intensitätsverteilung I'(x,y) des Beugungsbildes des Lichtfelds räumlich hinter bzw. nach dem bestrahlten Objekt in einer Detektorebene mittels eines Flächendetektors
- • Rekonstruieren der Lichtwellenfunktion u(x,y) (als mathematisch komplexe Funktion, d.h. als Funktion im komplexen Raum) nach deren Durchgang durch das Objekt durch iteratives Ermitteln von Phase phi(x,y) und Amplitude I(x,y) der Lichtwelle aus der erfassten Intensitätsverteilung durch wiederholtes Berechnen der Propagation der Lichtwelle zwischen der Detektorebene und der Objektebene (nach dem Durchgang der Lichtwelle durch das Objekt, vorstehende zur Verdeutlichung auch als Ebene hinter dem Objekt bezeichnet) durch Anwenden von Propagatoren und inversen Propagatoren und jeweils Anwenden von Randbedingungen für das Beugungsbild in der Detektorebene und in der Objektebene (nach dem Durchgang der Lichtwelle durch das Objekt)
- • Berechnen der Lichtwelle vor dem Durchgang durch das Objekt (d.h. der Lichtwellenfunktion u0(x,y)) durch Anwenden der bekannten Transmissionsfunktion T(x,y) auf die rekonstruierte Lichtwellenfunktion u(x,y).
-
Bei Anwendung dieses grundsätzlich bereits bekannten Verfahrens wird vorgeschlagen ein Objekt zu verwenden, dessen Strukturbereich durch eine Transmissionsmaske definiert wird bzw. ist, die nur stark absorbierende Bereiche (im Sinne von optisch für die Lichtwelle zumindest nahezu vollständig undurchlässigen Bereichen) mit einer Transmission T(x,y) ≈ 0 und nicht absorbierende Bereiche (im Sinne von optisch für die Lichtwelle zumindest nahezu vollständig durchlässige Bereiche, bspw. Öffnungen) mit einer Transmission von T(x,y) ≈ 1 vorsieht. Eine solche Struktur des Objekts bewirkt ausschließlich eine Amplitudenmodulation durch die Beugung der Lichtwelle an dem Objekt. Eine Änderung der Phase der Lichtwelle an dem Objekt tritt nicht auf. Dies erleichtert die nummerische Berechnung der Propagation der Lichtwelle zwischen der Objektebene und der Detektorebene, weil die Transmissionsfunktion einfach (digital mit den Werten 0 und 1) beschreibbar ist.
-
Zusätzlich können gemäß einer bevorzugten Ausführung des vorgeschlagenen Verfahrens alle undurchlässigen Bereiche mit T=0 als support constraint Psup in der Phasenrekonstruktion verwendet werden, was die Konvergenz des Algorithmus schneller und zuverlässiger macht. Somit sind schnellere und genauere Messungen möglich.
-
Derartige Transmissionsmasken sind darüber hinaus einfach herstellbar. So kann die Transmissionsmaske durch eine Absorberschicht, bspw. einen absorbierenden Metallfilm, als stark absorbierende Bereich (T ≈ 0) mit Öffnungen in dem Metallfilm als nicht absorbierende Bereiche (T ≈ 1) realisiert sein. Die Herstellung solcher Transmissionsmasken kann mit sehr großer Präzision erfolgen, so dass sich entsprechend kleine Strukturen im Subwellenbereich (bspw. im Nanometerbereich) erzeugen lassen. Die Öffnungen in der Absorberschicht, bspw. einem Metallfilm, können bspw. mit einem fokussierten lonenstrahl (focused ion beam) erzeugt werden.
-
Gemäß einem weiteren Aspekt kann das Objekt eine Transmissionsmaske aufweisen, die außerhalb eines definierten Strukturbereichs stark absorbierend (optisch für die Lichtwelle undurchlässig) ist, d.h. eine Transmission von T ≈ 0 aufweist. Mit anderen Worten ist der Strukturbereich des Objekts durch einen Blendenbereich umgeben, der nur stark absorbierende Bereiche mit einer Transmission T ≈ 0 vorsieht. Die Abgrenzung zwischen dem Blendenbereich und dem Strukturbereich des Objekts kann bspw. durch eine (gedachte) linienartige und geschlossene Konturkurve erfolgen, die die im Außenbereich des Strukturbereichs nicht absorbierenden Bereiche (nachfolgend auch als Öffnungen bezeichnet) einhüllt, bspw. indem die Konturkurve alle außen liegenden Öffnungen so verbindet, dass alle Öffnungen des Strukturbereichs innerhalb der geschlossenen Konturkurve liegen. Mit anderen Worten liegt außerhalb der Konturkurve kein nicht absorbierender Bereich (Öffnung). Dieser außerhalb der geschlossenen Konturkurve liegende Bereich ist entsprechend der Blendenbereich, der auf den Blendenbereich treffende Teile der Lichtwelle vollständig absorbiert in dem Sinne, dass diese Teile der Lichtwelle nicht im Flächendetektor nachgewiesen werden.
-
Gemäß einer Ausgestaltung kann die geschlossene Konturkurve so klein wie möglich ausgebildet sein, bspw. indem die Länge der (gedachten) Konturkurvenlinie möglichst kurz sein soll.
-
Als erläuterndes Beispiel, ohne dass dies Art und Beschaffenheit eines Strukturbereichs und des Blendenbereichs in irgendeiner Weise beschränken soll, kann der Strukturbereich bspw. durch eine Metall- oder beliebige andere Absorberschicht gebildet werden, die für die Lichtwelle undurchlässig ist und bspw. matrixförmig angeordnete Öffnungen aufweist. Als Konturkurve kann die diesem Fall eine linienförmige Kurve gewählt werden, die die Öffnungen jeweils der ersten und der letzten Reihe und Spalte miteinander verbindet und dabei alle Öffnungen vollständig mit einschließt. Somit bildet gerade die Matrixanordnung der Öffnungen mit den zwischen den Öffnungen liegenden stark absorbierenden Bereichen den Strukturbereich. Der Matrixanordnung der Öffnungen umgebende, stark absorbierende Bereich außerhalb der geschlossenen Konturkurve bildet den Blendenbereich.
-
So übernimmt das Objekt gleichzeitig die Funktion einer im Stand der Technik häufig verwendeten Eintrittsblende. Das erfindungsgemäße Reduzieren der Anzahl der bei der Anwendung des vorgeschlagenen Verfahrens verwendeten optischen Elemente führt zu einer höheren Stabilität sowohl der Apparatur (im mechanischen Sinne) als auch der durch das Verfahren erhaltenen Charakterisierung des Lichtfelds (im Sinne einer Lösung für iterativ durchgeführten Rekonstruktion der Lichtwellenfunktion).
-
Dies kann auch durch ein als Metallfilm ausgebildetes Objekt realisiert werden, das außerhalb des Strukturbereichs keine Öffnungen aufweist. Hieraus ergibt sich eine maximale Größe des Messfeldes in der Objektebene, das das Beugungsbild hervorruft. Dadurch wird eine Konvergenz der iterativen Ermittlung der Phase des Lichtfelds in dem zuvor beschriebenen Sinne gesichert.
-
Ferner kann (allen oder einer Auswahl der) stark absorbierenden Bereichen des Objekts (insbesondere des Strukturbereichs des Objekts) mit T ≈ 0 eine Intentistät von u(x,y)=0 der Lichtfeldfunktion als Randbedingung zugewiesen werden. Hierdurch wird die Konvergenz des iterativen Rekonstruktionsalgorithmus (Inversionsalgorithmus) beschleunigt. Diese Randbedingungen erlauben es auch, die Anforderungen an das Signal-Rausch-Verhältnis zu verringern. Dies führt zu kürzeren Messzeiten. Besonders vorteilhaft ist es, die gesamte Struktur des Objekts (d.h. dessen Strukturbereich) zu ermitteln und mit dieser Randbedingung zu belegen.
-
In der Praxis kann dies so erfolgen, dass die Lichtwellenfunktion u(x,y) in der Objektebene an allen Orten (x,y) des Strukturbereichs mit einer Transmission von T ≈ 0 auf den Wert u(x,y)=0 gesetzt wird. Dies stellt, da alle anderen Orte des Strukturbereichs den Wert T ≈ 1 aufweisen, eine Ermittlung der gesamten Struktur des Objekts dar.
-
Um die Bereiche mit T ≈ 0 in dem Objekt zu identifizieren, kann das Objekt bspw. durch ein Elektronenmikroskop untersucht bzw. aufgenommen und die Löcher bzw. die Bereiche des Metallfilms bzw. allgemeiner die stark absorbierenden Bereiche (bspw. im Sinne von Material aufweisenden Bereichen) der Struktur des Objekts vermessen werden.
-
Anstelle eines Metallfilms kann auch anderes, für das Lichtfeld optisch nicht durchlässiges Material durch den Fachmann ausgewählt werden, also jedes für die Lichtwelle geeignete Absorbermaterial zur Bildung einer Absorberschicht.
-
Ein weiterer Aspekt der Erfindung sieht vor, dass ein Objekt mit einer asymmetrisch gestalteten Struktur, d.h. einem asymmetrisch gestalteten Strukturbereich, verwendet wird. Einfache periodische oder symmetrische Testobjekte können nicht verwendet werden, da die Rekonstruktion der Lichtwelle durch das sogenannte „twin-image“-Problems nicht eindeutig ist: Ohne zusätzliche Kenntnis über eine Asymmetrie des Objektes ergibt das Ergebnis sowohl ein Bild hinter dem Testobjekt als auch ein Zwillingsbild, welches um 180 Grad rotiert ist. Somit ist eine eindeutige Zuordnung der Koordinaten in der Objektebene nicht möglich, und die Lichtwellenfunktion u(x,y) kann nicht eindeutig rekonstruiert werden.
-
Dies ist in 2 durch zwei rekonstruierte Bilder 140 des Objekts 101 dargestellt, die gerade spiegelbildlich zueinander sind. Durch eine bekannte Asymmetrie des Objekts ergibt sich für die Rekonstruktion eine weitere Randbedingung (Stützbedingung respektive support constraint Psup), die eine eindeutige Rekonstruktion erlaubt.
-
Ergänzend können aus dem Kontrast des Beugungsbildes ggfs. auch zusätzliche Aussagen über die Kohärenz der Strahlung gewonnen werden. Die räumliche und zeitliche Kohärenz der Strahlung können über eine Analyse des Interferenzkontrastes im Beugungsbild bestimmt werden, insbesondere da die gewählte Transmissionsstruktur bei voll kohärenter Beleuchtung Beugungsbilder mit scharfen Maxima und Minima erzeugt (Kontrast= Max-Min/ Max+Min = 1). Während die räumliche Kohärenz den Kontrast im gesamten Beugungsbild reduziert (Kontrast < 1), verursacht eine begrenzte zeitliche Kohärenz eine Reduktion des Kontrastes für zunehmende Beugungswinkel. Dies passiert, sobald die Laufzeitunterschiede zwischen Teilwellen, welche von beiden äußeren Enden der Probe (Objekt) stammen, in die Größenordnung der zeitlichen Kohärenzlänge kommen. Dieser Laufzeitunterschied berechnet sich ds=sin(theta)*a, wobei theta der Beugungswinkel ist und a die Größe der Probe.
-
Ferner betritt die Erfindung eine Vorrichtung zur Charakterisierung eines kohärenten Lichtfelds in Amplitude und Phase mit den folgenden Elementen:
- • Objekt mit bekannter Transmissionsfunktion für das Lichtfeld in Amplitude und Phase in einer Objektebene im Strahlengang des Lichtfeld;
- • Flächendetektor hinter dem Objekt im Strahlengang des am Objekt gebeugten Lichtfelds in einer Detektorebene, wobei der Flächendetektor zum Erfassen einer Intensitätsverteilung des Beugungsbildes des Lichtfelds ausgebildet ist;
- • Recheneinrichtung, die mit dem Flächendetektor verbunden und dazu eingerichtet ist, das zuvor beschriebene Verfahren zum Rekonstruieren der Lichtwellenfunktion u(x,y) oder Teile hiervon durchzuführen.
-
Erfindungsgemäß weist das Objekt einen Strukturbereich auf, der durch eine Transmissionsmaske definiert ist, die nur stark absorbierende Bereiche mit einer Transmission T ≈ 0 und nicht absorbierende Bereiche mit einer Transmission von T ≈ 1 vorsieht. Hierdurch ist die Transmissionsfunktion T(x,y) des Objekts einfach beschreibbar. Der Strukturbereich des Objekts ist in einer bevorzugten Ausführung asymmetrisch gestaltet, um das bereits beschriebene „twin-image“-Problem zu vermeiden.
-
Vorzugsweise kann das Objekt einen stark absorbierenden Blendenbereich aufweist, der nur stark absorbierende Bereiche mit einer Transmission T ≈ 0 vorsieht und den Strukturbereich umgibt. Damit bildet das Objekt selbst eine Blende für das Lichtfeld, damit um den Strukturbereich des Objekts durch das Lichtfeld beleuchtende Teile absorbiert werden und so verhindert wird, dass diese Teile des Lichtfelds durch den Flächendetektor erfasst werden.
-
Gemäß einer besonders bevorzugten Ausführung der erfindungsgemäßen Vorrichtung kann diese als einzige optische Elemente (d.h. Elemente, die mit dem Lichtfeld zusammenwirken) das Objekt und den Flächendetektor aufweisen. Hierdurch ist die Vorrichtung sehr einfach justierbar. Diese beschriebene Vorrichtung (Aufbau) hat als weiteren wichtigen Vorteil, dass diese nur zwei statische (d.h. während der Messung nicht zu verändernde) optische Elemente aufweist, nämlich das Objekt als Probe im Strahl und den Flächendetektor hinter der Probe.
-
Gemäß einer bevorzugten Ausführungsform kann der Flächendetektor einen pixelierten Sensor aufweisen, d.h. einen aus einer Vielzahl von einzelnen Pixelelementen bestehenden Sensor, mit dem eine räumliche Verteilung der Intensitätsverteilung des Beugungsbildes des Lichtfelds in der Detektorebene erfasst werden kann. Die Auflösung der räumlichen Verteilung ist durch die Pixelstruktur (räumliche Anordnung der Pixel auf der Detektorfläche respektive Sensorfläche) und die Pixelgröße (Flächengröße eines Pixels) vorgegeben. In möglichen Ausführungen des Flächendetektors kann die Flächengröße im Bereich µm2 (Quadratmikrometer) liegen, für langwelliges Licht (z.B. IR und THz) auch im Bereich mm2 (Quadratmillimeter).
-
Mittels geeigneter Filter kann der Flächendetektor dazu ausgebildet sein, das Licht der Lichtwelle wellenlängenselektiv zu erfassen, insbesondere um nicht von der Lichtwelle erzeugten Lichteinfall zu minimieren. Der Begriff „Licht“ im Sinne dieses Textes ist nicht auf sichtbares Licht beschränkt, sondern umfasst den eingangs angegebenen Wellenlängen- bzw. Frequenzbereich.
-
Das zuvor beschriebene Verfahren und der zuvor beschriebene Aufbau sind so genau, dass eine Charakterisierung des Lichtfelds mit dem Erfassen nur eines Beugungsbilds durchgeführt werden kann, d.h. das Einzelschuss-Messungen („single shot“) möglich sind. Dies ermöglicht also kurze Mess- und Auswertezeiten für die Charakterisierung des Lichtfelds, sodass durch die Anwendung des erfindungsgemäßen Verfahrens de facto Echtzeit-Messungen möglich sind. Dazu trägt auch die schnelle Konvergenz des Inversionsalgorithmus bei.
-
Die Rekonstruktion kann zusätzlich durch Parallelisierung und Methoden der künstlichen Intelligenz beschleunigt werden. Entsprechende Methoden aus dem Stand der Technik sind bekannt.
-
Weil das Verfahren durch die einfache optische Struktur des verwendeten Objekts auch das Verwenden sehr kleiner Objekt ermöglicht, sind grundsätzlich auch sehr große Wellenfrontkrümmungen messbar, bspw. mit Messwinkeln von bis zu +/-90° zur optischen Achse. Daher ist die Erfindung auch besonders gut zur Charakterisierung kleiner Fokusspots von Lichtwellen geeignet.
-
Auch lässt sich durch die Erfindung eine räumliche Auflösung bis in den sub-Wellenlängenbereich (bspw. mit einer numerischen Apertur von NA > 0,5) erreichen. Damit sind praktisch alle Anwendungsfälle (auch bei kleinen Fokusspots der Lichtwelle) abgedeckt.
-
Damit kann die beschriebene Erfindung bevorzugt zur Justage von Objekten in optischen Aufbauten und/oder zur Einstellung von Lichtquellen in optischen Aufbauten verwendet werden.
-
Weitere Vorteile, Merkmale und Anwendungsmöglichkeiten der Erfindung ergeben sich auch aus der nachfolgenden Beschreibung von Ausführungsbeispielen und der Zeichnung. Dabei gehören alle beschriebenen und/oder bildlich dargestellten Merkmale zusammen oder in beliebiger fachmännisch sinnvoller Kombination zum Gegenstand der Erfindung, auch unabhängig von ihrer Zusammenfassung in beschriebenen bzw. dargestellten Ausführungsbeispielen oder in den Ansprüchen.
-
Es zeigen:
- 1 schematisch den Durchgang eines Lichtfelds durch ein Objekt und den Nachweis des dabei entstehenden Beugungsbildes in der Detektorebene in einem Aufbau, der auch für die erfindungsgemäße Vorrichtung und die Durchführung des Verfahrens zur Charakterisierung eines kohärenten Lichtfelds in Amplitude und Phase verwendbar ist;
- 2 schematisch die Verfahrensschritte zur Rekonstruktion der Lichtwelllenfunktion u(x,y) des Lichtfelds mit dem grundsätzlich bekannten Verfahren der kohärenten Bildgebung; und
- 3 schematisch die Durchführung des erfindungsgemäß vorgeschlagenen Verfahrens in einer erfindungsgemäßen Vorrichtung nach einer bevorzugten Ausführungsform.
-
1 und 2 wurden zur Erläuterung des Hintergrunds der Erfindung bereits ausführlich beschrieben. Diese Schritte sind auch Teil des erfindungsgemäßen Verfahrens und werden an dieser Stelle nicht mehr ausführlich beschrieben.
-
Anhand von 3 wird das erfindungsgemäß vorgeschlagene Verfahren in einer bevorzugten Ausführungsform beschrieben, wobei die bereits in Bezug auf die 1 und 2 beschriebenen Merkmale nicht mehr ausführlich erläutert werden. Der Fachmann versteht, dass er diese grundsätzlich bekannten Verfahrensschritte auch bei dem erfindungsgemäßen Verfahren in einer Vorrichtung anwenden kann, wie sie in 1 schematisch dargestellt ist. Der grundsätzliche Verfahrensablauf ist ähnlich, und zur Bezeichnung vergleichbarer Merkmale werden um dieselben, mit 100 subtrahierten Bezugszeichen verwendet, die auch in 1 mit eingetragen sind.
-
Wie auch in 2 wird aus der im Detektor 20 erfassten Intensitätsverteilung I'(x,y) und einer beliebigen Phase phi'(x,y) eine initiale Lichtwellenfunktion u'(x,y)initial festgelegt. 3 zeigt außerdem schematisch ein in der Vorrichtung und dem Verfahren verwendetes Objekt 10 bzw. dessen Strukturbereich 12. Der Strukturbereich 12 ist durch eine Transmissionsmaske definiert, die stark absorbierende Bereiche 13 (in 3 hell dargestellt) und nicht absorbierende Bereiche 14 (in 3 dunkel dargestellt) aufweist, bspw. in Form einer Absorptionsschicht wie etwa einer Metallfolie oder eines sonstigen, die Wellenlänge(n) des Lichtfeldes absorbierenden Materials.
-
Für die stark absorbierenden Bereiche 13 gibt es keine Transmission der Lichtwelle 1, oder die Transmission ist so gering, dass eine Transmission T ≈ 0 ist. Die bekannte Struktur des Objekts 10 ermöglicht es, alle Orte mit der Intensität von Null zu identifizieren. Die bekannte Information über das Objekt wird als Randbedingung Psup (support constraint) im iterativen Algorithmus verwendet. Dies verbessert erfindungsgemäß die Konvergenz des Algorithmus enorm und beschleunigt das Auffinden einer Lösung bei der Iteration.
-
Die nicht absorbierenden Bereiche 14 sind Öffnungen in der Absorptionsschicht, und dort gilt eine Transmission von T ≈ 1. Auch die Phase des Objekts wird durch die nicht absorbierenden Bereich des Objekts nicht beeinflusst.
-
Wie durch eine Verschiebung der Anordnung der Öffnungen in einem Teil des Objekts 10 (in der Darstellung im oberen rechten Quadranten der Matrixanordnung der Öffnungen) gegenüber der Anordnung der übrigen Öffnungen angedeutet, ist der Strukturbereich 12 des Objekts 10 asymmetrisch aufgebaut. Dies ist eine weitere Randbedingung, die eine eindeutige Zuordnung der Bildpunkte zu dem Objekt ermöglicht, so dass das „twin-image“-Problem, wie in Zusammenhang mit 2 beschrieben, vermieden werden kann.
-
Außerhalb des in 3 dargestellten Strukturbereichs 12 des Objekts 10 ist das Objekt 10 stark absorbierend, d.h. dass eine Transmission T ≈ 0 angenommen werden kann. Der Strukturbereich 12 des Objekts 10, der das detektierte Beugungsbild 22 hervorruft, ist also de facto ein isoliertes Objekt, dessen Größe (maximale Ausdehnung) bekannt ist. Damit definiert sich die maximale Größe des Messfelds, womit die minimal nötige Pixelanzahl des Detektors festgelegt werden kann. Der Abstand des Detektors 20 von dem Objekt 10 bzw. der Objektebene 11 von der Detektorebene 21 ist dann so wählbar, dass der Detektor 20 das Beugungsbild 22 genügend fein abtasten kann.
-
Aufgrund der beschriebenen Struktur des Strukturbereichs 12 des Objekts 10 bewirkt die Transmissionsmaske ausschließlich eine Amplitudenmodulation der Lichtwelle respektive des Lichtfelds 1, weil die Öffnungen (nicht absorbierende Bereiche 14) eine Transmission von T ≈ 1 aufweisen. Hierdurch wird die Phase der Lichtwelle nicht moduliert. Auch dies stellt eine Randbedingung dar, die zu einer schnelleren Konvergenz des iterativen Algorithmus führt.
-
Die Iteration wird, wie mit Bezug auf 2 bereits beschrieben, durchgeführt. Im Ergebnis wird eine Lichtwellenfunktion u(x,y) rekonstruiert, die das Bild 40 des Objekts 10 aus dem im Detektor 20 aufgenommenen Beugungsbild 22 gut rekonstruiert. Aus der ermittelten Lichtwellenfunktion u(x,y) hinter dem Objekt 10 (d.h. in der Ebene 25 gemäß 1) kann dann mithilfe der bekannten Transmissionsfunktion des Objektes T(x,y) die Lichtwelle 1 in der Objektebene 111 vor dem Durchgang durch das Objekt u0(x,y) bestimmt werden. Damit sind die Amplitude und Phase der Lichtwelle 1 charakterisiert.
-
Erfindungsgemäß kann die bekannte Struktur genutzt werden, um die Konvergenz des Rekonstruktionsalgorithmus zu beschleunigen und/oder die Anforderungen an das Signal-zu-Rausch-Verhältnis zu verringern (um kürzere Messzeiten zu erlauben). Das Objekt 10 hat eine bekannte Transmissionscharakteristik T(x,y) mit Bereichen einer Transmission von T ≈ 1, die die Phase der Lichtwelle nicht beeinflussen, und mit Bereichen einer Transmission von T ≈ 0, die die auf das Objekt 10 treffende Lichtwelle vollständig absorbieren. Diese einfache geometrische Struktur des Objekts 10 kann vor Durchführung des Verfahrens bestimmt werden, bspw. durch Aufnahme mit einem Elektronenmikrospot oder eine andere geeignete Bestimmungsmethode. Alle Bereiche mit einer Transmission von T ≈ 0 können als Randbedingung genutzt werden, in denen die Lichtwellenfunktion u(x,y) in der Objektebene 11 gleich Null ist. Dies beschleunigt die Konvergenz des Rekonstruktionsalgorithmus.
-
Bezugszeichenliste
-
- 1
- Lichtfeld
- 10
- Objekt
- 11
- Objektebene
- 12
- Strukturbereich
- 13
- stark absorbierender Bereich
- 14
- nicht absorbierender Bereich
- 20
- Flächendetektor
- 21
- Detektorebene
- 22
- Beugungsbild
- 40
- Bild des Objekts
- 100
- Ausbreitungsrichtung des Lichtfelds respektive der Lichtwelle
- 101
- Lichtfeld
- 110
- Objekt
- 111
- Objektebene
- 120
- Flächendetektor
- 121
- Detektorebene
- 122
- Beugungsbild
- 125
- Ebene hinter dem Objekt
- 140
- Bild des Objekts
- u(x,y)
- Lichtwelle bzw. Lichtwellenfunktion des Lichtfelds
- u0(x,y)
- Lichtwelle in der Objektebene
- u'(x,y)
- Lichtwelle in der Detektorebene
- F
- als Fourier-Transformation beschriebener Propagator für die Lichtwelle zwischen Objekt und Detektor
- F-1
- als inverse Fourier-Transformation beschriebener Propagator für die Lichtwelle zwischen Detektor und Objekt
- N
- Anzahl der Iterationen des Rekonstruktionsalgorithmus
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Nicht-Patentliteratur
-
- F. Zhang, J. M. Rodenburg, „Phase retrieval based on wave-front relay and modulation“, Phys. Rev. B 82, 1-4 (2010) [0004]
- J. R. Fientrup, „Phase retrieval based on wave-front relay and modulation“, Appl. Opt., Vol. 21, No. 15, Seiten 2758-2769, 1982 [0005]