-
Beschreibung:
-
Die
Erfindung betrifft ein technisches Prinzip und ein apparatives Verfahren
(1) in mehreren Versionen mittels dessen im optischen
Fernfeld (oder auch Fresnel-Regime/Kugelwellennäherung)
schnelle (Zeitskala von digitalem Video) optische Spektroskopie
mit einer Ortsauflösung unterhalb/jenseits des allgemeinen
Beugungslimits (also < λ/2Licht) betrieben werden kann sowie Anwendungsbeispiele
für einen neuartigen digitalen Datenspeicher sowie eines
mikrobiologischen Analyseverfahrens.
-
Das
Beugungslimit der Optik besagt, dass zwei „Punkt”-förmige(Struktur-)Details
nicht (getrennt) aufgelöst werden können, falls
ihre (Licht-)Beugungsmuster zu nahe überlappen, um aufgelöst
(d. h. getrennt sichtbar) zu werden z. B. auf einem photographischen
Film oder einer Mattscheibe. 1b, 2a, 2b erläutern
die Definition des Beugungslimits. Dieser Fall tritt in etwa ein,
wenn die abzubildenden Strukturgrößen kleiner
werden als ca. die halbe Lichtwellenlänge mit der beobachtet/mikroskopiert
wird, natürlich noch abhängig von der numerischen
Apertur der abbildenden Optik.
-
Wenn
nun allerdings diese Bild-darstellende Mattscheibe ein CCD-Sensor
ist, welcher quantitativ die „Form” (also die
laterale Intensitätsverteilung) des Beugungs-Peaks eines
Probenstruktur-Details quantitativ vermessen kann, – z.
B. die Airy-Beugungsmuster-Intensitätsfunktion eines kleinen
Scheibchens a für (λ/2 ≤ a oder auch
etwas > a [18]) oder seine
Dipolabstrahlcharakteristik (respektive Multipol-)(für λ/2 >> a)-, dann ist die Sachlage anders, dann
könnte man sagen, es gibt in Sonderfällen praktisch
kein Beugungslimit von λ/2 mehr, selbst wenn man im Bild
der linearen Optik bleibt, z. B. bei Apertur-loser Mikroskopie des
Beugungsbildes, wenn das Pixeldetektorarray nahezu unendlich großflächig wäre
(große effektive numerische Apertur). Hierbei ist anzumerken,
dass für λ > a
keine voll ausgeprägten Beugungsminima mehr auftreten.
Die Strukturen können aber trotzdem entfaltet werden, da
die CCD-Kamera die Intensitätsprofile der Beugungspeaks
quantitativ vermisst – es wird ja keine Mattscheibe benutzt.
Weiterer wichtigerer physikalischer Hintergrund für diese
Aussage ist jedoch, dass ein Array beliebig kleiner (nanometrischerObjekte
(vor allem metallische), wenn sie mit Licht irgendeiner Wellenlänge λ angestrahlt
werden, immer aufgrund nicht-linearer optischer (elektromagnetischer)
Effekte dann auch wieder – allerdings untereinander inkohärent – abstrahlen
(allgemein lumineszieren, oder auch fluoreszieren, phosphoreszieren),
und zwar auch gestreute – der nanometrische (inbesondere wenn
metallische) Streukörper ist ja im weiteren Sinne eine
Antenne – elektromagnetische Strahlung einer Wellenlänge
von Bruchteilen von λ (Fourierentwicklung plus Multipolentwicklung
der Abstrahlung eines Streukörpers von einer Ausdehnung < oder << λ). Für diese „neuen”,
viel kürzeren Wellenlängen als λ, also
die λ/i, i = 1 –∞, gilt dann das Beugungslimit
im linearen Optik-Bild und Apertur-behafteter Mikroskopie natürlich
wieder. Für den Fall, dass λ/2 >> a, ist dann statt des Airy-Beugungsmusters
eher die Abstrahlcharakteristik einer Antenne (Herztscher Dipol im
einfachsten Fall, oder Multipol) anzuwenden, also in etwa proportional
zu a2 sin2ν/r2.
-
Für
den Fall zweier benachbarter mikroskopisch kleiner beleuchteter
Scheiben (Lochblenden), die abgebildet werden sollen, waren die
Beugungsmuster dieser Scheiben allgemein zwei sich interferierend überlappende
Airy-Beugungsmuster (1b, 2a, b).
Falls nun also die geometrische Form dieser mikroskopischen Strukturdetails
bekannt ist, z. B. kleine runde Scheibchen, kann man natürlich
berechnen, dass das resultierende Beugungsmuster (Fourier-Raum:
2-dimensionale Fourier-Transformation der lateralen Absorptionsfunktion (x,
y)) zweier solcher Scheibchen (z. B. Quantenpunkte) also allgemein
die interferierende Überlagerung zweier solcher Airy-Beugungsmuster-Funktionen
ist (2a und 2b, zeigen
in dem Fall die Einhüllende der Gesamtintensität)
und natürlich auch wieder zurückrechnen durch
Fourier-Rücktransformation auf die beugenden Strukturdetails
(Ortsraum). In den Einhüllenden dieser interferierenden Airy-Beugungsmuster-Funktionen
müßte noch die Nahfeldinformation enthalten sein
(Hypothese!), auch im Fernfeld, zumindest im Fresnelregime. Hier wäre
aber die Begründung, dass teilweise auch inkohärentes
Licht von den Scheibchen ausgeht, wodurch die Airy-Beugungsmuster
zu einem kleinen Teil auch nicht interferierend sich überlagern,
sich also zu einem kleinen Anteil skalar addieren, auch im allgemeinen
Fall. Für den Fall völlig unabhängig
voneinander lumineszierender Quantentröge, die also untereinander
völlig inkohärent wieder abstrahlen, gibt es außer
der Airy-Beugungsmuster der einzelnen Scheibchen keine Interferenz
der Punktlichtquellen untereinander. Die Airy-Beugungsmuster-Intensitätsprofile
(für λ/2 ≤ a oder etwas größer > a [18]) bzw. für λ/2 >> a die Dipol-/Multipolabstrahlcharakteristika
addieren sich also skalar, sind also einfacher durch Subtraktion
und nachträglicher einzelner Fourier-Rücktransformation
zu entfalten (für λ/2 ≤ a oder etwas > a [18]). Für
den Fall λ/2 >> a muss die Hertzsche
Dipolabstrahlcharakteristik auf den streuenden Dipol/Multipol zurückgerechnet
werden.
-
Vermisst
man also quantitativ mittels eines CCD-Sensors (z. B. einer Videokamera)
das Intensitätsprofil der gebeugten bzw gestreuten Abbildung einer
beliebigen Probe, könnte prinzipiell das Profil Computer-rechnerisch
unter Benutzung gewisser Zusatzinformationen (Mapping des Abbildungsprofiles/Transferfunktion
der Mikroskop-Optik eines infinitesimal kleinen Lichtpunktes – also
der sog. „Point spread function”) über
die optische Abbildung wohl theoretisch entfaltet werden, die Auflösung
dann nur noch abhängig von der Lichtempfindlichkeit und
des dynamischen Bereichs der Pixel der CCD-Kamera, sowie der lateralen
Pixelgröße in Relation zur optischen Vergrößerung
der optischen Abbildung, aber auch respektive der gesamten Anzahl
der Pixel. Für höchste Genauigkeit müssten
dann nichtlineare optische Effekte, also Lichtabstrahlung der nanometrischen
Streukörper der Probe mit zusätzlich anderen Wellenlängen
als der – jedoch auch im gestreuten Licht meist dominierenden – eingestrahlten,
insbesondere kleinerer Wellenlängen, bei der Rückrechnung/Entfaltung
des optischen Bildes berücksichtigt werden.
-
Aufgrund
von Linsenimperfektionen (schon der endliche Linsendurchmesser stellt
allerdings natürlich eine Begrenzung/Imperfektion dar)
hätte hierbei eine geeignete Lochkamera Vorteile; am besten wäre
daher natürlich eine Abbildung, die praktisch völlig
auf Aperturen verzichten kann, also wenn etwa das Pixelarray genau
die Probengröße hat, mit extrem kleinen Pixeln
natürlich, wobei dann bei direkter Nahfeld-Abbildung im
Ortsraum die Pixelgröße das Auflösungslimit
ist. Idealerweise ist das Detektorpixelarray jedoch sehr viel größer
als die Probe, mit extrem vielen, extrem kleinen Pixeln und man
bildet das Beugungsbild (bzw. das gestreute) der Probe im Fresnel-Regime
unter Mitnahme höherer Beugungs-Ordnungen respektive kleinerer
Probenstrukturdetails ab, also mit sehr hoher effektiver numerischer
Apertur. Das Ortsraumbild erhält man dann im wesentlichen
durch (numerische) Fourier-Rücktransformation, gegebenfalls
(numerisch) korrigiert für die Kugelwellennäherung
im Fresnel-Regime (für λ/2 ≤ a). Wieder
im Falle λ/2 >> a muss Streutheorie
angewendet werden, also im einfachsten Fall Dipolabstrahlcharakteristik
für jeden einzelnen Quantenpunkt.
-
Für
den Fall, dass der Mikroskopie-Strahlengang durch eine optische
Apparatur (mit Linsen und Aperturen) verläuft, wird man
praktisch wegen der Interferenz aber beliebige Strukturdetails,
die im optischen Fernfeld unterhalb des Beugungslimits von etwa λ/2
betrachtet werden sollen, allgemein wohl kaum zurückrechnen
können, selbst wenn die Point spread function des Systems
exakt vermessen wurde bzw. werden könnte, und damit z.
B.
-
Linsenaberrationen
rechnerisch in einem digitalen Bildaufnahmeverfahren korrigiert
werden können. Allerdings sollte die optische Superauflösung
im Fernfeld durch Entfaltung doch mit Einschränkungen möglich
sein, wenn man ausreichende Zusatzinformationen besitzt, z. B. aus
der Kombination mit anderen Mikroskopieverfahren. Weiss man z. B.
im einfachsten Fall, dass man nur 2 kleine Scheibchen bekannten
Durchmessers (Größe und Abstand unterhalb/jenseits
des Beugungslimits) und bekannter Position abbildet, lassen sich
also diese 2 Airy-Beugungsmuster-Funktionen (also das Beugungsmuster/gebeugte
Intensitätsprofil einer dunklen (opaque) Scheibe) bzw.
Dipolabstrahlcharakteristik zurückrechnen; sind es 3 definierte
Scheibchen innerhalb des Beugungslimits, ist es natürlich
schon viel komplizierter, insbesondere falls die Positionen unbekannt
sind, usw. Je mehr Strukturdetails (und je undefinierter geformt)
innerhalb des Beugungslimits liegen umso schwieriger wird die Entfaltung
natürlich, bis unmöglich, da zu viele Unbekannte.
Je mehr Unbekannte, umso mehr Zusatzinformationen/Randwerte werden
benötigt (z. B. aus Rastersondenmikroskopien), um die Entfaltung
doch zu ermöglichen. Wie erwähnt müssten
für höchste Genauigkeit die nicht-linearen optischen
Effekte bei der Lichtstreuung an nanometrischen Strukturdetails
(insbesondere metallische Nanoteilchen als nanometrische „Antennen”)
einbezogen werden, man müsste also neben der eingestrahlten
Wellenlänge noch die anderen abgestrahlten Wellenlängen – insbesondere
die kleineren – berücksichtigen.
-
Hier
im erfindungsgemäßen Aufbau wird daher zunächst
eingeschränkt auf die ultrahoch ortsaufgelöste
(jenseits/unterhalb des Beugungslimits) Spektroskopie einer bekannten
Probengeometrie untereinander inkohärenter Punktlichtquellen,
wodurch die Entfaltung viel einfacher und eindeutig wird; eigentlich
wird hier auf eine einfache Subtraktion im Fourierraum reduziert,
insbesondere wenn die vielen Strukturdetails nicht zu dicht (die
Verschränkung der Beugungsmaxima 0-ter Ordnung wird natürlich
immer stärker, je näher sich die Strukturdetails
innerhalb des Beugungslimits kommen) beieinander liegen:
Falls
also der Pixel-Detektor Farb-empfindlich ist, z. B. durch Aufspaltung
des abbildenden Lichtes mittels eines Prismas (wie in handelsüblichen
hochwertigen kommerziellen Videokameras) in drei oder mehrere verschiedenfarbige
Strahlengänge, welche auf drei oder mehreren verschiedenen
CCD-Sensoren (jeweils einer für rot, gelb und blau usw.),
kann man optische Spektroskopie mit extrem hoher Ortsauflösung durchführen,
im wesentlichen nur. durch Benutzung einer hochwertigen Videokamera
und digitaler Bildverarbeitung (Entfaltung/Subtraktion im Fourier-Raum) – 2c.
Alternativ gibt es auch Farb-CCD-Arrays, deren Ortsauflösung
natürlich prinzipiell geringer ist (ca 1/3 wegen der 3
CCDs pro Bildpunkt) und schließlich könnte man
natürlich z. B. mittels eines durchstimmbaren Interferenzfilters
vor dem Pixeldetektor die Spektroskopie durchführen, was
aber den hier im erfindungsgemäßen Aufbau hervorgehobenen
Geschwindigkeitsvorteil der Abbildung relativieren würde.
Durch gleichförmiges (z. B. Hin- und Her-)Bewegen des CCD-Sensors
könnte die laterale Auflösung des CCD-Sensors
selbst sogar noch auf Sub-Pixel-Ausdehnung gedrückt werden, die
Entfaltung/Zurückrechnung würde dann jedoch immens
schwieriger und Rechenzeit-aufwändiger.
-
Auf
diese Weise ist örtlich aufgelöste (Luminiszenz-)Spektroskopie
an einem 2-dimensionalen periodischen Array von identischen lumineszierenden
Quantentrögen möglich, im „Fernfeld” (2d, übertrieben
gezeichnet im Nahfeldbereich der Probe), also ohne die sehr langsame
rasternde optische Nahfeldmikroskopie für jede spektroskopische
Aufnahme heranziehen zu müssen; ein Rastersondenmikroskop
ist nur einmal erforderlich zur anfänglichen Charakterisierung
vor allem der Geometrie und Anzahl und auch der Positionen der Quantentröge (oft
auch als Quantenpunkte bezeichnet – nicht ganz korrekt,
denn ihre Ausdehnung ist meistens deutlich größer
als die Fermiwellenlänge der Elektronen im Material). Dies
funktioniert insbesondere deswegen, weil die Lumineszenz der Quantentröge
diese zu voneinander unabhängigen Lichtquellen macht, sie also
nicht gegenseitig miteinander interferieren, sondern sich die einzelnen
Airy-Beugungsmuster skalar addieren (für λ/2 < a) bzw. im Fall λ/2 >> a die Dipol-(Multipol-)abstrahlcharakteristika.
Damit kann eine neue Art von optischem Speicher ausgelesen werden
(2d, 3), welcher auf
Arrays von Quantentrögen basiert und damit extreme Speicherdichten
erlaubt (ca 100 mal höher als bisher realisiert, ausgehend
von typischen Quantentrogdimensionen von etwa 5 nm (plus ca 10 nm
mittleren Abstandes) und heutzutage üblichen Strukturbreiten
in der Mikroelektronikfabrikation von bestenfalls ungefähr
45 nm bei konventionellen Mikroprozessoren, DRAMs z. B., ganz zu
schweigen von CDs oder DVDs. Darüberhinaus können
Quantentröge auch in 3 Dimensionen angeordnet werden, nicht
nur in 2 Dimensionen [1, 1a]. Da die erfindungsgemäße
Spektroskopie-Methode auch auf Interferometrie-/Phasenkontrast beruht, können
auch die Quantentröge in etwas tieferliegenden Schichten
ausgelesen werden – natürlich vorausgesetzt, sie
wurden Schicht für Schicht aufgetragen und jede Schicht
jeweils mittels Rastersondenmikroskopie (z. B. AFM) – vorher – geometrisch
charakterisiert.
-
„Beschreiben” solcher
3 dimensionaler Arrays von Quantentrögen müsste
in der Art eines Schieberegisters erfolgen, wie in
3a,
b für 2 Dimensionen vorgeschlagen, oder scannend mittels Rastersondentechniken
(natürlich auch für 2 Dimensionen, für
3 Dimensionen mittels konfokaler interferometrischer Techniken).
Im letzteren Fall hätte man dann zwar nur recht langsames
Schreiben, welches allerdings durch das Millipede-Konzept vieler
Abtastspitzen [2] beschleunigt werden kann, aber nach wie vor das
schnelle „großflächige, also nicht scannende” erfindungsgemäße
optische Auslesen der Quantentrog-Arrays. Weitere Methode um die
Quantentröge elektrisch zu kontaktieren, wäre
ein vertikal ausgerichtetes Quantendrahtarray in der isolierenden
Substratschicht, gemäß Herstellungsverfahren in
EP1096569A1 [3]
oder
US6566704B2 [4]
(CNT-array), wie in
3a/II angedeutet.
-
Dass
grundsätzlich/theoretisch die optische Mikroskopie/Spektroskopie
jenseits (unterhalb) des Beugungslimits von etwa λ/2 nicht
nur im Nahfeld im Prinzip möglich sein muss, – wenn
auch praktisch sehr schwer realisierbar – erklärt
folgendes Gedankenexperiment:
Wie weithin bekannt liefert optische
Nahfeldmikroskopie eine optische Auflösung weit jenseits/unterhalb des
Beugungslimits. Dabei wird das von der Probe kommende Licht (in
Reflexion oder Transmission) durch eine über die Probe
rasternde feine Apertur (<<Lichtwellenlänge)
aufgenommen und mittels eines extrem empfindlichen Photodetektors
(Photonencounters) in Abhängigkeit von der lateralen Position
der Apertur auf der Probe aufgezeichnet und damit ein nahfeldoptisches
Bild der Probe aufgezeichnet. Dies ist vielfach experimentell bewiesen,
auch theoretisch (z. B. seit [5]), vielfach demonstriert und laterale
Auflösungen von bis hinunter zu wenigen nm wurden erzielt.
Hätte man nun eine geeignete Matrix von Pixeln, also ein
Pixelarray mit extrem kleinen, aber extrem empfindlichen Lichtdetektoren,
die einen sehr kleinen Abstand zueinander haben, sodass die Probe
unmittelbar auf diesem Pixelarray präpariert werden könnte,
bekäme man genauso ein Nahfeld-Bild der Probe ohne die
Probe rastern zu müssen (Patentanspruch 10). Das Pixelarray
muss natürlich etwa genauso groß sein wie die
Probe selbst, und jeder Pixeldetektor wäre ein „Nahfeld-optischer Sensor”,
der die übliche Nahfeld-optischen Abtastspitze ersetzt.
Beim herkömmlichen rasternden Nahfeld-optischen Mikroskop
wird üblicherweise als scannende Apertur das extrem angespitzte
Ende einer Monomode-Glasfaser benutzt, die die eigentlich zunächst
nicht-propagierende exponentiell abfallende „Licht-Welle” aus
dem optischen Nahfeldbereich aufnimmt, und über die Monomodefaser über
längere Strecken (O(m)) zum Photodetektor (z. B. Photomultiplier)
leitet. Also propagiert das Licht natürlich doch wieder
nach „Durchtunneln” der „(Schicht-)Dicke” Apertur
(Durchmesser < lambda),
wenn auch extrem gedämpft durch die Apertur (Durchmesser < lambda); das wird
experimentell weitläufig so realisiert, es ist eben „nur” ein
extrem empfindlicher Photonencounter (Photomultiplier) als Detektor
notwendig. Zur Erläuterung: Die elektromagnetische Welle kann
nur in der Apertur (Durchmesser < lambda)
und im Nahfeld-Regime selbst nicht existieren/propagieren, bzw. es
handelt sich dort im Abstand einiger λ von der „Antenne”/dem
Streukörper um quasistatische, zeitlich oszillierende Felder,
aber „hindurchtunneln” (die Amplitude des elektromagnetischen
Feldvektors fällt z. B. in etwa exponentiell ab während
des Durchgangs durch die „Dicke” der Apertur)
kann sie sehr wohl; hinter der Apertur, also viele Lambda entfernt,
egal ob in geeigneter Monomode/Multimodefaser oder im freien Raum,
kann die Lichtwelle wieder existieren, also auch propagieren. Könnte
man nun extrem viele solcher angeschärften Faserspitzen
bündeln, sodass der Bündelquerschnitt wieder in
etwa so groß ist wie die Probenoberfläche, hätte
man ein nicht-scannendes optisches Nahfeldmikroskop, ähnlich
wie in Patentanspruch 11, wobei natürlich an jedem Faserende
ein extrem empfindlicher Photodetektor sitzen müsste. Solche
Faserbündelungen sind prinzipiell möglich, das
Problem dabei wäre rein geometrischer Natur, denn dann
wird der Faserbereich, in welchem die Faser (viel) dünner
ist, als für nahezu ungedämpft propagierendes
Licht (bestimmter Wellenlänge, z. B. 633 nm) nötig
wäre, sehr lang und der propagierende Intensitätsanteil
würde sehr schnell weggedämpft, am Detektor käme
zu wenig an – natürlich alles eine Frage der Detektorempfindlichkeit
und eine Frage von Störlichtintensitäten, also
theoretisch möglich aber praktisch – meines Wissens – zur
Zeit nicht machbar. Somit hätte man ein Schattenwurfmikroskop
im Fernfeld, nur dass das propagierende Licht über Monomode-Fasern
auf die Detektoren „vermittelt” wird. Hier im
erfindungsgemäßen Aufbau wird nun also vorgeschlagen,
dieses (stark dämpfende) hypothetische Faserbündel
einfach wegzulassen und die zugegeben extrem kleinen Intensitätsschwankungen
des Beugungsbildes/im gebeugten „Bild” bzw. im gestreuten „Bild”,
die aber auf dem propagierenden Lichtintensitätsanteil
noch aufmoduliert sein müssen (nichtlineare optische Effekte,
daher Fourierentwicklung im Wellenvektor), direkt mit einem extrem
empfindlichen Pixelarray aufzuzeichnen, z. B. solch einem wie in
[6] vorgeschlagen. Selbstverständlich ist die Nahfeldinformation
durch Interferenz drastisch verschränkt, aber sollte im
Prinzip im Fernfeld oder zumindest im Fresnel-Regime noch vorhanden
sein, wenn auch winzig klein, zumindest wegen der wenn auch sehr
kleinen inkohärenten Lumineszenz-Anteile im reflektierten
Licht. Diese Intensitätsanteile z. B. die ohnehin untereinander
inkohärent lumineszierenden Quantentröge im gestreuten
Licht, ausgehend von den Quantenpunkten addieren sich also skalar,
also für λ/2 ≤ a oder etwas > a [18] sind es die
Airy-Beugungsmuster eines kleinen Scheibchens, für λ/2 >> a sind es die Multipolabstrahlcharakteristika,
näherungsweise die Hertzsche Dipolabstrahlcharakteristik.
Quantenmechanische Effekte (licht-abhängige Modulation
des Stromes durch Quantendrähte) sollten prinzipiell die
Empfindlichkeit von Photomultipliern erreichen können,
evtl. vergleichbar mit hochempfindlichen Stickstoff-gekühlten
CCD-Arrays, die ja bereits einzelne Photonen detektieren können. Letztere
ermöglichen dies „erkauft” durch die
Nachteile der aufwendigen Kühlung (thermisches Rauschen
wird reduziert) sowie relativ großer, damit empfindlicher
aber langsamer Pixeldetektoren. Ein Quanten-elektronischer Detektor
alleine würde diese Nachteile nicht kennen. Insbesondere
wäre ein sehr großer (eventuell auch hemisphärischer)
Lichtpixeldetektor mit extrem vielen extrem kleinen Pixeln vorgesehen,
der dadurch defakto eine sehr große effektive numerische
Apertur gewährleistet (für λ/2 ≤ a oder
etwas > a [18]). Für λ/2 >> a gewährleistet er die ausreichende
Vermessung der Dipolabstrahlcharakteristika der einzelnen Streukörper/Quantenpunkte.
-
Problemstellung und Lösungsvorschlag:
-
Optische
Mikroskopie und damit auch optische Spektroskopie ist in der lateralen
Auflösung beugungsbegrenzt, das Auflösungslimit
ist etwa die halbe Wellenlänge des abbildenden Lichtes,
abhängig noch von der numerischen Apertur des abbildenden
Objektivs. Rastersondenmikroskopien und die Elektronenmikroskopie überwinden
diese (optische) Auflösungsbegrenzung (die Elektronenmikroskopie natürlich „nur” über
die viel kürzere Wellenlänge der abbildenden Strahlung),
liefern jedoch keinerlei optische Spektroskopieinformationen. Ausnahme
ist die optische Nahfeldmikroskopie, die auch optisch-spektroskopische
Informationen liefern kann, sie ist jedoch extrem langsam (ein Bild
in Minuten bis Größenordnung Stunde).
-
Das
erfindungsgemäße Konzept hier soll diese Limitationen überwinden:
Optisch-spektroskopische Bilder könnten geliefert werden
mit der lateralen Auflösung eines Rastersondenmikroskops
und gleichzeitig mit der spektroskopischen Information (Farbe) eines
Lichtmikroskops bei einer maximalen Bildrate vergleichbar mit der
der Videomikroskopie. Das Konzept beruht darauf, hochauflösende
geometrische (Topographie-)Vorinformation mittels Rastersondenmikroskopien
o. ä. zu benutzen, um damit die folgenden durch das Beugungslimit „verschwommenen” Farbbilder
des Lichtmikroskopes derselben Probe mathematisch/Computer-technisch
in real-time zurückzurechnen (zu entfalten, im Fourier-Raum eventuell
durch einfache Subtraktion). Im einfachsten Fall bei geringer Ortsauflösung
nahe des Beugungslimits von λ/2 sollte dies auch für
tatsächliche Ortsraum-Bilder funktionieren [17]. Im hier
jedoch primär vorgeschlagenen Konzept (1)
soll aber „nur” das Beugungsbild der Probe aufgezeichnet
werden und mittels eines Computers mit dem Fourier-transformierten
bzw. streutheoretisch transformierten (alle Quantenpunkte als untereinander
inkohärente Dipole betrachtet) Rastersondenbild der Probe
verglichen (subtrahiert) werden und danach Computer-technisch (nicht
Linsen-optisch) rücktransformiert werden. Dieses Konzept
ist prädestiniert zum optischen Auslesen neuartiger Quantentrog-Speicher
extremer Speicherdichte – die Probe muss nur einmal topographisch
charakterisiert werden (z. B. mittels Rastersondenmikroskopien oder
Elektronenmikroskopie o. ä.) und kann dann immer wieder
beschrieben und optisch (schnell) ausgelesen werden. In diesem Fall
von vielen voneinander unabhängig lumineszierenden Quantentrögen
als untereinander inkohärente Lichtquellen fällt
die gegenseitige Interferenz dieser Punktlichtquellen weg und die
vielen Airy-Beugungsmuster-Funktionen (für λ/2 < a oder etwas > a [18]) bzw. Dipol(Multipol-)abstrahlcharakteristika
(für λ/2 >> a) werden skalar addiert.
Die Entfaltung beschränkt sich dann auf eine einfache Subtraktion
der vielen Airy-Beugungsmusterprofile bzw. Dipolcharakteristika
und deren nachträgliche einzelne Fourier-Rücktransformation
bzw. streutheoretische Entfaltung.
-
Stand der Technik:
-
Herkömmliche
Interferenzmikroskopie/Phasenkontrastmikroskopie liefert vertikal
die sehr hohe Ortsauflösung der Interferometrie (also weit
im Sub-nm-Bereich), jedoch mit einer lateralen Ortsauflösung
die Beugungs-limitiert ist, also etwa ganz grob lambda/2.
-
Ein
Verfahren zur Interferenzmikroskopie, mit dem Ziel eine laterale
optische Ortsauflösung jenseits/unterhalb des Beugungslimits
zu erreichen, wird in
EP0776457B1 [7]
und Referenzen darin vorgeschlagen. Ein weiteres optisches Mikroskopie-Verfahren,
welches jedoch auf spezieller lateral variierender Fluoreszenzanregung
beruht, bei welchem das optische Beugungslimit überwunden
wird, wird in T. A. Klar et al [8] beschrieben, sowie technische Grundkonzepte
dafür in
DE10154699A1 [9].
Letzteres berührt das erfindungsgemäße
Verfahren nicht, zum einen da es auch ein langsames rasterndes Verfahren
ist, zum anderen da es auf lokal definierter und variierender Fluoreszenzanregung
beruht (Flankensteilheit als Funktion vom Ort (x, y) „<” Beugungslimit) – es
ist also mit der Nahfeld-optischen Mikroskopie verwandt, denn diese
rastert einen winzigen Lichtpunkt (<< lambda,
Beugungslimit) während in Hell et al [8, 9] prinzipiell
eine (durch Pulsbelichtung) steile („<” Beugungslimit) Fluoreszenz-anregende Lichtflanke
gerastert wird (Anmerkung: wenn ich es richtig verstanden habe),
obwohl die Datenaufzeichnung im Fernfeld erfolgt (wie bei der Nahfeld-Optischen
Rastermikroskopie NSOM ja auch meistens). Dennoch ist es natürlich
ein sensationeller Fortschritt, wenn man sozusagen optische Nahfeldmikroskopie
betreiben kann und dabei auf die Nahfeld-Abtastspitze verzichten
kann. Ersteres (
EP0776457B1 [7])
offenbar auch auf (komplizierter) mathematischer Rückrechnung
beruhendes Abbildungs-Verfahren, könnte vielleicht in Kombination
mit dem erfindungsgemäßen Konzept eine erhebliche
Verbesserung der mikroskopischen Bildqualität liefern,
ist aber insbesondere für das hier vorgeschlagene erfindungsgemäße
Spektroskopiekonzept nicht notwendig. Ein dem erfindungsgemäßen
Konzept ähnliches Verfahren wird in [17] vorgeschlagen,
wobei dort aber die Fehler und Limitationen des Linsen- und Apertursystems über
dessen Point spread function durch Entfalten des Ortsraumbildes
reduziert werden sollen, jedoch auch anhand stützender
hochaufgelöster Rastersondenmikroskopie-Daten.
-
Lösung mit Erläuterungen
zu den Patentansprüchen
-
Zu Patentanspruch 1:
-
Mikroskopie/Spektroskopie
an „Quantenpunkten” (statthaltend für
jeder Art von nm-Skala Lumineszenz-, Fluoreszenz-, Phosphoreszenz-Objekten,
also natürliche oder künstliche Atome/Moleküle/Nanopartikel)
jenseits/unterhalb des Beugungslimits mittels optimierter Videomikroskopie
im Fresnel-Regime oder gar im Fernfeld:
Video-Mikroskopie gemäß 1 (hier
Interferometrie-unterstützt, aber für das Funktionsprinzip
nicht essentiell notwendig) könnte ein direktes Bild oder
Beugungsbild (Streuung im Falle λ/2 >> a)
des Arrays von „Quantenpunkten” mit einer Auflösung
unterhalb (jenseits) des Beugungslimits liefern. Insbesondere, wenn
man alle Linsen (evtl. bis auf eine große Streulinse vor
dem CCD-Detektor) und Aperturen wegläßt, sollte
diese erfindungsgemäße interferometrische (Michelson-Typ)
Abbildung extrem hohe optische Auflösung unterhalb des
Beugungslimits liefern, allerdings ist dann 1. sehr hohe Lichtintensität
nötig, und 2. ein sehr grosses CCD-Array, welches defakto eine
sehr große numerische Apertur erlaubt, mit extrem kleinen
und vielen Pixeln, deren Lichtempfindlichkeit extrem hoch sein muss;
beispielsweise ein mit Flüssigstickstoff-gekühlte
konventionelle CCD-Kamera wäre denkbar, aber insbesondere
auch die in [6] vorgeschlagene „künstliche Retina”.
Idealerweise ist das Detektorpixelarray jedoch sehr viel größer
als die Probe, mit extrem vielen, extrem kleinen Pixeln und man
bildet das Beugungsbild der Probe im Fresnel-Regime ab unter Mitnahme
höherer Beugungs-Ordnungen respektive kleinerer Probenstrukturdetails,
also mit sehr hoher effektiver numerischer Apertur. Das Ortsraumbild
erhält man dann im wesentlichen durch (numerische) Fourier-Rücktransformation,
gegebenfalls (numerisch) korrigiert für die Kugelwellennäherung
im Fresnel-Regime, alles im Fall λ/2 ≤ a oder
etwas > a [18]. Im
Fall λ/2 >> a tritt an die Stelle
des Airy-Beugungsmusters der Quantenpunkte ihre näherungsweise
Dipolabstrahlcharakteristik; dann ist die Entfaltung keine Fourier-Rücktransformation
mehr sondern die Rückrechnung der Streutheorie auf das
Dipolmoment p~qa der Quantenpunkte.
-
Falls
die Auflösung aufgrund unvermeidlicher Linsenaberrationen
(auch bei Fresnel-Linsen [14]) und endlicher Linsen- und Aperturdurchmessern
nicht ausreicht, um die Quantenpunkte direkt abzubilden, muss das
vom CCD-Sensor aufgenommene Beugungs-„Bild” rechnerisch
entfaltet werden, also die „verschwimmenden” interferierenden Überlagerungen
der im Idealfall (wenn die Probenstrukturen alle Scheibchengeometrie
besitzen) vielen interferierenden „Airy”-Disk-Intensitätsprofile
(für λ/2 ≤ a oder etwas > a [18]) bzw. Dipolabstrahlcharakteristika
(λ/2 >> a) herausgerechnet/heraussubtrahiert werden. 1b, 2a und
b. Die Bildinformation steckt im quantitativen gebeugten Intensitätsprofil
eines beliebigen Probenabbildes immer drin, auch im Fernfeld (Hypothese – veranschaulicht
in 2d, übertrieben gezeichnet für
den „Nahbereich” der Probe), die Frage ist nur,
ob man immer auf die Probengeometrie zurückrechnen kann,
was bei vielen Unbekannten (verschiedene Strukturdetails, nicht-periodische
Abstände – alles jenseits des Beugungslimits) beliebig
kompliziert wird bzw. der Detektor unendlich großflächig
werden muss um das Airy-Beugungsmuster bzw. die Dipolabstrahlcharakteristika
ausreichend vermessen zu können. Dieses Rückrechnen auf
Probengeometrie ist natürlich einfacher möglich, entweder
wenn das Pixeldetektorarray unendlich groß wäre
(Fourier-Rücktransformation des gebeugten „Bildes” bzw.
streutheoretische Rückrechnung des gestreuten „Bildes”)
oder wenn man als Probe nur 2 Airy-Scheibchen bekannten Durchmessers
und Position (Durchmesser und Abstand nichttrivialerweise kleiner
als das Beugungslimit) hat, bei 3 solchen Airy-Scheibchen liegt
der Fall schon viel schwieriger usw. Hier ist insbesondere vorgesehen,
das Verfahren auf periodische 2-dimensionale Arrays von identischen
Quantentrögen anzuwenden, die also voneinander unabhängig
lumineszieren, sich ihre Airy-Beugungsmuster (λ/2 ≤ a
oder etwas > a [18])
bzw ihre Dipolabstrahlcharakteristika für λ/2 >> a also nur inkohärent (skalar)
addieren und nicht untereinander noch interferieren. Die Entfaltung
reduziert sich also auf eine Subtraktion der Airy-Beugungsmuster-Intensitätsprofile
bzw. Dipolabstrahlcharakteristika vom verschwommenen Beugungsbild/Streubild
an den Positionen der Quantentröge. Durch Fourier-Rücktransformation
für verschiedene Wellenlängen der einzelnen Differenzen
erhält man dann das Ortsraumfarbbild der einzelnen Quantentröge,
im Fall λ/2 ≤ a oder etwas > a [18]. Im Fall λ/2 >> a tritt an die Stelle des Airy-Beugungsmusters
der Quantenpunkte ihre näherungsweise Dipolabstrahlcharakteristik; dann
ist die Entfaltung keine Fourier-Rücktransformation mehr
sondern die Rückrechnung der Streutheorie auf das Dipolmoment
p~qa der Quantenpunkte.
-
Wenn
die geometrische topographische Struktur des „Quantenpunkt”-Arrays überhaupt
bekannt ist, ist also die Entfaltung/Subtraktion aber insbesondere
auch für die 3 verschiedenen Farbkomponenten möglich
(2c), wodurch die spektroskopische Information über
die Quantentrog-Luminiszenz (statthaltend für jede Art
von Lumineszenz, Fluoreszenz, Phosphoreszenz auf der nm-Skala) dann
prinzipiell mit der lateralen Auflösung des Rasterkraftmikroskops
vorliegt, für jede neue spektroskopische Situation wieder
mit dem schnellen fernfeld-optischen (erfindungsgemäßen)
Verfahren, ohne jedes Mal aufs Neue eine langsame Nahfeldmethode
anwenden zu müssen. Für höchste Genauigkeit
müssten jedoch nicht-lineare optische Effekte bei der Lichtstreuung
an nanometrischen (insbesondere metallischen) Streukörpern
rechnerisch berücksichtigt werden, da bei der Streuung
intensiven elektromagnetischer Strahlung an einer nanometrischen „Antenne” (wie
z. B. einem metallischen Nanopartikel) im Streulicht neben der meist
dominierenden eingestrahlten Wellenlänge noch etliche andere
Wellenlängen vorkommen, insbesondere kürzere,
die ja selbst innerhalb des Beugungslimits höhere Auslösung
erlauben können. Dann wird die Entfaltung jedoch wesentlich
komplizierter, da dann für jedes (ja von der Rastersondenmikroskopie
bekanntes) Probendetail (also in der Praxis jedes Nanopartikel)
komplizierte Streutheorie angewandt werden muss und in das Gesamtbild
eingerechnet werden muss.
-
Durch
den Einsatz eines Phasenkontrastverfahrens (Interferometrie), welches
prinzipiell vertikal eine (DC-)Auflösung von etwa einem
zehntel Angström (oder etwa 10–4 AngströmxHz–1/2 für Modulationsverfahren)
besitzt, können auch 3 dimensionale Arrays von Quantentrögen
auf diese Weise (Luminiszenz-)spektroskopiert – also ausgelesen – werden, da
man die Licht-Phase vertikal mit dieser hohen Auflösung „durchfahren” kann.
Somit ist eine viel höhere Speicherdichte als mit 2 dimensionalen
Quantentrog-Arrays möglich (nur diese sind ja allen hochauflösenden
Rastersondenverfahren zugänglich, das 3 dimensionale Array
natürlich zur anfänglichen topographischen Charakterisierung
ebenso, d. h. jede Schicht einmal, wenn das 3 dim Array Schicht
für Schicht aufgebaut wird).
-
Das
erfindungsgemäße Konzept beruht einfach im Grunde
darauf, den gebeugten bzw. gestreuten „Schattenwurf” einer
Probe nach Beleuchtung (in Reflexion oder auch Transmission) mittels
eines ggf. aufgeweiteten/”ge-shape-ten” Laserstrahls
möglichst Apertur-los auf einem Pixel-Array abzubilden,
das entweder genügend hohe Pixeldichte (mit genügend kleinen
Pixeln) aufweist, oder respektive großflächig genug
ist (mit genügend vielen Pixeln), dass der (mittels einer
einzigen Streulinse) aufgeweitete „Schattenwurf” mit
einer optischen Auflösung unterhalb des Beugungslimits
von λ/2 (Quantenpunkte mit 5 nm Durchmesser und etwa 10
nm Abstand!) interferometrisch (also mit Phasenkontrast) nach Fourier-Rücktransformation
bzw. Streutheorie-Rückrechnung abgebildet werden kann.
Die Interferometrie ist eigentlich nur nötig, um das einfallende
(beleuchtende/anregende) Licht im Dunkelfeld auszulöschen
und nur die Signale der inkohärent lumineszierenden Quantentröge
herauszufiltern. Essentiell ist hierbei – neben der möglichst
geringen Pixelgröße – die Lichtempfindlichkeit
der Detektor-Pixel und damit auch, dass sie einen möglichst
hohen Dynamikbereich erlauben, falls der Dynamikbereich des auf
den Detektor fallenden Lichtes interferometrisch nicht ausreichend
kompensiert werden kann, d. h nicht ausreichend exakt auf einer „dark
fringe” gemessen werden kann.
-
1:
das Gauß'sche Intensitätsprofil eines Farb-Lasers
(rot-grün-blau oder durchstimmbar, es gibt auch bereits
weißes Laserlicht) – je nach Probengröße über
einen Strahlaufweiter oder Strahlkomprimierer – fällt
auf einen Strahlteiler (polarisierend oder auch nicht), von dort
einerseits auf einen beweglichen Spiegel einstellbarer Reflektivität
(z. B. mittels eines einstellbaren Absorbers davor) und andererseits
auf die Proben-Interferometerkavität. Letztere kann zwischen
einem (an der Proben-seitigen Grenzfläche teilweise reflektierenden)
Objektiv hoher numerischer Apertur (Brennebene ist die Probenebene) und
der (reflektierenden) Probe gebildet werden, oder auch zwischen
dem reflektierenden Ende einer sehr kurzen Monomodefaser und der
(reflektierenden) Probe.
-
Dritte
Möglichkeit ist, das Objektiv bzw die Glasfaser ganz wegzulassen,
und einfach eine Interferometerkavität (durchstimmbar oder
Bandbreite im relevanten Wellenlängenbereich!) mittels
einer hauchdünnen verspiegelten (Reflektivität
so eingestellt, dass sie vergleichbar ist mit der zu erwartenden Probenreflektivität)
Platte dicht über der Probe zu bilden. Damit wären
(fast) alle Aperturen vermieden, jedoch muss der Laser die Probe
dann mit sehr hoher Intensität großflächig
ausleuchten, was einen erhöhten Anteil unerwünschter
Reflexionen an anderen etwaigen Grenzflächen zur Folge
hat; außerdem muß der Detektor dann sehr groß werden
um höhere Beugungsordnungen mitnehmen zu können
bzw. die Beugungsordnung 0. Ordnung genauer vermessen zu können
(für λ/2 ≤ a oder etwas > a) bzw. um die überlagerten
Dipolcharakteristika ausreichend vermessen zu können (λ/2 >> a).
-
Für
den Fall des Einsatzes einer faseroptischen Interferometrie beruht
dieser Teil (also nur die faseroptische Interferometrie-Komponente
zur reinen vertikalen Kleinst-Abstands-Messung, nicht zur Bild-gebenden
Mikroskopie) des erfindungsgemäßen Aufbau auf
einer Erfindung aus [10].
-
Idealerweise
ist die Probenebene exakt die Fokalebene des Objektivs, sodass der
auf die Probe fokussierte (der Fokus kann relativ klein sein, muss aber
nicht, denn ein großer Fleck bedeutet eine größere
abgebildete Probenfläche, allerdings bei kleinerer Lichtintensität)
Lichtfleck exakt in den einfallenden Strahlverlauf (also in sich
selbst) zurückreflektiert wird. Im Falle der Lichtzuführung
mittels einer Monomodefaser deren Endfläche als ein (teilreflektierender)
Spiegel der Kavität dienen soll, endet diese idealerweise
in einer Stablinse (graded index lense) deren Fokalebene genau die
Probenoberfläche ist.
-
Im
vorgeschlagenen Aufbau in 1 kommen
also 3 Lichtstrahlen am Pixelarraydetektor zur Interferenz, jedoch
kann der 3. vom beweglichen Spiegel kommende Referenzstrahl prinzipiell
auch weggelassen werden, er dient nur der optimalen Justierung des
Detektorsignals auf eine „Dark-fringe” im Mittel über
die Detektor-/Bildfläche, die nötig ist für ein
günstiges Signal-Rausch-Verhältnis. Diese „Dark-fringe” kann
auch direkt eingestellt werden durch die genaue Einstellung des
Abstandes/Dicke der oberen teilverspiegelten Fläche der
Interferometerkavität (für die jeweiligen z. B.
3 Wellenlängen/Farben) die von Probenfläche und
Objektiv/Glasfaser-Austrittsfläche gebildet wird, sowie
der genauen Abgleichung der reflektierten Intensitäten
(Probe und Objektiv/Glasfaser-Austrittsfläche). Dies ist
aber sehr kompliziert und aufwendig – muss natürlich
für verschiedene Probenreflektivitäten neu eingestellt
werden –, insbesondere wenn diese Interferometerkavität
mit Flüssigkeit geflutet werden soll (z. B. zur Erhöhung
der numerischen Apertur, und/oder für Anwendungen in der
Biologie) und daher wird in 1 der „3.” Referenzstrahl
eingeführt. Dessen mögliche, wenn auch sehr aufwändige
Eliminierung hätte aber den erheblichen Vorteil, dass Licht
sehr geringer Kohärenzlänge (einige Interferometerkavität-Abstände) statt
der Größenordnung des gesamten Strahlenganges
(Spiegel-Strahlteiler-Probe-Detektor) eingesetzt werden könnte
(z. B. eine Leuchtdiode statt einer Laserdiode als Lichtquelle),
wodurch Streuinterferenzen des Nutzsignals mit ungewollten Reflexionen
erheblich verringert würden, was umso wichtiger wird, je
mehr das Signal-Rausch Verhältnis, also letztlich die Auflösung,
für die jeweilige Anwendung optimiert werden muss/soll.
-
Durch
geeigneten Einsatz von Lambda/4-Plättchen o. ä.
werden die Polarisierungen so eingestellt, dass im Pixelarray-Detektor,
z. B. der CCD-Kamera, nur die drei gewünschten Laserstrahlen
zur Interferenz kommen und Streureflexionen weitestgehend eliminiert
werden. Mittels der Position des Spiegels werden die relativen Phasen
der Laserstrahlen so eingestellt, dass man nahezu 100% auf einer „Dark-Fringe” misst,
die einzigen Photonen, die auf dem CCD-Array/Pixeldetektor ankommen
also die von der Probenstruktur verursachten winzigen (inkohärenten)
Abweichungen des Lichtstrahl-Intensitätsprofils vom idealen
Gauß'schen Intensitätsprofil des einfallenden
Lasers sind (2d, gezeichnet für den
Nahfeld-Bereich der Probe). Für den Fall der Faser-optischen
Version ist angemerkt, dass 1. der Innendurchmesser einer Monomode-Faser
für 633 nm ca 4 µm Durchmesser ist, also etwa
genauso groß wie die zu erwartende Probenfläche
(bei 5 nm Quantenpunkte im 10 nm Abstand wären dies bereits
fast 100 kBit, schon wenn nur ein Quanten-Niveau benützt
wird), dass 2. diese Monomodefaser sehr kurz sein muss ( << O(1 m)), da in einer idealen Monomodefaser
Abweichungen vom idealen Gauß-Profil schnell gedämpft
werden. Für große Speicher-Zellen-Arrays, z. B.
(1 cm)2 – was bereits nur in 2
Dimensionen realisiert einer Speichergröße von
etwa 400 Gbit ((bei 15 nm)2 pro Quantentrog
und nur einem benützten Quanten-Niveau) entspräche – muss
dann zeilenweise (in 4 μm-Schritten lateral) gerastert
werden, oder ein großes Objektiv oder Multimodefaser größeren
Durchmessers benützt werden, oder eben das erwähnte
völlig aperturlose Schattenwurfverfahren (Patentanspruch
10, 11) mit einem sehr großen Detektorpixelarray – z.
B. die künstliche Retina von 1 cm2 aus
[6].
-
Aufgrund
des Gauß'schen Intensitätsprofils des Laserstrahls
ergibt sich ein größeres Nutzsignal in der Mitte
des Strahles als an den Rändern. Dies muss zusätzlich
kompensiert werden, bei einem CCD-Array z. B. durch entsprechende
Vorspannung der einzelnen Pixel, also der Kompensierung des Gauß'schen
Intensitätsprofils durch entsprechende Voreinstellung der
Empfindlichkeit der Pixel, von der Strahlmitte nach außen
zunehmend. Entsprechend profilierte Absorberplättchen wären
auch denkbar, würden aber sicherlich Störungen
(Reflexionen, Phasenverschiebungen) ins System bringen, und damit das äußerst
kleine, zu erwartende Nutzsignal wieder verringern. Eine weitere
Möglichkeit besteht darin, die Streulinse (refraktive Linse
oder auch „geeignete” Fresnel-Linse [14]) hinter
dem „einhole” so zu schleifen, dass sie aus einem
bekannten Gauß'schen Intensitätsprofil exakt eine
homogene Lichtintensitätsverteilung auf dem CCD-Detektor
wirft, das Gauß'sche Profil also exakt kompensiert – selbstverständlich
bleiben die kleinen Intensitätsvariationen der Nutzinformation
erhalten, umso mehr, je größer die Apertur (das „einhole”)
in 1 ist.
-
Die
hier primär vorgeschlagene Methode um spektroskopische
(Farb-)Auflösung zu erzielen beruht einfach auf der Technik
herkömmlicher hochwertiger Video-Farbkameras, nämlich
das Nutzsignal über ein Prisma (oder ein „geeignetes” [14]
optisches Gitter) in die Spektralfarben aufzuteilen und mit z. B. 3
oder auch mehreren Pixel-Detektoren (z. B. hochempfindliche Schwarz-Weiss-CCD-Kameras,
optimiert für den jeweiligen Wellenlängenbereich)
gegebenenfalls mit vorgeschaltetem Wellenlängenfilter aufzuzeichnen. 1 – Inset.
-
„Beschreiben” solcher
3 dimensionaler Arrays von Quantentrögen müsste
in der Art eines 2 dimensionalen Schieberegisters erfolgen, wie
in 3 vorgeschlagen, jedoch nur für
1 Dimension gezeichnet, oder scannend mittels Rastersondentechniken. Im
letzteren Fall hatte man dann zwar nur recht langsames Schreiben,
welches allerdings durch das Millipede- Konzept vieler Abtastspitzen
[2] beschleunigt werden kann, aber nach wie vor das schnelle großflächige
erfindungsgemäße optische Auslesen der Quantentrog-Arrays.
-
Das
erfindungsgemäße technische Prinzip beruht also
auf mathematischer Rückrechnung des „verschwommenen” mikroskopischen
Fernfeld-Beugungs-Bildes (evtl. auch nur Fresnel-Regime – also dem
Zwischenbereich zwischen Nah- und Fernfeld, in welchem propagierende
Kugelwellen vorliegen, noch keine ebene-Wellen-Näherung
wie im Fernfeld anwendbar ist – auch für den Fall
der Verwendung von „geeigneten” Fresnel-Linsen
[14]), welches aufgrund inkohärenter Lichtanteile in seiner
gebeugten bzw. gestreuten Intensitätsverteilung auch die
Informationen über Strukturdetails unterhalb/jenseits des Beugungslimits
von etwa λ/2 enthalten sollte (2d, gezeichnet
für den Nahfeldbereich der Probe), unter Verwendung von
teilweisen oder auch vollständigen Zusatzinformationen über
die Probengeometrie/Topographie, die zuvor mittels anderer hochauflösender
Mikroskopie-Methoden gewonnen wurden. Zunächst mutet es
natürlich trivial bzw. wenig sinnvoll an, mittels eines
komplizierten Verfahrens eine bereits vollständig bekannte
Probentopographie (z. B. mittels atomar auflösender Rasterkraftmikroskopie) „nochmal” aus
dem verschwommenen optischen Fernfeld-Beugungsbild zu ermitteln,
aber im Lichtbild stecken natürlich noch viele weitere
spektroskopisch-optische Informationen über die Probeneigenschaften,
also die „Farbe”, die im Kraftmikroskopie-Bild
natürlich nicht stecken (Anmerkung: Es gibt natürlich
auch hoch-ortsaufgelöste Rastersondenspektroskopien, aber
die sind erstens sehr langsam, z. B. die optische Nahfeldmikroskopie/Spektroskopie,
allerdings liefern diese allgemein zusätzlich noch völlig
andere weitere spektroskopische Informationen, z. B. elektrische
oder magnetische sowie Elastizitäts-abhängige
Effekte) und weiterhin wird das erfindungsgemäße
Verfahren natürlich durch den Wegfall der zeitintensiven
Rasterung vor allem wesentlich schneller sein, also Zeitskala der
digitalen Videomikroskopie.
-
Das
erfindungsgemäße apparative Verfahren zur höchstortsaufgelösten
(< lambda/2) schnellen Spektroskopie
an einem Array von lumineszierenden Quantentrögen beruht
1. auf dem Prinzip eines hochauflösenden (Laser-)Interferenzmikroskops
(Michelson-/Linnik- bzw Fizeau- Typ, auch Faseroptik-Interferometrie-Variante),
wodurch das einfallende Licht im Dunkelfeld am Detektor eliminiert
wird, unter möglichst weitgehender Vermeidung von Linsen/Aperturen,
2. auf einem höchstauflösenden schnellen sehr großen
Pixelarraydetektor (z. B. einer CCD-Kamera) mit extrem vielen extrem
kleinen Pixeln, wodurch eine effektive sehr große „numerische
Apertur” für die Aufnahme des Beugungsbildes gewährleistet
wird bzw. die Dipolabstrahlcharakteristika der Quantenpunkte ausreichend
genau quantitativ vermessen werden können, sowie 3. auf
einem schnellen digitalen Bildaufzeichnungs- und Bildverarbeitungsverfahren
welches mit Videobildrate das aus dem aus Rastersondenmikroskopie
bekannten Topographiebild (genauer dessen daraus mathematisch durch
Fourier-Transformation errechneten Beugungsbild der Interferenz
ebener bzw. sphärischer Wellenfronten) der Probe „online” vom „verschwommenen” optischen,
in die z. B. 3 Grundfarben aufgespaltenen Fernfeld-Lichtbild (Beugungsbild)
subtrahiert und dann diese drei Bilder wieder Fourier-rücktransformiert.
Im für das erfindungsgemäße Konzept signalstärkeren
Fresnel-Regime (Zwischenbereich zwischen Nah- und Fernfeld, im Abstand
von größenordnungsmäßig 100 λ von
der Probe, Streukörperausdehnung ≈ λ),
wobei sphärische Wellenfronten berücksichtigt
werden, müssen also höhere Terme in der Multipolentwicklung
mitgenommen werden, nicht nur ebene Wellen. Diese z. B. 3 erhaltenen
Bilder enthalten dann die korrekte Farbverteilung der Probe mit der
Ortsauflösung der unterstützenden Rastersondenmikroskopie
(mit der die Probe ja nur einmal geometrisch definiert werden muss)
und der Zeitauflösung und spektroskopischen Auflösung
der Videomikroskopie. Schließlich 4. wird die Entfaltung
hier einfach lösbar in Form einer Subtraktion, da die Quantentröge
voneinander unabhängig lumineszieren sollten, also untereinander
inkohärente Punktlichtquellen darstellen; daher sollten
sich die vielen Airy-Beugungsmuster-Intensitätsprofile
(für λ/2 ≤ a oder etwas > a [18]) bzw.
-
Dipolabstrahlcharakteristika λ/2 >> a einfach skalar addieren und eben nicht
untereinander interferieren. Die Airy-Beugungsmuster-Intensitätsprofile bzw.
Dipolcharakteristika der einzelnen Quantenpunkte für die
jeweilige einfallende Wellenlänge an den durch die Rasterkraftmikroskopie
bestimmten Positionen werden „einfach” vom „verschwommenen” optischen
Beugungsbild/gestreuten „Bild” subtrahiert und übrig
bleibt die Farbinformation, immer noch in Form der Airy-Beugungsmuster-Profile
bzw. Dipolabstrahlcharakteristika der Quantentröge. Jeder einzelne
Quantenpunkt (seine Lumineszenz) kann dann im Ortsraum durch Fourier-Rücktransformation für
die jeweiligen Lumineszenz-Wellenlängen erhalten werden
für den Fall λ/2 ≤ a oder etwas > a [18]. Für
den Fall λ/2 >> a muss dann die Hertzsche
Dipolabstrahlcharakteristik zurückgerechnet werden auf
die Streukörpergröße. Auch für
den Fall, dass die Quantenpunkte kohärente (z. B. phasenerhaltend
reflektierende) Lichtquellen sein sollten, sollte es einen kleinen
Anteil inkohärenten Lichtes geben, der sich dann ebenso
skalar addiert, wenn auch dann der Großteil der (reflektierten)
Intensität interferiert. Bei allen Abweichungen des erfindungsgemäßen
Verfahrens von der herkömmlichen
-
Videomikroskopie
ist es immer ein Aspekt, auf möglichst viele Linsen/Aperturen
verzichten zu können, sogar auf „geeignete” Fresnel-Linsen
[14].
-
Zu Patentanspruch 2:
-
Prinzip
wie in Patentanspruch 1, mit der Spezifizierung, dass die Lichtquelle
ist ein durchstimmbarer Laser ist. Die Interferometerkavität über
der Probe wird insbesondere bzgl. ihres Abstandes und eventuell
auch deren Reflektivität (z. B. mittels elektrisch steuerbarer/polarisierbarer
Flüssigkristall-Beschichtungen) simultan mit der Durchstimmung
der Laserwellenlänge angepasst; die Wellenlängen-Abhängigkeit
der Detektorpixel wird kalibriert und bei der mathematischen Analyse
berücksichtigt. Der Faraday-Isolator wird entweder auch
simultan durchgestimmt (für höchste Genauigkeit)
oder ist ein Breitband-Isolator. Dieses Verfahren gewährleistet
die höchste Genauigkeit (Signal-Rausch-Verhältnis),
opfert aber Geschwindigkeit der erreichbaren Bildrate, was beim
Auslesen von Quantentrögen als Speicherzellen ein geringeres
Problem wäre, da nur jeweils ein (Gesamt-)Bild (aller Quantentröge)
nötig ist (wäre also immer noch schnell genug).
Dieses Verfahren wäre beim Aufzeichnen von fluoreszenzmikroskopischen
Filmen auf biologischen Proben in vitro aber von erheblichem Nachteil,
es sei denn, wenn nicht hier sowieso die Bildrate von der hier notwendigerweise
simultan laufenden, viel langsameren Rastersondenmikroskopie in
jeweils zutreffendem gewissen Maße begrenzt würde;
und es sei denn, es werden sowieso nur 1 oder 2 oder wenige bekannte
Fluoreszenzwellenlängen simultan beobachtet.
-
Zu Patentanspruch 3:
-
Prinzip
wie in Patentanspruch 1, mit der Spezifizierung, dass die Lichtquelle
ein weißer (Puls-)Laser ist. Der Faraday-Isolator ist in
diesem Fall zwingend ein Breitband-Isolator. Der Pixelarraydetektor ist
in diesem Fall der einer kommerziellen Farbvideokamera, entweder
mit einem Farb-CCD-Array, oder das weisse Licht wird durch beispielsweise
ein Prisma in 3 oder mehr Teilstrahlen aufgeteilt und auf mehreren
(wellenlängen-kalibrierten/getunten) Pixelarray-CCD-Detektoren
aufgezeichnet. Dieses Verfahren gewährleistet die höchste
Bildrate, aber opfert Signal-Rausch-Abstand, insbesondere da natürlich
die Interferometerkavität über der Probe eigentlich
nur für eine Wellenlänge abgestimmt sein kann.
Diese besitzt aber doch eine gewisse Bandbreite, die ja nur nötig
ist, wenn man die Lumineszenz abbilden möchte, also ein
Farbbild erhalten möchte. Insbesondere für die
in der „in vitro”-Biologie relevante Fluoreszenzmikroskopie
müßte die prinzipiell sehr enge Bandbreite der
Interferometerkavität ausreichend sein, da dort nur zwei
oder eventuell bei Untersuchung einiger weniger Fluoreszenzmoleküle gleichzeitig
einige wenige Wellenlängen eine Rolle spielen, die erstens
auch noch relativ eng nebeneinander liegen und zweitens dann durch
Filter am Detektor/mehreren Detektoren noch mal selektiert werden
können, also spezifische (evtl. auch differentielle, also
nichtlineare) Analyse der von den Fluoreszenzmolekülen
absorbierte Licht gegenüber dem von ihnen emittierte Licht.
-
Zu Patentanspruch 4:
-
Wie
Patentanspruch 1, mit der Spezifizierung, dass der gesamte Strahlengang
Faser-optisch aufgebaut wird. Das gesamte (Michelson-/Fizeau-)Interferometer
ist also rein faseroptisch aufgebaut dann, Reflexionen an Grenzflächen/Übergängen
werden weiter erheblich minimiert, es gibt keine durch freien Raum
(Streulicht/Refraktion durch Luftzüge) verlaufenden Strahlengänge
und somit wird das Signal-Rausch-Verhältnis der Apparatur
weiter verbessert. Alle notwendigen zu justierenden Phasenverschiebungen
etwa für den „3.” Referenzstrahl können
wie in [10] über Spannungsdoppelbrechnung der Faser also
durch Biegen der Faser in einer Ebene mit geeignetem Winkel zur
Polarisationsebene des Lichtes realisiert werden, die „lambda/4-Waveplates” zur
90°-Polaristationsdrehung (2-mal jeweils 45° Polarisationsdrehung
in die gleiche Richtung auf Hin- und Rückweg) können
ebenfalls durch Biegen der Faser in geeigneter Ebene wie in [10]
realisiert werden. Der polarisierende Strahlteiler wird letztendlich zunächst
doch ein mehr oder weniger herkömmlicher polarisierender
gläserner Strahlteilerwürfel sein, an den aber
die vier Glasfasern mit einem integrierten System angeschlossen
werden (z. B. kommerziell erhältlich von [11]), welches
Reflexionen und freie Strahlengänge minimiert/eliminiert.
Durch die Verwendung von Stablinsen (graded index lenses) in der Ein-
und Auskoppeloptik für die Monomode-Glasfasern könnten
diese Stablinsen direkt an den Strahlteiler-Würfel angeklebt
werden, sowie die Fasern direkt an die Stablinsen angeklebt werden
(mittels Index-matching Epoxy – [11a]), was jegliche Reflexionen
an Grenzflächen eliminiert und freie Strahlengänge
ausschließlich auf den Raum im (kleinen) Strahlteilerwürfel
selbst begrenzt. Künftig wird es sicher hochintegrierte
Optiksysteme geben, die einen polarisierenden Strahlteiler mit Faseranschlüssen auf
einem einzelnen Chip realisieren.
-
So
ein System hätte bei eventuell schlechterem Signal-Rausch-Verhältnis
(was im Falle der Realisierung mittels integrierter Optik – hier
unter Verwendung „geeigneter” [14] Fresnel-Linsen,
während es bei den Lese-/Schreibköpfen von kommerziellen CD-/DVD-Lese-/Schreibgeräten „normale” Fresnel-Linsen
sind – noch zu untersuchen wäre) jedoch den Vorteil
höchster Kompaktheit, Handlichkeit und Portabilität
und Preisgünstigkeit.
-
Zu Patentanspruch 5:
-
Wie
Patentanspruch 4, mit der Spezifizierung, dass auch der Strahlteiler
rein Lichtwellenleiter-optisch realisiert wird, vorzugsweise mittels
integrierter Optik mit dem Vorteil allerhöchster Kompaktheit,
Portabilität und Preisgünstigkeit bei entsprechenden
mikrotechnischen Fertigungsverfahren. Handelsübliche faseroptische
polarisierende und nicht-polarisierende Strahlteiler (fused Fibers
von 2 oder mehreren Glasfasern) haben viele Nachteile z. B. dass
Streureflexe sofern sie vorhanden sind nicht oder nur sehr schwer
mit obigen lambda/4-Trick eliminiert werden können und
es auch starke Reflexionen in die Lichtquelle zurück gibt,
welche deren Intensität destabilisieren, die auch der Faraday-Isolator nur
bis zu einem Maß eliminieren kann.
-
Zu Patentanspruch 6:
-
Wie
Patentanspruch 1, mit der Spezifizierung, dass es natürlich
auch Quantentröge gibt, die keine oder nur geringe topographische
Strukturen besitzen (eingebettete lokale Materialveränderungen,
wie typischerweise bei in Halbleiterstrukturen realisierte Quantentrögen),
welche dann mittels AFM nicht ideal charakterisiert werden können.
In diesem Fall kann aber fast immer ein geeignetes Rastersondenverfahren
insbesondere zur geometrischen (aber eventuell auch elektronischen)
Charakterisierung der Quantentröge gefunden werden, z.
B. rasternde Elastizitäts-/Kapazitäts-/Leitfähigkeits-/Magnetkraft- Sondenmikroskopie
oder auch Nahfeld-optische Mikroskopie selbst, welche dann die Zusatzinformationen
liefern, die zur Entfaltung/Subtraktion/Rückrechnung des
optischen Fernfeldbildes nötig ist.
-
Zu Patentanspruch 7:
-
Das
optische Auslesen der Quantentröge kann aber natürlich
auch mittels Rastersondentechnik erfolgen, insbesondere wird hier
vorgeschlagen, auf eine AFM-Abtastspitze aus hochdotiertem Si eine dünne
(Ca 100 nm) DLC-Schicht wie in
EP1096569A1 [3] aufzubringen, dann am Ende
der Spitze durch Beschuss mit einem einzigen hochenergetischen Ion
einen leitfähigen Quantendraht zu erzeugen (wie in
EP1096569A1 [3]),
dessen quantenmechanische Leitfähigkeit auch lichtempfindlich
ist [6]. Mittels des Stromes durch diese so präparierte rasternde
Abtastspitze können die Anregungszustände in der
hier vorgeschlagenen Schicht von „Quantenpunkten” sowohl
geschrieben (elektronisch) als auch gelesen (optisch) werden (
3b).
Denn wie in
2c in [6] „scannt” (Spannungswobbelung/Durchfahren
der I-V-Kurve) das oberste besetzte Niveau des jeweiligen Quantenpunktes
die Quantenconductance Peaks (1-dimensionale Transmission im Quantendraht
in der Abtastspitze) abzählbar ab – entspricht
elektronischem Schreiben. Zweitens lösen die von einem
abregenden Quantentrog emittierten Photonen eine Änderung
des lichtabhängigen Stromes durch den in der AFM-Spitze
befindlichen Quantendraht aus [6] – optisches Lesen. Der
Licht-empfindliche Quantendrahtstrom ist wünschenswert,
aber nicht unbedingt notwendig, eine für Nahfeld-Optik
geeignete „angespitzte” (also viel kleiner als λ)
Photosensor ist auch schon auf „konventionelle” Art
(herkömmlicher Photoeffekt, z. B. vorläufige Versuche
in [13], aber auch verschiedene andere bereits wesentlich professioneller)
realisiert worden und möglicherweise bereits kommerziell
erhältlich.
-
Zu Patentanspruch 8:
-
Das
Auslesen der Quantentröge kann aber auch rein elektronisch
erfolgen, insbesondere wird hier vorgeschlagen, mittels der in Patentanspruch
7 und [3, 6] beschriebenen Quantendrähte, die hier wie in
Patentanspruch 7 auf einer AFM-Abtastspitze angebracht sind, die
Meßmethode dargestellt in 2c aus
[6] heranzuziehen, um die elektronischen Anregungszustände
der Quantenpunkte auszulesen (3b). Abzählen
der scharfen Quanten-Conductance-Peaks in Relation zur angelegten
Spannung zwischen Spitze und Quantentrog liefert dann die Information über
den Anregungszustand der Quantenpunkte.
-
Zu Patentanspruch 9:
-
Erzeugung
eines elektronisch beschreibbaren Arrays von Quantentrögen
bestehend aus Arrays von metallischen Nanopartikeln, z. B. mittels
Langmuir-Blodgett-Technik [12, 12a, 12b] aufgebracht oder auch mittels
anderer (z. B. „imprinting-”)Verfahren [12c] auf
ein Gitter-Netzwerk von potentiometrischen Widerstands-Leiterbahnen,
z. B. aus dünnem graphitischem Kohlenstoff, bzw. Halbleitern
oder Metallen mit relativ hohem spezifischem Widerstand (3a).
Zwischen den Leiterbahnen und den Quantentrögen befindet
sich ein dünner isolierender Spacer (entweder eine isolierende Oxid-/DLC-Schicht
zusätzlich aufgebracht, oder einfach im Falle der LB-Aufbringungstechnik
die amphiphilen Moleküle welche die Metall-Nanopartikel tragen
bzw. diese umhüllen), der/die nur einen sehr hochohmigen
Tunnelkontakt zwischen dem Widerstandsbahn-Netzwerk und den Quantentrögen
erlaubt/erlauben, das Beschreiben der Quantentröge mittels
quantitativer Spannungspulse also möglich wäre,
die Quantentröge ihren Ladungszustand aber im Prinzip nicht-flüchtig
halten. Wie lange sie in ihrem Ladungszustand verweilen, bleibt
noch in weiteren Messungen zu ermitteln und ist natürlich
abhängig von der Hochohmigkeit der Tunnelkontakte, sowie natürlich
der Abschirmung gegen äußere Einflüsse wie
Strahlung und Temperatur.
-
Problem
hierbei wird sein, auf jeden Kreuzungspunkt des Widerstands-Leiterbahn-Gitternetzwerks
genau einen Quantentrog zu setzen; zunächst wird es durch
Abstimmung der Größe dieser Kreuzungspunkte auf
die Größe der metallischen Nanopartikel nur erreichbar
werden, im Mittel einen Quantentrog pro Kreuzungspunkt zu erhalten.
Weiterhin könnten die Quantentröge (im LB-Film)
zunächst viel dichter gepackt sein, als die zunächst
machbare Größe/Abstände der Leiterbahn-Kreuzungspunkte,
dass also auf jeden Kreuzungspunkt zunächst mehrere/viele
(< 5 nm große)
Nanopartikel sitzen. Deren Quantenniveaus werden bei gleicher Größe
alle bei derselben Energie/Spannung liegen, nur der (winzige) Stromstoß,
um sie alle gleichzeitig in ein bestimmtes Quantenniveau zu „heben”,
also zu „beschreiben”, müsste proportional
zur Anzahl größer sein, was aber für
jeden Quantentrog-Array nach der Herstellung einzeln aufwändig
kalibriert werden müsste, aber eben auch kalibriert werden
könnte.
-
Prinzipiell
wäre ein Auslesen eines solchen Quantentrog-Arrays mittels
einer solchen Widerstandskaskade auch möglich, wenn die
Leiterbahn-Abschnitte „Transmission-Lines” darstellten, also
jedes Verbindungsstückchen zwischen den Quantentrögen
ein RC-Glied wäre. R wäre der ohmsche Widerstand
des Leiterbahnstückchens (eine Art sehr kleine Potentiometer-Leiterbahn)
zwischen den Quantenpunkten, wobei Leiterbahn und Quantentröge
nicht direkt verbunden sind sondern nur über einen Tunnelkontakt
(bestimmter Kapazität C1) und C wäre
die Kapazität des horizontalen Tunnelkontaktes zwischen
den Quantentrögen. Die Kalibrierung einer solchen Adressierung
wäre aber ein extrem hoher Aufwand, aber ähnlich
wie bei einem DRAM, Schieberegister, CCD-Array und vermutlich auch
FlashRAM.
-
Langmuir-Blodgett-Schichten
können auch mehrfach abgeschieden werden, es können
also einfach Multischichten gebildet werden, somit ein 3-dim Array
von Quantentrögen (z. B. [1a]); die Bildung der Adressierungs-Leiterbahn-Matrix
wird dann aber sehr schwierig, könnte wohl höchstens
in jeder Schicht zweidimensional realisiert werden, vertikale Leiterbahnen
welche die Quantentröge in der dritten Dimension verbinden,
lassen sich wohl nur sehr schwer realisieren, es sei denn, man kann
die Quantentröge in ein Matrixmaterial einbetten, welches durch
vertikalen Beschuss mit einzelnen hochenergetischen Teilchen leitfähige
Teichenspuren bildet. (Ähnlich wie in
EP1096569A1 [3]).
-
Eine
andere Möglichkeit der Wahl wäre natürlich,
wenn die amphiphilen Moleküle, welche die metallischen
Nanopartikel als Teil ihrer „Kopfgruppe” tragen
bzw. die metallischen Nanopartikel umhüllen, selbst leitfähige „hydrophobe” Ketten
hätten – das gibt es (Doppelbindungen/ungesättigte
Fettsäuren/Poly-Acetylen) – und die Kopfgruppe
des Moleküls selbst den hochohmigen (pseudoisolierenden) Tunnelkontakt
zum Nanopartikel herstellen würde.
-
Zu Patentanspruch 10:
-
Optische
Mikroskopie weit jenseits des Beugungslimits, einfach durch Einsatz
eines Pixel-Detektor Arrays mit extrem kleinen Pixeln und extrem
kleinen Pixelabstand. Beispielsweise die „künstliche
Retina” aus [6] könnte hierbei zum Einsatz kommen
(Pixelgröße etwa 5 nm, mittlerer Pixelabstand
bis hinunter zu etwa 10–30 nm) – 3a/II. Die Probe, z. B. Moleküle, Bakterien,
Zellen, aber auch Quantenpunkte werden direkt auf dem Pixelarray-Chip
präpariert und durch fast trivialen Schattenwurf auf die
Pixeldetektoren im Nahfeld abgebildet. Bei dünnen Proben
wäre nicht mal viel Licht erforderlich, da Quanteneffekte
immer extrem empfindlich sind.
-
Eine
solche „künstliche Retina” wie in [6]
vorgeschlagen mit extrem kleinen und extrem vielen Pixeln würde
also alle Auflösungsprobleme in der Farb-Mikroskopie/ortsaufgelösten
Spektroskopie lösen, die Ortsauflösung nur begrenzt
durch die Pixelgröße (Quantendrahtdurchmesser
sind etwa 1 nm, mittlere Abstände von etwa 10 nm denkbar
wie in [6] und
EP 1096569A1 [3]
avisiert); die Zeitauflösung wäre durch die Beschaltungstechnik der
Pixel der „künstlichen Retina” [6] begrenzt,
denn quantenelektronische Effekte in Quantendrähten (ohmscher
Widerstand praktisch Null) laufen instantan ab. Spektroskopische
Auflösung sollte auch bereits im einzelnen Quantendraht
realisierbar sein, denn solche quantenmechanische Mechanismen (Anregungsvorgänge
quantenmechanischer Zustände) sind immer von der Photonenenergie – also
von der Lichtfrequenz – abhängig, aber um letzteres
zu quantifizieren, müssen die elektronischen Eigenschaften
der Quantendrähte aus
EP1096569A1 [3] noch viel genauer vermessen
werden.
-
Zu Patentanspruch 10a:
-
Apertur-
und Linsen-lose Mikroskopie wie in Patentanspruch 10, gekennzeichnet
dadurch, dass sich das Pixeldetektorarray im Abstand von etwa mehr
als 10–100 λ von der Probe entfernt befindet,
dass
das Beugungsbild der Probe im Fresnel-Regime aufgezeichnet wird,
dass
das auch herkömmliche (CCD-)Pixeldetektorarray oder das
Quantendrahtpixelarray wie in Patentanspruch 10 sehr viel großflächiger
ist als die Probe und damit eine sehr große effektive numerische Apertur
gewährleistet wird für das reine Beugungs”bild”/gestreute „Bild”,
dass
im Fall λ/2 ≤ a oder etwas > a [18] das Bild im Ortsraum durch für
die Fresnel(Kugelwellen)-Näherung korrigierte Fourier-Rücktransformation
oder näherungsweise durch Fourier-Rücktransformation
(für verschiedene Wellenlängen) alleine erhalten
wird,
dass im Fall λ/2 >> a
durch Rückrechnung der überlagerten Dipolabstrahlcharakteristika
(für verschiedene Wellenlängen) auf den Streukörper
geschlossen wird
-
Zu Patentanspruch 10b:
-
Wie
Patentanspruch 10a, gekennzeichnet dadurch dass, das Pixeldetektorarray
hemisphärisch conkav ist und die Probe in dessen Mittelpunkt
positioniert ist.
-
Zu Patentanspruch 11:
-
Ganz
analog wie Patentanspruch 10 wäre ein nicht-scannendes
Nahfeldmikroskop mit einem 2-dimensionalen Array vieler Nahfeld-„Spitzen”,
welches prinzipiell auch erreicht werden könnte durch Bündelung
vieler üblicher zur Nahfeldapertur angespitzter Monomode-Glasfasern
und Weiterleitung des Lichtes jeder einzelnen Faser auf einen Photomultiplier/Photocounter,
wie im Gedankenexperiment oben beschrieben; also eine Parallelschaltung
vieler optischer Nahfeldmikroskope, womit das Abrastern der Probe überflüssig
würde. Problem ist ein geometrisches, da bei der Bündelung
vieler feiner angeschärfter Glasfaserspitzen der Bereich
der Fasern, in welchem ihr Durchmesser (viel) kleiner wäre
als für die nahezu ungedämpfte Lichtpropagation
(bei bestimmter Wellenlänge, z. B 633 nm) notwendig, relativ
lang wäre, das von den nahfeldoptischen Spitzen aufgesammlte
Licht also extrem gedämpft würde, bevor es auf
den Detektor fiele; damit wären die Signale evtl. nicht
mehr detektierbar, insbesondere wegen Störlichtintensitäten – Einzelphoton-Detektoren
gäbe es ja.
-
Patentanspruch 12:
-
Zeitauflösung
und „Farbe” der optischen (Fernfeld-)Mikroskopie
bei gleichzeitiger Ortsauflösung der Rastersondenverfahren
in der Biologie/Kristallographie/physikalischen Chemie usw:
Mit
dem erfindungsgemäßen Spektroskopieverfabren können
natürlich auch Fluorophore (immer statthaltend für
Lumineszenz, Fluoreszenz und Phosphoreszenz, die für das
erfindungsgemäße Konzept als völlig äquivalent
zu betrachten sind) in der Biologie/Kristallographie/physikalischenChemie
spektroskopiert werden. Auch diese werden wie Quantentröge
als voneinander unabhängige Punktlichtquellen betrachtet,
die untereinander nicht interferieren; ihre Airy-Beugungsmuster-Intensitätsprofile
für λ/2 ≤ a oder etwas > a [18] bzw. Dipolabstrahlcharakteristika (für λ/2 >> a) werden sich also skalar addieren im Beugungs-/gestreuten „Bild”.
So sind beispielsweise Fluorophore, die direkt an oder in unmittelbarer
Nähe (auf molekularer Skala) von Proteinen angebunden werden,
oft Indikatoren für die Funktion solcher Biomoleküle
(oder auch für Umkristallisationsvorgänge z. B.
in Langmuir-Blodgett Filmen). Das AFM könnte diese Luminiszenz-
oder Fluoreszenzpartikel (z. B. metallische Nanopartikel mit oder
ohne angebundenen Fluoreszenzmolekülen) lokalisieren und
die erfindungsgemäße optische Spektroskopie kann
dann biochemische Funktionen z. B. auf einer Zell-Bakterien-/Virenoberfläche
nachweisen, alles mit der Orts-Auflösung des Rasterkraftmikroskops
und der Farbe der optischen Beugungs-/Streu-„Bild”-Mikroskopie.
Die Zeitauflösung kann besser sein als die der Rastersondenverfahren
und der der optischen (Video-)Mikroskopie nahezu gleichen, da heutige
Computer sehr leistungsfähig sind, die Rastersondenmikroskopie
liefert nur die zeitlichen „Stützpunkte/Stützpunkt-Bilder” an
nötiger Zusatzinformation auf der ihr eigenen Zeitskala
von (heutzutage) bis zu 10 Bilder pro Sekunde.
-
Konkret
vorgeschlagen wird dieses Verfahren z. B. für die Abbildung
auf molekularer Skala der Oberfläche lebender Zellen/Bakterien/Viren
in vitro und physiologischen Prozessen darauf: Die Rasterkraftmikroskopie
liefert bereits „Filme” mit einer Auflösung
von hinunter zu ca. 10 nm lateral bis zu einem Bild pro Sekunde
[13]; basierend auf dieser Ortsauflösung könnte
dann die erfindungsgemäße schnelle (viel schneller
als die 1 Bild/sec der Rasterkraftmikroskopie in der Biologie) Spektroskopie
dann Luminiszenz-/Fluoreszenz-Marker dann mit noch viel höherer
Bildrate mitverfolgen, so also dynamische biochemische Prozesse
in Farbe abbilden und identifizieren.
-
Ganz
konkret könnten mit 5 nm-Gold-Nanopartikeln (die gibt es
auch mit angehängten Fluoreszenzmolekülen) gelabelte
monoklonale Antikörper gegen bestimmte Proteine auf der
Oberfläche von Viren (z. B. Impfstämme) mittels
der erfindungsgemäßen spektroskopischen optischen
(Farb-)Mikroskopie abgebildet werden, während sich diese
Viren an Zelloberflächen anheften, oder neu gebildete Viren die
Zelle durch die Zellwand verlassen, damit also bestimmte Viren eindeutig
identifiziert werden. Genauso könnten natürlich
ganz allgemein bestimmte Proteine in der Zellmembran mit solchen „gelabelten” monoklonalen
Antikörpern eindeutig markiert werden und damit biochemische
Prozesse wohldefiniert auf molekularer Skala mitverfolgt werden,
mit der Zeitauflösung der optischen Mikroskopie, wenn die
Ortsveränderungen innerhalb des Beugungslimits (außerhalb
sieht es die optische Mikroskopie ja sowieso) nur langsam sind – Größenordnung
der Zeitauflösung des AFM, 1 Bild pro Sekunde). Ortsfeste
Prozesse, z. B. Protein-Bewegung/enzymatische Aktivität,
welche z. B. die Fluoreszenz eines Marker-Moleküls quenchen
können, können natürlich mit der Zeitauflösung
der erfindungsgemäßen optischen Mikroskopie/ortsaufgelösten
Spektroskopie abgebildet werden – also z. B. mit der Zeitauflösung
einer höchstwertigen Video-Farbkamera, da gibt es ja auch
Hochgeschwindigkeitskameras mit bis zu 5000 Bildern pro Sekunde.
Die in [6] vorgeschlagene „künstliche Retina” könnte
aufgrund der dort ausgenutzten Quanteneffekte noch schneller sein.
Alles natürlich extrem schnelle effiziente Computer-/Numerik-Softwaretechnik
vorausgesetzt. Einzelne wenige wohldefinierte Marker(Leucht-)Punkte,
also einzelne (2–3 Stück) innerhalb des Beugungslimits
platzierte Fluorophore können natürlich (im Prinzip/theoretisch)
direkt (siehe oben) – auch in 3Dimensionen – mit
der erfindungsgemäßen Methode mitverfolgt werden,
ohne eine andere unterstützende hochauflösende („Schwarz-Weiß”-)Mikroskopie
wie die Rastersondenmikroskopie zu benötigen.
-
Die „Rückrechnung” der
lateralen Auflösung der optischen (Fernfeld-)Mikroskopie
würde dann relativ langsame und relativ geringfügige
Ortsveränderungen (Größenordnung der
RKM Auflösung) der Detailstrukturen tolerieren, wobei die
RKM diese ja ständig mit 1 Bild/sec auffrischt. Ortsveränderungen dieser
Detailstrukturen können auch in der Größenordnung
einiger AFM-Ortsauflösungen (also einige 10 nm) sein, denn
wie oben erwähnt reicht es ja für die „Rückrechnung” des
Spektroskopiebildes von definierten „Punkten” („Airy-Scheibchen”),
ihre Anzahl und ihre ungefähre Position innerhalb des optischen Beugungslimits
zu kennen. Die hierfür notwendigen schnellen numerischen
(Real-time-)Verfahren sind zunächst nicht Gegenstand dieser
Erfindung, existieren in möglicherweise adaptierbarer Art
und Weise z. B. im Bereich der Bild-/Objekterkennung bei der Elektronenmikroskopie
oder auch in [17].
-
Es
sei noch angemerkt, dass die erfindungsgemäße
ortsaufgelöste Spektroskopie natürlich neben der
AFM auch mit anderen hochauflösenden Mikroskopiemethoden
kombiniert werden kann, z. B. der Elektronenmikroskopie oder auch
der photonischen Kraftmikroskopie, die 3d-Abbildungen etwa auch
aus dem Zellinneren in vitro liefern können soll. Letztere
wäre hier interessant, da auch die erfindungsgemäße
Methode aufgrund der Möglichkeit der Benutzung eines Phasenkontrastverfahrens
auch 3-dimensionale Orts-Information liefert.
-
Zu Patentanspruch 13:
-
Das
erfindungsgemäße Konzept aus Patentanspruch 1
zur Überwindung der Beugungslimitierung wellenoptischer
Abbildungsverfahren ist natürlich grundsätzlich
auf alle wellenoptische Mikroskopien/Teleskopien anwendbar, insbesondere
wenn das „reflektierte Lich” inkohärente
Lumineszenz ist und keine direkte Phasen-erhaltende Reflexion; also auch
beispielsweise auf die Elektronenmikroskopie (dort kommt natürlich
magnetische Elektronenstrahl-Optik zur Anwendung) oder auch die
Abbildung unter Anwendung von Infrarot-(KBr-Linsen oder „geeignete” Fresnel-Linsen
[14]) oder Mikrowellen (Richtfunk/Radar-„Optik”, „geeignete” [14]
Fresnel-Linsen oder Parabolspiegel)– der elektronisch auslesbare
Pixeldetektor muss nur für die jeweilige Wellenlänge
geeignet/empfindlich sein. Im Mikrowellenfall wird der Laser in 1 durch
einen Maser ersetzt, alle Linsen/Aperturen werden weitgehend weggelassen
(evtl. rudimentäre Strahlformung durch Richtfunk-„Optik”,
also „geeignete” Fresnel-Linsen [14] bzw Parabolspiegel,
Polarisationsdrehungen durch Faradyeffekte), und da also dann paralleles „Licht” verwendet
wird, kann die „Probe” sich auch in großer
Entfernung befinden. Es wird immer die Okular-Optik weggelassen
und durch ein sehr großflächiges CCD-Pixeldetektorarray
ersetzt, welches direkt das Beugungs-/Streu-„Bild” (Objektiv-Fokalebene und
Probenebene fallen aufeinander) aufzeichnet, welches dann mittels
eines Computers anstelle einer Teleskoplinse zurück in
den Ortsraum transformiert wird. Dies führt zum Konzept
eines hochauflösenden Radar-Teleskopes, Abbildungsmechanismus
entsprechend wie in 2d, also unter Umgehung des wellenoptischen
Beugungslimits durch numerische Rückrechnung/Entfaltung,
eventuell auch zum Erhalt spektroskopischer Information, gegebenenfalls
mittels Vorinformationen über die zu beobachtende(n)/abzubildende(n)
geometrisch bekannte(n) „Probe”/bekannten Objekte.
Das gleiche gilt natürlich für erfindungsgemäße
Infrarot-Teleskope.
-
Im
Falle eines Teleskops ist natürlich die „probenseitige” Interferometerkavität
kaum zu realisieren, nur in seltenen Sonderfällen – man
wird sich also auf den Referenzspiegel in 1 beschränken zum
Einjustieren auf die „Dark-fringe” und zur Nivellierung
des Gauß'schen Intensitätsprofils (siehe Patentanspruch
1). Unter Umständen – je nach Anforderungen an
Sensitivität und Auflösungsvermögen und je
nach erwartetem Kontrast von der „Probe” – könnte man
möglicherweise ganz auf die Interferometrie-Verstärkung
verzichten, die ja wie oben erwähnt, prinzipiell nicht
zwingend notwendig ist, um die Beugungslimitierung der wellenoptischen
Abbildung zu umgehen, es genügen ja prinzipiell eigentlich
ein geeignetes elektronisch/digital auslesbares Pixeldetektor-Array,
geeignete Strahlformung sowie geeignete numerische Software, und
natürlich ausreichende Vorinformationen über die „Probe” bzw.
das fernbeobachtete Objekt, nur wird die Signalstärke des „Sub-diffractionlimit-contrast” in
der Praxis selten ausreichen, um ohne weitere „Tricks” sichtbar
gemacht werden zu können.
-
Zeichnungen:
-
1:
Hochauflösende CCD-Kamera (mit großem Dynamikbereich)
könnte die untereinander inkohärent lumineszierenden
Quantentröge spektroskopisch auslesen (also ihre „Farbe
= Anregungszustand” abbilden), indem man quantitativ die
(näherungsweise) Airy-Beugungsmuster eines jeden „Quantenpunktes” entfaltet/subtrahiert,
insbesondere wenn ihre Position und auch ihre Form bekannt ist (Charakterisierung
durch Rastersondenmikroskopie). Durch den Einsatz eines Phasenkontrastverfahrens
(Interferometrie), welches vertikal eine Auflösung von
größenordnungsmäßig 0.1 Angström
besitzt, können auch 3-dimensionale Arrays (1b) von
Quantentrögen auf diese Weise spektroskopiert – also
ausgelesen – werden, da man die Licht-Phase vertikal mit
dieser hohen Auflösung „durchfahren” kann.
Somit ist eine viel höhere Speicherdichte als mit 2-dimensionalen
Quantentrog-Arrays möglich (nur diese sind ja allen hochauflösenden
Rastersondenverfahren zugänglich).
-
Das
Gauß'sche Intensitätsprofil eines Farb-Lasers
(rot-grün-blau oder durchstimmbar) fällt auf einen
Strahlteiler (polarisierend oder auch nicht), von dort einerseits
auf einen beweglichen Spiegel einstellbarer Reflektivität
(z. B. mittels eines einstellbaren Absorbers davor – etwa
elektrisch steuerbar polarisierbare Flüssigkristalle) und
andererseits auf die im Abstand (und auch in der Reflektivität)
justierbare/modulierbare Proben-Interferometerkavität. Letztere
kann zwischen einem (an der Proben-seitigen Grenzfläche
teilweise reflektierenden) Objektiv hoher numerischer Apertur und
der (reflektierenden) Probe (welche gegebenenfalls in 3 Dimensionen
gescannt werden kann, eventuell auch mittels einer Rotation wie
in einer HDD/DVD/CD) gebildet werden, oder auch zwischen dem reflektierenden
Ende einer sehr kurzen Mono-/Multimodefaser und der (reflektierenden)
Probe. Durch geeigneten Einsatz von Lambda/4-Plättchen
o. ä. werden die Polarisierungen so eingestellt, dass im
Detektor, z. B. der CCD-Kamera, drei Laserstrahlen zur Interferenz
kommen. Das Lichtpixelsensor-Array (z. B. eine CCD-Kamera) soll dabei
ein sehr großes Array mit extrem vielen extrem kleinen
Pixeln sein, wodurch eine sehr hohe effektive numerische Apertur
gewährleistet wird (für die Aufzeichnung der Beugungsbilder
bzw. „Streubilder”). Mittels der Position des
Spiegels werden die relativen Phasen der Laserstrahlen so eingestellt,
dass man nahezu 100% auf einer „Dark-Fringe” misst,
die einzigen Photonen die auf dem CCD-Array ankommen also die von
der Probenstruktur verursachten winzigen Abweichungen des Lichtstrahl-Intensitätsprofils vom
idealen Gauß'schen Intensitätsprofil des einfallenden
Lasers sind (2d). Für den Fall der
Faseroptischen Version ist angemerkt, dass 1. der Innendurchmesser
einer Monomode-Faser für 633 nm ca 4 μm Durchmesser
ist, also etwa genuso groß wie die zu erwartende Probenfläche
(bei 5 nm Quantenpunkte im 10 nm Abstand wären dies bereits
fast 100 kBit, wenn nur ein Quanten-Niveau benützt wird),
dass 2. diese Monomodefaser sehr kurz sein muss (<< O(1 m)), da in einer idealen Monomodefaser
Abweichungen vom idealen Gauß-Profil schnell gedämpft
werden. Für große Speicher-Zellen-Arrays, z. B.
(1 cm)2 – was bereits nur in 2
Dimensionen realisiert einer Speichergröße von
etwa 400 Gbit ((bei 15 nm)2 pro Quantentrog
und nur einem benützten Quanten-Niveau) entspräche – muss
dann zeilenweise gerastert werden (in etwa 4 µm Sprüngen,
also etwa dem Innendurchmesser der Monomodefaser), oder ein großes
Objektiv benützt werden. Dieses Objektiv sollte dann eine „geeignete” [14]
Fresnel-Linse sein, da der erfindungsgemäß ausgenützte
Effekt in der Fresnel-Näherung (sphärische Wellenfronten – Fresnel-Beugungs-Optik,
Streukörperausdehnung ≈ λ) im Nahbereich
bis etwa 100 Lambda von der Probe entfernt) noch viel signifikanter
sein müßte, als in der Fernfeld-Näherung
(ebene Wellenfronten – Fraunhofer-Beugungs-Optik), insbesondere
könnte dann ein solches erfindungsgemäßes
System analog zu den Laser-Schreib- und Leseköpfen eines
CD/DVD-LesegerätesBrenners integriert auf einem Chip hergestellt
werden, unter Benutzung von „geeigneten” Fresnel-Linsen
[14].
-
Zur
weiteren Verbesserung des Signal-Rausch-Verhältnisses durch
weitere Verringerung von Streureflexionen an Grenzflächen
kann auch der Strahlteiler faseroptisch ausgeführt werden, und
damit das gesamte System einschließlich dem „3.” Referenzstrahl
(falls vorhanden), wie in Patentanspruch 1a beschrieben – Phasen
und Polarisationsjustage mittels Spannungsdoppelbrechung der Faser
wie in [10].
-
1 Inset:
Die hier primär vorgeschlagene Methode um spektroskopische
(Farb-)Auflösung zu erzielen beruht einfach auf der Technik
herkömmlicher hochwertiger Video-Farbkameras, nämlich
das vom Strahlteiler kommende Nutzsignal über ein Prisma
(oder ein „geeignetes” [14] optisches Gitter)
in die Spektralfarben aufzuteilen und mit z. B. 3 oder auch mehreren
Pixel-Detektoren (z. B. hochempfindliche Schwarz-Weiss-CCD-Kameras,
optimiert für den jeweiligen Wellenlängenbereich)
gegebenenfalls mit vorgeschaltetem Wellenlängenfilter aufzuzeichnen.
-
1b:
Problem der Beugungslimitierung (λ/2 ≤ a oder
etwas > a [18])
-
2
kleine Scheibchen mit Durchmesser a (Lochblenden) werden (kohärent)
beleuchtet und liefern ein Beugungsbild (im Querschnitt analog zu
Einfachspalt und Doppelspalt). Die feine gestrichelte Linie wäre
also das Doppelspalt-Intensitätsprofil, die dicke gestrichelte
Linie deutet in der Einhüllenden (Einfachspalt) die Dispersion
für andere Wellenlängen an.
-
1c:
Streutheorie, Dipolnäherung für λ/2 >> a
-
2
kleine Scheibchen mit Durchmesser a dienen als zueinander inkohärent
abstrahlende Multipole, in erster Näherung Dipole, deren
beide Abstrahlcharakteristika sich daher skalar addieren näherungsweise.
Hypothese: Aus der Gesamtabstrahlcharakteristik kann auf die Ausdehnung
und Position der beiden Streukörper innerhalb/jenseits des
Beugungslimits zurückgerechnet werden.
-
2a:
Beugungslimit:
-
2
Airy-Beugungsprofil-Funktionen ([16] S. 419 für
die Lochblende, [16] S. 477 für die obscure Scheibe),
falls die „Quantenpunkte” kleine Scheiben sind,
am „herkömmlichen” Beugungslimit.
-
Das
Beugungsmuster, welches jedem einzelnen „Quantenpunkt” (z.
B. in etwa Scheibchengeometrie) entspricht, kann wiederhergestellt
(berechnet/entfaltet) werden; ist der Scheibchenabstand knapp oberhalb
des Beugungslimits, könnten die Maxima der Beugungsmuster
der einzelnen Scheibchen sogar noch auf einer Mattscheibe/photographischem Film
getrennt aufgelöst werden.
-
Darüberhinaus
kann eine CCD-Kamera das aus den Überlagerungen der Beugungsmuster
einzelner Quantenpunkte resultierende Intensitätsprofil (als
Funktion der lateralen Ausdehnung) des gebeugten Lichtes quantifizieren.
-
2b:
Unterhalb (jenseits) des Beugungslimits:
Überlagerte
gebeugte oder gestreute Intensitätsprofile (qualitativ
im allgemeinen Fall die Einhüllende), falls die Quantentröge
sehr dicht nebeneinander liegen (Airy1, Airy2), also weit jenseits
(unterhalb) des herkömmlichen Beugungslimits. Indem man
die zwei Airy-Funktionen Airy1 und Airy2 genau kennt, weil die Scheiben-Geometrie
der „Quantenpunkte” z. B. durch Rasterkraftmikroskopie
genau bekannt ist, kann ein Computer leicht „entfalten” (eigentlich
nicht entfalten sondern nur subtrahieren im Fourier-Raum im einfacheren
Fall). Dasselbe gilt natürlich für beliebige Geometrien
der abzubildenden Strukturdetails, das einzelne Beugungsbild ist
ja immer (im Fernfeld) die Fourier-(im Fresnelbereich, also bei
etwa „Streukörperausdehnung ≈ λ” und
Detektorabstand einige, endlich viele (Ca 100) λ auch unter
Mitnahme höherer Terme – Kugelwellennäherung – in
der Multipolentwicklung)-Transformierte der Licht-Absorption (als
Funktion von x, y) des/der Strukturdetails. Allgemeine Entfaltung,
also direkte Video-Mikroskopie der Beugungs-/Streu-„Bilder” ohne SPM-Unterstützung wäre
auch denkbar, wobei jedoch viele Vorinformationen aus anderen höchstauflösenden
Mikroskopien nötig sind (z. B. wie viele Strukturdetails,
welche mittlere Größe und Abstand usw., genaue
Abbildungs(Transfer-)funktionen/Pointspread-functions des etwaigen
Linsensystems).
-
Unter
normaler (phasenerhaltender) Belichtung sind die dargestellten Gesamtintensitätsprofile nur
die Einhüllenden (vgl. 1b); sind
aber die lumineszierenden Quantentröge voneinander unabhängige
untereinander inkohärente (Punkt-)Lichtquellen, so sind
die qualitativen Gesamt-Intensitätsprofile tatsächlich
wie dargestellt einfach skalar addiert I1 +
I2.
-
2c:
-
Spektroskopie:
Das resultierende Beugungsmuster der 2 „Quantenpunkte” dicht
nebeneinander, also das gebeugte Licht, wird mittels eines Prismas
in z. B. rot-gelb-blau aufgespaltet, und von jeweils einem CCD-Array-Sensor
aufgezeichnet. Die „Entfaltung” (Subtraktion)
wird dann für jede Farbe (Wellenlänge) einzeln
durchgeführt. Damit kann die Spektroskopie ortsaufgelöst
an jedem Quantenpunkt aufgelöst/zurückgerechnet
werden. Unter normaler (phasenerhaltender) Belichtung sind die dargestellten Gesamtintensitätsprofile
nur die Einhüllenden (vgl. 1b); sind
aber die lumineszierenden Quantentröge voneinander unabhängige
untereinander inkohärente (Punkt-)Lichtquellen, so sind
die qualitativen Gesamt-Intensitätsprofile tatsächlich
wie dargestellt einfach skalar addiert I1 +
I2.
-
2d:
-
2-dimensionales
Array von untereinander inkohärent lumineszierenden Quantentrögen
(hier nur in Projektion gezeichnet natürlich), mittels Gauß'schen
Intensitätsprofiles eines Lasers beleuchtet. Auch unterhalb/jenseits
des Beugungslimits treten im Intensitätsprofil des gebeugten
(λ/2 ≤ a) oder gestreuten (λ/2 >> a) „Schattenwurfs” laterale
Modulationen auf, die zwar wohl kaum, wie hier übertrieben
und im Nahfeld-Bereich der Probe gezeichnet, – wo noch
keine gegenseitige Verschränkung der durch die Lichtbeugung/Streuung
an den Probenstrukturdetails hervorgerufenen Intensitätsschwankungen
auftritt –, Minima und Maxima darstellen (nur solche würden
ja auf einer Mattscheibe/einem Film fürs Auge sichtbar),
es sind aber doch messbare Schwankungen vom idealen Gauß'profil
bzw. vom Beugungs-limitierten verschwommenen Schattenwurf. Eine
CCD-Kamera kann natürlich die auf die Pixel auftreffende
Intensität quantitativ vermessen, nicht nur hell und dunkel
unterscheiden – ein Film kann das natürlich auch,
nur kann der es nicht mehr fürs Auge verstärken
(bzw. schon gar nicht entfalten) und Minima/Maxima aus den vielen
dicht verteilten und gefalteten/verschränkten Wendepunkten
machen. Der PC, der an der elektronischen Pixel-detektierenden Kamera
dranhängt kann das aber schon. Dies funktioniert insbesondere,
wenn die Quantentröge als voneinander unabhängige
zueinander inkohärente Punktlichtquellen betrachtet werden
können, sie also untereinander nicht interferieren, sondern ihre
Airy-Beugungsmuster-Intensitätsprofile bzw. Dipolabstrahlcharakteristika
sich skalar addieren.
-
3a:
-
Großes
geordnetes oder auch statistisch verteiltes 2-dim Array von Quantentrögen
(z. B. metallische Inseln im Nanometer-Größenbereich)
zwischen zwei Elektroden, evtl. wieder verbunden (jeweils über
Tunnelkontakte) mittels einer Widerstandskaskade wie in einem Schieberegister/CCD-Array/DRAM)
oder Kontaktierung mittels des Quantendrahtarrays aus
EP1096569A1 [3] bzw. wie
in [6] vorgeschlagen (
3a/II).
-
Erzeugung
2-dimensionaler Arrays von „Quantenpunkten” durch
Positionierung von z. B. 5 nm großen kolloidalen Au-, Ag-(oder
auch viele andere Materialien)-Nanopartikeln – entweder
statistisch auf ein geeignetes Substrat aus der Suspension aufgebracht,
oder mit dem AFM positioniert, oder am besten, indem man Langmuir-Blodgett-Filme
benützt [12, 12a, 12b], wobei solche „Nano-Kugeln” chemisch
an die amphiphilen (z. B. Lipid-)Moleküle gelinkt werden
können ([12] und Referenzen darin, [12a, b]) bzw. von diesen
umhüllt sein können. Andere (z. B. „imprinting-”)Verfahren
sind auch denkbar [12c]. Durch Übertrag der kristallinen
oder teilkristallinen LB-Filme auf ein geeignetes Substrat entsteht eine
geordnete Schicht solcher z. B. Gold-Nanopartikel. Folgerichtig
führt eine derartige (Langmuir-Blodgett)-Abscheidung von
Multischichten zu einem 3-dimensionalen Array solcher Nano-Kugeln
(Quantentröge) [1a].
-
3b:
-
Optisch
(spektroskopisch) auslesen (oder auch beschreiben) der gespeicherten
Information (Luminiszenz-Anregungszustände der Quantentröge)
im Fernfeld, Interferometrie-gestützt mittels des erfindungsgemäßen
Aufbaus in
1. Weiterhin wird an der ansonsten
isolierenden AFM-Abtastspitze ein einzelner Quantendraht erzeugt
(Verfahren wie in
EP1096569A1 [3]),
mittels diesem die Quantentröge (elektronisch) beschrieben
(aufgeladen) werden können aber auch elektronisch ausgelesen werden
können sowie optisch ausgelesen werden können;
letzteres da die Stromstärke durch einen Quantendraht ja
lichtempfindlich ist [6].
-
- 1
- Prisma
oder „geeignetes” [14] optisches Gitter
- 1.1
- Laser
- 1.2
- Faraday-Isolator
+ Strahlformer/-aufweier
- 1.3
- Spiegel
- 1.4
- Strahlteiler
- 1.5
- λ/4-Plättchen
(waveplate)
- 1.6
- sehr
kurze Monomode-Glasfaser oder starkes Objektiv hoher numerischer
Apertur
- 1.7
- Optische
Kavität
- 1.8
- Probe
- 1.9
- Laser
Intensitäts-Profil – einfallend
- 1.10
- Laser
Intensitäts-Profil – reflektiert
- 1.11
- Resultierendes
Intensitätsprofil im Dunkelfeld/in destruktiver Interferenz
- 2
- Aufweitungs-(Streu-)Linse,
evtl. mit Blende davor
- 3
- hochauflösende
Pixelkamera (z. B. CCD-Kamerachip)
- 4
- Scheibchenförmige
Strukturdetails (>> ”Airy-Disks”)
- 4.1
- Einhüllende
des Beugungsmusters im Fernfeld (für den üblichen
Fall kohärenter Beleuchtung), in der jedoch noch Nahfeldinformation
enthalten ist.
- 4.2
- Fernfeld-Intensitätsprofil
zweier kohärent beleuchteter Airy-Scheibchen (entspricht etwa „Doppelspalt” im
Querschnitt)
- 5
- resultierendes
gebeugtes Intesitätsprofil (Einhüllende im Normalfall
kohärenter Beleuchtung) mit Dispersion (Überlagerung zweier
Airy-Funktionen mit Dispersionsaufweitung, wobei die beiden beugenden
Strukturdetails innerhalb/jenseits/unterhalb der Beugungslimit-Definition
liegen)
- 6
- Quantentröge,
z. B. Metallfilm-Inseln
- 6a
- Quantentröge,
die z. B. mit 1, 2 oder 3 Elektronen geladen sind. Achtung: Ein
mit 3 Elektronen geladener Quantentrog wird bei einer anderen Lichtwellenlänge
eine Resonanz besitzen, als derselbe Quantentrog, der nur mit einem
Elektron geladen ist – aus verschiedenen Gründen.
- 7
- Elektroden
zum „linearen Beladen” der Quantentröge
- 8
- elektrisch
isolierende Schicht (z. B. DLC isolierend oder SiO2)
- 9
- elektrisch
leitfähiges Substrat (z. B. hochdotierter Si-Wafer)
- 10
- Spektroskopie-
bzw. Mikroskopie Laser (Fokusdurchmesser/Beam waist bzw Strahldurchmesser
aufgeweitet auf Probengröße)
- 11
- ideales
Gauß-Intensitätsprofil des Lasers (gepunktet dargestellt
in den „Abweichungs-gebieten”)
- 12
- Abweichung
vom idealen Gauß-Intensitätsprofil (übertrieben
gezeichnet: Unterhalb/jenseits des Beugungslimits wird das Intensitätsprofil
I(x, y) keine Minima/Maxima aufweisen, sondern oft eine monotone
Funktion bleiben, jedoch vom perfekten Gauß-Profil messbar
lokal abweichen
- 13
- „Widerstandsdraht” – potentiometrische
Leiterbahn mit definiertem R und C (also nicht nur Streu-Kapazitäten/Widerstände)
- 14
- elektrisch
isolierendes Substrat (z. B. SiO2-Schicht/Wafer)
- 15
- Tunnelkontakte
- 16
- elektrisch
isolierende DLC-Schicht mit eingebetteten vertikalen Quantendrähten
(Herstellungsverfahren wie in EP 1096569A1 oder Ussowieso-cnt-tubes) – im
Mittel wird jeder Quantentrog durch einen oder wenige Quantendrähte
kontaktiert.
- 17
- Verdrahtungsmatrix – wie
im DRAM/FlashRAM/Schieberegister usw. bzw wie in DE sowieso vorgeschlagen
- 18
- AFM-Detektionslaser
- 19
- AFM-Abtastfeder
mit Abtastspitze
- 20
- einzelner
Quantendraht (evtl. einige wenige parallele Quantendrähte)
vertikal eingebettet in der sonst elektrisch isolierenden (z. B. Diamant-)AFM-Abtastspitze.
- 21
- Schutzwiderstand
(geeigneter Größe)
- 22
- hochempfindliches(Pico-Femto-)Amperemeter
(z. B. IVC plus Elektrometer-Voltmeter)
- 23
- Schaltung
zum optional elektronischen Auslesen der Quantentröge mittels
des Quantendrahtes in der AFM Abtastspitze
- 24
- Schaltung
zum optionalen elektronischen „Beladen” der Quantentröge
mittels des Quantendrhtes in der AFM-Abtastspitze (mit geringfügiger
Abwandlung auch zum optionalen optischen Auslesen der Quantentröge mittels
des Quantendrahtes in der AFM-Abtastspitze)
-
Referenzen:
-
- 1. P. M. Petroff, G. Medeiros-Ribeiro,
MRS Bulletin 21(4), 50 (1996)
- 1a. Xuehua Zhou, Chunyan Liu, Zhiying Zhang, Long Jiang,
Jinru Li "Formation of a 3 dimensional (3D) structure of
nanoparticles using Langmuir Blodgett method"; Chemistry
Letters 33(6), 710 (2004)
- 2. US5835477 , G.
Binnig, H. Rohrer, P. Vettiger, ”Mass-storage applications
of local probe arrays”
- 3. EP1096569A1 ,
F. Ohnesorge et al.
- 4. US6566704B2 Wun-bong
Choi et al.
- 5. H. A. Bethe, Phys. Rev. 66(7, 8), 163(Oct. 1944); C.
L. Pekeris, Phys. Rev. 66(11, 12), 351(1944)
- 6. Patentanmeldung beim DPMA Az: 102008015118.1-33, vom 10.03.2008,
F. Ohnesorge
- 7. EP 0776457B1 ,
C. H. F. Veizel et al.
- 8. T. A. Klar, S. Jakobs, M. Dyba, A. Egner, S. Hell, PNAS
97(15), 8206 (2000)
- 9. DE10154699A1 ,
S. Hell et al.
- 10. D. Rugar, H. J. Mamin, R. Erlandsson, J. E. Stern, B.
D. Terris, Rev. Sci. Instr. 59(11), 2337 (1988)
- 11. z. B. Fa. Schäfter-Kirchhoff
- 11a. z. B. Fa. Epotec
- 12. C. P. Collier, R. J. Saykally, J. J. Shiang, S.
E. Henrichs, J. R. Heath, Science 277, 1978 (1997)
- 12a. J. R. Heath, C. M. Knobler, D. V. Leff, J. Phys. Chem.
B101, 189 (1997)
- 12b. US6159620A ,
J. Heath, D. Leff, G. Markovic
- 12c. US6294401 J.
M. Jacobson, B. N. Hubert, B. Ridley, B. Nivi, S. Fuller
- 13. Dissertation, F. Ohnesorge, Juni 1994, LMU München
- 14. An dieser Stelle sei auf eine Verwechslungsgefahr hingewiesen:
Eine Fresnel-Linse (Beugungslinse) arbeitet gewöhnlich
auch im Fraunhofer-Regime/Ebene-Wellen-Näherung, aber eventuell – je nach
Größenverhältnissen – auch im
Fresnel-Regime der Beugung (Sphärische-Wellenfronten-Näherung).
Weiterhin sei betont, dass bei beugungslimitierter Optik jede refraktive
Linse prinzipiell durch eine Fresnel-Linse ersetzt werden kann.
Hier beim erfindungsgemäßen Konzept würde
eine „normale” Fresnel-Linse die Informationen
unterhalb/jenseits des Beugungslimits unerwünschterweise
wegfiltern. Eine für das erfindungsgemäße
Konzept hier „geeignete” Fresnel-Linse müsste
dann geeignet „geshapedte” Gratings besitzen,
also in etwa Gauß-förmig, damit die Informationen
höherer Ordnung (also letzlich kürzere Wellenlängenanteile)
nicht mit dem „Klingeln/Ringing” durch die Beugung
an den „eckigen” oder beliebig geformten Kanten
eines herkömmlichen Gratings vermischt werden. Die Ermittlung
einer „Point spread funktion” würde hier
nur teilweise und dann auch nur theoretisch Abhilfe schaffen können,
da dann eigentlich zwei Beugungslimits überlagert werden;
das eine entsteht bei der Abbildung der Probe selbst und das andere
an der Beugungslinse; dieses verschwommene Bild wird kaum mehr rechnerisch
rekonstruierbar sein, es liegt jedenfalls nicht in meiner momentanen
Vorstellungskraft. Eine refraktive Linse hat diese Limitierung prinzipiell nicht,
hat dafür natürlich – wie jede Linse – noch
andere Aberrationen (z. B. die Abweichung der Linsen-Krümmung
vom Polynom 4. oder evtl. auch höheren Grades). Den Linsenfehler „endlicher
Durchmesser”, also endliche numerische Apertur, besitzen aber
beide Linsentypen.
- 15. Das erfindungsgemäße Konzept habe ich
im Sept. 1996 bereits im Rahmen meines Forschungsmittelantrags (vertraulich,
natürlich nicht publiziert/offengelegt) bei der Alexander
v. Humboldt Stiftung vorgeschlagen und daher wird das Urheberrecht
zu diesem Zeitpunkt vom Erfinder beansprucht.
- 16. E. Hecht „Optics", 2nd Ed., Addison-Wesley
1987
- 17. A. Lewis, US
6900435 B1 , 2005
- 18. Wobei etwa für λ > a keine vollausgeprägten Beugungsminima
mehr auftreten. Die untereinander inkohärent lumineszierenden
Strukturen können aber trotzdem entfaltet werden, da die
CCD-Kamera die Intensitätsprofile der Beugungspeaks quantitativ
vermisst, also auch den Beugungspeak 0. Ordnung – es wird
ja keine Mattscheibe benutzt.
-
Abkürzungen:
-
-
- AFM
- – Atomic
Force Microscopy
- LB-Film/LB-Technik
- – Langmuir-Blodgett-Film/Langmuir-Blodgett-Technik
- NA
- – numerische
Apertur
- RKM
- – Rasterkraftmikroskopie
- SNOM
- – Scanning
near field optical microscopy/Nahfeld Raster-optische Mikroskopie
- SPM
- – Scanning
Probe Microscopy/Rastersondenmikroskopie
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste
der vom Anmelder aufgeführten Dokumente wurde automatisiert
erzeugt und ist ausschließlich zur besseren Information
des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen
Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt
keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- - EP 1096569
A1 [0011, 0041, 0041, 0046, 0049, 0049, 0079, 0082, 0082]
- - US 6566704 B2 [0011]
- - EP 0776457 B1 [0016]
- - DE 10154699 A1 [0016]
- - EP 07764571 B1 [0016]
-
Zitierte Nicht-Patentliteratur
-
- - [16] S. 419
für die Lochblende [0069]
- - [16] S. 477 für die obscure Scheibe [0069]