-
Die Erfindung betrifft ein technisches Prinzip und ein apparatives Verfahren (1) in mehreren Versionen mittels dessen im optischen Fernfeld (oder auch Fresnel-Regime/Kugelwellennäherung) schnelle (Zeitskala von digitalem Video) optische Spektroskopie mit einer Ortsauflösung unterhalb/jenseits des allgemeinen Beugungslimits (also < λ/2Licht) betrieben werden kann sowie Anwendungsbeispiele für einen neuartigen digitalen Datenspeicher sowie eines mikrobiologischen Analyseverfahrens. In Kombination mit herkömmlicher FTIR (Fourier Transform Infrarot Spektroskopie) erschließen sich alle genannten Anwendungsfelder optimal durch den dadurch gewonnenen enormen Geschwindigkeitszuwachs der Datengewinnung.
-
Das Beugungslimit der Optik besagt, dass zwei „Punkt”-förmige (Struktur-)Details nicht (getrennt) aufgelöst werden können, falls ihre (Licht-)Beugungsmuster zu nahe überlappen, um aufgelöst (d. h. getrennt sichtbar) zu werden z. B. auf einem photographischen Film oder einer Mattscheibe. 1b, 2a, 2b erläutern die Definition des Beugungslimits. Dieser Fall tritt in etwa ein, wenn die abzubildenden Strukturgrößen kleiner werden als ca. die halbe Lichtwellenlänge mit der beobachtet/mikroskopiert wird, natürlich noch abhängig von der numerischen Apertur der abbildenden Optik.
-
Wenn nun allerdings diese Bild-darstellende Mattscheibe ein CCD-Sensor ist, welcher quantitativ die „Form” (also die laterale Intensitätsverteilung) des Beugungs-Peaks eines Probenstruktur-Details quantitativ vermessen kann, – z. B. die Airy-Beugungsmuster-Intensitätsfunktion eines kleinen Scheibchens a für (λ/2 ≤ a oder auch etwas > a [18]) oder seine Dipolabstrahlcharakteristik (respektive Multipol-) (für λ/2 >> a) –, dann ist die Sachlage anders, dann könnte man sagen, es gibt in Sonderfällen praktisch kein Beugungslimit von λ/2 mehr, selbst wenn man im Bild der linearen Optik bleibt, z. B. bei Apertur-loser Mikroskopie des Beugungsbildes, wenn das Pixeldetektorarray nahezu unendlich großflächig wäre (große effektive numerische Apertur). Hierbei ist anzumerken, dass für λ > a keine voll ausgeprägten Beugungsminima mehr auftreten. Die Strukturen können aber trotzdem entfaltet werden, da die CCD-Kamera die Intensitätsprofile der Beugungspeaks quantitativ vermisst – es wird ja keine Mattscheibe benutzt. Weiterer wichtigerer physikalischer Hintergrund für diese Aussage ist jedoch, dass ein Array beliebig kleiner (nanometrischer) Objekte (vor allem metallische), wenn sie mit Licht irgendeiner Wellenlänge λ angestrahlt werden, immer aufgrund nicht-linearer optischer (elektromagnetischer) Effekte dann auch wieder – allerdings untereinander inkohärent – abstrahlen (allgemein lumineszieren, oder auch fluoreszieren, phosphoreszieren), und zwar auch gestreute – der nanometrische (inbesondere wenn metallische) Streukörper ist ja im weiteren Sinne eine Antenne – elektromagnetische Strahlung einer Wellenlänge von Bruchteilen von λ (Fourierentwicklung plus Multipolentwicklung der Abstrahlung eines Streukörpers von einer Ausdehnung < oder << λ). Für diese „neuen”, viel kürzeren Wellenlängen als λ, also die λ/i, i = 1–∞, gilt dann das Beugungslimit im linearen Optik-Bild und Apertur-behafteter Mikroskopie natürlich wieder.
-
Für den Fall, dass λ/2 >> a, ist dann statt des Airy-Beugungsmusters eher die Abstrahlcharakteristik einer Antenne (Herztscher Dipol im einfachsten Fall, oder Multipol) anzuwenden, also in etwa proportional zu a2sin2υ/r2.
-
Für den Fall zweier benachbarter mikroskopisch kleiner beleuchteter Scheiben (Lochblenden), die abgebildet werden sollen, wären die Beugungsmuster dieser Scheiben allgemein zwei sich interferierend überlappende Airy-Beugungsmuster (1b, 2a, b). Falls nun also die geometrische Form dieser mikroskopischen Strukturdetails bekannt ist, z. B. kleine runde Scheibchen, kann man natürlich berechnen, dass das resultierende Beugungsmuster (Fourier-Raum: 2-dimensionale Fourier-Transformation der lateralen Absorptionsfunktion (x, y)) zweier solcher Scheibchen (z. B. Quantenpunkte) also allgemein die interferierende Überlagerung zweier solcher Airy-Beugungsmuster-Funktionen ist (2a und 2b, zeigen in dem Fall die Einhüllende der Gesamtintensität) und natürlich auch wieder zurückrechnen durch Fourier-Rücktransformation auf die beugenden Strukturdetails (Ortsraum). In den Einhüllenden dieser interferierenden Airy-Beugungsmuster-Funktionen müßte noch die Nahfeldinformation enthalten sein (Hypothese!), auch im Fernfeld, zumindest im Fresnelregime. Hier wäre aber die Begründung, dass teilweise auch inkohärentes Licht von den Scheibchen ausgeht, wodurch die Airy-Beugungsmuster zu einem kleinen Teil auch nicht interferierend sich überlagern, sich also zu einem kleinen Anteil skalar addieren, auch im allgemeinen Fall. Für den Fall völlig unabhängig voneinander lumineszierender Quantentröge, die also untereinander völlig inkohärent wieder abstrahlen, gibt es außer der Airy-Beugungsmuster der einzelnen Scheibchen keine Interferenz der Punktlichtquellen untereinander. Die Airy-Beugungsmuster-Intensitätsprofile (für λ/2 ≤ a oder etwas größer > a [18]) bzw. für λ/2 >> a die Dipol-/Multipolabstrahlcharakteristika addieren sich also skalar, sind also einfacher durch Subtraktion und nachträglicher einzelner Fourier-Rücktransformation zu entfalten (für λ/2 ≤ a oder etwas > a [18]). Für den Fall λ/2 >> a muss die Hertzsche Dipolabstrahlcharakteristik auf den streuenden Dipol/Multipol zurückgerechnet werden.
-
Vermisst man also quantitativ mittels eines CCD-Sensors (z. B. einer Videokamera) das Intensitätsprofil der gebeugten bzw. gestreuten Abbildung einer beliebigen Probe, könnte prinzipiell das Profil Computer-rechnerisch unter Benutzung gewisser Zusatzinformationen (Mapping des Abbildungsprofiles/Transferfunktion der Mikroskop-Optik eines infinitesimal kleinen Lichtpunktes – also der sog. „Point spread function”) über die optische Abbildung wohl theoretisch entfaltet werden, die Auflösung dann nur noch abhängig von der Lichtempfindlichkeit und des dynamischen Bereichs der Pixel der CCD-Kamera, sowie der lateralen Pixelgröße in Relation zur optischen Vergrößerung der optischen Abbildung, aber auch respektive der gesamten Anzahl der Pixel. Für höchste Genauigkeit müssten dann nicht-lineare optische Effekte, also Lichtabstrahlung der nanometrischen Streukörper der Probe mit zusätzlich anderen Wellenlängen als der – jedoch auch im gestreuten Licht meist dominierenden – eingestrahlten, insbesondere kleinerer Wellenlängen, bei der Rückrechnung/Entfaltung des optischen Bildes berücksichtigt werden.
-
Aufgrund von Linsenimperfektionen (schon der endliche Linsendurchmesser stellt allerdings natürlich eine Begrenzung/Imperfektion dar) hätte hierbei eine geeignete Lochkamera Vorteile; am besten wäre daher natürlich eine Abbildung, die praktisch völlig auf Aperturen verzichten kann, also wenn etwa das Pixelarray genau die Probengröße hat, mit extrem kleinen Pixeln natürlich, wobei dann bei direkter Nahfeld-Abbildung im Ortsraum die Pixelgröße das Auflösungslimit ist. Idealerweise ist das Detektorpixelarray jedoch sehr viel größer als die Probe, mit extrem vielen, extrem kleinen Pixeln und man bildet das Beugungsbild (bzw. das gestreute) der Probe im Fresnel-Regime unter Mitnahme höherer Beugungs-Ordnungen respektive kleinerer Probenstrukturdetails ab, also mit sehr hoher effektiver numerischer Apertur. Das Ortsraumbild erhält man dann im wesentlichen durch (numerische) Fourier-Rücktransformation, gegebenfalls (numerisch) korrigiert für die Kugelwellennäherung im Fresnel-Regime (für λ/2 ≤ a). Wieder im Falle λ/2 >> a muss Streutheorie angewendet werden, also im einfachsten Fall Dipolabstrahlcharakteristik für jeden einzelnen Quantenpunkt.
-
Für den Fall, dass der Mikroskopie-Strahlengang durch eine optische Apparatur (mit Linsen und Aperturen) verläuft, wird man praktisch wegen der Interferenz aber beliebige Strukturdetails, die im optischen Fernfeld unterhalb des Beugungslimits von etwa λ/2 betrachtet werden sollen, allgemein wohl kaum zurückrechnen können, selbst wenn die Point spread function des Systems exakt vermessen wurde bzw. werden könnte, und damit z. B. Linsenaberrationen rechnerisch in einem digitalen Bildaufnahmeverfahren korrigiert werden können. Allerdings sollte die optische Superauflösung im Fernfeld durch Entfaltung doch mit Einschränkungen möglich sein, wenn man ausreichende Zusatzinformationen besitzt, z. B. aus der Kombination mit anderen Mikroskopieverfahren. Weiss man z. B. im einfachsten Fall, dass man nur 2 kleine Scheibchen bekannten Durchmessers (Größe und Abstand unterhalb/jenseits des Beugungslimits) und bekannter Position abbildet, lassen sich also diese 2 Airy-Beugungsmuster-Funktionen (also das Beugungsmuster/gebeugte Intensitätsprofil einer dunklen (opaque) Scheibe) bzw. Dipolabstrahlcharakteristik zurückrechnen; sind es 3 definierte Scheibchen innerhalb des Beugungslimits, ist es natürlich schon viel komplizierter, insbesondere falls die Positionen unbekannt sind, usw. Je mehr Strukturdetails (und je undefinierter geformt) innerhalb des Beugungslimits liegen umso schwieriger wird die Entfaltung natürlich, bis unmöglich, da zu viele Unbekannte. Je mehr Unbekannte, umso mehr Zusatzinformationen/Randwerte werden benötigt (z. B. aus Rastersondenmikroskopien), um die Entfaltung doch zu ermöglichen. Wie erwähnt müssten für höchste Genauigkeit die nicht-linearen optischen Effekte bei der Lichtstreuung an nanometrischen Strukturdetails (insbesondere metallische Nanoteilchen als nanometrische „Antennen”) einbezogen werden, man müsste also neben der eingestrahlten Wellenlänge noch die anderen abgestrahlten Wellenlängen – insbesondere die kleineren – berücksichtigen.
-
Hier im erfindungsgemäßen Aufbau wird daher zunächst eingeschränkt auf die ultrahoch ortsaufgelöste (jenseits/unterhalb des Beugungslimits) Spektroskopie einer bekannten Probengeometrie untereinander inkohärenter Punktlichtquellen, wodurch die Entfaltung viel einfacher und eindeutig wird; eigentlich wird hier auf eine einfache Subtraktion im Fourierraum reduziert, insbesondere wenn die vielen Strukturdetails nicht zu dicht (die Verschränkung der Beugungsmaxima 0-ter Ordnung wird natürlich immer stärker, je näher sich die Strukturdetails innerhalb des Beugungslimits kommen) beieinander liegen:
Falls also der Pixel-Detektor Farb-empfindlich ist, z. B. durch Aufspaltung des abbildenden Lichtes mittels eines Prismas (wie in handelsüblichen hochwertigen kommerziellen Videokameras) in drei oder mehrere verschiedenfarbige Strahlengänge, welche auf drei oder mehreren verschiedenen CCD-Sensoren (jeweils einer für rot, gelb und blau usw.), kann man optische Spektroskopie mit extrem hoher Ortsauflösung durchführen, im wesentlichen nur durch Benutzung einer hochwertigen Videokamera und digitaler Bildverarbeitung (Entfaltung/Subtraktion im Fourier-Raum) – 2c. Alternativ gibt es auch Farb-CCD-Arrays, deren Ortsauflösung natürlich prinzipiell geringer ist (ca 1/3 wegen der 3 CCDs pro Bildpunkt) und schließlich könnte man natürlich z. B. mittels eines durchstimmbaren Interferenzfilters vor dem Pixeldetektor die Spektroskopie durchführen, was aber den hier im erfindungsgemäßen Aufbau hervorgehobenen Geschwindigkeitsvorteil der Abbildung relativieren würde. Durch gleichförmiges (z. B. Hin- und Her-)Bewegen des CCD-Sensors könnte die laterale Auflösung des CCD-Sensors selbst sogar noch auf Sub-Pixel-Ausdehnung gedrückt werden, die Entfaltung/Zurückrechnung würde dann jedoch immens schwieriger und Rechenzeit-aufwändiger.
-
Auf diese Weise ist örtlich aufgelöste (Luminiszenz-)Spektroskopie an einem 2-dimensionalen periodischen Array von identischen lumineszierenden Quantentrögen möglich, im „Fernfeld” (2d, übertrieben gezeichnet im Nahfeldbereich der Probe), also ohne die sehr langsame rasternde optische Nahfeldmikroskopie für jede spektroskopische Aufnahme heranziehen zu müssen; ein Rastersondenmikroskop ist nur einmal erforderlich zur anfänglichen Charakterisierung vor allem der Geometrie und Anzahl und auch der Positionen der Quantentröge (oft auch als Quantenpunkte bezeichnet – nicht ganz korrekt, denn ihre Ausdehnung ist meistens deutlich größer als die Fermiwellenlänge der Elektronen im Material). Dies funktioniert insbesondere deswegen, weil die Lumineszenz der Quantentröge diese zu voneinander unabhängigen Lichtquellen macht, sie also nicht gegenseitig miteinander interferieren, sondern sich die einzelnen Airy-Beugungsmuster skalar addieren (für λ/2 < a) bzw. im Fall λ/2 >> a die Dipol-(Multipol-)abstrahlcharakteristika. Damit kann eine neue Art von optischem Speicher ausgelesen werden (2d, 3), welcher auf Arrays von Quantentrögen basiert und damit extreme Speicherdichten erlaubt (ca 100 mal höher als bisher realisiert, ausgehend von typischen Quantentrogdimensionen von etwa 5 nm (plus ca 10 nm mittleren Abstandes) und heutzutage üblichen Strukturbreiten in der Mikroelektronikfabrikation von bestenfalls ungefähr 45 nm bei konventionellen Mikroprozessoren, DRAMs z. B., ganz zu schweigen von CDs oder DVDs. Darüberhinaus können Quantentröge auch in 3 Dimensionen angeordnet werden, nicht nur in 2 Dimensionen [1, 1a]. Da die erfindungsgemäße Spektroskopie-Methode auch auf Interferometrie-/Phasenkontrast beruht, können auch die Quantentröge in etwas tieferliegenden Schichten ausgelesen werden – natürlich vorausgesetzt, sie wurden Schicht für Schicht aufgetragen und jede Schicht jeweils mittels Rastersondenmikroskopie (z. B. AFM) – vorher – geometrisch charakterisiert.
-
„Beschreiben” solcher 3 dimensionaler Arrays von Quantentrögen müsste in der Art eines Schieberegisters erfolgen, wie in
3a, b für 2 Dimensionen vorgeschlagen, oder scannend mittels Rastersondentechniken (natürlich auch für 2 Dimensionen, für 3 Dimensionen mittels konfokaler interferometrischer Techniken). Im letzteren Fall hatte man dann zwar nur recht langsames Schreiben, welches allerdings durch das Millipede-Konzept vieler Abtastspitzen [2] beschleunigt werden kann, aber nach wie vor das schnelle „großflächige, also nicht scannende” erfindungsgemäße optische Auslesen der Quantentrog-Arrays. Weitere Methode um die Quantentröge elektrisch zu kontaktieren, wäre ein vertikal ausgerichtetes Quantendrahtarray in der isolierenden Substratschicht, gemäß Herstellungsverfahren in
EP1096569A1 [3] oder
US6566704B2 [4] (CNT-array), wie in
3a/II angedeutet.
-
Dass grundsätzlich/theoretisch die optische Mikroskopie/Spektroskopie jenseits (unterhalb) des Beugungslimits von etwa λ/2 nicht nur im Nahfeld im Prinzip möglich sein muss, – wenn auch praktisch sehr schwer realisierbar – erklärt folgendes Gedankenexperiment:
Wie weithin bekannt liefert optische Nahfeldmikroskopie eine optische Auflösung weit jenseits/unterhalb des Beugungslimits. Dabei wird das von der Probe kommende Licht (in Reflexion oder Transmission) durch eine über die Probe rasternde feine Apertur (<< Lichtwellenlänge) aufgenommen und mittels eines extrem empfindlichen Photodetektors (Photonencounters) in Abhängigkeit von der lateralen Position der Apertur auf der Probe aufgezeichnet und damit ein nahfeldoptisches Bild der Probe aufgezeichnet. Dies ist vielfach experimentell bewiesen, auch theoretisch (z. B. seit [5]), vielfach demonstriert und laterale Auflösungen von bis hinunter zu wenigen nm wurden erzielt. Hätte man nun eine geeignete Matrix von Pixeln, also ein Pixelarray mit extrem kleinen, aber extrem empfindlichen Lichtdetektoren, die einen sehr kleinen Abstand zueinander haben, sodass die Probe unmittelbar auf diesem Pixelarray präpariert werden könnte, bekäme man genauso ein Nahfeld-Bild der Probe ohne die Probe rastern zu müssen (Patentanspruch 10). Das Pixelarray muss natürlich etwa genauso groß sein wie die Probe selbst, und jeder Pixeldetektor wäre ein „Nahfeld-optischer Sensor”, der die übliche Nahfeld-optischen Abtastspitze ersetzt. Beim herkömmlichen rasternden Nahfeld-optischen Mikroskop wird üblicherweise als scannende Apertur das extrem angespitzte Ende einer Monomode-Glasfaser benutzt, die die eigentlich zunächst nicht-propagierende exponentiell abfallende „Licht-Welle” aus dem optischen Nahfeldbereich aufnimmt, und über die Monomodefaser über längere Strecken (O(m)) zum Photodetektor (z. B. Photomultiplier) leitet. Also propagiert das Licht natürlich doch wieder nach „Durchtunneln” der „(Schicht-)Dicke” Apertur (Durchmesser < lambda), wenn auch extrem gedämpft durch die Apertur (Durchmesser < lambda); das wird experimentell weitläufig so realisiert, es ist eben „nur” ein extrem empfindlicher Photonencounter (Photomultiplier) als Detektor notwendig. Zur Erläuterung: Die elektromagnetische Welle kann nur in der Apertur (Durchmesser < lambda) und im Nahfeld-Regime selbst nicht existieren/propagieren, bzw. es handelt sich dort im Abstand einiger λ von der „Antenne”/dem Streukörper um quasistatische, zeitlich oszillierende Felder, aber „hindurchtunneln” (die Amplitude des elektromagnetischen Feldvektors fällt z. B. in etwa exponentiell ab während des Durchgangs durch die „Dicke” der Apertur) kann sie sehr wohl; hinter der Apertur, also viele Lambda entfernt, egal ob in geeigneter Monomode-/Multimodefaser oder im freien Raum, kann die Lichtwelle wieder existieren, also auch propagieren. Könnte man nun extrem viele solcher angeschärften Faserspitzen bündeln, sodass der Bündelquerschnitt wieder in etwa so groß ist wie die Probenoberfläche, hätte man ein nicht-scannendes optisches Nahfeldmikroskop, ähnlich wie in Patentanspruch 11, wobei natürlich an jedem Faserende ein extrem empfindlicher Photodetektor sitzen müsste. Solche Faserbündelungen sind prinzipiell möglich, das Problem dabei wäre rein geometrischer Natur, denn dann wird der Faserbereich, in welchem die Faser (viel) dünner ist, als für nahezu ungedämpft propagierendes Licht (bestimmter Wellenlänge, z. B. 633 nm) nötig wäre, sehr lang und der propagierende Intensitätsanteil würde sehr schnell weggedämpft, am Detektor käme zu wenig an – natürlich alles eine Frage der Detektorempfindlichkeit und eine Frage von Störlichtintensitäten, also theoretisch möglich aber praktisch – meines Wissens – zur Zeit nicht machbar. Somit hätte man ein Schattenwurfmikroskop im Fernfeld, nur dass das propagierende Licht über Monomode-Fasern auf die Detektoren „vermittelt” wird. Hier im erfindungsgemäßen Aufbau wird nun also vorgeschlagen, dieses (stark dämpfende) hypothetische Faserbündel einfach wegzulassen und die zugegeben extrem kleinen Intensitätsschwankungen des Beugungsbildes/im gebeugten „Bild” bzw. im gestreuten „Bild”, die aber auf dem propagierenden Lichtintensitätsanteil noch aufmoduliert sein müssen (nicht-lineare optische Effekte, daher Fourierentwicklung im Wellenvektor), direkt mit einem extrem empfindlichen Pixelarray aufzuzeichnen, z. B. solch einem wie in [6] vorgeschlagen. Selbstverständlich ist die Nahfeldinformation durch Interferenz drastisch verschränkt, aber sollte im Prinzip im Fernfeld oder zumindest im Fresnel-Regime noch vorhanden sein, wenn auch winzig klein, zumindest wegen der wenn auch sehr kleinen inkohärenten Lumineszenz-Anteile im reflektierten Licht. Diese Intensitätsanteile z. B. die ohnehin untereinander inkohärent lumineszierenden Quantentröge im gestreuten Licht, ausgehend von den Quantenpunkten addieren sich also skalar, also für λ/2 ≤ a oder etwas > a [18] sind es die Airy-Beugungsmuster eines kleinen Scheibchens, für λ/2 >> a sind es die Multipolabstrahlcharakteristika, näherungsweise die Hertzsche Dipolabstrahlcharakteristik. Quantenmechanische Effekte (licht-abhängige Modulation des Stromes durch Quantendrähte) sollten prinzipiell die Empfindlichkeit von Photomultipliern erreichen können, evtl. vergleichbar mit hochempfindlichen Stickstoff-gekühlten CCD-Arrays, die ja bereits einzelne Photonen detektieren können. Letztere ermöglichen dies „erkauft” durch die Nachteile der aufwendigen Kühlung (thermisches Rauschen wird reduziert) sowie relativ großer, damit empfindlicher aber langsamer Pixeldetektoren. Ein Quanten-elektronischer Detektor alleine würde diese Nachteile nicht kennen. Insbesondere wäre ein sehr großer (eventuell auch hemisphärischer) Lichtpixeldetektor mit extrem vielen extrem kleinen Pixeln vorgesehen, der dadurch defakto eine sehr große effektive numerische Apertur gewährleistet (für λ/2 ≤ a oder etwas > a [18]). Für λ/2 >> a gewährleistet er die ausreichende Vermessung der Dipolabstrahlcharakteristika der einzelnen Streukörper/Quantenpunkte.
-
Problemstellung und Lösungsvorschlag:
-
Optische Mikroskopie und damit auch optische Spektroskopie ist in der lateralen Auflösung beugungsbegrenzt, das Auflösungslimit ist etwa die halbe Wellenlänge des abbildenden Lichtes, abhängig noch von der numerischen Apertur des abbildenden Objektivs. Rastersondenmikroskopien und die Elektronenmikroskopie überwinden diese (optische) Auflösungsbegrenzung (die Elektronenmikroskopie natürlich „nur” über die viel kürzere Wellenlänge der abbildenden Strahlung), liefern jedoch keinerlei optische Spektroskopieinformationen. Ausnahme ist die optische Nahfeldmikroskopie, die auch optisch-spektroskopische Informationen liefern kann, sie ist jedoch extrem langsam (ein Bild in Minuten bis Größenordnung Stunde).
-
Das erfindungsgemäße Konzept hier soll diese Limitationen überwinden: Optisch-spektroskopische Bilder könnten geliefert werden mit der lateralen Auflösung eines Rastersondenmikroskops und gleichzeitig mit der spektroskopischen Information (Farbe) eines Lichtmikroskops bei einer maximalen Bildrate vergleichbar mit der der Videomikroskopie. Das Konzept beruht darauf, hochauflösende geometrische (Topographie-)Vorinformation mittels Rastersondenmikroskopien o. ä. zu benutzen, um damit die folgenden durch das Beugungslimit „verschwommenen” Farbbilder des Lichtmikroskopes derselben Probe mathematisch/Computer-technisch in real-time zurückzurechnen (zu entfalten, im Fourier-Raum eventuell durch einfache Subtraktion). Im einfachsten Fall bei geringer Ortsauflösung nahe des Beugungslimits von λ/2 sollte dies auch für tatsächliche Ortsraum-Bilder funktionieren [17]. Im hier jedoch primär vorgeschlagenen Konzept (1) soll aber „nur” das Beugungsbild der Probe aufgezeichnet werden und mittels eines Computers mit dem Fourier-transformierten bzw. streutheoretisch transformierten (alle Quantenpunkte als untereinander inkohärente Dipole betrachtet) Rastersondenbild der Probe verglichen (subtrahiert) werden und danach Computer-technisch (nicht Linsen-optisch) rücktransformiert werden. Dieses Konzept ist prädestiniert zum optischen Auslesen neuartiger Quantentrog-Speicher extremer Speicherdichte – die Probe muss nur einmal topographisch charakterisiert werden (z. B. mittels Rastersondenmikroskopien oder Elektronenmikroskopie o. ä.) und kann dann immer wieder beschrieben und optisch (schnell) ausgelesen werden. In diesem Fall von vielen voneinander unabhängig lumineszierenden Quantentrögen als untereinander inkohärente Lichtquellen fällt die gegenseitige Interferenz dieser Punktlichtquellen weg und die vielen Airy-Beugungsmuster-Funktionen (für λ/2 < a oder etwas > a [18]) bzw. Dipol-(Multipol-)abstrahlcharakteristika (für λ/2 >> a) werden skalar addiert. Die Entfaltung beschränkt sich dann auf eine einfache Subtraktion der vielen Airy-Beugungsmusterprofile bzw. Dipolcharakteristika und deren nachträgliche einzelne Fourier-Rücktransformation bzw. streutheoretische Entfaltung.
-
Stand der Technik:
-
Herkömmliche Interferenzmikroskopie/Phasenkontrastmikroskopie liefert vertikal die sehr hohe Ortsauflösung der Interferometrie (also weit im Sub-nm-Bereich), jedoch mit einer lateralen Ortsauflösung die Beugungs-limitiert ist, also etwa ganz grob lambda/2.
-
Ein Verfahren zur Interferenzmikroskopie, mit dem Ziel eine laterale optische Ortsauflösung jenseits/unterhalb des Beugungslimits zu erreichen, wird in
EP0776457B1 [7] und Referenzen darin vorgeschlagen. Ein weiteres optisches Mikroskopie-Verfahren, welches jedoch auf spezieller lateral variierender Fluoreszenzanregung beruht, bei welchem das optische Beugungslimit überwunden wird, wird in T. A. Klar et al [8] beschrieben, sowie technische Grundkonzepte dafür in
DE10154699A1 [9]. Letzteres berührt das erfindungsgemäße Verfahren nicht, zum einen da es auch ein langsames rasterndes Verfahren ist, zum anderen da es auf lokal definierter und variierender Fluoreszenzanregung beruht (Flankensteilheit als Funktion vom Ort (x, y) „<” Beugungslimit) – es ist also mit der Nahfeld-optischen Mikroskopie verwandt, denn diese rastert einen winzigen Lichtpunkt (<< lambda, Beugungslimit) während in
Hell et al [8, 9] prinzipiell eine (durch Pulsbelichtung) steile („<” Beugungslimit) Fluoreszenz-anregende Lichtflanke gerastert wird (Anmerkung: wenn ich es richtig verstanden habe), obwohl die Datenaufzeichnung im Fernfeld erfolgt (wie bei der Nahfeld-Optischen Rastermikroskopie NSOM ja auch meistens). Dennoch ist es natürlich ein sensationeller Fortschritt, wenn man sozusagen optische Nahfeldmikroskopie betreiben kann und dabei auf die Nahfeld-Abtastspitze verzichten kann. Ersteres (
EP0776457B1 [7]) offenbar auch auf (komplizierter) mathematischer Rückrechnung beruhendes Abbildungs-Verfahren, könnte vielleicht in Kombination mit dem erfindungsgemäßen Konzept eine erhebliche Verbesserung der mikroskopischen Bildqualität liefern, ist aber insbesondere für das hier vorgeschlagene erfindungsgemäße Spektroskopiekonzept nicht notwendig. Ein dem erfindungsgemäßen Konzept ähnliches Verfahren wird in [17] vorgeschlagen, wobei dort aber die Fehler und Limitationen des Linsen- und Apertursystems über dessen Point spread function durch Entfalten des Ortsraumbildes reduziert werden sollen, jedoch auch anhand stützender hochaufgelöster Rastersondenmikroskopie-Daten.
-
FTIR ist eine weitläufig und schon lang angewandte Technik besonders schnelle Spektroskopie im Infrarotbereich zu realisieren. (19, z. B. Wikipedia)
-
Lösung mit Erläuterungen zu den Patentansprüchen
-
Zu Patentanspruch 1:
-
Mikroskopie/Spektroskopie an „Quantenpunkten” (statthaltend für jeder Art von nm-Skala Lumineszenz-, Fluoreszenz-, Phosphoreszenz-Objekten, also natürliche oder künstliche Atome/Moleküle/Nanopartikel) jenseits/unterhalb des Beugungslimits mittels optimierter Videomikroskopie im Fresnel-Regime oder gar im Fernfeld:
Video-Mikroskopie gemäß 1 (hier Interferometrie-unterstützt, aber für das Funktionsprinzip nicht essentiell notwendig) könnte ein direktes Bild oder Beugungsbild (Streuung im Falle λ/2 >> a) des Arrays von „Quantenpunkten” mit einer Auflösung unterhalb (jenseits) des Beugungslimits liefern. Insbesondere, wenn man alle Linsen (evtl. bis auf eine große Streulinse vor dem CCD-Detektor) und Aperturen wegläßt, sollte diese erfindungsgemäße interferometrische (Michelson-Typ) Abbildung extrem hohe optische Auflösung unterhalb des Beugungslimits liefern, allerdings ist dann 1. sehr hohe Lichtintensität nötig, und 2. ein sehr grosses CCD-Array, welches defakto eine sehr große numerische Apertur erlaubt, mit extrem kleinen und vielen Pixeln, deren Lichtempfindlichkeit extrem hoch sein muss; beispielsweise ein mit Flüssigstickstoff-gekühlte konventionelle CCD-Kamera wäre denkbar, aber insbesondere auch die in [6] vorgeschlagene „künstliche Retina”. Idealerweise ist das Detektorpixelarray jedoch sehr viel größer als die Probe, mit extrem vielen, extrem kleinen Pixeln und man bildet das Beugungsbild der Probe im Fresnel-Regime ab unter Mitnahme höherer Beugungs-Ordnungen respektive kleinerer Probenstrukturdetails, also mit sehr hoher effektiver numerischer Apertur. Das Ortsraumbild erhält man dann im wesentlichen durch (numerische) Fourier-Rücktransformation, gegebenfalls (numerisch) korrigiert für die Kugelwellennäherung im Fresnel-Regime, alles im Fall λ/2 ≤ a oder etwas > a [18]. Im Fall λ/2 >> a tritt an die Stelle des Airy-Beugungsmusters der Quantenpunkte ihre näherungsweise Dipolabstrahlcharakteristik; dann ist die Entfaltung keine Fourier-Rücktransformation mehr sondern die Rückrechnung der Streutheorie auf das Dipolmoment p ~ qa der Quantenpunkte.
-
Falls die Auflösung aufgrund unvermeidlicher Linsenaberrationen (auch bei Fresnel-Linsen [14]) und endlicher Linsen- und Aperturdurchmessern nicht ausreicht, um die Quantenpunkte direkt abzubilden, muss das vom CCD-Sensor aufgenommene Beugungs-„Bild” rechnerisch entfaltet werden, also die „verschwimmenden” interferierenden Überlagerungen der im Idealfall (wenn die Probenstrukturen alle Scheibchengeometrie besitzen) vielen interferierenden „Airy”-Disk-Intensitätsprofile (für λ/2 ≤ a oder etwas > a [18]) bzw. Dipolabstrahlcharakteristika (λ/2 >> a) herausgerechnet/heraussubtrahiert werden. 1b, 2a und b. Die Bildinformation steckt im quantitativen gebeugten Intensitätsprofil eines beliebigen Probenabbildes immer drin, auch im Fernfeld (Hypothese – veranschaulicht in 2d, übertrieben gezeichnet für den „Nahbereich” der Probe), die Frage ist nur, ob man immer auf die Probengeometrie zurückrechnen kann, was bei vielen Unbekannten (verschiedene Strukturdetails, nicht-periodische Abstände – alles jenseits des Beugungslimits) beliebig kompliziert wird bzw. der Detektor unendlich großflächig werden muss um das Airy-Beugungsmuster bzw. die Dipolabstrahlcharakteristika ausreichend vermessen zu können. Dieses Rückrechnen auf Probengeometrie ist natürlich einfacher möglich, entweder wenn das Pixeldetektorarray unendlich groß wäre (Fourier-Rücktransformation des gebeugten „Bildes” bzw. streutheoretische Rückrechnung des gestreuten „Bildes”) oder wenn man als Probe nur 2 Airy-Scheibchen bekannten Durchmessers und Position (Durchmesser und Abstand nichttrivialerweise kleiner als das Beugungslimit) hat, bei 3 solchen Airy-Scheibchen liegt der Fall schon viel schwieriger usw. Hier ist insbesondere vorgesehen, das Verfahren auf periodische 2-dimensionale Arrays von identischen Quantentrögen anzuwenden, die also voneinander unabhängig lumineszieren, sich ihre Airy-Beugungsmuster (λ/2 ≤ a oder etwas > a [18]) bzw. ihre Dipolabstrahlcharakteristika für λ/2 >> a also nur inkohärent (skalar) addieren und nicht untereinander noch interferieren. Die Entfaltung reduziert sich also auf eine Subtraktion der Airy-Beugungsmuster-Intensitätsprofile bzw. Dipolabstrahlcharakteristika vom verschwommenen Beugungsbild/Streubild an den Positionen der Quantentröge. Durch Fourier-Rücktransformation für verschiedene Wellenlängen der einzelnen Differenzen erhält man dann das Ortsraumfarbbild der einzelnen Quantentröge, im Fall λ/2 ≤ a oder etwas > a [18]. Im Fall λ/2 >> a tritt an die Stelle des Airy-Beugungsmusters der Quantenpunkte ihre näherungsweise Dipolabstrahlcharakteristik; dann ist die Entfaltung keine Fourier-Rücktransformation mehr sondern die Rückrechnung der Streutheorie auf das Dipolmoment p ~ qa der Quantenpunkte.
-
Wenn die geometrische topographische Struktur des „Quantenpunkt”-Arrays überhaupt bekannt ist, ist also die Entfaltung/Subtraktion aber insbesondere auch für die 3 verschiedenen Farbkomponenten möglich (2c), wodurch die spektroskopische Information über die Quantentrog-Luminiszenz (statthaltend für jede Art von Lumineszenz, Fluoreszenz, Phosphoreszenz auf der nm-Skala) dann prinzipiell mit der lateralen Auflösung des Rasterkraftmikroskops vorliegt, für jede neue spektroskopische Situation wieder mit dem schnellen fernfeld-optischen (erfindungsgemäßen) Verfahren, ohne jedes Mal aufs Neue eine langsame Nahfeldmethode anwenden zu müssen. Für höchste Genauigkeit müssten jedoch nicht-lineare optische Effekte bei der Lichtstreuung an nanometrischen (insbesondere metallischen) Streukörpern rechnerisch berücksichtigt werden, da bei der Streuung intensiven elektromagnetischer Strahlung an einer nanometrischen „Antenne” (wie z. B. einem metallischen Nanopartikel) im Streulicht neben der meist dominierenden eingestrahlten Wellenlänge noch etliche andere Wellenlängen vorkommen, insbesondere kürzere, die ja selbst innerhalb des Beugungslimits höhere Auslösung erlauben können. Dann wird die Entfaltung jedoch wesentlich komplizierter, da dann für jedes (ja von der Rastersondenmikroskopie bekanntes) Probendetail (also in der Praxis jedes Nanopartikel) komplizierte Streutheorie angewandt werden muss und in das Gesamtbild eingerechnet werden muss.
-
Durch den Einsatz eines Phasenkontrastverfahrens (Interferometrie), welches prinzipiell vertikal eine (DC-)Auflösung von etwa einem zehntel Angström (oder etwa 10–4 AngströmxHz–1/2 für Modulationsverfahren) besitzt, können auch 3 dimensionale Arrays von Quantentrögen auf diese Weise (Luminiszenz-)spektroskopiert – also ausgelesen – werden, da man die Licht-Phase vertikal mit dieser hohen Auflösung „durchfahren” kann. Somit ist eine viel höhere Speicherdichte als mit 2 dimensionalen Quantentrog-Arrays möglich (nur diese sind ja allen hochauflösenden Rastersondenverfahren zugänglich, das 3 dimensionale Array natürlich zur anfänglichen topographischen Charakterisierung ebenso, d. h. jede Schicht einmal, wenn das 3 dim Array Schicht für Schicht aufgebaut wird).
-
Das erfindungsgemäße Konzept beruht einfach im Grunde darauf, den gebeugten bzw. gestreuten „Schattenwurf” einer Probe nach Beleuchtung (in Reflexion oder auch Transmission) mittels eines ggf. aufgeweiteten/”ge-shape-ten” Laserstrahls möglichst Apertur-los auf einem Pixel-Array abzubilden, das entweder genügend hohe Pixeldichte (mit genügend kleinen Pixeln) aufweist, oder respektive großflächig genug ist (mit genügend vielen Pixeln), dass der (mittels einer einzigen Streulinse) aufgeweitete „Schattenwurf” mit einer optischen Auflösung unterhalb des Beugungslimits von λ/2 (Quantenpunkte mit 5 nm Durchmesser und etwa 10 nm Abstand!) interferometrisch (also mit Phasenkontrast) nach Fourier-Rücktransformation bzw. Streutheorie-Rückrechnung abgebildet werden kann. Die Interferometrie ist eigentlich nur nötig, um das einfallende (beleuchtende/anregende) Licht im Dunkelfeld auszulöschen und nur die Signale der inkohärent lumineszierenden Quantentröge herauszufiltern. Essentiell ist hierbei – neben der möglichst geringen Pixelgröße – die Lichtempfindlichkeit der Detektor-Pixel und damit auch, dass sie einen möglichst hohen Dynamikbereich erlauben, falls der Dynamikbereich des auf den Detektor fallenden Lichtes interferometrisch nicht ausreichend kompensiert werden kann, d. h nicht ausreichend exakt auf einer „dark fringe” gemessen werden kann.
-
1: das Gauß'sche Intensitätsprofil eines Farb-Lasers (rot-grün-blau oder durchstimmbar, es gibt auch bereits weißes Laserlicht) – je nach Probengröße über einen Strahlaufweiter oder Strahlkomprimierer – fällt auf einen Strahlteiler (polarisierend oder auch nicht), von dort einerseits auf einen beweglichen Spiegel einstellbarer Reflektivität (z. B. mittels eines einstellbaren Absorbers davor) und andererseits auf die Proben-Interferometerkavität. Letztere kann zwischen einem (an der Proben-seitigen Grenzfläche teilweise reflektierenden) Objektiv hoher numerischer Apertur (Brennebene ist die Probenebene) und der (reflektierenden) Probe gebildet werden, oder auch zwischen dem reflektierenden Ende einer sehr kurzen Monomodefaser und der (reflektierenden) Probe.
-
Dritte Möglichkeit ist, das Objektiv bzw. die Glasfaser ganz wegzulassen, und einfach eine Interferometerkavität (durchstimmbar oder Bandbreite im relevanten Wellenlängenbereich!) mittels einer hauchdünnen verspiegelten (Reflektivität so eingestellt, dass sie vergleichbar ist mit der zu erwartenden Probenreflektivität) Platte dicht über der Probe zu bilden. Damit wären (fast) alle Aperturen vermieden, jedoch muss der Laser die Probe dann mit sehr hoher Intensität großflächig ausleuchten, was einen erhöhten Anteil unerwünschter Reflexionen an anderen etwaigen Grenzflächen zur Folge hat; außerdem muß der Detektor dann sehr groß werden um höhere Beugungsordnungen mitnehmen zu können bzw. die Beugungsordnung 0. Ordnung genauer vermessen zu können (für λ/2 ≤ a oder etwas > a) bzw. um die überlagerten Dipolcharakteristika ausreichend vermessen zu können (λ/2 >> a).
-
Für den Fall des Einsatzes einer faseroptischen Interferometrie beruht dieser Teil (also nur die faseroptische Interferometrie-Komponente zur reinen vertikalen Kleinst-Abstands-Messung, nicht zur Bild-gebenden Mikroskopie) des erfindungsgemäßen Aufbau auf einer Erfindung aus [10].
-
Idealerweise ist die Probenebene exakt die Fokalebene des Objektivs, sodass der auf die Probe fokussierte (der Fokus kann relativ klein sein, muss aber nicht, denn ein großer Fleck bedeutet eine größere abgebildete Probenfläche, allerdings bei kleinerer Lichtintensität) Lichtfleck exakt in den einfallenden Strahlverlauf (also in sich selbst) zurückreflektiert wird. Im Falle der Lichtzuführung mittels einer Monomodefaser deren Endfläche als ein (teilreflektierender) Spiegel der Kavität dienen soll, endet diese idealerweise in einer Stablinse (graded index lense) deren Fokalebene genau die Probenoberfläche ist.
-
Im vorgeschlagenen Aufbau in 1 kommen also 3 Lichtstrahlen am Pixelarraydetektor zur Interferenz, jedoch kann der 3. vom beweglichen Spiegel kommende Referenzstrahl prinzipiell auch weggelassen werden, er dient nur der optimalen Justierung des Detektorsignals auf eine „Dark-fringe” im Mittel über die Detektor-Bildfläche, die nötig ist für ein günstiges Signal-Rausch-Verhältnis. Diese „Dark-fringe” kann auch direkt eingestellt werden durch die genaue Einstellung des Abstandes/Dicke der oberen teilverspiegelten Fläche der Interferometerkavität (für die jeweiligen z. B. 3 Wellenlängen/Farben) die von Probenfläche und Objektiv/Glasfaser-Austrittsfläche gebildet wird, sowie der genauen Abgleichung der reflektierten Intensitäten (Probe und Objektiv/Glasfaser-Austrittsfläche). Dies ist aber sehr kompliziert und aufwendig – muss natürlich für verschiedene Probenreflektivitäten neu eingestellt werden –, insbesondere wenn diese Interferometerkavität mit Flüssigkeit geflutet werden soll (z. B. zur Erhöhung der numerischen Apertur, und/oder für Anwendungen in der Biologie) und daher wird in 1 der „3.” Referenzstrahl eingeführt. Dessen mögliche, wenn auch sehr aufwändige Eliminierung hätte aber den erheblichen Vorteil, dass Licht sehr geringer Kohärenzlänge (einige Interferometerkavität-Abstände) statt der Größenordnung des gesamten Strahlenganges (Spiegel-Strahlteiler-Probe-Detektor) eingesetzt werden könnte (z. B. eine Leuchtdiode statt einer Laserdiode als Lichtquelle), wodurch Streuinterferenzen des Nutzsignals mit ungewollten Reflexionen erheblich verringert würden, was umso wichtiger wird, je mehr das Signal-Rausch Verhältnis, also letztlich die Auflösung, für die jeweilige Anwendung optimiert werden muss/soll.
-
Durch geeigneten Einsatz von Lambda/4-Plättchen o. ä. werden die Polarisierungen so eingestellt, dass im Pixelarray-Detektor, z. B. der CCD-Kamera, nur die drei gewünschten Laserstrahlen zur Interferenz kommen und Streureflexionen weitestgehend eliminiert werden. Mittels der Position des Spiegels werden die relativen Phasen der Laserstrahlen so eingestellt, dass man nahezu 100% auf einer „Dark-Fringe” misst, die einzigen Photonen, die auf dem CCD-Array/Pixeldetektor ankommen also die von der Probenstruktur verursachten winzigen (inkohärenten) Abweichungen des Lichtstrahl-Intensitätsprofils vom idealen Gauß'schen Intensitätsprofil des einfallenden Lasers sind (2d, gezeichnet für den Nahfeld-Bereich der Probe). Für den Fall der Faser-optischen Version ist angemerkt, dass 1. der Innendurchmesser einer Monomode-Faser für 633 nm ca 4 μm Durchmesser ist, also etwa genauso groß wie die zu erwartende Probenfläche (bei 5 nm Quantenpunkte im 10 nm Abstand wären dies bereits fast 100 kBit, schon wenn nur ein Quanten-Niveau benützt wird), dass 2. diese Monomodefaser sehr kurz sein muss (<< O(1 m)), da in einer idealen Monomodefaser Abweichungen vom idealen Gauß-Profil schnell gedämpft werden. Für große Speicher-Zellen-Arrays, z. B. (1 cm)2 – was bereits nur in 2 Dimensionen realisiert einer Speichergröße von etwa 400 Gbit ((bei 15 nm)2 pro Quantentrog und nur einem benützten Quanten-Niveau) entspräche – muss dann zeilenweise (in 4 μm-Schritten lateral) gerastert werden, oder ein großes Objektiv oder Multimodefaser größeren Durchmessers benützt werden, oder eben das erwähnte völlig aperturlose Schattenwurfverfahren (Patentanspruch 10, 11) mit einem sehr großen Detektorpixelarray – z. B. die künstliche Retina von 1 cm2 aus [6].
-
Aufgrund des Gauß'schen Intensitätsprofils des Laserstrahls ergibt sich ein größeres Nutzsignal in der Mitte des Strahles als an den Rändern. Dies muss zusätzlich kompensiert werden, bei einem CCD-Array z. B. durch entsprechende Vorspannung der einzelnen Pixel, also der Kompensierung des Gauß'schen Intensitätsprofils durch entsprechende Voreinstellung der Empfindlichkeit der Pixel, von der Strahlmitte nach außen zunehmend. Entsprechend profilierte Absorberplättchen wären auch denkbar, würden aber sicherlich Störungen (Reflexionen, Phasenverschiebungen) ins System bringen, und damit das äußerst kleine, zu erwartende Nutzsignal wieder verringern. Eine weitere Möglichkeit besteht darin, die Streulinse (refraktive Linse oder auch „geeignete” Fresnel-Linse [14]) hinter dem „Pinhole” so zu schleifen, dass sie aus einem bekannten Gauß'schen Intensitätsprofil exakt eine homogene Lichtintensitätsverteilung auf dem CCD-Detektor wirft, das Gauß'sche Profil also exakt kompensiert – selbstverständlich bleiben die kleinen Intensitätsvariationen der Nutzinformation erhalten, umso mehr, je größer die Apertur (das „Pinhole”) in 1 ist.
-
Die hier primär vorgeschlagene Methode um spektroskopische (Farb-)Auflösung zu erzielen beruht einfach auf der Technik herkömmlicher hochwertiger Video-Farbkameras, nämlich das Nutzsignal über ein Prisma (oder ein „geeignetes” [14] optisches Gitter) in die Spektralfarben aufzuteilen und mit z. B. 3 oder auch mehreren Pixel-Detektoren (z. B. hochempfindliche Schwarz-Weiss-CCD-Kameras, optimiert für den jeweiligen Wellenlängenbereich) gegebenenfalls mit vorgeschaltetem Wellenlängenfilter aufzuzeichnen. 1 – Inset.
-
„Beschreiben” solcher 3 dimensionaler Arrays von Quantentrögen müsste in der Art eines 2 dimensionalen Schieberegisters erfolgen, wie in 3 vorgeschlagen, jedoch nur für 1 Dimension gezeichnet, oder scannend mittels Rastersondentechniken. Im letzteren Fall hätte man dann zwar nur recht langsames Schreiben, welches allerdings durch das Millipede-Konzept vieler Abtastspitzen [2] beschleunigt werden kann, aber nach wie vor das schnelle großflächige erfindungsgemäße optische Auslesen der Quantentrog-Arrays.
-
Das erfindungsgemäße technische Prinzip beruht also auf mathematischer Rückrechnung des „verschwommenen” mikroskopischen Fernfeld-Beugungs-Bildes (evtl. auch nur Fresnel-Regime – also dem Zwischenbereich zwischen Nah- und Fernfeld, in welchem propagierende Kugelwellen vorliegen, noch keine ebene-Wellen-Näherung wie im Fernfeld anwendbar ist – auch für den Fall der Verwendung von „geeigneten” Fresnel-Linsen [14]), welches aufgrund inkohärenter Lichtanteile in seiner gebeugten bzw. gestreuten Intensitätsverteilung auch die Informationen über Strukturdetails unterhalb/jenseits des Beugungslimits von etwa λ/2 enthalten sollte (2d, gezeichnet für den Nahfeldbereich der Probe), unter Verwendung von teilweisen oder auch vollständigen Zusatzinformationen über die Probengeometrie/Topographie, die zuvor mittels anderer hochauflösender Mikroskopie-Methoden gewonnen wurden. Zunächst mutet es natürlich trivial bzw. wenig sinnvoll an, mittels eines komplizierten Verfahrens eine bereits vollständig bekannte Probentopographie (z. B. mittels atomar auflösender Rasterkraftmikroskopie) „nochmal” aus dem verschwommenen optischen Fernfeld-Beugungsbild zu ermitteln, aber im Lichtbild stecken natürlich noch viele weitere spektroskopisch-optische Informationen über die Probeneigenschaften, also die „Farbe”, die im Kraftmikroskopie-Bild natürlich nicht stecken (Anmerkung: Es gibt natürlich auch hoch-ortsaufgelöste Rastersondenspektroskopien, aber die sind erstens sehr langsam, z. B. die optische Nahfeldmikroskopie/Spektroskopie, allerdings liefern diese allgemein zusätzlich noch völlig andere weitere spektroskopische Informationen, z. B. elektrische oder magnetische sowie Elastizitäts-abhängige Effekte) und weiterhin wird das erfindungsgemäße Verfahren natürlich durch den Wegfall der zeitintensiven Rasterung vor allem wesentlich schneller sein, also Zeitskala der digitalen Videomikroskopie.
-
Das erfindungsgemäße apparative Verfahren zur höchstortsaufgelösten (< lambda/2) schnellen Spektroskopie an einem Array von lumineszierenden Quantentrögen beruht 1. auf dem Prinzip eines hochauflösenden (Laser-)Interferenzmikroskops (Michelson-/Linnik- bzw Fizeau-Typ, auch Faseroptik-Interferometrie-Variante), wodurch das einfallende Licht im Dunkelfeld am Detektor eliminiert wird, unter möglichst weitgehender Vermeidung von Linsen/Aperturen, 2. auf einem höchstauflösenden schnellen sehr großen Pixelarraydetektor (z. B. einer CCD-Kamera) mit extrem vielen extrem kleinen Pixeln, wodurch eine effektive sehr große „numerische Apertur” für die Aufnahme des Beugungsbildes gewährleistet wird bzw. die Dipolabstrahlcharakteristika der Quantenpunkte ausreichend genau quantitativ vermessen werden können, sowie 3. auf einem schnellen digitalen Bildaufzeichnungs- und Bildverarbeitungsverfahren welches mit Videobildrate das aus dem aus Rastersondenmikroskopie bekannten Topographiebild (genauer dessen daraus mathematisch durch Fourier-Transformation errechneten Beugungsbild der Interferenz ebener bzw. sphärischer Wellenfronten) der Probe „online” vom „verschwommenen” optischen, in die z. B. 3 Grundfarben aufgespaltenen Fernfeld-Lichtbild (Beugungsbild) subtrahiert und dann diese drei Bilder wieder Fourier-rücktransformiert. Im für das erfindungsgemäße Konzept signalstärkeren Fresnel-Regime (Zwischenbereich zwischen Nah- und Fernfeld, im Abstand von größenordnungsmäßig 100 λ von der Probe, Streukörperausdehnung ≈ λ), wobei sphärische Wellenfronten berücksichtigt werden, müssen also höhere Terme in der Multipolentwicklung mitgenommen werden, nicht nur ebene Wellen. Diese z. B. 3 erhaltenen Bilder enthalten dann die korrekte Farbverteilung der Probe mit der Ortsauflösung der unterstützenden Rastersondenmikroskopie (mit der die Probe ja nur einmal geometrisch definiert werden muss) und der Zeitauflösung und spektroskopischen Auflösung der Videomikroskopie. Schließlich 4. wird die Entfaltung hier einfach lösbar in Form einer Subtraktion, da die Quantentröge voneinander unabhängig lumineszieren sollten, also untereinander inkohärente Punktlichtquellen darstellen; daher sollten sich die vielen Airy-Beugungsmuster-Intensitätsprofile (für λ/2 ≤ a oder etwas > a [18]) bzw. Dipolabstrahlcharakteristika λ/2 >> a einfach skalar addieren und eben nicht untereinander interferieren. Die Airy-Beugungsmuster-Intensitätsprofile bzw. Dipolcharakteristika der einzelnen Quantenpunkte für die jeweilige einfallende Wellenlänge an den durch die Rasterkraftmikroskopie bestimmten Positionen werden „einfach” vom „verschwommenen” optischen Beugungsbild/gestreuten „Bild” subtrahiert und übrig bleibt die Farbinformation, immer noch in Form der Airy-Beugungsmuster-Profile bzw. Dipolabstrahlcharakteristika der Quantentröge. Jeder einzelne Quantenpunkt (seine Lumineszenz) kann dann im Ortsraum durch Fourier-Rücktransformation für die jeweiligen Lumineszenz-Wellenlängen erhalten werden für den Fall λ/2 ≤ a oder etwas > a [18]. Für den Fall λ/2 >> a muss dann die Hertzsche Dipolabstrahlcharakteristik zurückgerechnet werden auf die Streukörpergröße. Auch für den Fall, dass die Quantenpunkte kohärente (z. B. phasenerhaltend reflektierende) Lichtquellen sein sollten, sollte es einen kleinen Anteil inkohärenten Lichtes geben, der sich dann ebenso skalar addiert, wenn auch dann der Großteil der (reflektierten) Intensität interferiert.
-
Bei allen Abweichungen des erfindungsgemäßen Verfahrens von der herkömmlichen Videomikroskopie ist es immer ein Aspekt, auf möglichst viele Linsen/Aperturen verzichten zu können, sogar auf „geeignete” Fresnel-Linsen [14].
-
Zu Patentanspruch 2:
-
Prinzip wie in Patentanspruch 1, mit der Spezifizierung, dass die Lichtquelle ist ein durchstimmbarer Laser ist. Die Interferometerkavität über der Probe wird insbesondere bzgl. ihres Abstandes und eventuell auch deren Reflektivität (z. B. mittels elektrisch steuerbarer/polarisierbarer Flüssigkristall-Beschichtungen) simultan mit der Durchstimmung der Laserwellenlänge angepasst; die Wellenlängen-Abhängigkeit der Detektorpixel wird kalibriert und bei der mathematischen Analyse berücksichtigt. Der Faraday-Isolator wird entweder auch simultan durchgestimmt (für höchste Genauigkeit) oder ist ein Breitband-Isolator. Dieses Verfahren gewährleistet die höchste Genauigkeit (Signal-Rausch-Verhältnis), opfert aber Geschwindigkeit der erreichbaren Bildrate, was beim Auslesen von Quantentrögen als Speicherzellen ein geringeres Problem wäre, da nur jeweils ein (Gesamt-)Bild (aller Quantentröge) nötig ist (wäre also immer noch schnell genug). Dieses Verfahren wäre beim Aufzeichnen von fluoreszenzmikroskopischen Filmen auf biologischen Proben in vitro aber von erheblichem Nachteil, es sei denn, wenn nicht hier sowieso die Bildrate von der hier notwendigerweise simultan laufenden, viel langsameren Rastersondenmikroskopie in jeweils zutreffendem gewissen Maße begrenzt würde; und es sei denn, es werden sowieso nur 1 oder 2 oder wenige bekannte Fluoreszenzwellenlängen simultan beobachtet.
-
Zu Patentanspruch 3:
-
Prinzip wie in Patentanspruch 1, mit der Spezifizierung, dass die Lichtquelle ein weißer (Puls-)Laser ist. Der Faraday-Isolator ist in diesem Fall zwingend ein Breitband-Isolator. Der Pixelarraydetektor ist in diesem Fall der einer kommerziellen Farbvideokamera, entweder mit einem Farb-CCD-Array, oder das weisse Licht wird durch beispielsweise ein Prisma in 3 oder mehr Teilstrahlen aufgeteilt und auf mehreren (wellenlängen-kalibrierten/getunten) Pixelarray-CCD-Detektoren aufgezeichnet. Dieses Verfahren gewährleistet die höchste Bildrate, aber opfert Signal-Rausch-Abstand, insbesondere da natürlich die Interferometerkavität über der Probe eigentlich nur für eine Wellenlänge abgestimmt sein kann. Diese besitzt aber doch eine gewisse Bandbreite, die ja nur nötig ist, wenn man die Lumineszenz abbilden möchte, also ein Farbbild erhalten möchte. Insbesondere für die in der „in vitro”-Biologie relevante Fluoreszenzmikroskopie müßte die prinzipiell sehr enge Bandbreite der Interferometerkavität ausreichend sein, da dort nur zwei oder eventuell bei Untersuchung einiger weniger Fluoreszenzmoleküle gleichzeitig einige wenige Wellenlängen eine Rolle spielen, die erstens auch noch relativ eng nebeneinander liegen und zweitens dann durch Filter am Detektor/mehreren Detektoren noch mal selektiert werden können, also spezifische (evtl. auch differentielle, also nichtlineare) Analyse der von den Fluoreszenzmolekülen absorbierte Licht gegenüber dem von ihnen emittierte Licht.
-
Zu Patentanspruch 4:
-
Wie Patentanspruch 1, mit der Spezifizierung, dass der gesamte Strahlengang Faser-optisch aufgebaut wird. Das gesamte (Michelson-/Fizeau-)Interferometer ist also rein faseroptisch aufgebaut dann, Reflexionen an Grenzflächen/Übergängen werden weiter erheblich minimiert, es gibt keine durch freien Raum (Streulicht/Refraktion durch Luftzüge) verlaufenden Strahlengänge und somit wird das Signal-Rausch-Verhältnis der Apparatur weiter verbessert. Alle notwendigen zu justierenden Phasenverschiebungen etwa für den „3.” Referenzstrahl können wie in [10] über Spannungsdoppelbrechnung der Faser also durch Biegen der Faser in einer Ebene mit geeignetem Winkel zur Polarisationsebene des Lichtes realisiert werden, die „lambda/4-Waveplates” zur 90°-Polaristationsdrehung (2-mal jeweils 45° Polarisationsdrehung in die gleiche Richtung auf Hin- und Rückweg) können ebenfalls durch Biegen der Faser in geeigneter Ebene wie in [10] realisiert werden. Der polarisierende Strahlteiler wird letztendlich zunächst doch ein mehr oder weniger herkömmlicher polarisierender gläserner Strahlteilerwürfel sein, an den aber die vier Glasfasern mit einem integrierten System angeschlossen werden (z. B. kommerziell erhältlich von [11]), welches Reflexionen und freie Strahlengänge minimiert/eliminiert. Durch die Verwendung von Stablinsen (graded index lenses) in der Ein- und Auskoppeloptik für die Monomode-Glasfasern könnten diese Stablinsen direkt an den Strahlteiler-Würfel angeklebt werden, sowie die Fasern direkt an die Stablinsen angeklebt werden (mittels Index-matching Epoxy – [11a]), was jegliche Reflexionen an Grenzflächen eliminiert und freie Strahlengänge ausschließlich auf den Raum im (kleinen) Strahlteilerwürfel selbst begrenzt. Künftig wird es sicher hochintegrierte Optiksysteme geben, die einen polarisierenden Strahlteiler mit Faseranschlüssen auf einem einzelnen Chip realisieren.
-
So ein System hätte bei eventuell schlechterem Signal-Rausch-Verhältnis (was im Falle der Realisierung mittels integrierter Optik – hier unter Verwendung „geeigneter” [14] Fresnel-Linsen, während es bei den Lese-/Schreibköpfen von kommerziellen CD-/DVD-Lese-/Schreibgeräten „normale” Fresnel-Linsen sind – noch zu untersuchen wäre) jedoch den Vorteil höchster Kompaktheit, Handlichkeit und Portabilität und Preisgünstigkeit.
-
Zu Patentanspruch 5:
-
Wie Patentanspruch 4, mit der Spezifizierung, dass auch der Strahlteiler rein Lichtwellenleiter-optisch realisiert wird, vorzugsweise mittels integrierter Optik mit dem Vorteil allerhöchster Kompaktheit, Portabilität und Preisgünstigkeit bei entsprechenden mikrotechnischen Fertigungsverfahren. Handelsübliche faseroptische polarisierende und nicht-polarisierende Strahlteiler (fused Fibers von 2 oder mehreren Glasfasern) haben viele Nachteile z. B. dass Streureflexe sofern sie vorhanden sind nicht oder nur sehr schwer mit obigen lambda/4-Trick eliminiert werden können und es auch starke Reflexionen in die Lichtquelle zurück gibt, welche deren Intensität destabilisieren, die auch der Faraday-Isolator nur bis zu einem Maß eliminieren kann.
-
Zu Patentanspruch 6:
-
Wie Patentanspruch 1, mit der Spezifizierung, dass es natürlich auch Quantentröge gibt, die keine oder nur geringe topographische Strukturen besitzen (eingebettete lokale Materialveränderungen, wie typischerweise bei in Halbleiterstrukturen realisierte Quantentrögen), welche dann mittels AFM nicht ideal charakterisiert werden können. In diesem Fall kann aber fast immer ein geeignetes Rastersondenverfahren insbesondere zur geometrischen (aber eventuell auch elektronischen) Charakterisierung der Quantentröge gefunden werden, z. B. rasternde Elastizitäts-/Kapazitäts-/Leitfähigkeits-/Magnetkraft-Sondenmikroskopie oder auch Nahfeld-optische Mikroskopie selbst, welche dann die Zusatzinformationen liefern, die zur Entfaltung/Subtraktion/Rückrechnung des optischen Fernfeldbildes nötig ist.
-
Zu Patentanspruch 7:
-
Das optische Auslesen der Quantentröge kann aber natürlich auch mittels Rastersondentechnik erfolgen, insbesondere wird hier vorgeschlagen, auf eine AFM-Abtastspitze aus hochdotiertem Si eine dünne (ca 100 nm) DLC-Schicht wie in
EP1096569A1 [3] aufzubringen, dann am Ende der Spitze durch Beschuss mit einem einzigen hochenergetischen Ion einen leitfähigen Quantendraht zu erzeugen (wie in
EP1096569A1 [3]), dessen quantenmechanische Leitfähigkeit auch lichtempfindlich ist [6]. Mittels des Stromes durch diese so präparierte rasternde Abtastspitze können die Anregungszustände in der hier vorgeschlagenen Schicht von „Quantenpunkten” sowohl geschrieben (elektronisch) als auch gelesen (optisch) werden (
3b). Denn wie in
2c in [6] „scannt” (Spannungswobbelung/Durchfahren der I-V-Kurve) das oberste besetzte Niveau des jeweiligen Quantenpunktes die Quantenconductance Peaks (1-dimensionale Transmission im Quantendraht in der Abtastspitze) abzählbar ab – entspricht elektronischem Schreiben. Zweitens lösen die von einem abregenden Quantentrog emittierten Photonen eine Änderung des lichtabhängigen Stromes durch den in der AFM-Spitze befindlichen Quantendraht aus [6] – optisches Lesen. Der Licht-empfindliche Quantendrahtstrom ist wünschenswert, aber nicht unbedingt notwendig, eine für Nahfeld-Optik geeignete „angespitzte” (also viel kleiner als λ) Photosensor ist auch schon auf „konventionelle” Art (herkömmlicher Photoeffekt, z. B. vorläufige Versuche in [13], aber auch verschiedene andere bereits wesentlich professioneller) realisiert worden und möglicherweise bereits kommerziell erhältlich.
-
Zu Patentanspruch 8:
-
Das Auslesen der Quantentröge kann aber auch rein elektronisch erfolgen, insbesondere wird hier vorgeschlagen, mittels der in Patentanspruch 7 und [3, 6] beschriebenen Quantendrähte, die hier wie in Patentanspruch 7 auf einer AFM-Abtastspitze angebracht sind, die Meßmethode dargestellt in 2c aus [6] heranzuziehen, um die elektronischen Anregungszustände der Quantenpunkte auszulesen (3b). Abzählen der scharfen Quanten-Conductance-Peaks in Relation zur angelegten Spannung zwischen Spitze und Quantentrog liefert dann die Information über den Anregungszustand der Quantenpunkte.
-
Zu Patentanspruch 9:
-
Erzeugung eines elektronisch beschreibbaren Arrays von Quantentrögen bestehend aus Arrays von metallischen Nanopartikeln, z. B. mittels Langmuir-Blodgett-Technik [12, 12a, 12b] aufgebracht oder auch mittels anderer (z. B. „imprinting-”) Verfahren [12c] auf ein Gitter-Netzwerk von potentiometrischen Widerstands-Leiterbahnen, z. B. aus dünnem graphitischem Kohlenstoff, bzw. Halbleitern oder Metallen mit relativ hohem spezifischem Widerstand (3a). Zwischen den Leiterbahnen und den Quantentrögen befindet sich ein dünner isolierender Spacer (entweder eine isolierende Oxid-/DLC-Schicht zusätzlich aufgebracht, oder einfach im Falle der LB-Aufbringungstechnik die amphiphilen Moleküle welche die Metall-Nanopartikel tragen bzw. diese umhüllen), der/die nur einen sehr hochohmigen Tunnelkontakt zwischen dem Widerstandsbahn-Netzwerk und den Quantentrögen erlaubt/erlauben, das Beschreiben der Quantentröge mittels quantitativer Spannungspulse also möglich wäre, die Quantentröge ihren Ladungszustand aber im Prinzip nicht-flüchtig halten. Wie lange sie in ihrem Ladungszustand verweilen, bleibt noch in weiteren Messungen zu ermitteln und ist natürlich abhängig von der Hochohmigkeit der Tunnelkontakte, sowie natürlich der Abschirmung gegen äußere Einflüsse wie Strahlung und Temperatur.
-
Problem hierbei wird sein, auf jeden Kreuzungspunkt des Widerstands-Leiterbahn-Gitternetzwerks genau einen Quantentrog zu setzen; zunächst wird es durch Abstimmung der Größe dieser Kreuzungspunkte auf die Größe der metallischen Nanopartikel nur erreichbar werden, im Mittel einen Quantentrog pro Kreuzungspunkt zu erhalten. Weiterhin könnten die Quantentröge (im LB-Film) zunächst viel dichter gepackt sein, als die zunächst machbare Größe/Abstände der Leiterbahn-Kreuzungspunkte, dass also auf jeden Kreuzungspunkt zunächst mehrere/viele (< 5 nm große) Nanopartikel sitzen. Deren Quantenniveaus werden bei gleicher Größe alle bei derselben Energie/Spannung liegen, nur der (winzige) Stromstoß, um sie alle gleichzeitig in ein bestimmtes Quantenniveau zu „heben”, also zu „beschreiben”, müsste proportional zur Anzahl größer sein, was aber für jeden Quantentrog-Array nach der Herstellung einzeln aufwändig kalibriert werden müsste, aber eben auch kalibriert werden könnte.
-
Prinzipiell wäre ein Auslesen eines solchen Quantentrog-Arrays mittels einer solchen Widerstandskaskade auch möglich, wenn die Leiterbahn-Abschnitte „Transmission-Lines” darstellten, also jedes Verbindungsstückchen zwischen den Quantentrögen ein RC-Glied wäre. R wäre der ohmsche Widerstand des Leiterbahnstückchens (eine Art sehr kleine Potentiometer-Leiterbahn) zwischen den Quantenpunkten, wobei Leiterbahn und Quantentröge nicht direkt verbunden sind sondern nur über einen Tunnelkontakt (bestimmter Kapazität C1) und C wäre die Kapazität des horizontalen Tunnelkontaktes zwischen den Quantentrögen. Die Kalibrierung einer solchen Adressierung wäre aber ein extrem hoher Aufwand, aber ähnlich wie bei einem DRAM, Schieberegister, CCD-Array und vermutlich auch FlashRAM.
-
Langmuir-Blodgett-Schichten können auch mehrfach abgeschieden werden, es können also einfach Multischichten gebildet werden, somit ein 3-dim Array von Quantentrögen (z. B. [1a]); die Bildung der Adressierungs-Leiterbahn-Matrix wird dann aber sehr schwierig, könnte wohl höchstens in jeder Schicht zweidimensional realisiert werden, vertikale Leiterbahnen welche die Quantentröge in der dritten Dimension verbinden, lassen sich wohl nur sehr schwer realisieren, es sei denn, man kann die Quantentröge in ein Matrixmaterial einbetten, welches durch vertikalen Beschuss mit einzelnen hochenergetischen Teilchen leitfähige Teichenspuren bildet. (Ähnlich wie in
EP1096569A1 [3]).
-
Eine andere Möglichkeit der Wahl wäre natürlich, wenn die amphiphilen Moleküle, welche die metallischen Nanopartikel als Teil ihrer „Kopfgruppe” tragen bzw. die metallischen Nanopartikel umhüllen, selbst leitfähige „hydrophobe” Ketten hätten – das gibt es (Doppelbindungen/ungesättigte Fettsäuren/Poly-Acetylene) – und die Kopfgruppe des Moleküls selbst den hochohmigen (pseudoisolierenden) Tunnelkontakt zum Nanopartikel herstellen würde.
-
Zu Patentanspruch 10:
-
Optische Mikroskopie weit jenseits des Beugungslimits, einfach durch Einsatz eines Pixel-Detektor Arrays mit extrem kleinen Pixeln und extrem kleinen Pixelabstand. Beispielsweise die „künstliche Retina” aus [6] könnte hierbei zum Einsatz kommen (Pixelgröße etwa 5 nm, mittlerer Pixelabstand bis hinunter zu etwa 10–30 nm) – 3a/II. Die Probe, z. B. Moleküle, Bakterien, Zellen, aber auch Quantenpunkte werden direkt auf dem Pixelarray-Chip präpariert und durch fast trivialen Schattenwurf auf die Pixeldetektoren im Nahfeld abgebildet. Bei dünnen Proben wäre nicht mal viel Licht erforderlich, da Quanteneffekte immer extrem empfindlich sind.
-
Eine solche „künstliche Retina” wie in [6] vorgeschlagen mit extrem kleinen und extrem vielen Pixeln würde also alle Auflösungsprobleme in der Farb-Mikroskopie/ortsaufgelösten Spektroskopie lösen, die Ortsauflösung nur begrenzt durch die Pixelgröße (Quantendrahtdurchmesser sind etwa 1 nm, mittlere Abstände von etwa 10 nm denkbar wie in [6] und
EP 1096569A1 [3] avisiert); die Zeitauflösung wäre durch die Beschaltungstechnik der Pixel der „künstlichen Retina” [6] begrenzt, denn quantenelektronische Effekte in Quantendrähten (ohmscher Widerstand praktisch Null) laufen instantan ab. Spektroskopische Auflösung sollte auch bereits im einzelnen Quantendraht realisierbar sein, denn solche quantenmechanische Mechanismen (Anregungsvorgänge quantenmechanischer Zustande) sind immer von der Photonenenergie – also von der Lichtfrequenz – abhängig, aber um letzteres zu quantifizieren, müssen die elektronischen Eigenschaften der Quantendrähte aus
EP1096569A1 [3] noch viel genauer vermessen werden.
-
Zu Patentanspruch 10a:
-
Apertur- und Linsen-lose Mikroskopie wie in Patentanspruch 10, gekennzeichnet dadurch, dass sich das Pixeldetektorarray im Abstand von etwa mehr als 10–100 λ von der Probe entfernt befindet,
dass das Beugungsbild der Probe im Fresnel-Regime aufgezeichnet wird,
dass das auch herkömmliche (CCD-)Pixeldetektorarray oder das Quantendrahtpixelarray wie in Patentanspruch 10 sehr viel großflächiger ist als die Probe und damit eine sehr große effektive numerische Apertur gewährleistet wird für das reine Beugungs”bild”/gestreute „Bild”,
dass im Fall λ/2 ≤ a oder etwas > a [18] das Bild im Ortsraum durch für die Fresnel-(Kugelwellen)-Näherung korrigierte Fourier-Rücktransformation oder näherungsweise durch Fourier-Rücktransformation (für verschiedene Wellenlängen) alleine erhalten wird,
dass im Fall λ/2 >> a durch Rückrechnung der überlagerten Dipolabstrahlcharakteristika (für verschiedene Wellenlängen) auf den Streukörper geschlossen wird
-
Zu Patentanspruch 10b:
-
Wie Patentanspruch 10a, gekennzeichnet dadurch dass,
das Pixeldetektorarray hemisphärisch conkav ist und die Probe in dessen Mittelpunkt positioniert ist.
-
Zu Patentanspruch 11:
-
Ganz analog wie Patentanspruch 10 wäre ein nicht-scannendes Nahfeldmikroskop mit einem 2-dimensionalen Array vieler Nahfeld-„Spitzen”, welches prinzipiell auch erreicht werden könnte durch Bündelung vieler üblicher zur Nahfeldapertur angespitzter Monomode-Glasfasern und Weiterleitung des Lichtes jeder einzelnen Faser auf einen Photomultiplier/Photocounter, wie im Gedankenexperiment oben beschrieben; also eine Parallelschaltung vieler optischer Nahfeldmikroskope, womit das Abrastern der Probe überflüssig würde. Problem ist ein geometrisches, da bei der Bündelung vieler feiner angeschärfter Glasfaserspitzen der Bereich der Fasern, in welchem ihr Durchmesser (viel) kleiner wäre als für die nahezu ungedämpfte Lichtpropagation (bei bestimmter Wellenlänge, z. B 633 nm) notwendig, relativ lang wäre, das von den nahfeldoptischen Spitzen aufgesammlte Licht also extrem gedämpft würde, bevor es auf den Detektor fiele; damit wären die Signale evtl. nicht mehr detektierbar, insbesondere wegen Störlichtintensitäten – Einzelphoton-Detektoren gäbe es ja.
-
zu Patentanspruch 12:
-
Zeitauflösung und „Farbe” der optischen (Fernfeld-)Mikroskopie bei gleichzeitiger Ortsauflösung der Rastersondenverfahren in der Biologie/Kristallographie/physikalischen Chemie usw:
Mit dem erfindungsgemäßen Spektroskopieverfahren können natürlich auch Fluorophore (immer statthaltend für Lumineszenz, Fluoreszenz und Phosphoreszenz, die für das erfindungsgemäße Konzept als völlig äquivalent zu betrachten sind) in der Biologie/Kristallographie/physikalischen Chemie spektroskopiert werden. Auch diese werden wie Quantentröge als voneinander unabhängige Punktlichtquellen betrachtet, die untereinander nicht interferieren; ihre Airy-Beugungsmuster-Intensitätsprofile für λ/2 ≤ a oder etwas > a [18] bzw. Dipolabstrahlcharakteristika (für λ/2 >> a) werden sich also skalar addieren im Beugungs-/gestreuten „Bild”. So sind beispielsweise Fluorophore, die direkt an oder in unmittelbarer Nähe (auf molekularer Skala) von Proteinen angebunden werden, oft Indikatoren für die Funktion solcher Biomoleküle (oder auch für Umkristallisationsvorgänge z. B. in Langmuir-Blodgett Filmen). Das AFM könnte diese Luminiszenz- oder Fluoreszenzpartikel (z. B. metallische Nanopartikel mit oder ohne angebundenen Fluoreszenzmolekülen) lokalisieren und die erfindungsgemäße optische Spektroskopie kann dann biochemische Funktionen z. B. auf einer Zell-Bakterien-/Virenoberfläche nachweisen, alles mit der Orts-Auflösung des Rasterkraftmikroskops und der Farbe der optischen Beugungs-/Streu-„Bild”-Mikroskopie. Die Zeitauflösung kann besser sein als die der Rastersondenverfahren und der der optischen (Video-)Mikroskopie nahezu gleichen, da heutige Computer sehr leistungsfähig sind, die Rastersondenmikroskopie liefert nur die zeitlichen „Stützpunkte/Stützpunkt-Bilder” an nötiger Zusatzinformation auf der ihr eigenen Zeitskala von (heutzutage) bis zu 10 Bilder pro Sekunde.
-
Konkret vorgeschlagen wird dieses Verfahren z. B. für die Abbildung auf molekularer Skala der Oberfläche lebender Zellen/Bakterien/Viren in vitro und physiologischen Prozessen darauf Die Rasterkraftmikroskopie liefert bereits „Filme” mit einer Auflösung von hinunter zu ca. 10 nm lateral bis zu einem Bild pro Sekunde [13]; basierend auf dieser Ortsauflösung könnte dann die erfindungsgemäße schnelle (viel schneller als die 1 Bild/sec der Rasterkraftmikroskopie in der Biologie) Spektroskopie dann Luminiszenz-/Fluoreszenz-Marker dann mit noch viel höherer Bildrate mitverfolgen, so also dynamische biochemische Prozesse in Farbe abbilden und identifizieren.
-
Ganz konkret könnten mit 5 nm-Gold-Nanopartikeln (die gibt es auch mit angehängten Fluoreszenzmolekülen) gelabelte monoklonale Antikörper gegen bestimmte Proteine auf der Oberfläche von Viren (z. B. Impfstämme) mittels der erfindungsgemäßen spektroskopischen optischen (Farb-)Mikroskopie abgebildet werden, während sich diese Viren an Zelloberflächen anheften, oder neu gebildete Viren die Zelle durch die Zellwand verlassen, damit also bestimmte Viren eindeutig identifiziert werden. Genauso könnten natürlich ganz allgemein bestimmte Proteine in der Zellmembran mit solchen „gelabelten” monoklonalen Antikörpern eindeutig markiert werden und damit biochemische Prozesse wohldefiniert auf molekularer Skala mitverfolgt werden, mit der Zeitauflösung der optischen Mikroskopie, wenn die Ortsveränderungen innerhalb des Beugungslimits (außerhalb sieht es die optische Mikroskopie ja sowieso) nur langsam sind – Größenordnung der Zeitauflösung des AFM, 1 Bild pro Sekunde). Ortsfeste Prozesse, z. B. Protein-Bewegung/enzymatische Aktivität, welche z. B. die Fluoreszenz eines Marker-Moleküls quenchen können, können natürlich mit der Zeitauflösung der erfindungsgemäßen optischen Mikroskopie/ortsaufgelösten Spektroskopie abgebildet werden – also z. B. mit der Zeitauflösung einer höchstwertigen Video-Farbkamera, da gibt es ja auch Hochgeschwindigkeitskameras mit bis zu 5000 Bildern pro Sekunde. Die in [6] vorgeschlagene „künstliche Retina” könnte aufgrund der dort ausgenutzten Quanteneffekte noch schneller sein. Alles natürlich extrem schnelle effiziente Computer-/Numerik-Softwaretechnik vorausgesetzt. Einzelne wenige wohldefinierte Marker-(Leucht-)Punkte, also einzelne (2–3 Stück) innerhalb des Beugungslimits platzierte Fluorophore können natürlich (im Prinzip/theoretisch) direkt (siehe oben) – auch in 3 Dimensionen – mit der erfindungsgemäßen Methode mitverfolgt werden, ohne eine andere unterstützende hochauflösende („Schwarz-Weiß”-)Mikroskopie wie die Rastersondenmikroskopie zu benötigen.
-
Die „Rückrechnung” der lateralen Auflösung der optischen (Fernfeld-)Mikroskopie würde dann relativ langsame und relativ geringfügige Ortsveränderungen (Größenordnung der RKM Auflösung) der Detailstrukturen tolerieren, wobei die RKM diese ja ständig mit 1 Bild/sec auffrischt. Ortsveränderungen dieser Detailstrukturen können auch in der Größenordnung einiger AFM-Ortsauflösungen (also einige 10 nm) sein, denn wie oben erwähnt reicht es ja für die „Rückrechnung” des Spektroskopiebildes von definierten „Punkten” („Airy-Scheibchen”), ihre Anzahl und ihre ungefähre Position innerhalb des optischen Beugungslimits zu kennen. Die hierfür notwendigen schnellen numerischen (Real-time-)Verfahren sind zunächst nicht Gegenstand dieser Erfindung, existieren in möglicherweise adaptierbarer Art und Weise z. B. im Bereich der Bild-/Objekterkennung bei der Elektronenmikroskopie oder auch in [17].
-
Es sei noch angemerkt, dass die erfindungsgemäße ortsaufgelöste Spektroskopie natürlich neben der AFM auch mit anderen hochauflösenden Mikroskopiemethoden kombiniert werden kann, z. B. der Elektronenmikroskopie oder auch der photonischen Kraftmikroskopie, die 3d-Abbildungen etwa auch aus dem Zellinneren in vitro liefern können soll. Letztere wäre hier interessant, da auch die erfindungsgemäße Methode aufgrund der Möglichkeit der Benutzung eines Phasenkontrastverfahrens auch 3-dimensionale Orts-Information liefert.
-
Zu Patentanspruch 13:
-
Das erfindungsgemäße Konzept aus Patentanspruch 1 zur Überwindung der Beugungslimitierung wellenoptischer Abbildungsverfahren ist natürlich grundsätzlich auf alle wellenoptische Mikroskopien/Teleskopien anwendbar, insbesondere wenn das „reflektierte Lich” inkohärente Lumineszenz ist und keine direkte Phasen-erhaltende Reflexion; also auch beispielsweise auf die Elektronenmikroskopie (dort kommt natürlich magnetische Elektronenstrahl-Optik zur Anwendung) oder auch die Abbildung unter Anwendung von Infrarot-(KBr-Linsen oder „geeignete” Fresnel-Linsen [14]) oder Mikrowellen (Richtfunk-/Radar-„Optik”, „geeignete” [14] Fresnel-Linsen oder Parabolspiegel) – der elektronisch auslesbare Pixeldetektor muss nur für die jeweilige Wellenlänge geeignet/empfindlich sein. Im Mikrowellenfall wird der Laser in 1 durch einen Maser ersetzt, alle Linsen/Aperturen werden weitgehend weggelassen (evtl. rudimentäre Strahlformung durch Richtfunk-„Optik”, also „geeignete” Fresnel-Linsen [14] bzw. Parabolspiegel, Polarisationsdrehungen durch Faradyeffekte), und da also dann paralleles „Licht” verwendet wird, kann die „Probe” sich auch in großer Entfernung befinden. Es wird immer die Okular-Optik weggelassen und durch ein sehr großflächiges CCD-Pixeldetektorarray ersetzt, welches direkt das Beugungs-/Streu-„Bild” (Objektiv-Fokalebene und Probenebene fallen aufeinander) aufzeichnet, welches dann mittels eines Computers anstelle einer Teleskoplinse zurück in den Ortsraum transformiert wird. Dies führt zum Konzept eines hochauflösenden Radar-Teleskopes, Abbildungsmechanismus entsprechend wie in 2d, also unter Umgehung des wellenoptischen Beugungslimits durch numerische Rückrechnung/Entfaltung, eventuell auch zum Erhalt spektroskopischer Information, gegebenenfalls mittels Vorinformationen über die zu beobachtende(n)/abzubildende(n) geometrisch bekannte(n) „Probe”/bekannten Objekte. Das gleiche gilt natürlich für erfindungsgemäße Infrarot-Teleskope.
-
Im Falle eines Teleskops ist natürlich die „probenseitige” Interferometerkavität kaum zu realisieren, nur in seltenen Sonderfällen – man wird sich also auf den Referenzspiegel in 1 beschränken zum Einjustieren auf die „Dark-fringe” und zur Nivellierung des Gauß'schen Intensitätsprofils (siehe Patentanspruch 1). Unter Umständen – je nach Anforderungen an Sensitivität und Auflösungsvermögen und je nach erwartetem Kontrast von der „Probe” – könnte man möglicherweise ganz auf die Interferometrie-Verstärkung verzichten, die ja wie oben erwähnt, prinzipiell nicht zwingend notwendig ist, um die Beugungslimitierung der wellenoptischen Abbildung zu umgehen, es genügen ja prinzipiell eigentlich ein geeignetes elektronisch/digital auslesbares Pixeldetektor-Array, geeignete Strahlformung sowie geeignete numerische Software, und natürlich ausreichende Vorinformationen über die „Probe” bzw. das fernbeobachtete Objekt, nur wird die Signalstärke des „Sub-diffraction-limit-contrast” in der Praxis selten ausreichen, um ohne weitere „Tricks” sichtbar gemacht werden zu können.
-
Zu Patentanspruch 14:
-
Die hier vorgeschlagene Methode zur ultrahoch ortsaufgelösten Mikrsokopie wird kombiniert mit der lang bekannten Fourier Transform Infrarot Spektroskopie (FTIR): Die Laser-Lichtquelle (1.1) wird ersetzt durch eine optimal kollimierte (”ideal” paralleles Licht) Lichtquelle, welche nicht-kohärentes Infrarot-Licht abstrahlt. Ein ultrahoch ortsaufgelöstes Spektrum wird durch Pixel-weise Durchführung der Fourier-Transformation vom Zeitraum nach dem Frequenzraum des aufgrund der periodischen Modulation der vertikalen – in Strahlrichtung – Position des Spiegels (1.3) oder des CCD-Arrays (3) zeitabhängigen Intensitätssignals. Weiterhin wird solch ein Orts-aufgelöstes Spektrum gewonnen durch insgesamt dreidimensionale Fouriertransformation: also durch erstens 1-dimensionale Fouriertransformation vom Zeitraum nach dem Frequenzraum des aufgrund der periodischen Modulation er vertikalen – in Strahlrichtung – Position des Spiegels (1.3) oder des CCD-Arrays (3) oder der Probe (1.8) zeitabhängigen Intensitätssignals und danach zweitens durch laterale 2-dimensionale Fouriertransformation der lateral ultrahochaufgelösten ”Intensitätsbilder” für alle Frequenzen des Spektrums.
-
Zeichnungen:
-
1: Hochauflösende CCD-Kamera (mit großem Dynamikbereich) könnte die untereinander inkohärent lumineszierenden Quantentröge spektroskopisch auslesen (also ihre „Farbe = Anregungszustand” abbilden), indem man quantitativ die (näherungsweise) Airy-Beugungsmuster eines jeden „Quantenpunktes” entfaltet/subtrahiert, insbesondere wenn ihre Position und auch ihre Form bekannt ist (Charakterisierung durch Rastersondenmikroskopie). Durch den Einsatz eines Phasenkontrastverfahrens (Interferometrie), welches vertikal eine Auflösung von größenordnungsmäßig 0.1 Angström besitzt, können auch 3-dimensionale Arrays (1b) von Quantentrögen auf diese Weise spektroskopiert – also ausgelesen – werden, da man die Licht-Phase vertikal mit dieser hohen Auflösung „durchfahren” kann. Somit ist eine viel höhere Speicherdichte als mit 2-dimensionalen Quantentrog-Arrays möglich (nur diese sind ja allen hochauflösenden Rastersondenverfahren zugänglich).
-
Das Gauß'sche Intensitätsprofil eines Farb-Lasers (rot-grün-blau oder durchstimmbar) fällt auf einen Strahlteiler (polarisierend oder auch nicht), von dort einerseits auf einen beweglichen Spiegel einstellbarer Reflektivität (z. B. mittels eines einstellbaren Absorbers davor – etwa elektrisch steuerbar polarisierbare Flüssigkristalle) und andererseits auf die im Abstand (und auch in der Reflektivität) justierbare/modulierbare Proben-Interferometerkavität. Letztere kann zwischen einem (an der Proben-seitigen Grenzfläche teilweise reflektierenden) Objektiv hoher numerischer Apertur und der (reflektierenden) Probe (welche gegebenenfalls in 3 Dimensionen gescannt werden kann, eventuell auch mittels einer Rotation wie in einer HDD/DVD/CD) gebildet werden, oder auch zwischen dem reflektierenden Ende einer sehr kurzen Mono-/Multimodefaser und der (reflektierenden) Probe. Durch geeigneten Einsatz von Lambda/4-Plättchen o. ä. werden die Polarisierungen so eingestellt, dass im Detektor, z. B. der CCD-Kamera, drei Laserstrahlen zur Interferenz kommen. Das Lichtpixelsensor-Array (z. B. eine CCD-Kamera) soll dabei ein sehr großes Array mit extrem vielen extrem kleinen Pixeln sein, wodurch eine sehr hohe effektive numerische Apertur gewährleistet wird (für die Aufzeichnung der Beugungsbilder bzw. „Streubilder”). Mittels der Position des Spiegels werden die relativen Phasen der Laserstrahlen so eingestellt, dass man nahezu 100% auf einer „Dark-Fringe” misst, die einzigen Photonen die auf dem CCD-Array ankommen also die von der Probenstruktur verursachten winzigen Abweichungen des Lichtstrahl-Intensitätsprofils vom idealen Gauß'schen Intensitätsprofil des einfallenden Lasers sind (2d). Für den Fall der Faseroptischen Version ist angemerkt, dass 1. der Innendurchmesser einer Monomode-Faser für 633 nm ca 4 μm Durchmesser ist, also etwa genuso groß wie die zu erwartende Probenfläche (bei 5 nm Quantenpunkte im 10 nm Abstand wären dies bereits fast 100 kBit, wenn nur ein Quanten-Niveau benützt wird), dass 2. diese Monomodefaser sehr kurz sein muss (<< O(1 m)), da in einer idealen Monomodefaser Abweichungen vom idealen Gauß-Profil schnell gedämpft werden. Für große Speicher-Zellen-Arrays, z. B. (1 cm)2 – was bereits nur in 2 Dimensionen realisiert einer Speichergröße von etwa 400 Gbit ((bei 15 nm)2 pro Quantentrog und nur einem benützten Quanten-Niveau) entspräche – muss dann zeilenweise gerastert werden (in etwa 4 μm Sprüngen, also etwa dem Innendurchmesser der Monomodefaser), oder ein großes Objektiv benützt werden. Dieses Objektiv sollte dann eine „geeignete” [14] Fresnel-Linse sein, da der erfindungsgemäß ausgenützte Effekt in der Fresnel-Näherung (sphärische Wellenfronten – Fresnel-Beugungs-Optik, Streukörperausdehnung ≈ λ) im Nahbereich bis etwa 100 Lambda von der Probe entfernt) noch viel signifikanter sein müßte, als in der Fernfeld-Näherung (ebene Wellenfronten – Fraunhofer-Beugungs-Optik), insbesondere könnte dann ein solches erfindungsgemäßes System analog zu den Laser-Schreib- und Leseköpfen eines CD/DVD-Lesegerätes/Brenners integriert auf einem Chip hergestellt werden, unter Benutzung von „geeigneten” Fresnel-Linsen [14].
-
Zur weiteren Verbesserung des Signal-Rausch-Verhältnisses durch weitere Verringerung von Streureflexionen an Grenzflächen kann auch der Strahlteiler faseroptisch ausgeführt werden, und damit das gesamte System einschließlich dem „3.” Referenzstrahl (falls vorhanden), wie in Patentanspruch 1a beschrieben – Phasen und Polarisationsjustage mittels Spannungsdoppelbrechung der Faser wie in [10].
-
1 Inset: Die hier primär vorgeschlagene Methode um spektroskopische (Farb-)Auflösung zu erzielen beruht einfach auf der Technik herkömmlicher hochwertiger Video-Farbkameras, nämlich das vom Strahlteiler kommende Nutzsignal über ein Prisma (oder ein „geeignetes” [14] optisches Gitter) in die Spektralfarben aufzuteilen und mit z. B. 3 oder auch mehreren Pixel-Detektoren (z. B. hochempfindliche Schwarz-Weiss-CCD-Kameras, optimiert für den jeweiligen Wellenlängenbereich) gegebenenfalls mit vorgeschaltetem Wellenlängenfilter aufzuzeichnen.
-
1b: Problem der Beugungslimitierung (λ/2 ≤ a oder etwas > a [18])
2 kleine Scheibchen mit Durchmesser a (Lochblenden) werden (kohärent) beleuchtet und liefern ein Beugungsbild (im Querschnitt analog zu Einfachspalt und Doppelspalt). Die feine gestrichelte Linie wäre also das Doppelspalt-Intensitätsprofil, die dicke gestrichelte Linie deutet in der Einhüllenden (Einfachspalt) die Dispersion für andere Wellenlängen an.
-
1c: Streutheorie, Dipolnäherung für λ/2 >> a
2 kleine Scheibchen mit Durchmesser a dienen als zueinander inkohärent abstrahlende Multipole, in erster Näherung Dipole, deren beide Abstrahlcharakteristika sich daher skalar addieren näherungsweise. Hypothese: Aus der Gesamtabstrahlcharakteristik kann auf die Ausdehnung und Position der beiden Streukörper innerhalb/jenseits des Beugungslimits zurückgerechnet werden.
-
2a: Beugungslimit:
2 Airy-Beugungsprofil-Funktionen ([16] S. 419 für die Lochblende, [16] S. 477 für die obscure Scheibe), falls die „Quantenpunkte” kleine Scheiben sind, am „herkömmlichen” Beugungslimit.
-
Das Beugungsmuster, welches jedem einzelnen „Quantenpunkt” (z. B. in etwa Scheibchengeometrie) entspricht, kann wiederhergestellt (berechnet/entfaltet) werden; ist der Scheibchenabstand knapp oberhalb des Beugungslimits, könnten die Maxima der Beugungsmuster der einzelnen Scheibchen sogar noch auf einer Mattscheibe/photographischem Film getrennt aufgelöst werden.
-
Darüberhinaus kann eine CCD-Kamera das aus den Überlagerungen der Beugungsmuster einzelner Quantenpunkte resultierende Intensitätsprofil (als Funktion der lateralen Ausdehnung) des gebeugten Lichtes quantifizieren.
-
2b: Unterhalb (jenseits) des Beugungslimits:
Überlagerte gebeugte oder gestreute Intensitätsprofile (qualitativ im allgemeinen Fall die Einhüllende), falls die Quantentröge sehr dicht nebeneinander liegen (Airy1, Airy2), also weit jenseits (unterhalb) des herkömmlichen Beugungslimits. Indem man die zwei Airy-Funktionen Airy1 und Airy2 genau kennt, weil die Scheiben-Geometrie der „Quantenpunkte” z. B. durch Rasterkraftmikroskopie genau bekannt ist, kann ein Computer leicht „entfalten” (eigentlich nicht entfalten sondern nur subtrahieren im Fourier-Raum im einfacheren Fall). Dasselbe gilt natürlich für beliebige Geometrien der abzubildenden Strukturdetails, das einzelne Beugungsbild ist ja immer (im Fernfeld) die Fourier-(im Fresnelbereich, also bei etwa „Streukörperausdehnung ≈ λ” und Detektorabstand einige, endlich viele (ca 100) λ auch unter Mitnahme höherer Terme – Kugelwellennäherung – in der Multipolentwicklung)-Transformierte der Licht-Absorption (als Funktion von x, y) des/der Strukturdetails. Allgemeine Entfaltung, also direkte Video-Mikroskopie der Beugungs-/Streu-„Bilder” ohne SPM-Unterstützung wäre auch denkbar, wobei jedoch viele Vorinformationen aus anderen höchstauflösenden Mikroskopien nötig sind (z. B. wie viele Strukturdetails, welche mittlere Größe und Abstand usw., genaue Abbildungs(Transfer-)funktionen/Pointspread-functions des etwaigen Linsensystems).
-
Unter normaler (phasenerhaltender) Belichtung sind die dargestellten Gesamtintensitätsprofile nur die Einhüllenden (vgl. 1b); sind aber die lumineszierenden Quantentröge voneinander unabhängige untereinander inkohärente (Punkt-)Lichtquellen, so sind die qualitativen Gesamt-Intensitätsprofile tatsächlich wie dargestellt einfach skalar addiert I1 + I2.
-
2c:
Spektroskopie: Das resultierende Beugungsmuster der 2 „Quantenpunkte” dicht nebeneinander, also das gebeugte Licht, wird mittels eines Prismas in z. B. rot-gelb-blau aufgespaltet, und von jeweils einem CCD-Array-Sensor aufgezeichnet. Die „Entfaltung” (Subtraktion) wird dann für jede Farbe (Wellenlänge) einzeln durchgeführt. Damit kann die Spektroskopie ortsaufgelöst an jedem Quantenpunkt aufgelöst/zurückgerechnet werden.
-
Unter normaler (phasenerhaltender) Belichtung sind die dargestellten Gesamtintensitätsprofile nur die Einhüllenden (vgl. 1b); sind aber die lumineszierenden Quantentröge voneinander unabhängige untereinander inkohärente (Punkt-)Lichtquellen, so sind die qualitativen Gesamt-Intensitätsprofile tatsächlich wie dargestellt einfach skalar addiert I1 + I2.
-
2d:
2-dimensionales Array von untereinander inkohärent lumineszierenden Quantentrögen (hier nur in Projektion gezeichnet natürlich), mittels Gauß'schen Intensitätsprofiles eines Lasers beleuchtet. Auch unterhalb/jenseits des Beugungslimits treten im Intensitätsprofil des gebeugten (λ/2 ≤ a) oder gestreuten (λ/2 >> a) „Schattenwurfs” laterale Modulationen auf, die zwar wohl kaum, wie hier übertrieben und im Nahfeld-Bereich der Probe gezeichnet, – wo noch keine gegenseitige Verschränkung der durch die Lichtbeugung/Streuung an den Probenstrukturdetails hervorgerufenen Intensitätsschwankungen auftritt –, Minima und Maxima darstellen (nur solche würden ja auf einer Mattscheibe/einem Film fürs Auge sichtbar), es sind aber doch messbare Schwankungen vom idealen Gauß'profil bzw. vom Beugungs-limitierten verschwommenen Schattenwurf. Eine CCD-Kamera kann natürlich die auf die Pixel auftreffende Intensität quantitativ vermessen, nicht nur hell und dunkel unterscheiden – ein Film kann das natürlich auch, nur kann der es nicht mehr fürs Auge verstärken (bzw. schon gar nicht entfalten) und Minima/Maxima aus den vielen dicht verteilten und gefalteten/verschränkten Wendepunkten machen. Der PC, der an der elektronischen Pixel-detektierenden Kamera dranhängt kann das aber schon. Dies funktioniert insbesondere, wenn die Quantentröge als voneinander unabhängige zueinander inkohärente Punktlichtquellen betrachtet werden können, sie also untereinander nicht interferieren, sondern ihre Airy-Beugungsmuster-Intensitätsprofile bzw. Dipolabstrahlcharakteristika sich skalar addieren.
-
3a:
Großes geordnetes oder auch statistisch verteiltes 2-dim Array von Quantentrögen (z. B. metallische Inseln im Nanometer-Größenbereich) zwischen zwei Elektroden, evtl. wieder verbunden (jeweils über Tunnelkontakte) mittels einer Widerstandskaskade wie in einem Schieberegister/CCD-Array/DRAM) oder Kontaktierung mittels des Quantendrahtarrays aus
EP1096569A1 [3] bzw. wie in [6] vorgeschlagen (
3a/II).
-
Erzeugung 2-dimensionaler Arrays von „Quantenpunkten” durch Positionierung von z. B. 5 nm großen kolloidalen Au-, Ag-(oder auch viele andere Materialien)-Nanopartikeln – entweder statistisch auf ein geeignetes Substrat aus der Suspension aufgebracht, oder mit dem AFM positioniert, oder am besten, indem man Langmuir-Blodgett-Filme benützt [12, 12a, 12b], wobei solche „Nano-Kugeln” chemisch an die amphiphilen (z. B. Lipid-)Moleküle gelinkt werden können ([12] und Referenzen darin, [12a, b]) bzw. von diesen umhüllt sein können. Andere (z. B. „imprinting-”)Verfahren sind auch denkbar [12c]. Durch Übertrag der kristallinen oder teilkristallinen LB-Filme auf ein geeignetes Substrat entsteht eine geordnete Schicht solcher z. B. Gold-Nanopartikel. Folgerichtig führt eine derartige (Langmuir-Blodgett)-Abscheidung von Multischichten zu einem 3-dimensionalen Array solcher Nano-Kugeln (Quantentröge) [1a].
-
3b:
Optisch (spektroskopisch) auslesen (oder auch beschreiben) der gespeicherten Information (Luminiszenz-Anregungszustände der Quantentröge) im Fernfeld, Interferometrie-gestützt mittels des erfindungsgemäßen Aufbaus in
1. Weiterhin wird an der ansonsten isolierenden AFM-Abtastspitze ein einzelner Quantendraht erzeugt (Verfahren wie in
EP1096569A1 [3]), mittels diesem die Quantentröge (elektronisch) beschrieben (aufgeladen) werden können aber auch elektronisch ausgelesen werden können sowie optisch ausgelesen werden können; letzteres da die Stromstärke durch einen Quantendraht ja lichtempfindlich ist [6].
-
Referenzen:
-
- 1. P. M. Petroff, G. Medeiros-Ribeiro, MRS Bulletin 21 (4), 50 (1996)
- 1a. Xuehua Zhou, Chunyan Liu, Zhiying Zhang, Long Jiang, Jinru Li "Formation of a 3 dimensional (3D) structure of nanoparticles using Langmuir Blodgett method"; Chemistry Letters 33 (6), 710 (2004)
- 2. US5835477 , G. Binnig, H. Rohrer, P. Vettiger, ”Mass-storage applications of local probe arrays”
- 3. EP1096569A1 , F. Ohnesorge et al.
- 4. US6566704B2 Wun-bong Choi et al.
- 5. H. A. Bethe, Phys. Rev. 66 (7, 8), 163 (Oct. 1944); C. L. Pekeris, Phys. Rev. 66 (11, 12), 351 (1944)
- 6. Patentanmeldung beim DPMA Az: 102008015118.1-33, vom 10.03.2008, F. Ohnesorge
- 7. EP 0776457B1 , C. H. F. Veizel et al.
- 8. T. A. Klar, S. Jakobs, M. Dyba, A. Egner, S. Hell, PNAS 97 (15), 8206 (2000)
- 9. DE10154699A1 , S. Hell et al.
- 10. D. Rugar, H. J. Mamin, R. Erlandsson, J. E. Stern, B. D. Terris, Rev. Sci. Instr. 59 (11), 2337 (1988)
- 11. z. B. Fa. Schäfter-Kirchhoff
- 11a. z. B. Fa. Epotec
- 12. C. P. Collier, R. J. Saykally, J. J. Shiang, S. E. Henrichs, J. R. Heath, Science 277, 1978 (1997)
- 12a. J. R. Heath, C. M. Knobler, D. V. Leff, J. Phys. Chem. B101, 189 (1997)
- 12b. US6159620A , J. Heath, D. Leff, G. Markovic
- 12c. US6294401 J. M. Jacobson, B. N. Hubert, B. Ridley, B. Nivi, S. Fuller
- 13. Dissertation, F. Ohnesorge, Juni 1994, LMU München
- 14. An dieser Stelle sei auf eine Verwechslungsgefahr hingewiesen: Eine Fresnel-Linse (Beugungslinse) arbeitet gewöhnlich auch im Fraunhofer-Regime/Ebene-Wellen-Näherung, aber eventuell – je nach Größenverhältnissen – auch im Fresnel-Regime der Beugung (Sphärische-Wellenfronten-Näherung). Weiterhin sei betont, dass bei beugungslimitierter Optik jede refraktive Linse prinzipiell durch eine Fresnel-Linse ersetzt werden kann. Hier beim erfindungsgemäßen Konzept würde eine „normale” Fresnel-Linse die Informationen unterhalb/jenseits des Beugungslimits unerwünschterweise wegfiltern. Eine für das erfindungsgemäße Konzept hier „geeignete” Fresnel-Linse müsste dann geeignet „geshapedte” Gratings besitzen, also in etwa Gauß-förmig, damit die Informationen höherer Ordnung (also letzlich kürzere Wellenlängenanteile) nicht mit dem „Klingeln/Ringing” durch die Beugung an den „eckigen” oder beliebig geformten Kanten eines herkömmlichen Gratings vermischt werden. Die Ermittlung einer „Point spread funktion” würde hier nur teilweise und dann auch nur theoretisch Abhilfe schaffen können, da dann eigentlich zwei Beugungslimits überlagert werden; das eine entsteht bei der Abbildung der Probe selbst und das andere an der Beugungslinse; dieses verschwommene Bild wird kaum mehr rechnerisch rekonstruierbar sein, es liegt jedenfalls nicht in meiner momentanen Vorstellungskraft. Eine refraktive Linse hat diese Limitierung prinzipiell nicht, hat dafür natürlich – wie jede Linse – noch andere Aberrationen (z. B. die Abweichung der Linsen-Krümmung vom Polynom 4. oder evtl. auch höheren Grades). Den Linsenfehler „endlicher Durchmesser”, also endliche numerische Apertur, besitzen aber beide Linsentypen.
- 15. Das erfindungsgemäße Konzept habe ich im Sept. 1996 bereits im Rahmen meines Forschungsmittelantrags (vertraulich, natürlich nicht publiziert/offengelegt) bei der Alexander v. Humboldt Stiftung vorgeschlagen und daher wird das Urheberrecht zu diesem Zeitpunkt vom Erfinder beansprucht.
- 16. E. Hecht „Optics", 2nd Ed., Addison-Wesley 1987
- 17. A. Lewis, US 6900435 B1 , 2005
- 18. Wobei etwa für λ > a keine vollausgeprägten Beugungsminima mehr auftreten. Die untereinander inkohärent lumineszierenden Strukturen können aber trotzdem entfaltet werden, da die CCD-Kamera die Intensitätsprofile der Beugungspeaks quantitativ vermisst, also auch den Beugungspeak 0. Ordnung – es wird ja keine Mattscheibe benutzt.
- 19. FTIR, Wikipedia
-
Abkürzungen:
-
-
- AFM
- – Atomic Force Microscopy
- FTIR
- – Fourier Transform Infrarot Spektroskopie
- LB-Film/LB-Technik
- – Langmuir-Blodgett-Film/Langmuir-Blodgett-Technik
- NA
- – numerische Apertur
- RKM
- – Rasterkraftmikroskopie
- SNOM
- – Scanning near field optical microscopy/Nahfeld Raster-optische Mikroskopie
- SPM
- – Scanning Probe Microscopy/Rastersondenmikroskopie
-
Bezugszeichenliste
-
- 1
- Prisma oder „geeignetes” [14] optisches Gitter
- 1.1
- Laser
- 1.2
- Faraday-Isolator + Strahlformer/-aufweiter
- 1.3
- Spiegel
- 1.4
- Strahlteiler
- 1.5
- λ/4 – Plättchen (waveplate)
- 1.6
- sehr kurze Monomode-Glasfaser oder starkes Objektiv hoher numerischer Apertur
- 1.7
- Optische Kavität
- 1.8
- Probe
- 1.9
- Laser Intensitäts-Profil – einfallend
- 1.10
- Laser Intensitäts-Profil – reflektiert
- 1.11
- Resultierendes Intensitätsprofil im Dunkelfeld/in destruktiver Interferenz
- 2
- Aufweitungs-(Streu-)Linse, evtl. mit Blende davor
- 3
- hochauflösende Pixelkamera (z. B. CCD-Kamerachip)
- 4
- Scheibchenförmige Strukturdetails (>> ”Airy-Disks”)
- 4.1
- Einhüllende des Beugungsmusters im Fernfeld (für den üblichen Fall kohärenter Beleuchtung), in der jedoch noch Nahfeldinformation enthalten ist.
- 4.2
- Fernfeld-Intensitätsprofil zweier kohärent beleuchteter Airy-Scheibchen (entspricht etwa „Doppelspalt” im Querschnitt)
- 5
- resultierendes gebeugtes Intesitätsprofil (Einhüllende im Normalfall kohärenter Beleuchtung) mit Dispersion (Überlagerung zweier Airy-Funktionen mit Dispersionsaufweitung, wobei die beiden beugenden Strukturdetails innerhalb/jenseits/unterhalb der Beugungslimit-Definition liegen)
- 6
- Quantentröge, z. B. Metallfilm-Inseln
- 6a
- Quantentröge, die z. B. mit 1, 2 oder 3 Elektronen geladen sind. Achtung: Ein mit 3 Elektronen geladener Quantentrog wird bei einer anderen Lichtwellenlänge eine Resonanz besitzen, als derselbe Quantentrog, der nur mit einem Elektron geladen ist – aus verschiedenen Gründen.
- 7
- Elektroden zum „linearen Beladen” der Quantentröge
- 8
- elektrisch isolierende Schicht (z. B. DLC isolierend oder SiO2)
- 9
- elektrisch leitfähiges Substrat (z. B. hochdotierter Si-Wafer)
- 10
- Spektroskopie- bzw. Mikroskopie Laser (Fokusdurchmesser/Beam waist bzw. Strahldurchmesser aufgeweitet auf Probengröße)
- 11
- ideales Gauß-Intensitätsprofil des Lasers (gepunktet dargestellt in den „Abweichungs-gebieten”)
- 12
- Abweichung vom idealen Gauß-Intensitätsprofil (übertrieben gezeichnet: Unterhalb/jenseits des Beugungslimits wird das Intensitätsprofil I(x, y) keine Minima/Maxima aufweisen, sondern oft eine monotone Funktion bleiben, jedoch vom perfekten Gauß-Profil messbar lokal abweichen
- 13
- „Widerstandsdraht” – potentiometrische Leiterbahn mit definiertem R und C (also nicht nur Streu-Kapazitäten/Widerstände)
- 14
- elektrisch isolierendes Substrat (z. B. SiO2-Schicht/Wafer)
- 15
- Tunnelkontakte
- 16
- elektrisch isolierende DLC-Schicht mit eingebetteten vertikalen Quantendrähten (Herstellungsverfahren wie in EP 1096569A1 oder Ussowieso-cnt-tubes) – im Mittel wird jeder Quantentrog durch einen oder wenige Quantendrähte kontaktiert.
- 17
- Verdrahtungsmatrix – wie im DRAM/F1ashRAM/Schieberegister usw. bzw. wie in DE sowieso vorgeschlagen
- 18
- AFM-Detektionslaser
- 19
- AFM-Abtastfeder mit Abtastspitze
- 20
- einzelner Quantendraht (evtl. einige wenige parallele Quantendrähte) vertikal eingebettet in der sonst elektrisch isolierenden (z. B. Diamant-)AFM-Abtastspitze.
- 21
- Schutzwiderstand (geeigneter Größe)
- 22
- hochempfindliches (Pico-Femto-)Amperemeter (z. B. IVC plus Elektrometer-Voltmeter)
- 23
- Schaltung zum optional elektronischen Auslesen der Quantentröge mittels des Quantendrahtes in der AFM Abtastspitze
- 24
- Schaltung zum optionalen elektronischen „Beladen” der Quantentröge mittels des Quantendrhtes in der AFM-Abtastspitze (mit geringfügiger Abwandlung auch zum optionalen optischen Auslesen der Quantentröge mittels des Quantendrahtes in der AFM-Abtastspitze)
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- EP 1096569 A1 [0011, 0041, 0041, 0046, 0049, 0049, 0075, 0077, 0078, 0078]
- US 6566704 B2 [0011, 0078]
- EP 0776457 B1 [0016, 0016, 0078]
- DE 10154699 A1 [0016, 0078]
- US 5835477 [0078]
- US 6159620 A [0078]
- US 6294401 [0078]
- US 6900435 B1 [0078]
-
Zitierte Nicht-Patentliteratur
-
- Hell et al [0016]
- P. M. Petroff, G. Medeiros-Ribeiro, MRS Bulletin 21 (4), 50 (1996) [0078]
- Xuehua Zhou, Chunyan Liu, Zhiying Zhang, Long Jiang, Jinru Li ”Formation of a 3 dimensional (3D) structure of nanoparticles using Langmuir Blodgett method”; Chemistry Letters 33 (6), 710 (2004) [0078]
- H. A. Bethe, Phys. Rev. 66 (7, 8), 163 (Oct. 1944); C. L. Pekeris, Phys. Rev. 66 (11, 12), 351 (1944) [0078]
- T. A. Klar, S. Jakobs, M. Dyba, A. Egner, S. Hell, PNAS 97 (15), 8206 (2000) [0078]
- D. Rugar, H. J. Mamin, R. Erlandsson, J. E. Stern, B. D. Terris, Rev. Sci. Instr. 59 (11), 2337 (1988) [0078]
- C. P. Collier, R. J. Saykally, J. J. Shiang, S. E. Henrichs, J. R. Heath, Science 277, 1978 (1997) [0078]
- J. R. Heath, C. M. Knobler, D. V. Leff, J. Phys. Chem. B101, 189 (1997) [0078]
- E. Hecht „Optics”, 2nd Ed., Addison-Wesley 1987 [0078]