-
Strukturierte
Beleuchtung wird in der Mikroskopie zur Tiefendiskriminierung im
Weitfeld [1] und zur Auflösungs- und Kontraststeigerung
[2] eingesetzt. Im Allgemeinen wird dabei ein Gitter oder eine periodische
Struktur in die Probe projiziert [3] oder durch Interferenz kohärenter
Teilstrahlen ein Interferenzmuster in der Probe erzeugt [4]. Durch
Verschiebung der Beleuchtungsstruktur werden voneinander verschiedene
Bilder mit unterschiedlicher Phasenlage der periodischen Struktur
erzeugt. Diese werden anschließend in geeigneter Weise
miteinander verrechnet, um ein optisches Schnittbild bzw. ein Bild
mit erhöhtem Kontrast und erhöhter Auflösung
zu gewinnen. Nachteilig wirkt sich dabei aus, dass Signal von außerfokalen
Bereichen der Probe mit detektiert wird und durch den limitierten
Dynamikbereich des Detektors zu einem verringerten Signal-zu-Rausch-Verhältnis
führt. Die Stärke des außerfokalen Signals
begrenzt, dabei die nutzbare Probendicke. Das ist besonders dann
von erheblicher Bedeutung, wenn die Frequenz der Strukturierung
sich der beugungsbegrenzten Grenzfrequenz des optischen Systems
nähert und der Kontrast der Strukturierung daher prinzipbedingt
niedrig ist. Das ist immer dann der Fall, wenn eine Kontrast- und
Auflösungssteigerung erzielt werden soll.
-
Eine
Lösung dieses Problems besteht in der teilweise konfokalen
Detektion, die durch die Strukturierung einer Beleuchtungslinie
und der Detektion des dadurch angeregten Fluoreszenzlichts mit einem Spaltdetektor
möglich wird [5]. Dieses Verfahren hat allerdings Nachteile.
Die Strukturierung erfolgt nur entlang der Linie. Als Folge davon
bleiben die Effekte der Kontrast- und Auflösungssteigerung
auf diese Richtung beschränkt. Insbesondere bei nichtlinearer [6],
aber auch bei linearer Strukturierung [7] ist damit die Diskrepanz
zwischen der einen Richtung mit Auflösungssteigerung und
allen anderen Raumrichtungen signifikant. Das Scannen der Linie
in einer beliebigen Richtung in der Probenebene und auch die Einstellung
der Phasenlage der periodischen Struktur ist notwendig. Entsprechend
dem Stand der Technik werden hierzu separate Aktuatoren für
die Ansteuerung der Relativen Phasenlage und den Scanvorgang benötigt.
-
Die
vorliegende Erfindung hat das Ziel, die Nachteile des Standes der
Technik zu überwinden
-
Erfindungsgemäß werden
die Vorteile der strukturierten Beleuchtung im Weitfeld (wenige
optische Komponenten, hohe Parallelisierung) mit denen der strukturierten
Beleuchtung entlang einer Linie (teilkonfokale Unterdrückung
des Untergrundsignals für maximalen Kontrast, hohe Intensitäten
im Fokus für nichtlineare und lineare Probenwechselwirkungen)
zu verbinden. Die vorgeschlagene Anordnung gestattet eine schnelle,
variable und präzise Rotation der Scanrichtung und eine
Einstellung der relativen Phasenlage der abgebildeten strukturierten
periodischen Struktur mit Hilfe von nur zwei Scannern. Zusätzlich
wird eine variabel einstellbare konfokale Detektion bei gleichzeitig
nur sehr geringen Lichtverlusten im Detektionsstrahlengang ermöglicht.
Es wird auch auf
DE
10155002 A1 verwiesen.
-
Die
erfindungsgemäße Lösung ist vorzugsweise
ein linienscannendes Mikroskop (siehe 1) welches
im Detektionsstrahlengang im Vergleich zu einem Weitfeldsystem ebenso
wenig Komponenten enthält. Konkret sind dies ein für
einen unendlichen Strahlengang korrigiertes Objektiv (27),
die Tubuslinse (21), der Hauptfarbteiler (19),
ein Emissionsfilter (17) und die Kamera (15).
Im Anregungsstrahlengang befindet sich die Strahlformungseinheit (8),
die den durch den Modulator (5) intensitätsmodulierten
Lichtstrahl der Lichtquelle (3) zu einer Linie formt, welche
entlang der Linienausdehnung moduliert ist. In dem in 1 dargestellten
Ausführungsbeispiel ist die Strahlformungseinheit durch
eine Kombination aus Linienformungsoptik (7) und einer periodische
Struktur (13) zusammengesetzt, wobei (7) und (13)
zu einer mechanischen Gruppe (8) zusammengefasst sind,
welche um die optische Achse (1) rotiert werden kann. Die
Rotation der Strahlformungseinheit (8), welche vorzugsweise
durch einen schnellen Schrittmotor realisiert ist, kann die Orientierung
der in die Probe abgebildeten Linie in der x/y Ebene eingestellt
werden.
-
In
einer weiteren Implementierung entsprechend der vorliegenden Erfindung
(nicht in 1 dargestellt) kann die Strahlformungseinheit
(8) auch durch ein einziges diffraktives optisches Element
implementiert sein, welches ebenfalls um die optische Achse (1)
rotiert werden kann. Ein solches diffraktives Element kann Linienformung
in einer Richtung und Linienstrukturierung in einer dazu orthogonalen Richtung
in einem Schritt durchführen.
-
Im
weiteren Verlauf der optischen Achse befinden sich ein erster Scanner
(9), ein weiterer, zum ersten Scanner (9) orthogonal
stehender Scanner (23) und ein Scanobjektiv (11).
Die Rotationsachse oder Schwenkachse (25) des Scanners
(23) ist zur Rotationsachse des ersten Scanners (9)
im Wesentlichen orthogonal angeordnet. Hierbei wird Scanner (9)
für eine Verschiebung der Linie in der Probe in x-Richtung
und Scanner (23) für eine Verschiebung der Linie
in y-Richtung verwendet.
-
Beide
Scanner (9) und (23) befinden sich in der Nähe
der konjugierten Pupillenebene.
-
1 zeigt
den schematischen Aufbau des erfindungsgemäßen
Mikroskops (1) ist die Optische Achse, (3) die
Lichtquelle, (5) ein Schaltbarer Attenuator/AOM, (8)
eine Strahlformungseinheit mit einer (7) Linienformungsoptik,
beispielsweise einer Zylinderlinse, (9) ein Scanner mit
einer Rotationsachse senkrecht zur Zeichenebene, (23) ein
Scanner mit einer Rotationsachse (25) im wesentlichen parallel
zur Zeichenebene, (11) eine Scanoptik, (13) eine
Maske mit periodischer Struktur in der einer zur Probe konjugierten
Zwischenbildebene, (15) ein ortsauflösender Flächensensor
wie z. B. eine CCD-Empfängermatrix, (17) ein Emissionsfilter,
(19) ein Hauptfarbteiler, (21) eine Tubuslinse,
(27) ein Mikroskopobjektiv, (29) die Probe. Die
Elemente (7) und (13) sind zu einer mechanischen
Gruppe, der Strahlformungseinheit (8) zusammengefasst,
welche vorzugsweise um die optische Achse (1) rotierbar
angeordnet ist.
-
Im
Folgenden soll die Verschiebung der Phase der strukturierten Linie
sowie des Abscannen des Bildfeldes durch die Zusammenwirkung der
beiden Scanner (9) und (23) mit dem AOM (5)
beschrieben werden.
-
Ohne
Einschränkung der Allgemeinheit soll im Folgenden ein Beispiel
betrachtet werden, bei dem die Linie in der Probe entlang der x-Richtung ausgerichtet
ist und das Abscannen des Bildfeldes in der dazu senkrechten y-Richtung
stattfindet. Dies erfordert auch die entsprechende Orientierung
der Strahlformungseinheit (8) um eine Orientierung der Linie
in x-Richtung zu erzeugen.
-
Die
Funktion des Scanners (23) besteht bei dieser Linienorientierung
darin, die Phasenlage der Strukturierung zwischen zwei und mehr
aufgenommenen Bildern zu verändern, wobei der Scanner (9) für
den Scanvorgang in y-Richtung verantwortlich it.
-
Aus
den aufgenommenen Bildern bei jeweils unterschiedlicher Phasenlage
(„Phasenbildern") erfolgt die Berechnung (Rekonstruktion)
eines Schnittbildes. Auf
DE10155002A1 wird
verwiesen.
-
2 zeigt
die Strukturierung der Beleuchtung
-
Wenn
während eines linearen Scans des Scanners (9) über
eine Zeit Δt = t3 – t1 die Kamera synchron ein
Bild mit einer Belichtungszeit von mindestens Δt einzieht,
erhält man ein einem Weitfeldbild des Objektes äquivalentes
Resultat. Dabei wird der außerfokale Untergrund ebenfalls
mit detektiert. Eine konfokale Filterung wird erfindungsgemäß möglich,
wenn durch den Modulator (5) synchron zum Scanvorgang bei
der Aufnahme jedes Phasenbildes das zur Berechnung eines Schnittbildes
gehört, in y-Richtung die Beleuchtung in gleicher Weise
periodisch an- und ausgeschaltet wird.
-
Hierbei
kann der Scanner neben der kontinuierlichen Scanbewegung mit Ein-
und Ausschalten vorteilhaft auch in den ausgeschalteten Abschnitten schnell
zur nächsten Position mit angeschalteter Beleuchtung bewegt
werden, in der der beleuchtete Scanvorgang fortgesetzt wird. Die
Bewegung könnte auch wie mit einem Schrittmotor schrittartig
erfolgen.
-
Durch
das erfindungsgemäße Verfahren ergibt sich eine
in y-Richtung strukturierte Belichtung in der Kameraebene (siehe 3).
Die Abstände zwischen den belichteten Zeilen der Kamera
werden in einer vorteilhaften Ausprägung der Erfindung
so gewählt, dass ein Übersprechen des außerfokalen
Untergrundes bei der Beleuchtung einer Linie auf der Probe in die
Region auf der Kamera , die der Beleuchtung der nächsten
Linie in der Probe entspricht, minimiert wird. Bei Abtastung des
Objektes nach dem Nyquist-Theorem (eine Detektorzeile entspricht
der halben Breite der beugungsbegrenzten Linie) sollten empirisch
M = 5 bis 10 Zeilen Abstand zwischen benachbarten Belichtungszeilen
ausreichen. Im nächsten von der Kamera erfassten Bild wird
dann das belichtete Zeilenmuster um vorzugsweise eine Zeile verschoben,
was durch eine entsprechende Verzögerung beim Anschalten
des Modulators erzielt wird. Es wird also beispielsweise zunächst
die 1., 10., 20. Zeile, dann die 2., 11. und 21. Zeile belichtet.
-
Dieser
Prozess der zeilenweisen Verschiebung der Objektbeleuchtung wird
solange wiederholt, bis alle Abschnitte der Probe im Bildfeld abgetastet sind,
wobei als Resultat dieses Aufnahmevorganges M Bilder pro Phasenlage
vorliegen.
-
Alternativ
könnte für eine Abstandseinstellung zwischen belichteten
Zeilen zunächst die Aufnahme bei mehreren Phasenlagen der
periodischen Struktur erfolgen und dann der Abstand für
die Aufnahme wiederum mehrerer Phasenbilder verändert werden.
-
Jedes
dieser Bilder kann wiederum zusätzlich zur schon beschriebenen
Verfahrensweise durch wiederholte Aufnahme, vorzugsweise mit möglichst geringer
Intensität zur Probenschonung, mit gleichen Scanner-Einstellungen
und anschließender Mittelung entstanden sein. Dieses Verfahren
kann Artefakte aufgrund von Bleichvorgängen in der Probe
reduzieren. Über die Verrechnung der M Bilder pro Phasenlage
kann nun die Konfokalität eingestellt werden.
-
Insbesondere
muss für die einzelnen Bilder der durch den Empfänger
erfasste belichtete Untergrund zwischen den belichteten Empfängerzeilen
herausgerechnet werden. Dieser ist auf dem Empfänger leicht
zu identifizieren, da die belichteten Zeilen im Objekt eindeutig
voneinander separierten Bereichen auf der Kamera zuzuordnen sind.
-
Wenn
alle M Bilder einer Phasenlage einfach aufsummiert werden, erhält
man ein dem Weitfeldbild entsprechendes Ergebnis. Die Aufsummierung
der Bilder nach Selektion der Zeilen, die den entsprechenden beleuchteten
Zeilen im Fokus des Objektes entsprechen, ergibt ein konfokales
Bild. In diesem Schritt werden die zu den selektierten Zeilen benachbarten
Bildbereiche wie beschrieben maskiert und nicht ausgewertet. Dies
entspricht der Funktion einer virtuellen Spaltblende, da die nicht
genutzten, maskierten Bildbereiche den Detektionsorten des außerfokalen
Streulichtes entsprechen. Die Konfokalität kann dabei von
1 Airy Unit (2 Zeilen selektiert) bis M Airy-Units variiert werden
(virtuelle Spaltblende).
-
3 zeigt
Belichtungsmuster auf der Kamera für konfokale Detektion
bei ein- und ausgeschaltetem Modulator (AOM).
-
Die
Geschwindigkeit der Bildaufnahme wird dabei im Vergleich zur nichtkonfokalen
Detektion um den Faktor M verringert. Wenn man einen Bildeinzug von
50 Bildern/s zugrunde legt, kann man bei M = 5 ein vollständiges
Bild (bei einer Phasenlage der Strukturierung) in 100 ms erhalten.
Allerdings ist zu berücksichtigen, dass pro Strukturierungsrichtung
N = 3 bis 5 Bilder mit verschiedenen Phasenlagen aufgenommen werden
müssen. Im linearen Strukturierungsfall mit 3 Strukturierungsrichtungen
ergeben sich daher typischerweise 9 Bilder [7], was bei M = 5 zu
einer Bildaufnahmezeit von ca. 1 s pro Ebene führt. Eine
etwas günstigere Situation ergibt sich, wenn Scanner (
9)
nicht gleichförmig (mit Geschwindigkeit v
s) über
das Bildfeld scannt, sondern sich in den Zeiten mit ausgeschaltetem
Laser mit Maximalgeschwindigkeit v
max bewegt,
Das stellt zwar höhere Anforderungen an die Steuerung und
Synchronität der Scanner, erhöht die Bildaufnahmezeit
aber um den Faktor
d. h. ungefähr um
das M-fache (wenn v
max >> v
s) bzw. bis zur maximalen Bildaufnahmerate
der Kamera.
-
Bei
der linienförmigen, strukturierten Beleuchtung ist zu beachten,
dass mit zunehmender Strukturierungsfrequenz die Länge
der durch die zirkulare Pupille transmittierten höheren
Ordnungen kleiner wird (siehe
4). Dies
bedeutet, dass der Kontrast einer Interferenz mit der 0. Ordnung
beleuchtungsseitig kleiner wird. Der Kontrast der Interferenz zwischen
den höheren Ordnungen ist allerdings bei symetrischen Durchgang
durch die Pupille unverändert 100%. Ferner wird die Breite
der beugungsbegrenzten Linie im Bild größer. Bei
einer auf die Grenzfrequenz normierten Strukturierungsfrequenz von
f ergibt sich eine Verbreiterung b (Linienbreite geteilt durch minimale
Breite bei voller NA) von
-
Für
eine typische Strukturierungsfrequenz von 90% der Grenzfrequenz
(f = 0.9) ergibt sich eine Verbreiterung von 15%. Bei 95% der Grenzfrequenz steigt
diese bereits auf 60% an.
-
Dieser
Verbreiterung hat keinen Einfluß auf die Auflösung,
die durch die Strukturierungsfrequenz und die Übertragungsfunktion
des Objektivs bestimmt wird, wohl aber auf die Unterdrückung
außerfokalen Untergrunds und muss für die konfokale
Filterung berücksichtigt werden.
-
4 zeigt
Ordnungen der strukturierten Linienbeleuchtung in der Pupille (Fouriertransformation
einer strukturierten Linienverteilung). Durch die interferierenden
ersten Beugungsordnungen wird auf der Probe eine strukturierte Linie
erzeugt. Der Abstand der Beugungsordnungen ist s, a ist die Pupillengröße.
Das Verhältnis von s und b ist die auf die Grenzfrequenz
normierten Strukturierungsfrequenz f.
-
Die
in 3 dargestellten Linien parallel zur x-Richtung
repräsentieren nur eine Strukturierungsrichtung. Die Orientierung
der Linien auf der Kamera kann durch Rotation der Einheit (8)
(1) eingestellt werden. Die Verschiebungsrichtung
und Phasenlage der periodischen Struktur wir mittels der Scanner
(9) und (23) eingestellt. Der allgemeine Fall mit
einer beliebigen Linienorientierung wird in 5 veranschaulicht.
-
5 dient
zur Erläuterung der Einstellung von Scanrichtung und Phasenlage
durch die Scanner bei synchroner Scannerbewegung (a) und bei Scannen
mit einem Scanner (b).
-
Die
Phasenlage (Doppelpfeil) der projizierten Struktur wird dabei durch
den relativen, konstanten Offset der beiden Scanner (9)
und (23) während des Scanvorgangs bestimmt, während
die vorzugsweise dazu senkrechte Scan-Richtung (Pfeil) durch die
relative Geschwindigkeit der beiden Scanner festgelegt ist. Es ist
aber auch möglich, das Abscannen der Probe nur mit Scanner
(9) durchzuführen. Dies vereinfacht die Systemsteuerung.
Abhängig vom Scanmodus ist sicherzustellen, dass das im
Allgemeinen vom Detektor bestimmte Bildfeld auch bei rotierter Linie möglichst
homogen ausgeleuchtet wird.
-
In
der bisher beschriebenen Anordnung wird die Formung der in die Probe
projizierten Struktur durch die Strahlformungseinheit (
8)
gewährleistet. Erfindungsgemäß kann die
Einheit (
8) aus der Kombination einer Linienformungsoptik
(
7) mit einer periodischen Struktur (
13) bestehen.
Dabei kann die Linienformungsoptik eine Powell-Linse enthalten.
Die periodische Struktur kann eine Phasenstruktur, eine Amplitudenstruktur
oder eine Kombination aus beidem darstellen. Weiterhin kann die
gesamte Strahlformungseinheit (
8) durch ein diffraktiv-optisches
Element ersetzt werden (siehe auch
DE10155002A1 ). Dieses Element kann auf der
Probe eine oder mehrere strukturierte Linien im Mindestabstand M
erzeugen um die Zahl der Verschiebungen zu reduzieren.
-
Ein
potentielles Problem der sequentiellen Abtastung der Probe mit M
Zeilenmustern entsteht durch Probenbewegung während der
Bildaufnahmezeit. Dies ist ein grundsätzliches Problem
der Verfahren zur strukturierten Beleuchtung und sollte durch minimale
Bildaufnahmezeiten so klein wie möglich gehalten werden.
Daher kommt der empfindlichen Detektion mit minimalen Fluoreszenzverlusten
zwischen Objekt und Detektor hohe Bedeutung zu. Eine Alternative
zur sequentiellen Abtastung mit M Zeilenmustern, die es ermöglicht,
anstelle der M Zeilenbilder ein einziges Bild einzuziehen und dennoch
konfokale Detektion zu ermöglichen, soll im folgenden beschrieben
werden. Dabei macht man sich die Tatsache zunutze, dass beim Linienscanner
das Objekt sequentiell zeilenweise abgetastet wird. Das ermöglicht,
im Detektionsstrahlengang durch ein weiteres Element eine diskrete,
zeilenweise Ablenkung des Detektionslichts zu realisieren, so dass
auf dem Detektor ein Zeilenmuster wie in 3 entsteht,
obwohl das Objekt ohne Zwischenräume abgescannt wird. Um
ein gesamtes Bild derart auf dem Detektor abzubilden ist die Voraussetzung,
dass dieser M mehr Zeilen hat als für das Bild erforderlich.
Ein typischer Wert sind 500 Zeilen pro Bild. Mit M = 5 ergibt sich
eine erforderliche Detektorenzeilenzahl von 2500. Als Element zur
Zeilenablenkung könnte z. B. eine Galvoscanner vor dem
Detektor zur Anwendung kommen (siehe 6, Scanner
(24)). Wenn die Pixelgröße auf der Kamera
5 μm beträgt, so ergibt sich der maximale Ablenkungswinkel
so, dass in dem oben aufgeführten Beispiel auf der Kamera
ein Versatz von (2500 – 500) × 5 μm =
10 mm entsteht. Dies entspricht bei einem Abstand der Kamera zum
Scanner von 50 mm einem Scanwinkel von 5 Grad (für eine
Ablenkung von 10 Grad). Um die im Objekt abgetastete Zeile nicht über
die Zwischenräume zwischen den Zeilen zu verschmieren ist
ein Ausschalten der Belichtung (z. B. durch den AOM bzw. AOTF) während
der diskreten Ablenkung von Scanner (24) zweckmäßig.
Es ist aber auch denkbar, eine kontinuierliche Belichtung zu realisieren.
Da die Scangeschwindigkeit von Scanner (24) sehr hoch im
Vergleich zu der des Scanners (9) sein muß, kann
man die Belichtung während der Bewegung des Scanners (24)
vernachlässigen. Beispielsweise erzeugt der Scanner (24)
mit derselben Ablenkachse wie der Scanner (9), der wie
oben beschrieben für die Ablenkung in Y Richtung verantwortlich
ist, beispielsweise 10 versetzte diskrete Scansprünge innerhalb
einer Zeilenposition der sequentiellen Zeilenabtastung des Scanners
(9), bevor dieser in die nächste detektierte Zeilenposition
vorrückt. Der Scanner (9) kann dabei auch kontinuierlich
scannen, während Scanner (24) immer diskret, mit
einer hohen Ablenkgeschwindigkeit betrieben werden muß.
Die Zeit ti zwischen den Scansprüngen
mit einer Zeit td entspricht dabei der effektiven
Zeilenintegrationszeit auf der Kamera. Es muß mindestes
M·td < ti gelten.
-
Diese
Scansprünge erzeugen auf dem Flächendetektor voneinander
beabstandete Signale der beleuchteten Probe, die sinngemäß den
voneinander beabstandeten Bereichen des Detektors entsprechen wie
sie anhand insbesondere 3 weiter oben ausführlich
erläutert wurden.
-
6 zeigt
den schematischen Aufbau des Mikroskops mit alternativer Detektion
und einem zusätzlichen Galvo-Scanner (24) mit
einer Rotationsachse senkrecht zur Zeichenebene Um eine strukturierte
Beleuchtung mit möglichst hohem Kontrast der Strukturierung
in der Objektebene zu erhalten ist bei der Verwendung von Optiken
mit höheren numerischen Aperturen, wie sie in der Mikroskopie üblich sind,
die Polarisation zu beachten. Ein maximaler Kontrast ist nur dann
möglich, wenn die Polarisation des Beleuchtungslichtes
senkrecht zur Verbindungslinie der Beugungsordnungen in der Pupillenebene (d.
h. senkrecht zur Lage der Linie in einer Bildebene) steht, wie in 4 dargestellt.
Die entsprechende Polarisation des Beleuchtungslichtes muss daher synchron
mit der Rotation der Strahlformungseinheit (8) zur Rotation
der Blende mitgedreht werden. Ersteres kann bevorzugt durch die
Rotation einer λ/2-Platte im Strahlengang des linear polarisierten Anregungslichts
erzeugt werden, wobei der Rotationswinkel der Wellenplatte halb
so groß wie die der Strahlformungseinheit ist. Entsprechend
ist eine rotierbare Wellenplatte im Strahlengang von 1 und 6 zwischen
Quelle (3) und Hauptfarbteiler (19) vorzusehen.
Alternativ kann die Strahlformungseinheit auch mit einem Polarisator
versehen werden, der nur korrekt orientiertes, linear polarisiertes
Licht transmittiert. Dies hat einen rotationsabhängigen Lichtverlust
zur Folge, siehe 7, der durch eine geeignet synchronisierte
Lichtmodulation kompensiert werden kann.
-
7 zeigt
den Lichtverlust durch Rotation eines Polarisators zusammen mit
der Strahlformungseinheit (8) und Kompensation des Verlusts durch
Leistungsanpassung
-
Die
Erfindung ist nicht nur an die beschriebenen Ausführungen
gebunden.
-
Im
fachmännischen Rahmen können Modifikationen und
Veränderungen von den erfinderischen Gedanken erfasst sein,
Beispielsweise
ist die Erfindung sinngemäß auf andere Beleuchtungsverteilungen
wie Multipunktanordnungen (
US
6028306 ) und anderen Punktanordnungen, auch Nipkowscheiben
und bei Detektion im Weitfeld anwendbar.
-
Literatur:
-
- [1] Neil M.A.A., Juskaitis R., Wilson
T.: „Method of obtaining optical sectioning by using structured
light in a conventional microscope", Opt. Lett. 22 (24): 1905–1907,
1997
- [2] Lukosz W., Marchand M., "Optische Auflösung
unter Überschreitung der beugungsbedingten Auflösungsgrenze",
Optica Acta 16, 241–255, 1963
- [3] Heintzmann R., Cremer C., "Laterally modulated excitation
microscopy: improvement of resolution by using a diffraction grating",
in Proc. of SPIE 3568: 185–196, 1998
- [4] Neil M.A.A., Juskaitis, A., Wilson, T., "Real time
3D fluorescence microscopy by two beam interference illumination",
Opt. Comm. 153: 1–4, 1998
- [5] US Patent 6,947,127
B2 , 2005
- [6] Heintzmann R., Jovin T.M., Cremer C., "Saturated patterned
excitation microscopy – a concept for optical resolution
improvement" JOSA A, 19 (8): 1599–1609, 2002
- [7] Gustafsson, M.G.L., Agard, D.A., Sedat, J.W., "Doubling
the lateral resolution of widefield fluorescence microscopy by structured
illumination", in Proc. of SPIE 3919: 141–150, 2000
- [8] Gustafsson M.G.L., "Nonlinear structured-illumination
microscopy: wide-field fluorescence imaging with theoretically unlimited
resolution", PNAS 102: 13081–13086, 2005
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste
der vom Anmelder aufgeführten Dokumente wurde automatisiert
erzeugt und ist ausschließlich zur besseren Information
des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen
Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt
keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- - DE 10155002
A1 [0004, 0013, 0032]
- - US 6028306 [0038]
- - US 6947127 B2 [0038]
-
Zitierte Nicht-Patentliteratur
-
- - Neil M.A.A.,
Juskaitis R., Wilson T.: „Method of obtaining optical sectioning
by using structured light in a conventional microscope", Opt. Lett.
22 (24): 1905–1907, 1997 [0038]
- - Lukosz W., Marchand M., "Optische Auflösung unter Überschreitung
der beugungsbedingten Auflösungsgrenze", Optica Acta 16,
241–255, 1963 [0038]
- - Heintzmann R., Cremer C., "Laterally modulated excitation
microscopy: improvement of resolution by using a diffraction grating",
in Proc. of SPIE 3568: 185–196, 1998 [0038]
- - Neil M.A.A., Juskaitis, A., Wilson, T., "Real time 3D fluorescence
microscopy by two beam interference illumination", Opt. Comm. 153:
1–4, 1998 [0038]
- - Heintzmann R., Jovin T.M., Cremer C., "Saturated patterned
excitation microscopy – a concept for optical resolution
improvement" JOSA A, 19 (8): 1599–1609, 2002 [0038]
- - Gustafsson, M.G.L., Agard, D.A., Sedat, J.W., "Doubling the
lateral resolution of widefield fluorescence microscopy by structured
illumination", in Proc. of SPIE 3919: 141–150, 2000 [0038]
- - Gustafsson M.G.L., "Nonlinear structured-illumination microscopy:
wide-field fluorescence imaging with theoretically unlimited resolution",
PNAS 102: 13081–13086, 2005 [0038]