-
Die Erfindung betrifft insbesondere ein Mikroskop zur räumlich hochauflösenden Lumineszenzmikroskopie einer Probe, die mit Markierungsmolekülen markiert ist, welche mit einem Signal derart aktivierbar sind, dass sie erst im aktivierten Zustand zur Abgabe bestimmter Lumineszenzstrahlung anregbar sind, wobei das Verfahren folgende Schritte aufweist:
- a) Einbringen des Signals auf die Probe derart, dass nur eine Teilmenge der in der Probe vorhandenen Markierungsmoleküle aktiviert werden, wobei in der Probe Teilbereiche bestehen, in denen aktivierte Markierungsmoleküle zu den ihnen nächst benachbarten aktivierten Markierungsmoleküle mindestens einen Abstand haben, der größer oder gleich einer Länge ist, welche sich aus einer vorbestimmten optischen Auflösung ergibt,
- b) Anregung der aktivierten Moleküle zur Abgabe von Lumineszenzstrahlung,
- c) Detektion der Lumineszenzstrahlung mit der vorbestimmten optischen Auflösung und
- d) Erzeugen eines Einzelbildes aus der in Schritt c) aufgenommenen Lumineszenzstrahlung, wobei die geometrischen Orte der Lumineszenzstrahlung abgebenden Markierungsmoleküle mit einer über die vorbestimmte optische Auflösung gesteigerten Ortsauflösung ermittelt werden,
wobei die Schritte mehrfach wiederholt und die so erhaltenen, mehreren Einzelbilder zu einem Gesamtbild zusammenfügt werden.
-
Ein klassisches Anwendungsgebiet der Lichtmikroskopie zur Untersuchung von biologischen Präparaten ist die Lumineszenzmikroskopie. Hierbei werden bestimmte Farbstoffe (sogenannte Phosphore oder Fluorophore) zur spezifischen Markierung von Proben, z. B. von Zellteilen, verwendet. Die Probe wird, wie erwähnt, mit Anregungsstrahlung darstellender Beleuchtungsstrahlung beleuchtet und die dadurch angeregte Lumineszenzstrahlung mit geeigneten Detektoren erfasst. Üblicherweise ist dazu im Mikroskop ein dichroitischer Strahlteiler in Kombination mit Blockfiltern vorgesehen, die die Lumineszenzstrahlung von der Anregungsstrahlung abspalten und eine getrennte Beobachtung ermöglichen. Durch dieses Vorgehen ist die Darstellung einzelner, verschieden gefärbter Zellteile im Mikroskop möglich. Natürlich können auch mehrere Teile eines Präparates gleichzeitig mit verschiedenen, sich spezifisch an unterschiedliche Strukturen des Präparates anlagernden Farbstoffen eingefärbt werden.
-
Dieses Verfahren bezeichnet man als Mehrfachlumineszenz. Auch kann man Proben vermessen, die per se, also ohne Farbstoffzugabe lumineszieren.
-
Lumineszenz wird hier, wie allgemein üblich, als Oberbegriff für Phosphoreszenz und Fluoreszenz verstanden, erfasst also beide Prozesse. Soweit hier von Fluoreszenz gesprochen wird, ist das pars pro toto und nicht einschränken zu verstehen.
-
Zur Probenuntersuchung ist es auch bekannt, Laser-Scanning-Mikroskope (auch LSM abgekürzt) zu verwenden, die aus einem dreidimensional ausgeleuchteten Bild mittels einer konfokalen Detektionsanordnung (dann spricht man von einem konfokalen LSM) oder einer nichtlinearen Probenwechselwirkung (sogenannte Multiphotonenmikroskopie) nur diejenige Ebene abbilden, die sich in der Fokusebene des Objektives befindet. Es wird ein optischer Schnitt gewonnen, und die Aufzeichnung mehrerer optischer Schnitte in verschiedenen Tiefen der Probe erlaubt es anschließend, mit Hilfe eines geeigneten Datenverarbeitungsgerätes ein dreidimensionales Bild der Probe zu generieren, das aus den verschiedenen optischen Schnitten zusammengesetzt ist. Die Laser-Scanning-Mikroskopie ist somit zur Untersuchung von dicken Präparaten geeignet.
-
Natürlich wird auch eine Kombination von Lumineszenzmikroskopie und Laser-Scanning-Mikroskopie verwendet, bei der eine lumineszierende Probe in verschiedenen Tiefenebenen mit Hilfe eines LSM abgebildet wird.
-
Prinzipiell ist die optische Auflösung eines Lichtmikroskopes, auch die eines LSM, durch die physikalischen Gesetze beugungsbegrenzt. Zur optimalen Auflösung innerhalb dieser Grenzen sind spezielle Beleuchtungskonfigurationen bekannt, wie beispielsweise 4Pi-Anordnung oder Anordnungen mit Stehwellenfeldern. Damit kann die Auflösung, insbesondere in axialer Richtung gegenüber einem klassischen LSM deutlich verbessert werden. Mit Hilfe nicht-linearer Entvölkerungsprozesse kann weiter die Auflösung auf einen Faktor von bis zu 10 gegenüber einem beugungsbegrenzten konfokalen LSM angehoben werden. Ein solches Verfahren ist beispielsweise in der
US 5866911 beschrieben. Für die Entvölkerungsprozesse sind verschiedene Ansätze bekannt, beispielsweise wie in der
DE 4416558 C2 ,
US 6633432 oder
DE 10325460 A1 beschrieben.
-
Ein weiteres Verfahren zur Auflösungssteigerung wird in der
EP 1157297 B1 angesprochen. Dort sollen mittels strukturierter Beleuchtung nichtlineare Prozesse ausgenützt werden. Als Nichtlinearität erwähnt die Druckschrift dabei die Sättigung der Fluoreszenz. Das geschilderte Verfahren nimmt in Anspruch, durch eine strukturierte Beleuchtung eine Verschiebung des Objektraumspektrums relativ zur Übertragungsfunktion des optischen Systems zu realisieren. Konkret bedeutet die Verschiebung des Spektrums, dass Objektraumfrequenzen V0 bei einer Raumfrequenz V0 – Vm, wobei Vm die Frequenz der strukturierten Beleuchtung ist, übertragen werden. Bei gegebener durch das System maximal übertragbarer Raumfrequenz ermöglicht dies den Transfer von um die Verschiebefrequenz Vm über der maximalen Frequenz der Übertragungsfunktion liegender Raumfrequenzen des Objektes. Dieser Ansatz erfordert einen Rekonstruktionsalgorithmus zur Bilderzeugung und die Verwertung mehrerer Aufnahmen für ein Bild. Auch ist bei diesem Verfahren als nachteilig anzusehen, dass die Probe in Bereichen außerhalb des detektierten Fokus unnötig mit Strahlung belastet wird, da die notwendige strukturierte Beleuchtung das gesamte Probenvolumen durchsetzt. Im Übrigen kann dieses Verfahren derzeit bei dicken Proben nicht verwendet werden, da außerfokal angeregte Fluoreszenz als Untergrundsignal mit auf den Detektor gelangt und somit den Dynamikbereich der nachgewiesenen Strahlung drastisch reduziert.
-
Ein Verfahren, das unabhängig von der Laserscanningmikroskopie eine Auflösung jenseits der Beugungsgrenze erreicht, ist aus der
WO 2006127692 und der
DE 10 2006 021 317 bekannt. Dieses mit PALM abgekürzte Verfahren (Photo Activated Light Microscopy) verwendet eine Markierungssubstanz, welche mittels eines optischen Aktivierungssignals aktiviert werden kann. Nur im aktivierten Zustand kann die Markierungssubstanz mit Anregungsstrahlung zur Abgabe von bestimmter Fluoreszenzstrahlung angeregt werden. Nicht aktivierte Moleküle der Markierungssubstanz senden auch nach Einstrahlung von Anregungsstrahlung keine oder zumindest keine merkliche Fluoreszenzstrahlung ab. Die Aktivierungsstrahlung schaltet die Markierungssubstanz also in einen Zustand, in dem sie zur Fluoreszenz anregbar ist. Auch andere Aktivierung, z. B. thermischer Art, sind möglich. Man spricht deshalb allgemein von einem Umschaltsignal. Im PALM-Verfahren wird nun das Umschaltsignal so aufgebracht, dass zumindest ein gewisser Anteil der aktivierten Markierungsmoleküle von benachbarten aktivierten Molekülen so beabstandet sind, dass sie gemessen an der optischen Auflösung der Mikroskopie getrennt oder nachträglich trennbar sind. Die aktivierten Moleküle werden also zumindest weitgehend isoliert. Nach Aufnahme der Lumineszenzstrahlung wird für diese isolierten Moleküle wird dann das Zentrum deren auflösungsbegrenzt bedingten Strahlungsverteilung ermittelt und daraus rechnerisch die Lage der Moleküle mit höherer Genauigkeit bestimmt, als es die optische Abbildung eigentlich zulässt. Diese gesteigerte Auflösung durch rechnerische Schwerpunktbestimmung der Beugungsverteilung wird in der englischen Fachliteratur auch als „superresolution” bezeichnet. Sie erfordert, dass in der Probe zumindest einige der aktivierten Markierungsmoleküle mit der optischen Auflösung mit der die Lumineszenzstrahlung detektiert wird, unterscheidbar, also isoliert sind. Dann kann für solche Moleküle die Ortsangabe mit gesteigerter Auflösung erreicht werden.
-
Zum Isolieren einzelner Markierungsmoleküle nutzt das PALM-Verfahren die Tatsache, dass die Wahrscheinlichkeit, mit der ein Markierungsmolekül nach Empfang des Umschaltsignals gegebener Intensität, z. B. eines Photons der Aktivierungsstrahlung aktiviert wird, für alle Moleküle gleich ist. Über die Intensität des Umschaltsignals und damit die Zahl der Photonen, die auf eine Flächeneinheit der Probe fällt, kann also dafür gesorgt werden, dass die Wahrscheinlichkeit, in einem gegebenen Flächenbereich der Probe vorhandene Markierungsmoleküle zu aktivieren, so gering ist, dass es ausreichend Bereiche gibt, in denen innerhalb der optischen Auflösung nur unterscheidbare Markierungsmoleküle Fluoreszenzstrahlung emittieren. Durch passende Wahl der Intensität, z. B. der Photonendichte, des Umschaltsignals, wird erreicht, dass möglichst nur bezogen auf die optische Auflösung isoliert liegende Markierungsmoleküle aktiviert werden und nachfolgend Fluoreszenzstrahlung aussenden. Für diese isolierten Moleküle wird dann rechnerisch der Schwerpunkt der beugungsbedingten Intensitätsverteilung und damit die Lage des Markierungsmoleküls mit gesteigerter Auflösung ermittelt. Zur Abbildung der gesamten Probe wird die Isolierung der Markierungsmoleküle der Teilmenge durch Einbringen der Aktivierungsstrahlung, nachfolgende Anregung und Fluoreszenzstrahlungsabbildung so lange wiederholt, bis möglichst alle Markierungsmoleküle einmal in einer Teilmenge enthalten und innerhalb des Auflösung der Abbildung isoliert waren.
-
Das PALM-Verfahren hat dabei den Vorteil, dass weder für die Aktivierung, noch die für Anregung eine hohe Ortsauflösung benötigt wird. Stattdessen kann sowohl die Aktivierung als auch die Anregung in Weitfeldbeleuchtung erfolgen.
-
Im Ergebnis werden die Markierungsmoleküle durch geeignete Wahl der Intensität der Aktivierungsstrahlung statistisch in Teilmengen aktiviert. Deshalb muss für die Generierung eines Gesamtbildes einer Probe, in dem die Positionen aller Markierungsmoleküle rechnerisch mit z. B. jenseits der Beugungsgrenze liegender Auflösung bestimmt werden können, eine Vielzahl von Einzelbildern ausgewertet werden. Es können bis zu 10.000 Einzelbilder sein. Dies hat zur Folge, dass große Datenmengen verarbeitet werden, und die Messung entsprechend lange dauert. Schon die Aufnahme eines Gesamtbildes erfordert mehrere Minuten, was im Wesentlichen durch die Ausleserate der verwendeten Kamera festgelegt ist. Die Positionsbestimmung der Moleküle in den Einzelbildern erfolgt durch aufwendige rechnerische Prozeduren, wie sie beispielsweise in Egner et al., Biophysical Journal, S. 3285-3290, Band 93, November 2007, beschrieben ist. Die Bearbeitung aller Einzelbilder und das Zusammensetzen zu einem hochaufgelösten Gesamtbild, also ein Bild, in dem die Orte der Markierungsmoleküle mit einer jenseits der Beugungsgrenze liegenden Auflösung angegeben sind, dauert typischerweise ein bis zwei Stunden.
-
Problembeschreibung (Stand der Technik)
-
Literatur:
-
- [1] Betzig et Al., Science 313, 1642–1645 (2006)
- [2] Hess et al., PNAS 104, 17370–17375 (2007)
- [3] Hess et al., Biophys J. 91, 4258–427 (2006)
- [4] Shroff et al., PNAS 104, 20308–2031 (2007)
- [5] Rust et al., Nat Methods 3, 793–796 (2006)
- [6] Egner et al., Biophys J. 93, 3285–3290 (2007)
- [7] Toprak et al., Nano Lett. 7, 3285–3290 (2007)
- [8] Juette et al., Nature Methods 5, 527 (2008)
- [9] Huang et al., Science 319, 810 (2008)
- [10] Holst/Lomheim, CMOS/CCD sensors and camera systems, SPIE Press (2007)
- [11] Lessard et al., Appl. Phys. Lett. 91 224106 (2007)
-
Die grundlegenden Verfahren wie oben beschrieben sind in verschiedenen Variationen auch eingehend in der Literatur beschrieben [1–6].
-
Die Varianten (PALM, STORM, D-STORM etc.) unterscheiden sich dabei hauptsächlich in der Wahl der Fluorophore und der Art des optischen Schaltprozesses.
-
Allen Verfahren gemeinsam ist jedoch die Lokalisierung der Moleküle durch Abbildung auf eine hochempfindliche (z. B. EMCCD) Kamera.
-
Die quasi-punktförmige zu detektierende Lichtquelle (Molekül) wird dabei durch die Punktbildverwaschungsfunktion (PSF) des Mikroskops auf mehrere Kamerapixel abgebildet.
-
Die genaue Position des Moleküls in der x/y Ebene kann nun entweder durch fitten der bekannten PSF (Gauss) oder durch Schwerpunktsbestimmung oder durch eine Mischung von beidem (Gaussian Mask) bestimmt werden
-
Typische Lokalisierungsgenauigkeiten liegen (je nach experimentellen Bedingungen) bei 5–30 nm; das ist dann in etwa auch die erreichbare laterale Auflösung dieses Verfahrens.
-
Praktisch bedeutet die Forderung nach nicht zu dicht beieinander liegenden Molekülen einerseits und einer möglichst kompletten Wiedergabe der untersuchten Strukturen andererseits, dass viele Einzelbilder (typisch 20000) der Probe aufgenommen werden müssen.
-
In jedem Bild werden die Positionen der zu diesem Zeitpunkt aktiven Moleküle bestimmt und gespeichert. Zu der schon beträchtlichen Bildaufnahmezeit für 20000 Bilder kommt also noch die (je nach verwendetem Algorithmus und Rechnersystem) deutlich längere Rechen- oder Auswertezeit hinzu, bevor das eigentliche hochaufgelöste Bild zur Verfügung steht.
-
Das oben beschriebene Verfahren der lokalisierungsbasierten Hochauflösung ist allerdings auf Oberflächen bzw. 2 Dimensionen beschränkt, da die Lokalisierung der einzelnen Farbstoff-moleküle in der dritten Raumrichtung (z-Richtung) ungleich komplexer ist.
-
Hierzu sind mehrere Ansätze aus der Literatur bekannt, die im Folgenden kurz erläutert werden.
-
Astigmatismus/Zylinderlinse ([9]):
-
Bei diesem Ansatz wird im Detektionsstrahlengang eine schwache Zylinderlinse eingebracht, die zu einer astigmatischen PSF führt. Entsprechend wird das Bild des Moleküls elliptisch verzerrt, wenn sich das Molekül ober- oder unterhalb des Symmetriepunktes der PSF befindet. Aus Orientierung und Stärke der Verzerrung lässt sich dann die Information über die z-Position des Moleküls extrahieren.
-
Ein Problem dieses Verfahrens liegt darin, dass auch die lokale Umgebung und die Orientierung des molekularen Dipols zu einer Verzerrung des Spots des Moleküls führen können.
-
Diesen Molekülen würde dann, je nach ihrer Orientierung, ein falscher z-Wert zugeordnet.
Detektion in zwei Ebenen: Bewersdorf et al., Toprak et al. ([7, 8]):
Hier wird ein 50/50 Strahlteiler im Detektionsstrahlengang eingeführt, der das Bild in zwei Teilbilder aufspaltet (dupliziert). Diese zwei Bilder werden entweder auf zwei identische Kameras oder nebeneinander auf einen Kamerachip abgebildet. In einen der zwei Teilstrahlengänge wird eine optische Weglängendifferenz dergestalt eingeführt, dass sich aus den zwei Teilstrahlengängen zwei Objektebenen ergeben, die um etwa eine halbe bis eine z-PSF (700 nm) in z-Richtung auseinanderliegen. Die z-Position für Moleküle, die zwischen diesen beiden Ebenen liegen, ergibt sich nun z. B. durch Subtraktion der zwei Teilbilder des Moleküls bzw. durch fitten einer dreidimensionalen PSF.
-
Für diese Methode sind zwei hochempfindliche Kameras notwendig oder beide Bilder müssen auf einen Kamerachip nebeneinander angeordnet werden. Letzteres führt naturgemäß zu einer Einschränkung des Bildfeldes. Beide Varianten erfordern außerdem eine präzise Justage der Strahlengänge bzw. Kalibriermessungen, um die subpixelgenaue Überlappung der zwei Teilbilder zu gewährleisten. Alternativ müssen die Bilder rechentechnisch (Software) überlagert werden.
-
Problemlösung:
-
Die erfindungsgemäßen Lösungen sind Gegenstand der unabhängigen Patentansprüche.
-
Bevorzugte Weiterbildungen sind in den Unteransprüchen aufgeführt.
-
Nachfolgend wird die Erfindung beispielsweise anhand der beigefügten Zeichnungen, die auch erfindungswesentliche Merkmale offenbaren, noch näher erläutert. Es zeigen:
-
1 eine Schemadarstellung eines aktivierten Markierungsmoleküls in einem auflösungsbegrenzten Volumen;
-
2 eine Schemadarstellung der Abbildung verschiedener aktivierter und nicht-ktivierter Markierungsmoleküle auf einen ortsauflösenden Detektor,
-
3 ein Ablaufdiagramm für die Bilderzeugung im PALM-Verfahren,
-
4 zum Ablaufdiagramm der 3 gehörende Erläuterungsdarstellungen von auf den Detektor der 2 abgebildeten Markierungsmolekülen,
-
5 eine Schemadarstellung eines Mikroskop zur PAL-Mikroskopie,
-
6: Eine Ausführung der Erfindung mit einem Mikrolinsenarray
-
7: Eine Verteilung von Detektionselementen
-
8: zusammengefasste „Superpixel” zur dreidimensionalen Auswertung
-
9: Eine Kombination aus Mikrolinsen und Zylinderlinsen Array.
-
10 Eine Darstellung mit Mikrolinsen in oder in der Nähe der Zwischenbildebene.
-
1 zeigt schematisch ein Markierungsmolekül 1, das zur Fluoreszenz angeregt wurde. Natürlich erfordert die Fluoreszenzdetektion eine Vielzahl von Anregungen, da jede Anregung genau ein Fluoreszenzphoton liefert und die Strahlungsdetektion eine Integration vieler Fluoreszenzphotonen benötigt. Die vom Markierungsmolekül 1 abgegebene Fluoreszenzstrahlung kann in einem Mikroskop aufgrund physikalischer Prinzipien lediglich mit einer begrenzten optischen Auflösung detektiert werden. Selbst wenn das Mikroskop die Beugungsgrenze der optischen Auflösung erreicht, werden die Photonen des fluoreszierenden Markierungsmolekül 1 immer noch beugungsbedingt gestreut und somit in einen Beugungsscheibchen 2 detektiert. Das Mikroskop gibt also prinzipiell statt der geometrischen Ausdehnung des Markierungsmoleküls 1, die in 1 schematisch als schwarzer Kreis gezeichnet ist, ein größeres Objekt wieder, das in 1 durch das Beugungsscheibchen 2 veranschaulicht ist. Die Größe des Beugungsscheibchens 2 hängt von der Güte der verwendeten Mikroskopieeinrichtung ab und ist durch die Halbwertsbreite der Punktverwaschungsfunktion der optischen Abbildung definiert. Tatsächlich handelt es sich natürlich nicht um ein zweidimensionales Objekt, sondern um ein Beugungsvolumen in das die Fluoreszenzphotonen gelangen. In der zweidimensionalen Darstellung der 1 erscheint dieses aber als Scheibchen. Der Begriff Beugungsscheibchen wird hier deshalb ganz allgemein für ein maximales Auflösungsvolumen genommen, welches die verwendete Optik erzielen kann. Die verwendete Optik muss aber nicht zwingend an der Beugungsgrenze arbeiten, auch wenn dies zu bevorzugen ist.
-
Um nun das Markierungsmolekül 1 innerhalb des Beugungsscheibchens 2 genauer lokalisieren zu können, wird das oben bereits allgemein geschilderte PALM-Verfahren eingesetzt. Dieses aktiviert einzelne Markierungsmoleküle, wobei in dieser Beschreibung ganz allgemein unter dem Begriff Aktivierung die Aktivierung bestimmter Lumineszenzeigenschaften der Markierungsmoleküle verstanden wird, also sowohl ein Einschalten der Lumineszenzanregbarkeit als auch eine Änderung des Lumineszenzemissionsspektrum, was dem Einschalten bestimmter Lumineszenzeigenschaften entspricht. Im hier beschriebenen Ausführungsbeispiel wird die Aktivierung durch optische Aktivierungsstrahlung bewirkt. Es sind aber auch andere nicht-optische Aktivierungsmechanismen möglich.
-
Die Aktivierung erfolgt nun so, dass es zumindest einige aktivierte Moleküle gibt, deren Schwerpunkt nicht im Beugungsscheibchen anderer aktivierter Moleküle liegt, d. h. die innerhalb des optischen Auflösung zumindest gerade noch unterscheiden werden können.
-
2 zeigt schematisch eine exemplarische Situation auf einem Detektor 5, der die Photonen ortauflösenden integriert. Wie zu sehen ist, gibt es Bereiche 3, in denen die Beugungsscheibchen benachbarter Markierungsmoleküle überlappen. Hierbei sind, wie im linken Bereich 3 der 2 zu sehen ist, jedoch lediglich diejenigen Markierungsmoleküle relevant, die zuvor aktiviert wurden. Nicht aktivierte Markierungsmoleküle 1' geben die bestimmte Fluoreszenzstrahlung, welche auf dem Matrix-Detektor 5 aufgefangen wird, nicht ab, spielen also keine Rolle.
-
In den Bereichen 4, z. B. dem in der Mitte des Matrix-Detektors 5 gelegenen Bereiches 4, liegen Markierungsmoleküle 1 so, dass ihr Beugungsscheibchen 2 mit keinem Beugungsscheibchen eines anderen aktivierten Markierungsmolekül 1 überlappt. Der rechte Bereich des Matrix-Detektors 5 zeigt, dass Bereiche 3, in denen Beugungsscheibchen von aktivierten Markierungsmolekülen überlappen, zu Bereichen 4, in denen dies nicht der Fall ist, durchaus benachbart liegen können. Der rechte Bereich 4 verdeutlicht zudem, dass die Nachbarschaft eines aktivierten Markierungsmoleküls 1 zu einem nicht aktivierten Markierungsmolekül 1' für die Detektion keine Rolle spielt, da ein solches Markierungsmolekül 1' ja die vom Matrix-Detektor 5 detektierte Fluoreszenzstrahlung nicht abgibt, also nicht fluoresziert.
-
Zur Aufnahme eines jenseits der apparativ vorgegebenen optischen Auflösung detaillierten Bildes, das im Sinne dieser Beschreibung ein hochaufgelöstes Bild ist, werden nun die in 3 schematisch dargestellten Schritte eingesetzt.
-
In einem ersten Schritt S1 wird mittels eines Umschaltsignals eine Teilmenge der Markierungsmoleküle aktiviert; sie werden also von einem ersten Zustand, in dem sie zur Abgabe der bestimmten Fluoreszenzstrahlung nicht anregbar sind, in einen zweiten Zustand geschaltet, in dem sie zur Abgabe der bestimmten Fluoreszenzstrahlung anregbar sind. Natürlich kann das Aktivierungssignal auch eine selektive Deaktivierung bewirken, also in Schritt S1 auch ein inverses Vorgehen verwendet werden. Wesentlich ist, dass nach Schritt S1 lediglich eine Teilmenge der Markierungsmoleküle zur Abgabe der bestimmten Fluoreszenzstrahlung angeregt werden kann. Die Aktivierung bzw. Deaktivierung (nachfolgend wird zur Vereinfachung lediglich der Fall der Aktivierung geschildert) erfolgt abhängig von den verwendeten Markierungsmolekülen. Bei einem Farbstoff wie z. B. DRONPA, PA-GFP oder reversibel schaltbaren synthetischen Farbstoffen (wie Alexa/Cyan-Konstrukten) erfolgt die Aktivierung durch optische Strahlung, ist das Umschaltsignal also Umschaltstrahlung.
-
Die unter der 3 dargestellte 4 zeigt im Teilbild a den Zustand nach Schritt S1. Lediglich eine Teilmenge der Markierungsmoleküle I_n ist aktiviert. Die Markierungsmoleküle dieser Teilmenge sind mit einem voll ausgezeichneten schwarzen Punkt wiedergegeben. Die restlichen Markierungsmoleküle sind in diesem Schritt nicht aktiviert worden. Sie sind in Teilbild a der 4 mit I_n + 1 bezeichnet.
-
Markierungsmoleküle, die aktiviert wurden, können dann in einem zweiten Schritt S2 zur Abgabe von Fluoreszenzstrahlung angeregt werden. Als Fluoreszenzfarbstoffe werden vorzugsweise aus dem Stand der Technik bekannte fluoreszierende Proteine, wie PA-GFP oder auch DRONPA verwendet. Die Aktivierung erfolgt bei solchen Molekülen mit Strahlung im Bereich von 405 nm, die Anregung zur Fluoreszenzstrahlung bei einer Wellenlänge von etwa 488 nm, und die Fluoreszenzstrahlung liegt in einem Bereich oberhalb von 490 nm.
-
In einem dritten Schritt S3 wird die abgegebene Fluoreszenzstrahlung detektiert, beispielsweise durch Integration der aufgenommenen Fluoreszenzphotonen, so dass sich die im darunter liegenden Teilbild b der 4 dargestellte Situationen auf dem Matrix-Detektor 5 ergeben. Wie zu sehen ist, überlappen die Beugungsscheibchen der aktivierten Markierungsmoleküle I_n nicht. Die Größe der Beugungsscheibchen wird durch die optische Auflösung der Abbildung auf den Matrix-Detektor 5 festgelegt. Zusätzlich sind in Teilbild b der 4 (theoretische) Beugungsscheibchen von Fluoreszenzmolekülen eingezeichnet, die zur nicht-aktivierten Gruppe I_n + 1 gehören. Da diese nicht-aktivierten Markierungsmoleküle keine Fluoreszenzstrahlung abgeben, stört keine in deren (theoretischen) Beugungsscheibchen liegende Fluoreszenzstrahlung die Detektion der Fluoreszenzstrahlung der Teilmenge I_n der aktivierten Markierungsmoleküle.
-
Damit in der Teilmenge I_n möglichst wenige Beugungsscheibchen so überlappen, daß die Markierungsmoleküle gar nicht mehr unterscheidbar sind, wird die Aktivierungsenergie so eingestellt, dass die Teilmenge I_n nur einen vergleichsweise geringen Anteil der Gesamtmenge der Markierungsmoleküle ausmacht, so dass statistisch viele Markierungsmoleküle bezogen auf das mit der optischen Anordnung auflösbare Volumen unterscheidbar sind.
-
In einem vierten Schritt S4 wird die Lage der fluoreszierenden Markierungsmoleküle rechnerisch aus der Beugungsverteilung der Fluoreszenzscheibchen ermittelt, wodurch die Auflösung, mit der die Lage der aktivierten Markierungsmoleküle bekannt ist, über die Auflösung der optischen Anordnung hinaus geschärft wird, wie das Teilbild c der 4 zeigt.
-
Alternativ ist zu einer rechnerischen Bestimmung ist es ganz grundsätzlich möglich, die aufgenommene Fluoreszenzstrahlung nichtlinear zu verstärken und so mit verringertem Aufwand die Auflösung über die optischen Anordnung hinaus zu schärfen. Die nichtlineare Verstärkung kann beispielsweise gemäß der Funktion S = A·FN (Gleichung 1) oder S = A·expF/w (mit w = 10–N (Gleichung 2)) beschrieben werden, wobei F die Amplitude des Fluoreszenzsignals, A ein Normierungsfaktor und N eine ganze Zahl größer 1 ist.
-
Besonders vorteilhaft ist eine starke nichtlineare Abhängigkeit des Parameters S von F, also z. B. hohe Werte für N in den Gleichungen 1 oder 2. Natürlich können auch andere Funktionen verwendet werden. Grundsätzlich ist die Nichtlinearität vorzugsweise so gewählt, daß die Halbwertsbreite der Beugungsscheibe einer angestrebten räumlichen Auflösung für die Ortsangabe der Markierungsmoleküle entspricht. Neben einer nichtlinearen Verstärkung kann auch eine nichtlineare Dämpfung verwendet werden. Hierbei werden Fluoreszenzsignale geringer Amplitude oder Intensität gedämpft, wohingegen starke Signale zumindest weitgehend ungedämpft bleiben. Natürlich kann auch eine Kombination von nichtlinearer Verstärkung und Dämpfung verwendet werden.
-
Ein fünfter Schritt S5 setzt die Markierungsmoleküle, deren Lageangabe präzisiert ist, nun zu einem Einzelbild zusammen, dessen Ortsauflösung über die optische Auflösung hinaus gesteigert ist. Es enthält allerdings nur Informationen über die zuvor aktivierte Teilmenge der Markierungsmoleküle.
-
In einem sechsten Schritt S6 wird das Einzelbild auf bekannte Weise in ein Gesamtbild eingestellt. Anschließend wird zu Schritt S1 zurückgesprungen, wobei die bisher floureszierenden Moleküle wieder deaktiviert sein müssen. Eine Deaktivierung kann je nach Markierungsmolekülart durch eine separate Strahlung oder durch Abklingen des Aktivierungszustandes erreicht werden. Auch ist es möglich bereits abgebildete Markierungsmoleküle durch Anregungsstrahlung zu bleichen.
-
Mit jedem Durchlauf wird so ein weiteres Einzelbild erhalten, das zum Gesamtbild beiträgt. Im nächsten Durchlauf wird eine andere Teilmenge der Markierungsmoleküle aktiviert, z. B. die in 4 dargestellt Teilmenge I_n + 1.
-
Durch den mehrfachen Durchlauf durch die Schritte S1 bis S6 wird das Gesamtbild aus Einzelbildern der einzelnen Durchlaufe aufgebaut, welche die Orte der Markierungsmoleküle mit einer Ortsauflösung angeben, die gegenüber der Auflösung der optischen Abbildung geschärft ist. Durch eine entsprechende Anzahl von Iterationen baut sich somit ein hochaufgelöstes Gesamtbild sukzessive auf. Die Reduktion des Beugungsscheibchens erfolgt dabei bei dem Verfahren vorzugsweise in allen drei Raumdimensionen, wenn mehrere Bildstapel, welche in z-Richtung beabstandet sind, aufgenommen werden. Dann enthält das Gesamtbild in allen drei Raumrichtungen hochaufgelöst die Ortsangabe der Markierungsmoleküle.
-
5 zeigt schematisch ein Mikroskop
6 zur hochauflösenden Abbildung einer Probe
7. Die Probe ist beispielsweise mit dem Farbstoff DRONPA (vergleiche
WO 2007009812 A1 ) markiert. Zur Aktivierung sowie zur Fluoreszenzanregung weist das Mikroskop
6 eine Strahlungsquelle
8 auf, die über einzelne Laser
9 und
10 verfügt, deren Strahlen über einen Strahlvereiniger
11 zusammengeführt wird. Die Laser
9 und
10 können beispielsweise bei 405 nm (Aktivierungsstrahlung) und 488 nm (Fluoreszenzanregung und Deaktivierung) Strahlung abgeben. Es sind auch Farbstoffe bekannt (z. B. der Farbstoff namens DENDRA (vgl.
Gurskaya et al., Nature Biotech., Band 24, S. 461–465, 2006)), bei denen die Aktivierung und Fluoreszenzanregung bei ein- und derselben Wellenlänge erfolgen kann. Dann genügt ein Laser.
-
Ein akustisch-optischer Filter 12 dient zur Wellenlängenselektion und zum schnellen Schalten oder Abschwächen einzelner Laserwellenlängen. Eine Optik 13 fokussiert die Strahlung über einen dichroitischen Strahteiler 14 in eine Pupille eines Objektivs 15, so daß auf der Probe 7 die Strahlung der Strahlungsquelle 8 als Weitfeldbeleuchtung einfällt.
-
In der Probe 7 entstehende Fluoreszenzstrahlung wird über das Objektiv 15 eingesammelt. Der dichroitische Strahlteiler 14 ist so ausgelegt, dass er die Fluoreszenzstrahlung passieren lässt, so dass sie durch ein Filter 16 zu einer Tubuslinse 17 gelangt, so dass insgesamt die fluoreszierende Probe 7 auf den Detektor 5 abgebildet wird.
-
Zur Steuerung des Betriebs des Mikroskops 6 ist eine Steuereinrichtung vorgesehen, hier als Computer 18 mit Anzeige 19 und Tastatur 20 ausgebildet. Die Verfahrensschritte S2 bis S6 erfolgen im Computer 18. Dabei ist die Bildrate des Matrix-Detektors ausschlaggebend für die Gesamtmeßzeit, so dass ein Matrix-Detektor 5 mit möglichst hoher Bildrate vorteilhaft ist, um die Meßzeit zu reduzieren.
-
Die Kernideen der vorliegenden Erfindung werden im Weiteren näher ausgeführt:
-
1. Kamerasensor mit mindestens 2 integrierten Objektebenen:
-
Hier liegt die Kernidee in der Erzeugung von mindestens 2 in vertikaler (z) Richtung getrennten Objektebenen unter Verwendung lediglich einer Kamera und ohne Veränderung des Mikroskopstrahlengangs. Erreicht wird dies nicht durch Aufspalten des Bildes und Einführen einer optischen Weglängendifferenz zwischen den Teilbildern wie in [8], sondern durch Ineinanderschachteln zweier Subbilder auf einem Kamerasensor ( rechts). Prinzipiell könnte dies durch Anordnen der geschachtelten Pixel in unterschiedlichen Höhen auf dem Sensor erreicht werden. Dies ist aber schwer realisierbar, da für die erforderliche Aufspaltung der zwei Objektebenen in z von ~700 nm bei einem typischerweise eingesetzten 100 × Objektiv eine Pixelhöhendifferenz von ~700 nm·^(100)^2 = 7 mm erforderlich wäre.
-
Von produktionstechnischen Schwierigkeiten ganz abgesehen ergäbe sich bei einer typischen lateralen Pixelgröße von nur 8–16 μm ein extrem ungünstiges Verhältnis, ohne Mikrolinsen müsste ein Pixel auf dem gleichen Sensor um 7 Millimeter höher liegen als sein Nachbarpixel, bei nur 8–16 Mikrometer Pixelgröße. Selbst wenn die Herstellung möglich wäre, würden nur die oben liegenden Pixel ein Bild „sehen”. Stattdessen kann der z-Versatz der zwei Objektebenen erreicht werden durch ein Mikrolinsen (ML) Array auf dem Sensor ( links) oder alternativ im Abbildungsstrahlengang.
-
Der Einsatz von ML-Arrays auf CCD oder CMOS Sensoren zur Erhöhung des Füllfaktors ist ein gängiges Verfahren (z. B. [10] und Referenzen darin).
-
Bei den hier vorgeschlagenen Anordnungen lässt sich durch Wahl der Brennweite der ML dann vorteilhaft der z-Versatz einstellen. Die ML sind nicht jedem Pixel zugeordnet, sondern alternierend, so dass sich bei einer Belichtung zwei Sub-Bilder ergeben, die den zwei in z-Richtung getrennten Objektebenen entsprechen.
-
Die Idee ist nicht nur auf die in gezeigte Pixelanordnung beschränkt.
-
In einer weiteren Ausführung lassen sich beispielsweise unter Verwendung von zwei verschiedenen Mikrolinsengruppen 3 Objektebenen einführen. Damit ergeben sich je nach Datenauswertung dann 3 Stützstellen für die Datenanpassung in z-Richtung und damit eine potentiell höhere Genauigkeit. Eine mögliche packungsdichte Anordnung mit drei zugeordneten Objektebenen in Anlehnung an die hexagonale Super-CCD Struktur (Fuji) ist in skizziert.
-
zeigt die Erzeugung zweier in z-Richtung getrennter Objektebenen durch Mikrolinsenarrays
-
In ) ist schematisch die Sensorebene CCD dargestellt, wobei jeweils (zweidimensional) alternierend mit Lücken vor den einzelnen Sensorelementen Mikrolinsen ML in einem Array angeordnet sind.
-
Über das Objektiv OB und eine Tubuslinse TL werden Objektebenen OE1 und OE2 auf den Sensor CCD abgebildet.
-
Durch das ML Array zur Abbildung der Objektebene OE1 liegen die Objektebenen OE1 und OE2 nicht in einer Ebene sondern sind in Z-Richtung zueinander verschoben. Der Betrachter sieht bei der Darstellung rechts in unterschiedliche Z-Ebenen entsprechend unterschiedlichen Brennweiten, charakterisiert hier durch schwarz und grau.
-
In ) sind in helleren Graustufen die der Objektebene OE2 zugeordneten Sensorpixel und in dunkleren Graustufen die der Objektebene OE1 zugeordneten Sensorpixel dargestellt.
-
Sie sind hier symmetrisch angeordnet, durch die symmetrische Annordnung des ML Arrays, Abweichungen von dieser Symmetrie gehören jedoch ebenfalls in den Rahmen dieser Erfindung.
-
Vorteile dieses Ansatzes sind insbesondere, dass nur eine Kamera und ein Strahlengang erforderlich sind.
-
Die Ausrichtung der zwei Unterbilder relativ zueinander ist dadurch automatisch erfüllt, durch einen konstanten und bekannten 1-Pixel-Offset.
-
Jedes Mikroskop oder jedes andere optische System wäre direkt, ohne Modifikation des Strahlengangs und ohne zusätzliche optische Komponenten zu einem derartigen 3D-Hochauflösungssystem vorteilhaft nachrüstbar.
-
zeigt eine mögliche Pixel- und ML Anordnung zur Erzeugung von drei in z-Richtung getrennten Objektebenen durch ein Mikrolinsenarray mit zwei unterschiedlichen Brennweiten.
-
Die Bildebenen OE2 und OE3 entstehen durch ML Arrays mit unterschiedlicher Brennweite, OE1 ist wie in 1 eine Objektebene die ohne Mikrolinse auf einem Detektorelement angeordnet ist.
-
Es können jedoch auch drei ML Arrays mit jeweils unterschiedliche Brennweiten vorgesehen.
-
Beiträge aus anderen Objektebenen werden für die Einzelpixel nur als diffuser Hintergrunde wahrgenommen.
-
Das verwendete Objektiv (siehe PALM Verfahren und die angegebene Literatur) ist sehr kurzbrennweitig (hohe NA), das bedeutet dass Objekte die sich außerhalb der Brennweite befinden sehr verschmiert (diffus) detektiert werden
-
Die Elemente können konfokal sein (einer Airy Einheit entsprechen, sind aber in der Regel größer ausgebildet bzw. die Abbildung erfolgt in dieser Weise.
-
2.) ML-Array wie in 1), aber im Zwischenbild z. B. wie in Fig. 10 dargestellt.
-
Zwar muss hier ein zusätzliches optisches Element (das ML-Array) in den Strahlengang (in ein Zwischenbild ZB) eingebracht werden, die oben aufgelisteten Vorteile (nur eine Kamera und Strahlengang, automatische Ausrichtung, Nachrüstbarkeit) bleiben aber erhalten.
-
Das ML-Array könnte aber vorteilhaft separat konfiguriert und gefertigt werden, man wäre diesbezüglich nicht vom Kamerachiphersteller abhängig. Die Zwischenabbildung würde zweckmäßigerweise vergrößert ausgeführt, so dass sich die Toleranzen des ML-arrays entspannen.
-
Die Mikrolinsen können hierbei leicht vor der ZB Ebene liegen (oder dahinter wie dargestellt mit negativer Brennweite), damit ihre Fokalebene im ZB liegt oder die Lage des Sensors ist entsprechend angepasst.
-
Bei Verwendung mehreren ML Anordnungen mit z. B. 2 unterschiedlichen Brennweiten wie oben dargestellt kann vorteilhaft das Zwischenbild zwischen den beiden Brennebenen der ML Anordnungen liegen.
-
Auf dem detektierten Spot erscheint dann ein Spot der genau in der Zwischenbildebene liegt gleich unscharf für beide detektierte Empfängeranordnungen, die den jeweiligen ZL Anordnungen zugeordnet sind
-
Unterschiede bezüglich der detektierten Unschärfe würden vorteilhaft eine genaue Lagedetektion des Teilchens anhand der detektierten Unschärfe innerhalb des erfassten Tiefenbereiches ohne Z Verstellung der Anordnung (beispielsweise 700 nm ermöglichen)
-
3.) Mindestens 2 Objektebenen mit angepassten „Superpixeln” mit Substruktur:
-
Eine derartige Substruktur ist für 2 oder 3 Objektebenen wie Beispiele in , aber auch wie in u. 6 vorteilhaft einsetzbar.
-
Insbesondere für CMOS-Kameras mit random access Pixeln können geeignete Superpixel definiert werden, die die direkte Verrechnung der Ortsinformation jedes Superpixels erlauben. Dieser Ansatz wäre vorteilhaft für Echtzeit-Lokalisierung pro Superpixel in 3D und damit z. B. geeignet für Tracking individueller Objekte durch Verfahren der Probe und Regeln auf ein individuelles Superpixel-Tracking Signal. Es wird also quasi ein PSD (Position Sensitive Detector) pro Superpixel realisiert. Insbesondere die Superpixel-Anordnung in , b und c rechts wäre direkt für ein particle tracking geeignet wie in [11] beschrieben.
-
Im Gegensatz zu [11] wäre hier eine Weitfeld-Detektionsmethode (Kamera) direkt mit 3D-particle-tracking verknüpfbar ohne weitere optische Elemente. Insbesondere dieser Ansatz ist nicht nur auf die hochauflösende Mikroskopie mit hochempfindlichen Kameras beschränkt, sondern kann bei entsprechend Lichtstarken Objekten mit kostengünstigen Kameras realisiert werden. Ein Beispiel hierfür wäre z. B. tracking von beads oder Vesikeln mit vielen Fluorophoren, oder aber sogar die Realisierung einer im Weitfeldmikroskop integrierten optischen Pinzette (optical tweezer).
-
Beispielsweise bei CMOS Kameras ist jeder Pixel einzeln adressierbar. Wie dargestellt werden m mehrere Pixel (beispielsweise 9) als ein „Superpixel” betrachtet und auswertetechnisch gemeinsam einer Auswerteeinheit (Speichereinheit) zugeordnet- siehe schwarzer Rahmen im Bild.
-
Ein derartiger Superpixel würde einen beispielsweise einen Bildpunkt erfassen.
-
Eine Vielzahl solcher Superpixel würde sich nebeneinander auf dem Sensor befinden. Ihre Größe kann, beispielsweise durch entsprechende optische Abbildung oder durch Dimensionierung auf dem Empfänger, an die erwartete Größe der zu untersuchenden Spots (Moleküle) angepasst werden.
-
Durch seine Unterstruktur kann durch Summen- und Differenzbildung eine laterale und axiale Positionsinformation des Bildpunktes (Molekül) gewonnen werden.
-
zeigt im Einzelnen in
- a) Mögliche „Superpixel” (schwarze Rechtecke) SP, bestehend aus mehreren Einzelpixeln mit Objektebenen wie in Legende kodiert (+ 0 –) entsprechend unterschiedlichen Graustufen
-
Die einzelnen Objektebenen sind wiederum durch ML-Arrays auf dem Kamerachip und/oder in Zwischenbildebene wie unter 6) und 7) beschrieben realisierbar.
-
In , d sind an die Pixel, die unterschiedlichen Objektebenen entsprechen, jeweils Logikstufen angeschlossen, die die Signale von jeweils beispielsweise zwei Pixeln, die Signale aus derselben Objektebene erhalten, voneinander abziehen – C1 (x, Y Richtung) oder sie addieren – C2. (+) und anschließend die addierten Signale voneinander abziehen (Z Richtung).
-
Wie in 7 stellen die unterschiedlichen Graustufen Beiträge aus unterschiedlichen Objektebenen dar. Bewegt sich in 8c ein gestrichelt angedeutetes Molekül M beispielsweise nach links sind die detektierten Werte der symmetrisch angeordneten Detektorelemente des Superpixels (z. B. die hellgraue rechts und links des Zentrumpixels Pz ungleich. Durch Differenzbildung und das entsprechende Vorzeichnen kann die Bewegungsrichtung, aus dem Absolutbetrag der Ungleichheit der Betrag der Bewegung berechnet werden.
-
Dies kann sowohl durch die in der Zeichnung waagerecht angeordneten Pixel (X) als auch durch senkrecht angeordnete Pixel (y) erfolgen so dass eine vollständige zweidimensionale Bewegungsinformation erfolgt.
-
In Z Richtung wird analog die Intensität der oberen und unteren Fokusebene der ML beispielsweise bei 3 unterschiedlichen Fokusebenen, repräsentiert durch unterschiedliche Sensorelemente wie dargestellt anhand der Graustufen, verglichen werden und auch auf diese Weise eine Bewegung erfasst werden bzw. die Lage des untersuchten Spots innerhalb des erfassten Tiefenbereichs durch Vergleich der erfassten Intensität.
-
Dargestellt ist in 8d) die jeweilige plus/minus +/– Verknüpfung von Pixeln P1, P2 die unterschiedliche Objektebenen erfassen und die anschließende Subtraktion zur Gewinnung der Z Information bezüglich ihres Betrages und ihres Vorzeichens.
-
In 8c ist rechts eine mögliche andere Verschaltung der Detektorelemente eines Superpixels dargestellt, die nur teilweise symmetrisch ist bzw. eine andere Symmetrieachse aufweist. Die obigen Bemerkungen zur Ermittlung der Lage und Bewegung gelten sinngemäß auch hier.
-
Jeder Pixel/Superpixel der vorgestellten Anordnungen kann wie oben beschrieben als positionsempfindlicher Detektor (vergleichbar zu einer Quadrantenphotodiode) fungieren. Damit kann allein mit der vorgestellten Kamera und dem Hochauflösungsmikroskop eine optische Pinzette realisiert werden. Die Grundlagen zur optischen Pinzette finden sich z. B. in: http://en.wikipedia.org/wiki/Optical_tweezers oder in den dort zitierten Referenzen.
-
Die eigentliche Pinzette, also der fokussierte Haltelaser, kann bei Kombination mit einem LSM durch einen im LSM integrierten Laser realisiert werden. Über die LSM-Scanner kann dieser fokussierte Spot, der die eigentliche, optische Falle bildet, beliebig positioniert werden. Durch die schnelle Scan- und Schalt-Funktionalität (AOTF) können auch mehrere Spots erzeugt und positioniert werden.
-
Wenn ein Partikel (vesikel, bead, je nach Experiment) ,gefangen' ist, kann der am Ort seiner Abbildung liegende Superpixel als PSD ,aufgeschaltet' werden. Wenn nun Kräfte auf das Partikel wirken und es leicht aus seiner Ruhelage ausgelenkt wird, kann diese Bewegung detektiert werden.
-
Zum Tracking: In Verbindung mit einem 3D-Piezo-Probentisch können Diffusions- und Transportprozesse einzelner Objekte auch mit einem der Superpixel verfolgt werden: wiederum wir der am Bildort des Partikels befindliche Superpixel ,aufgeschaltet' und nun über einen Feedback-loop das Positionssignal in allen Richtungen (x, y, z) auf „Null” gehalten. Die Piezosteuerspannung, die dafür angelegt werden muss, ist direkt proportional zur Positionsänderung des verfolgten Partikels.
-
Vorteile sind insbesondere:
- – Kombination LSM/Fluoreszenzmikroskopie/Hochauflösende Mikroskopie/Particle Tracking/Optical Tweezer in einem System. Diese Verfahren sind alle in der molekularen Zellbiologie von Interesse, erfordern aber derzeit eigene, dedizierte Systeme.
- – Das ist damit auch kostengünstig, da die teuren Komponenten (Laser, Kamera) nur einmal erforderlich sind
-
4. Kombination Mikrolinsen und Zylinderlinsen zur Gewinnung einer X/Y/Z Information:
-
zeigt eine z-Lokalisierung durch Kombination eines Mikrolinsenarray ML und eines Mikro-Zylinderlinsenarrays ZL zusammen mit einer geeigneten Superpixel-Struktur. Die x-y-Lokalisierung lässt sich wie bei den PALM-Verfahren bekannt aus der Intensitätsinformation des Zentralpixels oder der Summe der Signale aller neun Pixel jedes Superpixels gewinnen.
-
Hier wird die jedoch die z-Information ähnlich wie bei [9]- siehe Abschnitt zum Stand der Technik – durch Einführen eines astigmatischen Fokus gewonnen. Auch hier wird jedoch zusätzlich zu einem wie oben beschriebenen Mikrolinsenarray ML ein Zylinder-Mikrolinsenarray ZL so eingeführt, dass der symmetrische Unschärfenkreis K den zentralen Pixel der wie in skizzierten Superpixel gerade ausfüllt. Damit kann ohne Signalverlust die x/y-Lokalisierung für Objekte (Moleküle) im Fokus nur mit den zentralen Pixeln durchgeführt werden. Für eine Punktquelle, die ober- oder unterhalb der diesem Unschärfekreis zugeordneten Objektebene liegt, ergibt sich dann ein sagittaler bzw. meridionaler Ellipsoid E.
-
Der Vorteil der Anordnung besteht darin, dass aus den Randpixelsignalen jedes Superpixels direkt die z-Information der beobachteten Punktquelle hervorgeht. Insbesondere die moderne CMOS-Kamerachip-Architektur mit ihren direkt ansteuer- und auslesbaren Pixeln (random access) würde hier eine direkte Verrechnung der Intensitäts- und damit der z-Information jedes Superpixels ohne Software-Fit ermöglichen. Die x-y-Lokalisierung lässt sich wie bei den PALM-Verfahren bekannt aus der Intensitätsinformation des Zentralpixels oder der Summe der Signale aller neun Pixel jedes Superpixels gewinnen.
-
Die Kombination aus Zylinderlinse und Mikrolinsen stellt im Prinzip eine anamorphotische Optik dar, die in den konvergierenden Strahlengang nach der Tubuslinseeingesetzt wird.
-
Vor der Brennebene der Anordnung wirken die fokussierende Wirkung der Mikrolinse ML und die auf eine Achse beschränkte Wirkung der Zylinderlinse ZJ jeweils zusammen und erzeugen in der Brennebene einen punktförmigen Fokus K (linkes Bild, kleiner Kreis) und vor der Brennebene (Mittleres Bild, schwarze Ellipse) und nach der Brennebene (rechtes Bild, schwarze Ellipse) einen Ellipsoid E, der eine unterschiedliche (sagittale und meridionale) Orientierung für eine Punktquelle die oberhalb oder unterhalb der Objektebene liegt, aufweise.
-
Durch das Auftreten des Ellipsoiden wird in den einem Zentralen Detektorelement benachbarten Elementen ein Signal detektiert wobei die Orientierung des Ellipsoiden (Detektion durch senkrechte oder waagerechte Nachbarelemente im Beispiel, wie auch in 8 beschrieben) und die damit ein Signal ergebenden Detektorelemente (vertikal oder horizontal) charakterisiert ob sich das Objekt oberhalb oder unterhalb der Objektebene befindet.
-
In Druckschrift 9 erfolgt im Gegensatz zur Erfindung eine Auswertung des aufgenommenen Bildes erfolgt durch pixelweises Bildauslesen und Softwarebestimmung der Verschmierungen.
-
Nachteile sind insbesondere
- – Transfer und Auswertung großer Datenmengen (Grundproblem bei Palm). Die hier vorgestellte Lösung bietet die Möglichkeit, die Positionsverrechnung bereits auf der Kamera zu realisieren (in einem FPGA) und nur die bereits ausgewerteten Daten zu transferieren.
- – Die unter 3) beschriebenen Anwendungen wir Tweezer und/oder Tracking sind mit diesem ,klassischen' Vorgehen nicht möglich.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- US 5866911 [0007]
- DE 4416558 C2 [0007]
- US 6633432 [0007]
- DE 10325460 A1 [0007]
- EP 1157297 B1 [0008]
- WO 2006127692 [0009]
- DE 102006021317 [0009]
- WO 2007009812 A1 [0059]
-
Zitierte Nicht-Patentliteratur
-
- Egner et al., Biophysical Journal, S. 3285-3290, Band 93, November 2007 [0012]
- Betzig et Al., Science 313, 1642–1645 (2006) [0013]
- Hess et al., PNAS 104, 17370–17375 (2007) [0013]
- Hess et al., Biophys J. 91, 4258–427 (2006) [0013]
- Shroff et al., PNAS 104, 20308–2031 (2007) [0013]
- Rust et al., Nat Methods 3, 793–796 (2006) [0013]
- Egner et al., Biophys J. 93, 3285–3290 (2007) [0013]
- Toprak et al., Nano Lett. 7, 3285–3290 (2007) [0013]
- Juette et al., Nature Methods 5, 527 (2008) [0013]
- Huang et al., Science 319, 810 (2008) [0013]
- Holst/Lomheim, CMOS/CCD sensors and camera systems, SPIE Press (2007) [0013]
- Lessard et al., Appl. Phys. Lett. 91 224106 (2007) [0013]
- Bewersdorf et al., Toprak et al. [0026]
- Gurskaya et al., Nature Biotech., Band 24, S. 461–465, 2006 [0059]
- http://en.wikipedia.org/wiki/Optical_tweezers [0106]