DE102015109645B3 - Verfahren zur Multiliniendetektion - Google Patents

Verfahren zur Multiliniendetektion Download PDF

Info

Publication number
DE102015109645B3
DE102015109645B3 DE102015109645.5A DE102015109645A DE102015109645B3 DE 102015109645 B3 DE102015109645 B3 DE 102015109645B3 DE 102015109645 A DE102015109645 A DE 102015109645A DE 102015109645 B3 DE102015109645 B3 DE 102015109645B3
Authority
DE
Germany
Prior art keywords
read
detector
integration
row
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102015109645.5A
Other languages
English (en)
Inventor
Martin Beck
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Microscopy GmbH
Original Assignee
Carl Zeiss Microscopy GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Microscopy GmbH filed Critical Carl Zeiss Microscopy GmbH
Priority to DE102015109645.5A priority Critical patent/DE102015109645B3/de
Priority to JP2017564905A priority patent/JP6732809B2/ja
Priority to US15/580,417 priority patent/US10567681B2/en
Priority to PCT/EP2016/062638 priority patent/WO2016202611A1/de
Application granted granted Critical
Publication of DE102015109645B3 publication Critical patent/DE102015109645B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled

Landscapes

  • Multimedia (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Microscoopes, Condenser (AREA)
  • Studio Devices (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Multiliniendetektion, bei dem auf einem mit einer Ansteuerung (3) verbundenen flächenförmigen Detektor (2) mit einer Anzahl M von auszulesenden Gebieten Rm mit m = 1, ..., M festgelegt wird. In jedem auszulesenden Gebiet wird eine Anzahl J von Zeilengruppen jeweils aneinander grenzender Detektorzeilen festgelegt, wobei jede Zeilengruppe eine vorgegebene Anzahl N von Detektorzeilen umfasst. Um zeitgleich Licht in mehreren Bereichen auf dem Detektor registrieren zu können, werden in allen beteiligen Zeilen nacheinander Integrationsvorgänge gestartet, und nach deren Beendigung Auslesevorgänge. Für das Auslesen jeder Zeile steht eine Auslesezeit zur Verfügung, diese Auslesezeit entspricht auch dem zeitlichen Versatz, in welchem die Integrationsvorgänge zeilenweise gestartet werden. Dabei erfolgt eine tatsächliche Belichtung, gesteuert über ein entsprechendes Signal, nur dann, wenn tatsächlich in allen beteiligten Zeilen Integrationsvorgänge gestartet wurden und der erste Integrationsvorgang noch nicht wieder beendet wurde. Auf diese Weise ist eine gleichzeitige Detektion in verschiedenen Bereichen auf dem Sensor unter identischen Bedingungen möglich.

Description

  • Die Erfindung betrifft ein Verfahren zur Multiliniendetektion. Im Stand der Technik sind Verfahren bekannt, bei denen beispielsweise eine Probe mit einer sich bewegenden Beleuchtungslinie beleuchtet wird und von der Probe emittiertes Licht durch eine Rolling-Shutter-Kamera detektiert wird. Die Bewegung des Rolling-Shutters in der Bildebene ist dabei mit der Bewegung des Bildes der Beleuchtungslinie synchronisiert. Der Begriff „Rolling-Shutter“ bedeutet dabei, dass nicht alle Zeilen eines Bereiches auf einem Bildsensor gleichzeitig belichtet, d.h. integriert und anschließend ausgelesen werden, sondern die Belichtung beispielsweise zeilenweise oder für Gruppen von Zeilen bereichsweise erfolgt. Dafür geeignete flächenförmige Detektoren sind beispielsweise CMOS-Sensoren. Bei der Verwendung der Rolling-Shutter-Belichtung in mikroskopischen Abbildungsverfahren sind die optischen Abbildungsverhältnisse dabei in der Regel so eingerichtet, dass die Höhe der Pixelzeilen wie eine konfokale Blende wirkt. Auf diese Weise lässt sich die Auflösung in axialer Richtung steigern bzw. der Kontrast im Bild erhöhen, da Licht, welches vor und hinter der Fokusebene in Richtung der Detektionsoptik ausgesendet wird, nicht mehr zum Bildinhalt beiträgt.
  • Ein auf der Rolling-Shutter-Technologie basierendes Mikroskop ist beispielsweise das „DLM Confocal MicroscopeTM“ der Firma AEON Imaging LLC, welches in Transmission unter verschiedenen Winkeln detektieren kann.
  • In der DE 10 2010 013 223 A1 wird ein Mikroskopieverfahren beschrieben, bei dem eine Probe mit auf diese fokussiertem Anregungslicht bestrahlt wird und ein Probengebiet mittels einer entsprechenden Detektionsoptik auf einen flächenförmigen Detektor abgebildet wird, wobei Beleuchtungsrichtung und Detektionsrichtung – wie beispielsweise in der Lichtblattmikroskopie üblich – einen von Null verschiedenen Winkel, beispielsweise 90° einschließen. Dabei wird der flächenförmige Detektor so angesteuert, dass die aktive Fläche auf einen Auslesebereich, der die Abbildung des Fokus des Anregungslichtes umfasst, beschränkt wird und bei Verlagerung des Fokus die aktive Fläche an diese Verlagerung angepasst wird, so dass die verlagerte aktive Fläche erneut die Abbildung des Fokus des Anregungslichts umfasst. Insbesondere lässt sich dieses Verfahren anwenden, wenn das Anregungslicht in zwei Zeitintervallen aus verschiedenen Einrichtungen in das Probenvolumen eingestrahlt wird. Bei dem aktiven Bereich lassen sich Form, Länge und / oder Breite auf der Detektorfläche einstellen. Die Beschränkung der aktiven Fläche erfolgt dabei im Rolling-Shutter-Betrieb. Solange nur eine einzige Beleuchtungslinie verwendet wird, reicht die Verwendung eines einzigen Rolling-Shutters aus, jedoch sind der Anwendung dieses Verfahrens Grenzen gesetzt, da relativ lange Belichtungszeiten pro Zeile notwendig sind, um ein ausreichendes Signal-Rausch-Verhältnis zu erhalten; dies resultiert in relativ langen Bildaufnahmezeiten, welche für einige Experimentklassen jedoch zu lang sind, sowie in einer niedrigen Bildwiederholungsrate.
  • Im Stand der Technik sind auch sogenannte Split-Sensoren bekannt, die aus zwei voneinander getrennten Bereichen zusammengesetzt sind, die unabhängig voneinander angesteuert und ausgelesen werden können. Sie verfügen über zwei Ansteuerungs-Bussysteme und zwei Auslesekaskaden, etc. Streng genommen handelt es sich bei Split-Sensoren nicht um einen einzigen Sensor, sondern um zwei Sensoren. Im Folgenden wird mit dem Begriff „Sensor“ daher jeweils ein Sensor mit einem Bussystem und einer einzigen Auslesekaskade bezeichnet.
  • Aufgabe der Erfindung ist es daher, ein Verfahren zu entwickeln, mit welchem eine Multiliniendetektion nach Art eines Rolling-Shutters auf einem einzigen Sensor etabliert werden kann, so dass für jede der verwendeten Linien der Detektor im Rolling-Shutter-Modus belichtet wird, wodurch insgesamt die Bildaufnahmezeit verkürzt und auf diese Weise die Bildwiederholrate erhöht werden kann.
  • Diese Aufgabe wird durch ein Verfahren zur Multiliniendetektion gelöst, welches die folgenden Schritte umfasst.
  • In einem Schritt a) wird auf einem mit einer Ansteuerung verbundenen flächenförmigen Detektor, welcher eine Anzahl Detektorzeilen umfasst, eine Anzahl M von auszulesenden Gebieten R1, R2, ..., RM mit einer natürlichen Zahl M ≥ 1 festgelegt, dabei umfasst jedes auszulesende Gebiet mindestens eine Detektorzeile. Die auszulesenden Gebiete Rm mit m = 1, ..., M definieren auf dem flächenförmigen Detektor, beispielsweise einem CMOS-Sensor, die Bereiche, in welchem jeweils der Betrieb im Rolling-Shutter-Modus erfolgt. Ist beispielsweise M = 3, so werden drei auszulesende Gebiete R1, R2, R3 festgelegt, in jedem der drei Gebiete erfolgt die Belichtung nach Art des Rolling-Shutter-Verfahrens. Die auszulesenden Gebiete Rm umfassen jeweils mindestens eine Detektorzeile, in der Regel jedoch mehrere Detektorzeilen, wobei die auszulesenden Gebiete auf der Sensorfläche jeweils verschiedene, einander nicht überlappende Bereiche von Detektorzeilen umfassen. Für eine Ansteuerung ist es am einfachsten, wenn jedes der auszulesenden Gebiete Rm die gleiche Anzahl von Detektorzeilen umfasst, dies ist jedoch keine zwingende Voraussetzung und in Abhängigkeit von beispielsweise dem gewählten Untersuchungsverfahren können die auszulesenden Gebiete Rm auch unterschiedliche Anzahlen von den Detektorzeilen umfassen.
  • In einem nächsten Schritt b) wird in jedem auszulesenden Gebiet Rm eine Anzahl J von Zeilengruppen Gm1, Gm2, ..., GmJ mit einer natürlichen Zahl J ≥ 1 jeweils aneinander grenzender Detektorzeilen festgelegt. Dabei umfasst jede Zeilengruppe Gmj eine Anzahl N von Detektorzeilen Zmj1, Zmj2, ..., ZmjN, mit j = 1, ..., J und N ≥ 1. Diese Zeilengruppen Gmj definieren jeweils sogenannte Blenden, die zwar hinsichtlich ihrer Zeilen in einem auszulesenden Gebiet Rm aneinandergrenzen, jedoch zu unterschiedlichen Zeiten belichtet werden können, d.h. für welche zu verschiedenen Zeiten ein Integrationsvorgang gestartet wird.
  • In einem dritten Schritt c) wird zum Starten eines ersten Detektionsvorgangs, d.h. bei j = 1 ein Level-Trigger-Signal LTS von „0“ auf „1“ gesetzt. Die Werte „0“ und „1“ sind hier willkürlich gewählt und sollen nur symbolisieren, dass das Level-Trigger-Signal LTS zwei verschiedene Werte einnehmen kann, die beispielsweise durch eine niedrige Spannung („low“) und eine höhere Spannung („high“) eingestellt werden können. Dadurch wird ein Integrationsvorgang für die erste Detektorzeile Z111 der ersten Zeilengruppe G11 im ersten auszulesenden Gebiet R1 während einer ersten Integrationszeit tb 1 ausgelöst. Nach deren Ablauf wird das Level-Trigger-Signal von „1“ auf „0“ zurück gesetzt. Der Integrationsvorgang und der erste Detektionsvorgang werden beendet und es wird ein Auslesevorgang gestartet, wobei während einer ersten Auslesezeit ta 1 der für diese Detektorzeile Z111 detektierte Belichtungswert ausgelesen und an eine Auswerteeinheit geleitet wird. Die Auswerteeinheit kann beispielsweise eine Bildverarbeitungseinheit sein, die auch in eine Kamera integriert sein kann, von welcher der Detektor ein Teil ist. Der Detektionsvorgang wird also durch das Setzen des Level-Trigger-Signals LTS gesteuert, d.h. gestartet und beendet. Die erste Auslesezeit setzt sich dabei aus mindestens zwei Werten zusammen, ta 1 = tr 1 + to1, wobei tr 1, die tatsächliche, physikalisch für das Transferieren der akkumulierten Ladung notwendige Auslesezeit einschließlich der Bestimmung eines der Ladung zugeordneten digitalisierten Werts notwendige Zeit ist, und to 1 eine vom Benutzer frei wählbare Benutzerverzögerungszeit definiert, mit welcher der Auslesevorgang gestartet oder beendet wird, je nachdem, ob die Benutzerverzögerungszeit vor oder nach dem eigentlichen Auslesen hinzugefügt wird.
  • Dabei muss das Level-Trigger-Signal nur für die erste Detektorzeile Z111 auf „1“ gesetzt werden, da in einem vierten Schritt d) mittels einer Ansteuerlogik – die Ansteuerlogik ist entweder Teil des Sensors oder in einer besonderen Schaltung gesondert in den Detektor bzw. eine Kamera mit dem Detektor integriert – sukzessive zeitlich jeweils um den Abstand der ersten Auslesezeit ta 1 versetzt in den weiteren Detektorzeilen der ersten Zeilengruppe G11 und folgend entsprechend in den ersten Zeilengruppen Gm1 der übrigen auszulesenden Gebiete Rm für m – 1 = 1, ..., M – 1 Integrationsvorgänge mit anschließendem Auslesen ausgelöst werden, wobei der – mit dem Auslesen der ersten Zeile Z111 gestartete Auslesevorgang – beendet wird, nachdem die letzte Zeile ZM1N der ersten Zeilengruppe GM1 des letzten auszulesenden Gebiets RM ausgelesen wurde. Die Integrationsvorgänge und das Auslesen einzelner Zeilen werden also innerhalb dieser Kaskade automatisch, d.h. von einem entsprechenden Zustandsautomaten gestartet.
  • In Abhängigkeit von der Steuerung und der verwendeten Hardware ist es in Schritt d) alternativ auch möglich, diesen Zeitabschnitt, in dem die Integrationsvorgänge gestartet werden, zu verkürzen oder vollständig zu vermeiden, indem mindestens nahezu zeitgleich mit dem Starten des ersten Detektionsvorgangs in den weiteren Detektorzeilen der ersten Zeilengruppe (G11) und der weiteren ersten Zeilengruppen (Gm1) der übrigen auszulesenden Gebiete (Rm) für m – 1 = 1, ..., M – 1 die Integrationsvorgänge ausgelöst werden. Dies steigerte die Effizienz der Belichtung, da der Zeitraum, in welchem alle Zeilen im jeweiligen Detektionsvorgang auf Integration geschaltet sind, verlängert werden kann.
  • In einem fünften Schritt e) werden nach Beenden des Integrationsvorgangs der ersten Zeilengruppe G11 im ersten auszulesenden Gebiet R1 sukzessive J – 1 weitere Detektions- und Auslesevorgänge gestartet, in dem die Schritte c) und d) für die weiteren Zeilengruppen Gmj mit j – 1 = 1, ..., J – 1 und mit weiteren Integrationszeiten tb j und weiteren Auslesezeiten ta j durchgeführt werden. Zum Start wird wieder – außerhalb des Detektors bzw. der Kamera – das Signal LTS auf 1 gesetzt, das Setzen dieses Triggersignals erfolgt dabei von außerhalb des Detektors bzw. der Kamera, d.h. in der Regel nicht durch die Ansteuerlogik der Kamera. Die Integrationszeiten können dabei von den in Schritt c) angegebenen Zeiten tb 1 und ta 1 abweichen. Jedem Detektionsvorgang j ist eine eigene Gruppe von Zeilen reserviert.
  • Im zweiten Detektionsvorgang mit j = 2 wird der Integrationsvorgang für die erste Zeile Z121 der zweiten Zeilengruppe G12 im ersten auszulesenden Gebiet R1 frühestens dann gestartet, wenn der Integrationsvorgang für die letzte Zeile Z11N der Zeilengruppe G11 im selben auszulesenden Gebiet R1 beendet wurde, etc., so dass im selben auszulesenden Gebiet Rm Integrationsvorgänge getrennt nach Zeilengruppen j und nur in dieser Zeilengruppe simultan erfolgen, und nicht Integrationsvorgänge für zwei Zeilengruppen j, j + 1 im selben auszulesenden Gebiet Rm gleichzeitig durchgeführt werden. Dabei muss der jeweils weitere Detektionsvorgang mit j + 1 nicht unmittelbar im Anschluss an das Beenden des letzten Integrationsvorgangs der vorgeordneten Zeilengruppe mit j erfolgen, sondern in Abhängigkeit von äußeren Randbedingungen kann auch ein längerer Zeitraum über beispielsweise mehrere Millisekunden oder Sekunden zwischengeschaltet sein, in welchem in dem jeweiligen auszulesenden Gebiet Rm kein Detektionsvorgang abläuft.
  • Während im Stand der Technik immer nur in einem auszulesenden Gebiet ein Detektionsvorgang in Rolling-Shutter-Modus abgearbeitet wird, erlaubt die erfindungsgemäße Verfahrensweise die parallele Detektion in mehreren auszulesenden Gebieten eines Sensors – entsprechend der eingangs gemachten Definition – zur gleichen Zeit. Dies lässt sich selbstverständlich auch auf Split-Sensoren übertragen, hier ist dann Parallelisierung mit entsprechend höherem Grad möglich.
  • Der geringe zeitliche Versatz durch den Rolling-Shutter-Betrieb – bedingt durch die Tatsache, dass in einem gemeinsam angesteuerten Gebiet des Sensors, in welchem die Pixel an einen gemeinsamen Bus angeschlossen sind, zu einem Zeitpunkt nur eine Zeile ausgelesen werden kann – kann jedoch zu Verfälschungen im Ergebnis führen, beispielsweise zu geometrischen Verzerrungen sich bewegender Proben und zu nicht zueinander passenden Überlagerungen in einem Bild, welches aus spektral getrennten, nacheinander aufgenommenen Einzelbildern zusammengesetzt wird, insbesondere wenn es sich um lebende Proben handelt. Verwendet man außerdem die maximale Belichtungszeit für jede Zeilengruppe, d.h. vom Beginn des ersten Detektionsvorgangs der ersten Zeile in dieser Gruppe bis zum Ende des entsprechenden Detektionsvorgangs der letzten Zeile dieser Gruppe, so kann dies zu einem unerwünschten Ausbleichen der Probe führen.
  • In einer bevorzugten Ausgestaltung des Verfahrens erfolgt daher eine Belichtung des Detektors während der Integrationszeit in jedem Detektionsvorgang für j = 1, ..., J nur dann, wenn gleichzeitig für die Zeilen aller beteiligten Zeilengruppen Gmj ein Integrationsvorgang abläuft, d.h. alle an einem Detektionsvorgang beteiligten Zeilen aller Zeilengruppen Gmj auf Integration bzw. Detektion, d.h. photoempfindlich geschaltet sind. In Abhängigkeit von der Integrationszeit und der Auslesezeit, welche für die beteiligten Zeilengruppen Gmj bei festem j identisch sind, um einheitliche Detektionsbedingungen zu garantieren, kann die Zeit, die tatsächlich zur gleichzeitigen Belichtung aller beteiligen Zeilen zur Verfügung steht, also wesentlich kürzer als die Integrationszeit sein. So wird die tatsächlich zur gleichzeitigen Belichtung zur Verfügung stehende Zeit bei fester Integrationszeit beispielsweise umso kürzer, je länger die Auslesezeit pro Zeile ist. Auf diese Weise wird zum einen die Belichtungszeit und damit die Gefahr eines Ausbleichens der Probe minimiert, zum anderen werden auch geometrische Verzerrungen und Bildfehler aufgrund nicht passender Überlagerungen vermieden.
  • In einer bevorzugten Ausgestaltung dieser Variante wird in jedem Detektionsvorgang j für j = 1, ..., J die Belichtung mittels eines Belichtungssignals IS gesteuert, welches üblicherweise von der Ansteuerlogik des Sensors bzw. einer Kamera generiert wird. Das Belichtungssignal IS wird dabei während des jeweiligen, des j-ten Detektionsvorgangs für eine Zeile auf „1“ gesetzt, wenn für die letzte Detektorzeile ZMjN der entsprechenden j-ten Zeilengruppe GMj des letzten auszulesenden Gebiets RM der Integrationsvorgang gestartet wird. Das Belichtungssignal IS wird gleichzeitig mit dem Level-Trigger-Signal LTS auf „0“ gesetzt, wobei eine Belichtung des flächenförmigen Detektors nur erfolgt, während das Belichtungssignal auf „1“ gesetzt ist. Das Belichtungssignal IS kann beispielsweise dafür genutzt werden, ein dem Detektor vorgeordnetes Element – beispielsweise einen akusto-optischen Modulator –, welches die Funktion eines globalen Verschlusses für den Detektor übernimmt, zu steuern und diesen Verschluss nur zu öffnen, wenn das Belichtungssignal IS auf „1“ gesetzt ist. Auch eine Steuerung der Probenbeleuchtung kann über das Belichtungssignal IS erfolgen, um in der Probe die Belastung durch Lichteinstrahlung möglichst gering zu halten.
  • Für den alternativen Fall in Schritt d), bei dem die Integrationsvorgänge zeitgleich oder nahezu zeitgleich gestartet werden, muss die Belichtung nicht gesondert mittels eines Belichtungssignals IS gesteuert werden, die Belichtung erfolgt im Takt mit dem Signal LTS, d.h. sie beginnt beim Setzen des Signals LTS auf „1“ und endet beim Setzen des Signals LTS auf „0“.
  • In einer weiteren bevorzugten Ausgestaltung, die mit den vorgenannten und den folgenden, noch zu nennenden Ausgestaltungen selbstverständlich kombinierbar ist, wird bei der ersten Alternative mit sukzessive startenden Integrationsvorgängen der folgende Detektionsvorgang – bei einem Detektionsvorgang j ist der folgende Detektionsvorgang (j + 1) – frühestens dann gestartet, wenn im unmittelbar vorangehenden Detektionsvorgang – also der Detektionsvorgang j – der Integrationsvorgang für die letzte Zeile Z1jN der ersten Zeilengruppe G1j des ersten auszulesenden Gebiets R1 abgeschlossen ist, bzw. bei zweiten der Alternative mit mindestens nahezu gleichzeitig startenden Integrationsvorgängen der Integrationsvorgang für die letzte Zeile Z1MN der ersten Zeilengruppe GMj des letzten auszulesenden Gebiets RN. Besonders bevorzugt wird dabei in jedem Detektionsvorgang j = 1, ..., J bei Abschluss des Integrationsvorgangs – im Falle der ersten Alternative für die letzte Zeile Z1jN der ersten Zeilengruppe G1j des ersten auszulesenden Gebiets R1 und im Falle der zweiten Alternative für die letzte Zeile Z1MN der ersten Zeilengruppe GMj des letzten auszulesenden Gebiets RN von der Ansteuerlogik der Kamera bzw. des Sensors ein Overlap-Margin-Signal OMS generiert und an die kameraexterne Ansteuerschaltung übermittelt. Der Start des nächsten Detektionsvorgangs ist an die Bedingung geknüpft, ob das Overlap-Margin-Signal OMS empfangen wurde, da dieses den frühesten sinnvollen Zeitpunkt markiert, an dem der nächste Detektionsvorgang – durch Setzen des Level-Trigger-Signals LTS – gestartet werden kann, nämlich wenn das Auslesen der letzten Zeile einer Zeilengruppe in einem auszulesenden Gebiet beginnt. Der nächste Detektionsvorgang muss jedoch nicht unmittelbar nach Empfang des Overlap-Margin-Signals OMS starten, sondern kann auch zu einem späteren Zeitpunkt erfolgen. Grundsätzlich ist der Start eines Detektionsvorgangs durch Setzen des Signals LTS auf „1“ jedoch nicht an die optionale Bedingung des Empfangs eines Overlap-Margin-Signals OMS geknüpft und kann auch unabhängig davon gesteuert werden.
  • In einer weiteren Ausgestaltung des Verfahrens wird nach jedem Detektionsvorgang j = 1, ..., J bei Beginn des zugeordneten Auslesevorgangs ein Auslesesignal RS auf „1“ gesetzt, welches nach Beendigung des Auslesevorgangs, wie im Verfahrensschritt d) definiert, wieder auf „0“ gesetzt wird. Durch das Setzen dieses Signals wird angezeigt, dass zeitgleich keine weiteren Auslesevorgänge stattfinden dürfen, welche durch dieselbe Auslesekaskade ausgelesen werden.
  • Das vorangehend beschriebene Verfahren zur Multiliniendetektion eignet sich besonders bei der mikroskopischen Beleuchtung einer Probe, wobei von der Probe emittiertes Licht auf den flächenförmigen Detektor detektiert wird.
  • Beispielsweise kann die Probe mit einem mehrfarbigen Lichtblatt beleuchtet werden, wobei das zu detektierende Licht spektral aufgespalten wird und jeder der verwendeten Farben ein auszulesendes Gebiet Rm auf den Detektor zugeordnet wird, in welchem der jeweiligen Farbe zugeordnetes Detektionslicht detektiert wird. Die zu detektierenden Farben des Detektionslichts weichen dabei in der Regel von den Farben des Lichtblatts ab, da die Lichtblätter in der Regel dazu verwendet werden, in Proben Fluoreszenz anzuregen, Licht wird also bei anderen Wellenlängen emittiert, als bei der Einstrahlung verwendet.
  • Die Probe kann aber auch linienförmig mit M gleich- oder verschiedenfarbigen Lichtlinien m mit m = 1, ..., M beleuchtet werden, die beispielsweise durch eine Abtastbewegung erzeugt werden können. Von den jeweiligen Bereichen der Probe, welche mit Licht einer Lichtlinie – der m-ten Lichtlinie – beleuchtet werden, kommendes Licht wird linienförmig in einem dieser Lichtlinie zugeordneten auszulesenden Gebiet Rm detektiert. Auf diese Weise lässt sich die Bildaufnahmezeit wesentlich verkürzen, da die Detektion für alle Beleuchtungslinien gleichzeitig erfolgen kann. Ebenso wird auch bei der vorangehend beschriebenen Untersuchung einer Probe mit einem vielfarbigem Lichtblatt die Bildaufnahmezeit verkürzt, außerdem kann die Anzahl notwendiger Korrekturen verringert werden, da mehrere Farben auf einem Sensor detektiert werden können.
  • Vorteilhaft lässt sich auch im Zusammenhang mit den Schritten a) und b) die Anzahl N der Zeilen in den Zeilengruppen Gmj variabel einstellen. Damit lässt sich die Höhe der Zeilengruppen für unterschiedliche optische Verhältnisse des Systems anpassen, über die Auswahl von Zeilen und Pixeln in den digitalisierten Bilddaten lässt sich eine über das Bildfeld veränderliche Blendenhöhe – d.h. die Anzahl der Zeilen in einer Zeilengruppe – realisieren. Blendenhöhe und Belichtungszeit sind unabhängig voneinander einstellbar, wenn die Geschwindigkeit, mit der die Beleuchtungslinien sich über das Bildfeld bewegen, vorgegeben ist.
  • Die Integrationszeit für die Zeilen der jeweils j-ten Zeilengruppen G1j, G2j, ..., GMj lässt sich über das Level-Trigger-Signal LTS steuern, wie oben bereits erläutert. Verwendet man eine Beleuchtung, bei der sich Linien über die Probe bewegen und auch eine bewegte linienförmige Detektion erfolgt, so lässt sich über das Level-Trigger-Signal LTS ein konstantes Signal-Rausch-Verhältnis im Bild erreichen, selbst wenn die Bewegung der Beleuchtungslinien nicht-linear erfolgt, oder auch wenn Pausen für eine Abtastbewegung – beispielsweise bei einer Umkehrung der Abtastbewegung oder bei einer Bidirektionalkorrektur – vorgesehen sind.
  • In einer weiteren Ausgestaltung lässt sich das Level-Trigger-Signal LTS für jedes der auszulesenden Gebiete Rm in einem gewissen Rahmen individualisieren, indem das Level-Trigger-Signal LTS für jedes auszulesende Gebiet Rm um eine für das jeweilige Gebiet vorgegebene Zeitkonstante Tm verändert wird, wobei die Zeitkonstanten Tm in Abhängigkeit von Intensitätsunterschieden in der Beleuchtung und / oder Detektion vorgegeben werden. Die Intensitätsunterschiede können ihre Ursachen beispielsweise in unterschiedlichen Beleuchtungsstärken für einzelne Wellenlängen haben, aber auch durch an die Detektion geknüpfte Randbedingungen – beispielsweise Vignettierungen in den Randbereichen der Detektionsfläche – hervorgerufen werden. Ihre Festlegung kann daher im Rahmen einer Kalibrierung vorab erfolgen. Die Zeitkonstante kann dabei positiv oder negativ sein, d.h. sie kann die Dauer, in welcher das Level-Trigger-Signal LTS auf „1“ gesetzt ist, verlängern oder verkürzen. Beispielsweise kann die Dauer des LTS für das erste auszulesende Gebiet R1 vorgegeben werden und T1 = 0 vorgegeben werden, d.h. die Zeitkonstante für das erste auszulesende Gebiet ist Null. Diese Festlegung ist hinsichtlich der Ansteuerung am einfachsten handhabbar, sie kann aber auch anders erfolgen, indem beispielsweise eine mittlere Dauer des LTS festgelegt wird und die Zeitkonstanten einschließlich derjenigen für das erste auszulesende Gebiet R1 um Null streuen. Auf diese Weise lassen sich z.B. Intensitätsunterschiede in den Beleuchtungslinien ausgleichen.
  • Dabei muss sichergestellt werden, dass sich bei unterschiedlichen Integrationszeiten die Zeiträume, in denen ausgelesen wird, für zwei Zeilengruppen aufeinanderfolgender auszulesender Gebiete nicht überlappen, wenn beispielsweise die Integrationszeit für die erste Zeilengruppe im zweiten auszulesende Gebiet durch eine negative Zeitkonstante verkürzt wird, so dass ohne weitere Maßnahmen der Zeitpunkt des Auslesens dieser Zeilen mit dem Zeitpunkt des Auslesens der entsprechenden Zeilengruppe des ersten auszulesenden Gebiets zusammenfällt. Aus diesem Grund wird nach Beenden des jeweiligen Integrationsvorgangs der Auslesevorgang erst nach Ablauf einer Verzögerungszeit tq m gestartet, welche für jedes auszulesende Gebiet individuell vom System anhand der Integrationszeiten und Zeitkonstanten bestimmt wird.
  • Im einfachsten Fall sind sowohl die Zeitkonstante Tm als auch die Verzögerungszeiten tq m jeweils Null. Im Falle einer Verkürzung aller Integrationszeiten in einem auszulesenden Gebiet Rm gegenüber der Grundeinstellung um jeweils einen Wert Tm – entsprechend einem negativen Wert von Tm – wird tq m beispielsweise so gewählt, dass die Summe aus verkürzter Integrationszeit und Verzögerungszeit tq m der Integrationszeit in der Grundeinstellung entspricht, der Auslesevorgang also weiter zur selben Zeit beginnt, d.h. tq m = |Tm|. Im Falle einer Verlängerung nur einer Integrationszeit im auszulesenden Gebiet Rm kann man beispielsweise diese Zeit für das folgende Gebiet Rm+1 zwischen Integrations- und Auslesevorgang einschieben. Falls z.B. Tm+1 = 0 gilt, wäre tq m+1 = Tm, um nur zwei Beispiele zu nennen.
  • Die Ausgabe der Signale durch die Ansteuerung kann selbstverständlich verzögert oder beschleunigt erfolgen, um die Reaktionsträgheit korrespondierender Hardware-Komponenten zu berücksichtigen. Beispielsweise kann das Beleuchtungssignal IS um einen definierten Zeitwert nach vorne verlegt werden, um die Trägheit bei der Schaltung eines globalen Verschlusses, beispielsweise eines AOTF zu berücksichtigen.
  • In einer weiteren Ausgestaltung des Verfahrens wird die Reihenfolge, in welcher in den Zeilen auf dem Detektor Integrations- und Auslesevorgänge während eines Detektionsvorgangs ausgelöst werden, zwischen zwei Detektionsvorgängen j und j + 1 jeweils umgekehrt, d.h. hinsichtlich der Position auf den Detektor kann die erste Zeile Z111 entweder die oberste Zeile aller verwendeten Zeilen sein, oder aber die unterste Zeile. Das Verfahren ist somit bidirektional durchführbar, insbesondere ist es auch möglich, die Richtung der Zeilenaktivierung von den j-ten Zeilengruppen Gmj zu den nächsten Zeilengruppen Gmj+1 zu ändern, d.h. die Integrations- und Auslesekaskade abwechselnd von oben nach unten und von unten nach oben auf der Detektorfläche ablaufen zu lassen, wobei die Zeilen horizontal ausgerichtet sein sollen.
  • In einer weiteren Ausgestaltung des Verfahrens kann im Rahmen der Bildverarbeitung – entweder kameraintegriert intern oder in einer externen Bildverarbeitungseinheit für eine Berechnung eines zeilenförmigen Bildes Bmj der j-ten Zeilengruppe Gmj im m-ten auszulesenden Gebiet Rm die Anzahl der im Bild Bmj zu berücksichtigenden Zeilen Zmjn mit n = 1, ..., N eingestellt werden. Alternativ oder in Kombination lassen sich bei der Berechnung des zeilenförmigen Bildes die Pixel x jeder Zeilen Zmjn mit einem Wichtungsfaktor wmjnx wichten, wobei x die horizontale Position eines Pixels x in der betreffenden Zeile kennzeichnet. Bei den Wichtungsfaktoren wmjnx, welche Werte zwischen Null und Eins einschließlich dieser Grenzwerte annehmen können, handelt es sich um Parameter, welche durch einen Benutzer vorgegeben werden können. Auf diese Weise lässt sich beispielsweise festlegen, dass in den – horizontal betrachtet – Randbereichen der Zeilen der Einfluss der vertikal im Randbereich liegenden Zeilen der jeweiligen Zeilengruppe höher oder niedriger als bei Zeilen im mittleren Bereich ist.
  • Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in den angegebenen Kombinationen, sondern auch in anderen Kombinationen oder in Alleinstellung einsetzbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
  • Nachfolgend wird die Erfindung beispielsweise anhand der beigefügten Zeichnungen, die auch erfindungswesentliche Merkmale offenbaren, noch näher erläutert. Es zeigen:
  • 1 eine Anordnung zur Durchführung eines Multilinien-Detektionsverfahrens,
  • 2 den typischen Ablauf eines solchen Verfahrens und
  • 3 einen alternativen Ablauf dieses Verfahrens.
  • In 1 ist beispielhaft eine Anordnung gezeigt, mit welcher eine Multiliniendetektion durchgeführt werden kann. Die Anordnung umfasst eine Kamera 1 mit einem Detektor 2, einer Ansteuerung 3 und einer Bildverarbeitungseinheit 4. Der Detektor 2 umfasst den Bildsensor, beispielsweise einen CMOS-Bildsensor. Ein solcher Sensor umfasst eine Anzahl von einzelnen Zeilen, die einzeln angesteuert werden können, d.h. bei denen die Integrationszeit und Auslesezeit prinzipiell unabhängig von den anderen Zeilen gesteuert werden können. Jede Detektorzeile ist aus einer Anzahl von Pixeln aufgebaut, insgesamt erhält man also einen flächenförmigen Detektor. Die in 1 gezeigte Anordnung ist nur beispielhaft zu verstehen. Ebenfalls denkbar sind Anordnungen, bei denen die Ansteuerung 3 Teil des Bildsensors sind, und/oder bei denen sich die Bildverarbeitungseinheit 4 außerhalb der Kamera 1, beispielsweise in einem PC, befindet.
  • Ein CMOS-Bildsensor beispielsweise enthält pro Pixel mehrere Transistoren, welche unter anderem das Löschen von Ladung im Pixel, das Transferieren von Ladung zu einen Ladungs-Spannungswandler, ein sogenanntes Correlated-Double-Sampling (CDS) zur Eliminierung von unerwünschtem Rückstellungs-Versatz (Reset-Offset) und das Weiterleiten der Detektionssignal-Spannung zu einem Spaltenbus ermöglichen. An den Spaltenbussen sind Analog-Digital-Wandler angeschlossen, welche die Spannungen digitalisieren. Für die Integration von bei Belichtung entstehender Photoladung und das Auslesen dieser Ladung müssen die Zeilen und Spaltenbusse auf dem Bildsensor eine bestimmte Abfolge von Schaltvorgängen steuern. Für die Digitalisierung werden weitere Spannungsverläufe erzeugt. Das Auslesen einer Zeile umfasst die gesamte Zeit für ein Transferieren der akkumulierten Ladung bis hin zur Erzeugung des digitalisierten Wertes inklusive eventuell zusätzlich vom Benutzer definierter Verzögerungszeiten. Während eines Auslesevorgangs darf kein zweiter Auslesevorgang gestartet werden, der durch die gleiche Auslesekaskade ausliest. Im Stand der Technik gibt es dabei CMOS-Bildsensoren, welche für die obere und untere Sensorhälfte jeweils eigene Analog-Digital-Wandler und Spaltenbusse aufweisen, d.h. zwei Auslesekaskaden aufweisen. Mit solchen Sensoren lassen sich gleichzeitig zwei Zeilen auslesen, wobei diese auf unterschiedlichen Sensorhälften liegen müssen, d.h. eigentlich handelt es sich um zwei voneinander unabhängige Sensoren. Zur Vereinfachung der Darstellung wird hier jedoch davon ausgegangen, dass der Sensor nur eine Auslesekaskade aufweist, eine Übertragung auf zwei oder mehr Auslesekaskaden ist jedoch ohne weiteres möglich, da die Bereiche des Sensors unabhängig voneinander angesteuert werden können. Die Erzeugung der Zeilen- und Spaltenbus-Signale kann beispielsweise über eine – ausreichend latenz- und schwankungsarme – Elektronik realisiert werden, die Teil des Bildsensors oder auch als externe Schaltung ausgestaltet sein kann, über separate Schaltkreise, die dem Bildsensor von außen Signale zuführen, oder bei Verwendung eines geeigneten Sensors auch über eine Programmierung desselben, beispielsweise über einen nachgeschalteten Reihendecoder oder über einen digitalen Kontrollblock, erfolgen.
  • Die am Bildsensor ausgelesenen Bilddaten werden der Bildbearbeitungseinheit 4 zugeführt, die beispielsweise die Daten der einzelnen Pixel zu Bildern zusammensetzt und mit einer weiteren Auswerteeinheit, einer Speichereinheit und / oder einer visuellen Ausgabeeinheit verbunden ist. Ein wichtiger Bestandteil der Kamera 1 ist die Ansteuerung 3, die unter anderem eine programmierbare Ansteuerlogik enthält.
  • Über eine Parametrisierungsschnittstelle 6 lassen sich durch einen Benutzer oder automatisch in Abhängigkeit von den Beleuchtungseinstellungen und der Untersuchungsmethode auf dem Sensor auszulesende Gebiete Rm, Zeilengruppen Gmj in diesen Gebieten und die Anzahl N der Zeilen pro Zeilengruppe, Zmjn, festlegen und an die Ansteuerung 3 übergeben. Falls zeilenförmige Bilder berechnet werden sollen, lassen sich entsprechende Wichtungsfaktoren wmjnx ebenfalls über die Parametrisierungsschnittstelle 6 an die Bildverarbeitungseinheit 4 übermitteln.
  • Die Anordnung umfasst außerdem einen Trigger-Manager 7, der hier als kameraexternes Bauelement dargestellt ist, aber auch Teil der Kamera 1 sein kann. Aufgabe des Trigger-Managers 7 ist es, einen von außen kommenden Level-Trigger über ein Level-Trigger-Signal LTS in die Ablaufsteuerung der Sensorrichtung einzubinden und aus den Signalen der Sensorsteuerung ein Belichtungssignal IS, ein Auslesesignal RS und ein Overlap-Margin-Signal OMS abzuleiten und es für externe Verwendung zur Verfügung zu stellen, damit diese Signale für die Synchronisation externer Hardware verwendet werden können. Der Trigger-Manager kann weitere Aufgaben im Zusammenhang mit der Signalerzeugung in Abhängigkeit auch von weiteren Signalen übernehmen, beispielsweise kann der Trigger-Manager 7 ein Synchronisierungssignal des Scanners 9 verwenden, um den Startzeitpunkt für das Level-Trigger-Signal LTS zu bestimmen. Der Trigger-Manager 7 kann auch mit einem akusto-optischen Modulator (AOM / AOTF) 5 kommunizieren, welchem das Beleuchtungssignal IS übermittelt wird, um einen globalen Verschluss durchlässig zu schalten bzw. zu schließen, so dass sämtliche Zeilen des Detektors die gleiche Zeit belichtet werden. Entweder über den Trigger-Manager 7 oder über eine Softwaresteuerung 8 lässt sich auch ein Signal zur Umkehrung der Reihenfolge, in welcher in den Zeilen auf dem Detektor Integrations- und Auslesevorgänge während eines Detektionsvorgangs ausgelöst werden, d.h. zur Umkehrung der Shutterausbreitungsrichtung, festlegen. Auch die Auslesezeit ta m einer Zeile in einem auszulesenden Gebiet Rm wird in der Parametrisierungsschnittstelle 6 festgelegt bzw. von dieser an die Ansteuerung 3 übermittelt. Die Auslesezeit setzt sich dabei aus mindestens zwei Werten zusammen, ta m = tr m + to m, wobei tr m die tatsächliche, physikalisch für das Transferieren der akkumulierten Ladung notwendige Auslesezeit einschließlich der Bestimmung eines der Ladung zugeordneten digitalisierten Werts notwendige Zeit und festgelegt ist, und to 1 eine vom Benutzer frei wählbare Benutzerverzögerungszeit definiert, mit welcher der Auslesevorgang gestartet oder beendet wird, je nachdem, ob die Benutzerverzögerungszeit vor oder nach dem eigentlichen Auslesen hinzugefügt wird. In der Ansteuerlogik legen die Parameter für die Integrationszeit, , d.h. u.a. das Level-Trigger-Signal LTS und die Zeitkonstanten Tm, die Auslesezeit, die Anzahl der jeweiligen Gebiete bzw. Gruppen M, J, N, das Schaltverhalten in den Spalten- und Zeilenbussen fest. Die Signale OMS, RS und IS dienen der latenzfreien Steuerung ohne Verwendung einer Softwaresteuerung. Mittels der zusätzlichen Softwaresteuerung 8 lassen sich auch die anderen externen Geräte – bezogen auf die Kamera – steuern, beispielsweise ein Scanner 9, räumliche Lichtmodulatoren, ein Probentisch, etc. Beleuchtungslinien oder Lichtblätter lassen sich über entsprechende, an sich bekannte optische Aufbauten mittels Scannern, Zylinderlinsen, räumlichen Lichtmodulatoren oder digitalen Spiegelarrays realisieren.
  • Der Ablauf eines Verfahrens soll im Folgenden anhand von 2 und 3 näher erläutert werden. In beiden Fällen wird zunächst in einem Schritt a) auf dem mit der Ansteuerung 3 verbundenen flächenförmigen Detektor 2, welcher eine Anzahl Detektorzeilen – beispielsweise 1500 Detektorzeilen – umfasst, eine Anzahl M von auszulesenden Gebieten R1, R2, ..., RM festgelegt, wobei M eine natürliche Zahl ist, die größer oder gleich 1 ist. Im Zusammenhang mit 2 ist M = 3. Die Gebiete R1, R2, und R3 sind hier in unmittelbarer Nachbarschaft zueinander dargestellt, diese Darstellung dient nur der Übersichtlichkeit, in der Regel liegen die auszulesenden Gebiete Rm mit m = 1, ..., M auf dem Sensor weiter auseinander, um die optischen Abbildungen sauber zu trennen. Bei typischen Anwendungen umfasst ein auszulesendes Gebiet beispielsweise 400 Zeilen.
  • In jedem auszulesenden Gebiet Rm wird in einem Schritt b) eine Anzahl J von Zeilengruppen Gm1, Gm2, ..., GmJ jeweils aneinandergrenzender Detektorzeilen festgelegt. J ist dabei eine natürliche Zahl größer oder gleich 1. Im vorliegenden Beispiel ist J ebenfalls gleich 3, applikativ üblich sind jedoch in der Regel etwa 100 Zeilengruppen pro auszulesenden Gebiet, d.h. J = 100. Jede Zeilengruppe Gmj umfasst eine Anzahl N von Detektorzeilen Zmj1, Zmj2, ..., ZmjN. Dabei ist N eine natürliche Zahl größer oder gleich 1 und j ein Zählindex, der von 1 bis J läuft.
  • Im nächsten Schritt c) wird zum Starten eines ersten Detektiervorgangs mit j = 1 ein Level-Trigger-Signal LTS von „0“ auf „1“ gesetzt. Dabei wird ein Integrationsvorgang für die erste Detektorzeile Z111 der ersten Zeilengruppe G11 im ersten auszulesenden Gebiet R1 ausgelöst, die vorgegebene Integrationszeit für diesen Integrationsvorgang beträgt tb 1. Nach Ablauf der Integrationszeit wird das Level-Trigger-Signal LTS wieder von „1“ auf „0“ gesetzt, der Integrationsvorgang für die erste Detektorzeile Z111 und der erste Detektionsvorgang werden beendet. Der Signalverlauf ist im oberen Teil von 2 über der Zeit t dargestellt. Der Signalverlauf ist für alle Signale hier vereinfacht als Rechtecksignal dargestellt. Ein Wert von 1 entspricht einem hohen Spannungswert („high“), ein Wert von 0 einen niedrigen Wert („low“). Im unteren Teil von 2 sind entlang der y-Achse die Sensorzeilen symbolisiert, die x-Achse entspricht der Zeitachse. Dargestellt ist also, wie die Ansteuerschaltung die einzelnen Zeilen über der Zeit ansteuert. Jede Zeile nimmt entlang der y-Achse den Raum ein, der der Höhe eines der Rechtecke entspricht. Leere Bereiche in den Rechtecken entsprechen dabei Integrationsvorgängen, die gefüllten Bereiche den folgend erläuterten Auslesevorgängen.
  • Nachdem der erste Detektionsvorgang beendet wurde, wird ein Auslesevorgang gestartet, wobei während einer ersten Auslesezeit ta 1 der für diese Detektorzeile Z111 detektierte Belichtungswert – entsprechend der registrierten Photoladung – ausgelesen und an eine Auswerteeinheit geleitet wird. Die erste Auslesezeit ta 1 entspricht also der Breite des ausgefüllten Bereichs in dem der Detektorzeile Z111 zugeordneten Rechteck auf der Zeitachse. Insgesamt werden J Detektionsvorgänge abgearbeitet, für jeden dieser Detektionsvorgänge kann eine unterschiedliche Integrationszeit tb j und / oder eine unterschiedliche Auslesezeit ta j gewählt werden.
  • In einem Schritt d) werden dann bei der in 2 gezeigten ersten Alternative mittels der in die Ansteuerung 3 integrierten Ansteuerlogik sukzessive zeitlich jeweils um den Abstand der ersten Auslesezeit ta 1 versetzt in den weiteren Detektorzeilen der ersten Zeilengruppe G11 und folgend in den entsprechenden ersten Zeilengruppen Gm1 der übrigen auszulesenden Gebiete Rm Integrationsvorgänge mit anschließendem Auslesen ausgelöst. Der Auslesevorgang wird beendet, nachdem die letzte Zeile ZM1N der ersten Zeilengruppe GM1 des letzten auszulesenden Gebiets RM ausgelesen wurde, im Beispiel ist dies die Zeile Z114.
  • In Abhängigkeit von der Steuerung und der verwendeten Hardware ist es in Schritt d) alternativ auch möglich, diesen Zeitabschnitt, in dem die Integrationsvorgänge gestartet werden, zu verkürzen oder vollständig zu vermeiden, indem mindestens nahezu zeitgleich mit dem Starten des ersten Detektionsvorgangs in den weiteren Detektorzeilen der ersten Zeilengruppe (G11) und der weiteren ersten Zeilengruppen (Gm1) der übrigen auszulesenden Gebiete (Rm) für m – 1 = 1, ..., M – 1 die Integrationsvorgänge ausgelöst werden. Dies steigerte die Effizienz der Belichtung, da der Zeitraum, in welchem alle Zeilen im jeweiligen Detektionsvorgang auf Integration geschaltet sind, verlängert werden kann. Diese zweite Alternative ist in 3 dargestellt.
  • In einem Schritt e) werden nach Beenden des letzten Integrationsvorgangs der ersten Zeilengruppe G11 im ersten auszulesenden Gebiet R1 sukzessive J – 1 weitere Detektions- und Auslesevorgänge gestartet, indem die Schritte c) und d) für die weiteren Zeilengruppen Gmj mit j – 1 = 1, ..., J – 1 mit weiteren Integrationszeiten tb j und weiteren Auslesezeiten ta j durchgeführt werden. Die Zeitpunkte, wann die Detektionsvorgänge gestartet werden sollen, werden dabei von der Anwendung, d.h. von außen über das Signal LTS vorgegeben.
  • Bei Beginn jedes Auslesevorgangs wird ein Auslesesignal RS auf „1“ gesetzt, welches nach Beendigung des Auslesevorgangs wieder auf „0“ gesetzt wird, erst danach lässt sich wieder eine Situation schaffen, in der bei allen beteiligen Zeilen ein Integrationsvorgang ablaufen kann. Eine Belichtung des Detektors soll dabei nur dann erfolgen, wenn tatsächlich in allen beteiligen Zeilen ein Integrationsvorgang abläuft, dies wird bei dem in 2 gezeigten Beispiel mit den Belichtungssignal IS signalisiert, welches dann, wenn alle Zeilen aktiv auf Integration geschaltet wurden, auf „1“ gesetzt wird. Sobald dies nicht mehr der Fall ist und für die erste – in dem angeführten Beispiel jeweils die oberste – Zeile der Integrationsvorgang beendet und ein Auslesevorgang gestartet wird, wird das Belichtungssignal IS gleichzeitig mit dem Level-Trigger-Signal LTS wieder auf „0“ gesetzt. Mit dem Belichtungssignal IS lässt sich beispielsweise der akusto-optische Modulator 5 steuern, wobei dessen Trägheit beim Öffnen des globalen Verschlusses vorzugsweise berücksichtigt wird, in dem das Beleuchtungssignal IS dem akusto-optischen Modulator 5 mit einem gewissem Vorlauf übermittelt wird. Nur während das Belichtungssignal IS auf „1“ gesetzt ist, erfolgt eine Belichtung des flächenförmigen Detektors. Der nächste Detektionsvorgang, also nach dem j-ten Detektionsvorgangs der (j + 1)-te Detektionsvorgang, wird frühestens dann gestartet, wenn im j-ten Detektionsvorgang der Integrationsvorgang für die letzte Zeile Z1jN der ersten Zeilengruppe G1j des ersten auszulesenden Gebiets R1 abgeschlossen ist. Bei Abschluss dieses Integrationsvorgangs wird an ein Overlap-Margin-Signal OMS an die Ansteuerschaltung übermittelt, in 2 und 3 zu erkennen an der senkrechten Linie auf der Achse für das Overlap-Margin-Signal OMS, die andeutet, dass das OMS dort auf „1“ gesetzt wurde. Der nächste Detektionsvorgang sollte bevorzugt nur dann gestartet werden, wenn das Overlap-Margin-Signal OMS empfangen wurde, dies ist jedoch nicht zwingend. Im in 2 gezeigten Beispiel schließt sich der Detektionsvorgang für j = 2 unmittelbar an den ersten Detektionsvorgang j = 1 an. Zwischen dem zweiten und dritten Detektionsvorgang liegt jedoch ein längerer Zeitraum.
  • Bei dem in 3 gezeigten alternativen Beispiel entspricht das Belichtungssignal IS dem Level-Trigger-Signal LTS, auf ein gesondertes Signal IS kann daher verzichtet werden und die Belichtung an das Signal LTS gekoppelt werden. Das Signal OMS kann analog zu der in 2 gezeigten Weise gesetzt werden, es ist jedoch hier – auch wenn es ignoriert wird – so gesetzt, dass es den Beginn des Auslesevorgangs der letzten Zeile Z1MN der ersten Zeilengruppe GMj des letzten auszulesenden Gebiets RN markiert, so dass sich Integrationsvorgänge verschiedener Gebiete in gleichen Regionen nicht überlappen würden.
  • Die Länge der Integrationszeiten im Verhältnis zu den Auslesezeiten beeinflusst die Länge des Zeitraums, in welchem der Detektor belichtet werden kann, da aufgrund des zeitlichen Versatzes beim Integrieren und Auslesen die tatsächlich zur Verfügung stehende Belichtungszeit immer kürzer als die tatsächliche Integrationszeit ist. Im dritten Detektionsvorgang j = 3 in 2 und 3 wurde eine wesentlich kürzere Integrationszeit tb 3 gewählt, die tatsächlich zur Verfügung stehende Belichtungszeit ist hier wesentlich kürzer als beispielsweise bei dem ersten Detektionsvorgang mit j = 1 und beträgt nur etwa ein Drittel der gesamten Integrationszeit. Durch eine Verkürzung der Auslesezeit oder eine Verlängerung der Integrationszeit kann dieses Verhältnis wieder verbessert werden. Die tatsächlich nutzbare Belichtungszeit für die Integration von Photoladung wird auch durch die senkrechten, gestrichelten Linien gekennzeichnet, das Verhältnis der tatsächlichen nutzbaren Belichtungszeit zur Integrationszeit entspricht dem Verhältnis der Dauer des Beleuchtungssignals IS zum Level-Trigger-Signal LTS. Mit längeren Auslesezeiten, d.h. hier mit längerem tR m bei ggf. geringeren Taktfrequenzen lassen sich bessere Rauscheigenschaften im Detektor realisieren, welche allerdings das Verhältnis von der Dauer des Level-Triggers zum Beleuchtungs-Trigger verschlechtern.
  • Das Verfahren zum Multiliniendetektion eignet sich beispielsweise für solche Verfahren, bei denen eine linienförmige Detektion und / oder eine linienförmige Beleuchtung verwendet wird, beispielsweise für lichtblattmikroskopische Verfahren mit mehrfarbigen Lichtblättern, bei denen das Licht senkrecht zur Lichtblattebene detektiert wird.
  • Bezugszeichenliste
  • 1
    Kamera
    2
    Detektor
    3
    Ansteuerung
    4
    Bildverarbeitungseinheit
    5
    akusto-optischer Modulator
    6
    Parametrisierungsschnittstelle
    7
    Trigger-Manager
    8
    Softwaresteuerung
    9
    Scanner

Claims (13)

  1. Verfahren zur Multiliniendetektion, bei dem a) auf einem mit einer Ansteuerung (3) verbundenen flächenförmigen Detektor (2) mit einer Anzahl Detektorzeilen eine Anzahl M von auszulesenden Gebieten (R1, R2, ..., RM) mit M ≥ 1 festgelegt wird, wobei jedes auszulesende Gebiet mindestens eine Detektorzeile umfasst, b) in jedem auszulesenden Gebiet (Rm) mit m = 1, ..., M eine Anzahl J von Zeilengruppen (Gm1, Gm2, ..., GmJ) mit J ≥ 1 jeweils aneinander grenzender Detektorzeilen festgelegt wird, wobei jede Zeilengruppe (Gmj) eine Anzahl N von Detektorzeilen (Zmj1, Zmj2, ..., ZmjN) umfasst, mit j = 1, ..., J und N ≥ 1, c) zum Starten eines ersten Detektionsvorgangs mit j = 1 ein Level-Trigger-Signal (LTS) von „0“ auf „1“ gesetzt wird, wodurch ein Integrationsvorgang für die erste Detektorzeile (Z111) der ersten Zeilengruppe (G11) im ersten auszulesenden Gebiet (R1) während einer ersten Integrationszeit (tb 1) ausgelöst wird, nach deren Ablauf das Level-Trigger-Signal von „1“ auf „0“ gesetzt wird, der Integrationsvorgang und der erste Detektionsvorgang beendet werden und ein Auslesevorgang gestartet wird, wobei während einer ersten Auslesezeit (ta 1) der für diese Detektorzeile (Z111) detektierte Belichtungswert ausgelesen und an eine Auswerteeinheit geleitet wird, d) wobei mittels einer Ansteuerlogik sukzessive zeitlich jeweils um den Abstand der ersten Auslesezeit (ta 1) versetzt in den weiteren Detektorzeilen der ersten Zeilengruppe (G11) und folgend entsprechend in den ersten Zeilengruppen (Gm1) der übrigen auszulesenden Gebiete (Rm) für m – 1 = 1, ..., M – 1, oder mindestens nahezu zeitgleich mit dem Starten des ersten Detektionsvorgangs in den weiteren Detektorzeilen der ersten Zeilengruppe (G11) und der weiteren ersten Zeilengruppen (Gm1) der übrigen auszulesenden Gebiete (Rm) für m – 1 = 1, ..., M – 1, Integrationsvorgänge mit anschließendem Auslesen ausgelöst werden, wobei der Auslesevorgang beendet wird, nachdem die letzte Zeile (ZM1N) der ersten Zeilengruppe (GM1) des letzten auszulesenden Gebiets (RM) ausgelesen wurde, e) nach Beenden des letzten Integrationsvorgangs der ersten Zeilengruppe (G11) im ersten auszulesenden Gebiet (R1) sukzessive J – 1 weitere Detektions- und Auslesevorgänge gestartet werden, indem die Schritte c) und d) für die weiteren Zeilengruppen (Gmj) mit j – 1 = 1, ..., J – 1 und mit weiteren Integrationszeiten (tb j) und weiteren Auslesezeiten (ta j) durchgeführt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine Belichtung des Detektors (2) während der Integrationszeit in jedem Detektionsvorgang für j = 1, ..., J nur dann erfolgt, wenn für die Zeilen aller beteiligten Zeilengruppen (Gmj) gleichzeitig ein Integrationsvorgang abläuft.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass in jedem Detektionsvorgang j für j = 1, ..., J die Belichtung mittels eines Belichtungssignals (IS) gesteuert wird, welches während des jeweiligen Detektionsvorgangs für eine Zeile auf „1“ gesetzt wird, wenn für die letzte Detektorzeile (ZMjN) der entsprechenden Zeilengruppe (GMj) des letzten auszulesenden Gebiets (RM) der Integrationsvorgang gestartet wird, und das Belichtungssignal (IS) gleichzeitig mit dem Level-Trigger-Signal (LTS) auf „0“ gesetzt wird, wobei eine Belichtung des flächenförmigen Detektors nur erfolgt, während das Belichtungssignal auf „1“ gesetzt ist.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der folgende Detektionsvorgang frühestens dann gestartet wird, wenn im unmittelbar vorangehenden Detektionsvorgang der Integrationsvorgang für die letzte Zeile (Z1jN) der ersten Zeilengruppe (G1j) des ersten auszulesenden Gebiets (R1) abgeschlossen ist.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass in jedem Detektionsvorgang j = 1, ..., J bei Abschluss des Integrationsvorgangs für die letzte Zeile (Z1jN) der ersten Zeilengruppe (G1j) des ersten auszulesenden Gebiets (R1) ein Overlap-Margin-Signal (OMS) an die Ansteuerschaltung übermittelt wird, und der Start des nächsten Detektionsvorgangs an die Bedingung geknüpft wird, ob das Overlap-Margin-Signal (OMS) empfangen wurde.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass nach jedem Detektionsvorgang j = 1, ..., J bei Beginn des zugeordneten Auslesevorgangs ein Auslesesignal (RS) auf „1“ gesetzt wird, welches nach Beendigung des Auslesevorgangs wieder auf „0“ gesetzt wird.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass eine Probe mikroskopisch beleuchtet wird und von der Probe emittiertes Licht auf dem flächenförmigen Detektor detektiert wird.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die Probe mit einem mehrfarbigen Lichtblatt beleuchtet wird, das zu detektierende Licht spektral aufgespalten wird und jeder der verwendeten Farben ein auszulesendes Gebiet (Rm) zugewiesen wird, in welchem dieser Farbe zugeordnetes Detektionslicht detektiert wird.
  9. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die Probe linienförmig mit M Lichtlinien beleuchtet wird und von einem jeweiligen Bereich der Probe, welcher mit Licht der m-ten Lichtlinie beleuchtet wurde, kommendes Licht linienförmig in einem dieser Lichtlinie zugeordneten auszulesenden Gebiet (Rm) detektiert wird.
  10. Verfahren nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass das Level-Trigger-Signal (LTS) für jedes auszulesende Gebiet (Rm) um eine für das jeweilige Gebiet vorgegebene Zeitkonstante (Tm) verändert wird, wobei die Zeitkonstanten (Tm) in Abhängigkeit von Intensitätsunterschieden in der Beleuchtung und / oder Detektion vorgegeben werden.
  11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass die Reihenfolge, in welcher in den Zeilen auf dem Detektor Integrations- und Auslesevorgänge während eines Detektionsvorgangs ausgelöst werden, zwischen zwei Detektionsvorgängen j und j + 1 jeweils umgekehrt wird.
  12. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass die Anzahl N der Zeilen in den Zeilengruppen (Gmj) variabel einstellbar ist.
  13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass bei einer Bildverarbeitung für eine Berechnung eines zeilenförmigen Bildes Bmj der j-ten Zeilengruppe Gmj im m-ten auszulesenden Gebiet Rm die Anzahl der im Bild Bmj zu berücksichtigenden Zeilen Zmjn mit n = 1, ..., N einstellbar ist und/oder jedes Pixel x jeder Zeile Zmjn mit einem Wichtungsfaktor wmjnx in der Berechnung gewichtet wird.
DE102015109645.5A 2015-06-17 2015-06-17 Verfahren zur Multiliniendetektion Active DE102015109645B3 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102015109645.5A DE102015109645B3 (de) 2015-06-17 2015-06-17 Verfahren zur Multiliniendetektion
JP2017564905A JP6732809B2 (ja) 2015-06-17 2016-06-03 マルチライン検出方法
US15/580,417 US10567681B2 (en) 2015-06-17 2016-06-03 Multi-line detection method
PCT/EP2016/062638 WO2016202611A1 (de) 2015-06-17 2016-06-03 Verfahren zur multiliniendetektion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015109645.5A DE102015109645B3 (de) 2015-06-17 2015-06-17 Verfahren zur Multiliniendetektion

Publications (1)

Publication Number Publication Date
DE102015109645B3 true DE102015109645B3 (de) 2016-09-08

Family

ID=56098258

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015109645.5A Active DE102015109645B3 (de) 2015-06-17 2015-06-17 Verfahren zur Multiliniendetektion

Country Status (4)

Country Link
US (1) US10567681B2 (de)
JP (1) JP6732809B2 (de)
DE (1) DE102015109645B3 (de)
WO (1) WO2016202611A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020104634B4 (de) 2020-02-21 2023-12-28 Excelitas Pco Gmbh Verfahren zum Auslesen von Bilddaten und zum Erfassen eines Objekts, Bildaufnahmevorrichtung und Lichtscheibenmikroskop

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11237370B2 (en) 2018-04-30 2022-02-01 University Of Central Florida Research Foundation, Inc. Multiple inclined beam line-scanning imaging apparatus, methods, and applications

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060017001A1 (en) * 2004-07-23 2006-01-26 Paul Donders Method and apparatus for fluorescent confocal microscopy
DE102010013223A1 (de) * 2010-03-29 2011-09-29 Lavision Biotec Gmbh Verfahren und Anordnung zur Mikroskopie
DE102011114500A1 (de) * 2011-09-29 2013-04-04 Ludwig-Maximilians-Universität Mikroskopvorrichtung
US20130093873A1 (en) * 2010-06-30 2013-04-18 Ge Healthcare Bio-Sciences Corp. System for synchronization in a line scanning imaging microscope
US20130129212A1 (en) * 2010-07-30 2013-05-23 Ge Healthcare Bio-Sciences Corp. Method for reducing image artifacts produced by a cmos camera
WO2014140256A2 (en) * 2013-03-15 2014-09-18 Carl Zeiss Meditec Ag Systems and methods for broad line fundus imaging
WO2015109323A9 (en) * 2014-01-17 2016-01-07 The Trustees Of Columbia University In The City Of New York Systems and methods for three-dimensional imaging

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7956925B2 (en) * 2004-11-02 2011-06-07 Panasonic Corporation Method for reading out signal charges from an image sensor having different exposure times
DE102009044983A1 (de) * 2009-09-24 2011-03-31 Carl Zeiss Microimaging Gmbh Mikroskop
JP5655137B2 (ja) * 2010-06-04 2015-01-14 深▲せん▼泰山在線科技有限公司Shenzhen Taishan Online Technology Co., Ltd. Cmos画像センサーの露光方法
DE102012020241A1 (de) 2012-10-12 2014-04-17 Carl Zeiss Microscopy Gmbh Bildaufnahmevorrichtung und Verfahren zur Aufnahme einer Bildersequenz
US10061111B2 (en) * 2014-01-17 2018-08-28 The Trustees Of Columbia University In The City Of New York Systems and methods for three dimensional imaging

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060017001A1 (en) * 2004-07-23 2006-01-26 Paul Donders Method and apparatus for fluorescent confocal microscopy
DE102010013223A1 (de) * 2010-03-29 2011-09-29 Lavision Biotec Gmbh Verfahren und Anordnung zur Mikroskopie
US20130093873A1 (en) * 2010-06-30 2013-04-18 Ge Healthcare Bio-Sciences Corp. System for synchronization in a line scanning imaging microscope
US20130129212A1 (en) * 2010-07-30 2013-05-23 Ge Healthcare Bio-Sciences Corp. Method for reducing image artifacts produced by a cmos camera
DE102011114500A1 (de) * 2011-09-29 2013-04-04 Ludwig-Maximilians-Universität Mikroskopvorrichtung
WO2014140256A2 (en) * 2013-03-15 2014-09-18 Carl Zeiss Meditec Ag Systems and methods for broad line fundus imaging
US20150131050A1 (en) * 2013-03-15 2015-05-14 Carl Zeiss Meditec, Inc. Systems and methods for broad line fundus imaging
WO2015109323A9 (en) * 2014-01-17 2016-01-07 The Trustees Of Columbia University In The City Of New York Systems and methods for three-dimensional imaging

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BAUMGART, Eugen; KUBITSCHECK, Ulrich: Scanned Light Sheet Microscopy with Confocal Slit Detection. OPTICS EXPRESS, Vol. 20, No. 19, 10 September 2012, pp. 21805-21814. *
MEI, E.; FOMITCHOV, P. A.; GRAVES, R.; CAMPION, M.: A Line Scanning Confocal Fluorescent Microscope Using a CMOS Rolling Shutter as an Adjustable Aperture. Journal of Microscopy, Vol. 247, Pt 3 2012, pp. 269-276. *
MEI, E.; FOMITCHOV, P. A.; GRAVES, R.; CAMPION, M.: A Line Scanning Confocal Fluorescent Microscope Using a CMOS Rolling Shutter as an Adjustable Aperture. Journal of Microscopy, Vol. 247, Pt 3 2012, pp. 269–276.
YANG, Zhe; MEI, Li; XIA, Fei; LUO, Qingming; FU, Ling; GONG, Hui: Dual-Slit Confocal Light Sheet Microscopy for in vivo Whole-Brain Imaging of Zebrafish. BIOMEDICAL OPTICS EXPRESS, Vol. 6, No. 5, pp. 1797-1811. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020104634B4 (de) 2020-02-21 2023-12-28 Excelitas Pco Gmbh Verfahren zum Auslesen von Bilddaten und zum Erfassen eines Objekts, Bildaufnahmevorrichtung und Lichtscheibenmikroskop

Also Published As

Publication number Publication date
JP2018521575A (ja) 2018-08-02
JP6732809B2 (ja) 2020-07-29
US20180191970A1 (en) 2018-07-05
US10567681B2 (en) 2020-02-18
WO2016202611A1 (de) 2016-12-22

Similar Documents

Publication Publication Date Title
DE112014000195B4 (de) Bilderfassungsvorrichtung und Bildgebungsvorrichtung
DE2738804C2 (de) Einrichtung zum Erkennen der Relativbewegung zwischen einem Objekt und dieser Vorrichtung
DE3226680C2 (de) Festkörper-Bildaufnahmeeinrichtung
WO2006125607A1 (de) Verfahren und vorrichtung zur abtastung einer probe mit kontrastauswertung
EP2535756A1 (de) Mikroskop und Verfahren zur bildgebenden Fluoreszenzmikroskopie
DE102009053281A1 (de) Bildsensor
EP2312864B1 (de) Bildsensor und Betriebsverfahren
DE102014214750B3 (de) Bildaufnahmesystem mit schnell vibrierendem Global-Shutter-CMOS-Sensor
DE3224299A1 (de) Erfassungsanordnung, insbesondere fuer optische abbildungssysteme
DE202009003286U1 (de) Vorrichtung zum Aufnehmen eines Bilds eines Gegenstands
DE10338681A1 (de) Digitalkamera
DE202016009206U1 (de) Vorrichtung zum Untersuchen einer Probe
DE102015109645B3 (de) Verfahren zur Multiliniendetektion
DE102011081405B4 (de) Bildsensor, Abbildungsvorrichtung und Verfahren für einen Bildsensor
DE69921683T2 (de) Bilderzeugungssystem mit mehreren bilderfassungsmodi
EP3712670A1 (de) Verfahren zur hochauflösenden scanning-mikroskopie
DE60004667T2 (de) Ausrichtbares autofokussystem
DE102008064390A1 (de) Verfahren und Vorrichtung zur Druckbeobachtung mittels einer Zeilenkamera
DE19619186C1 (de) Verfahren sowie System zur Erstellung eines Bildes
DE102011007751B4 (de) Weitfeldmikroskop und Verfahren zur Weitfeldmikroskopie
DE102006009830A1 (de) Verfahren zur räumlich hochauflösenden Untersuchung von Proben
DE102020104634B4 (de) Verfahren zum Auslesen von Bilddaten und zum Erfassen eines Objekts, Bildaufnahmevorrichtung und Lichtscheibenmikroskop
WO1998033326A1 (de) Digitale farbkamera für die elektronische fotografie
DE2114586A1 (de) Abbildungsvomchtung mit Zeilenab tastung, insbesondere Infrarot Kamera
DE102018107710B4 (de) Intraoraler parallelkonfokaler Oberflächenscanner mit Störlichtsubtraktion

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R082 Change of representative

Representative=s name: GLEIM PETRI PATENT- UND RECHTSANWALTSPARTNERSC, DE

Representative=s name: GLEIM PETRI OEHMKE PATENT- UND RECHTSANWALTSPA, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005345000

Ipc: H04N0025440000

R082 Change of representative

Representative=s name: GLEIM PETRI PATENT- UND RECHTSANWALTSPARTNERSC, DE