-
Die Erfindung bezieht sich auf ein
Verfahren zum Betreiben einer räumlich
auflösenden,
optoelektronischen Sensorvorrichtung mit einer Sensorfläche, bestehend
aus einer Mehrzahl lichtempfindlicher Sensorelemente, und mit einer
Aufnahmeoptik, die eine räumliche
Lichtverteilung in einer von ihr erfassten Umgebung auf die aktive
Sensorfläche
abbildet, wobei jeweils eine Teilmenge von Sensorelementen für jeweils
die Dauer eines zugeordneten Aktivierungsintervalls für die Integration
einfallenden Lichtes zur Erzeugung eines entsprechenden Teilbildes der
Umgebung aktiviert wird, und mit einer Beleuchtungsvorrichtung,
die in zeitlichem Zusammenhang mit den Aktivierungsintervallen die
von der Aufnahmeoptik erfasste Umgebung wenigstens zeit- und bereichsweise
mit Licht eines von den Sensorelementen integrierbaren Wellenlängenbereichs
beleuchtet.
-
Derartige Verfahren sowie derartige
optoelektronische Sensorvorrichtungen sind allgemein aus dem Bereich
der digitalen Bildgebung bekannt. Die besondere Ansteuerung der
Sensorelemente ist unter dem Begriff „Rolling Shutter" bekannt, wobei sich dieser
Ausdruck sowohl auf das Ansteuerverfahren als auch auf eine entsprechend
betriebene Sensorvorrichtung beziehen kann. Nachfolgend soll zunächst die
prinzipielle Funktionsweise des Rolling Shutters beschrieben werden.
-
Digitale Kameras zur Aufnahme einer schnellen
Folge von Bildern arbeiten oft mit einem matrixartigen Sensor mit
einer Sensorfläche
die aus einer Vielzahl in Reihen und Spalten angeordneter, lichtempfindlicher
Sensorelemente besteht. Der Einfachheit halber wird im Rahmen dieser
Beschreibung des Standes der Technik nur auf solche Sensorvorrichtungen
Bezug genommen, obgleich auch andere Anordnungen der Sensorelemente
möglich
sind.
-
Eine Aufnahmeoptik bildet eine räumliche Lichtverteilung
auf die Sensorfläche
ab. In den einzelnen Sensorelementen, in der Regel spezielle Halbleiteranordnungen,
verursachen die auftreffenden Photonen die Erzeugung isolierter
Elektronen, die über
die Belichtungs zeit des Sensorelements in einem zugeordneten Reservoir
gespeichert werden. Man spricht von der Integration des auftreffenden Lichts
in den Sensorelementen. Im Anschluss an die Belichtungszeit werden
die Sensorelemente ausgelesen, d.h. es wird die Anzahl der gespeicherten Elektronen
in räumlicher
Zuordnung zu den entsprechenden Sensorelementen als Maß für die während der
Belichtungszeit eingefallenen Photonen bestimmt. Mit Hilfe einer
Datenverarbeitungseinheit, die geeignete Verarbeitungsmittel, wie
etwa Digitalisierungsmittel, Speichermittel, Berechnungsmittel etc. aufweist,
kann so eine digitale Repräsentation
der aufgenommenen Daten erzeugt werden, die allgemein als „Bild" bezeichnet wird.
Die einzelnen Bildpunkte, die den Positionen der Sensorelemente
in der Sensorfläche
entsprechen, werden „Pixel" genannt. Die digitale
Repräsentation
der Gesamtheit aller benutzter Sensorelemente wird „Frame" oder „Rahmen" genannt.
-
Zur Realisierung einer definierten
Belichtungszeit werden die Sensorelemente jeweils zurückgesetzt
(Reset), was einem Leeren der Elektronenreservoirs entspricht. Die
Belichtungszeit wird durch das erneute Leeren der Reservoirs im
Rahmen des Auslesens beendet. Dieses gesamte Intervall wird im Rahmen
dieser Anmeldung als Aktivierungsintervall bezeichnet.
-
Das Rolling Shutter stellt eine besondere
Abfolge von Reset- und Auslesevorgängen dar, die eine besonders
schnelle Bildfolge ermöglicht.
Dabei erfolgt der Reset und damit der Beginn der Belichtungszeit
für die
betroffenen Sensorelemente jeweils zeilen- bzw. spaltenweise in
einem vorgegebenen Takt, sodass nacheinander und in Übereinstimmung
mit ihrer räumlichen
Anordnung alle Zeilen bzw. Spalten zurückgesetzt werden. Für jede Zeile
bzw. Spalte beginnt die Belichtungszeit also zu einem anderen Zeitpunkt.
Mit einem gleichbleibenden Versatz von einer oder mehreren Zeilen
bzw. Spalten erfolgt das Auslesen der Sensorelemente ebenfalls zeilen-
bzw. spaltenweise. Die Belichtungszeit wird bei gegebener Reset-
und Auslesezeit, d.h. bei gegebener Verweildauer des Vorgangs in
einer Zeile bzw. Spalte, durch die Größe des Versatzes zwischen Reset
und Auslesen bestimmt.
-
Die maximale Belichtungszeit entspricht
einer Frametime, d.h. der Zeit, die für das Auslesen eines Rahmens
erforderlich ist; Die minimale Belichtungszeit entspricht der Zeit,
die für
das Auslesen einer Zeile bzw. Spalte erforderlich ist. Solange sich
die Belichtungszeit innerhalb dieser Grenzen bewegt ist die Geschwindigkeit
der Bildabfolge unabhängig
von der Belichtungszeit.
-
Da es bei einem Versatz von mehreren
Spalten bzw. Zeilen zu einem Überlapp
zwischen aufeinander folgenden Frames kommt, indem die letzten Zeilen
bzw. Spalten des vorangehenden Frames noch nicht ausgelesen, die
ersten Zeilen bzw. Spalten des nachfolgenden Frames aber bereits
zurückgesetzt
sind, können
Bilder in kontinuierlicher Weise erzeugt werden, was zu einer sehr
schnellen Bildabfolge führt.
-
Andererseits birgt dieser Überlapp
das Problem der mangelhaften Trennung der einzelnen Frames voneinander.
Bei den meisten Multimedia-Anwendungen ist dies unbeachtlich. Bei
Messanordnungen jedoch, in denen unterschiedlicher Frames miteinander
verglichen oder auf andere Weise miteinander verarbeitet werden
müssen,
kann dies zu Schwierigkeiten führen.
-
Aus
DE 100 62 977 A1 ist beispielsweise ein Verfahren
zur Überwachung
des Innenraums eines Kraftfahrzeuges bekannt, bei dem aus derselben Sensorposition
zwei Bilder eines Kraftfahrzeuginnenraums unter unterschiedlichen
Beleuchtungsbedingungen aufgenommen und anschließend pixelweise voneinander
subtrahiert werden. Die unterschiedlichen Beleuchtungsbedingungen
werden durch die geeignete Ansteuerung einer Beleuchtungsquelle
zur Beleuchtung des überwachten
Innenraums verursacht, die während
der Aufnahme eines Bildes an- und während der Aufnahme des anderen
Bildes ausgeschaltet ist Sie Subtraktion dient der Eliminierung des
Hintergrundlichtes, d.h. der sog. Offset-Reduktion.
-
Über
die spezielle Ansteuerung der Sensorvorrichtung wird in der zitierten
Druckschrift keine Angabe gemacht. Besonders wünschenswert wäre es jedoch,
derartige Anwendungen mit Rolling-Shutter-Sensorvorrichtungen zu
realisieren, da diese die am Markt weitest verbreiteten und damit
kostengünstigsten
Systeme sind. Wollte man jedoch eine solche Messung unter Anwendung
des herkömmlichen
Rolling-Shutter-Verfahrens durchführen, könnte man nur entweder den Zeilenversatz
auf eine Zeile reduzieren und die Beleuchtungsquelle mit der Frametime
triggern oder einen mehrzeiligen Versatz beibehalten und zwischen
einem beleuchteten und einem unbeleuchteten Frame einen Überlappungsframe
verwerfen. Die Frametime der berechneten Bilder, d.h. der zeitliche
Versatz zwischen den Bildern, deren Pixelwerte der Differenz der
entsprechenden Pixel der aufgenommenen Originalbilder entsprechen,
wird hierdurch verdoppelt bzw. sogar verdreifacht. Dies ist für viele
Messanwendungen, bei denen schnelle Prozesse verfolgt werden müssen, wie
z.B. bei der optischen Ansteuerung passiver Sicherheitssysteme, wie
Airbags, nicht tolerierbar.
-
Aus
DE 100 18 366 A1 ist ein Verfahren gemäß dem Oberbegriff
von Anspruch 1 bekannt, bei dem eine Rolling-Shutter-Kamera zur Überwachung des
Innenraums eines Kraftfahrzeuges eingesetzt wird. Hierbei wird eine
Beleuchtungsquelle mit der Shutter-Bewegung, d.h. mit der Bewegung der
Reset- bzw. Auslesezeile über
die Sensorfläche
getriggert, sodass sie in dem überwachten
Raum Lichtpunkte zu genau der Zeit erzeugt, in dem diejenigen Sensorelemente
aktiv sind, auf die diese Lichtpunkte in einem zuvor definierten
Sollzustand, z.B. einem leeren Fahrzeug, abgebildet würden. Ein
Bild des Sollzustandes ist zum Vergleich mit aktuell aufgenommenen
Bildern gespeichert. Werden, bedingt durch eine Abweichung vom Sollzustand,
z.B. Eindringen einer Person in den Raum, die erzeugten Lichtpunkte
nicht auf den vorbestimmten Sensorelementen abgebildet, kann dies
durch Vergleich mit dem Referenzbild ermittelt werden.
-
Nachteilig bei diesem Verfahren ist
jedoch, dass es auf den Vergleich der aktuellen Situation mit einem
vorgegebenen, statischen Sollzustand beschränkt ist. Eine Beurteilung dynamischer
Vorgänge ist
ausgeschlossen. Zudem nutzt das Verfahren faktisch nur einen äußerst geringen
Teil der verfügbaren Sensorelemente
zum Informationsgewinn, nämlich nur
diejenigen Sensorelemente, auf die die erzeugten Lichtpunkte im
Sollzustand abgebildet werden. Die aus technischen Gründen notwendige
Aktivierung der übrigen
Sensorelemente bringt lediglich Zeitnachteile.
-
Es ist die Aufgabe der vorliegenden
Erfindung, ein gattungsgemäßes Verfahren
derart weiterzuentwickeln, dass auch schnelle dynamische Vorgänge unter
Verwendung handelsüblicher
Rolling-Shutter-Sensorvorrichtungen erfasst werden können.
-
Diese Aufgabe wird in Verbindung
mit den Merkmalen des Oberbegriffs von Anspruch 1 dadurch gelöst, dass
zur Erzeugung eines berechneten Bildes der Umgebung die Sensorfläche als
Abfolge von n-Tupeln von Paaren aus Aktivierungsintervallen und
zugeordneten Teilmengen von Sensorelementen derart aktiviert wird,
dass innerhalb eines n-Tupels jeweils n Teilmengen von Sensorelementen
während
n Aktivierungsintervallen bei unterschiedlichen, durch entsprechende
Ansteuerung der Beleuchtungsquelle hervorgerufenen Beleuchtungsbedingungen
der Umgebung aktiviert werden und innerhalb eines n-Tupels aufgenommene
Teilbilder in einer Datenverarbeitungsvorrichtung miteinander verarbeitet
werden.
-
Hierdurch wird, anschaulich gesprochen,
erreicht, dass innerhalb einer Frametime n Bilder erzeugt werden,
die im Wesentlichen dieselbe Szene unter unterschiedlichen Beleuchtungsbedingungen darstellen
und die zur weiteren Situationsbeurteilung pixelweise miteinander
verarbeitet werden können. Dabei
sind die jeweils miteinander zu verarbeitenden Pixel in unmittelbarer
zeitlicher Nachbarschaft zueinander aufgenommen. Das minimiert Fehler,
die dadurch entstehen, dass sich die aufgenommene Szene zwischen
den Belichtungen der in den Teilbildern einander entsprechenden
Pixel ändert.
Als Konsequenz wird es möglich,
mit dem erfindungsgemäßen Verfahren
auch dynamische Vorgänge
zu untersuchen, bei denen sich die Szenen innerhalb von zeitlichen
Größenordnungen ändert, die
nicht groß gegenüber der
Frametime sind, wie dies bei den herkömmlichen Verfahren der Fall
sein muss.
-
Ein nur scheinbarer Nachteil des
erfindungsgemäßen Verfahrens
besteht darin, dass die räumliche
Auflösung
der während
einer Frametime aufgenommenen n Bilder gegenüber einem vollen Frame, d.h.
einem Bild mit jeweils einem Pixel für jedes Sensorelement der Sensorfläche, reduziert
ist. Jedes Sensorelement trägt
nämlich
nur zu einem der n Bilder bei. Außerdem werden die innerhalb
einer Frametime entstehenden n Bilder der im Wesentlichen selben
Szene zwar erfindungsgemäß mit minimalem zeitlichen
Abstand aufgenommen. Da jedoch in jedem n-Tupel n räumlich unterschiedliche
Teilmengen von Sensorelementen aktiviert werden, werden in den einander
entsprechenden Pixeln der n Teilbilder eines n-Tupels geringfügig andere
Punkte des Szene abgebildet.
-
Beide Probleme sind nur scheinbarer
Natur, da in der Praxis die Auflösung
handelsüblicher
Sensorelemente die für
die Messung erforderliche Auflösung
weit übersteigt.
Im Gegenteil ist für
eine schnelle Bildverarbeitung oft eine künstliche Auflösungsreduzierung
notwendig. Da die Aufnahmeoptik an die Erfordernisse der Messung
anzupassen ist, also ebenfalls eine geringere Auflösung haben
kann als die Sensorfläche,
sind benachbarte Sensorelemente im Wesentlichen dem gleichen Lichteinfall
ausgesetzt und können
praktisch als Bildpunkte desselben Szenenpunktes betrachtet werden.
-
Bei einer besonders vorteilhaften
Ausführungsform
der Erfindung ist daher vorgesehen, dass innerhalb eines n-Tupels
räumlich
benachbarte Teilmengen von Sensorelementen aktiviert werden. Befinden
sich die n innerhalb eines n-Tupels aktivierten Teilmengen von Sensorelementen
nämlich
in räumlicher
Nachbarschaft, wird der räumliche
Versatz minimiert, sodass die Unterschiede der miteinander zu verarbeitenden
Pixel fast ausschließlich
aus der unterschiedlichen Beleuchtung während des jeweiligen Aktivierungsintervalls
resultieren.
-
Zwar ist es dabei grundsätzlich möglich, innerhalb
eines n-Tupels mit n > 2
die räumlich
benachbarten Teilmengen von Sensorelementen in einer zeitlichen
Reihenfolge zu aktivieren, die nicht ihrer räumlichen Anordnung entspricht.
Besonders vorteilhaft ist es jedoch, die räumlich benachbarten Teilmengen
von Sensorelementen während
zeitlich aufeinander folgender Aktivierungsintervalle zu aktivieren.
Auf diese Weise wird sichergestellt, dass die einander entsprechenden
Pixel der n Teilbilder minimalen räumlichen wie zeitlichen Abstand
voneinander aufweisen.
-
Bei einer besonders bevorzugten Ausführungsform
der vorliegenden Erfindung besteht die Sensorfläche aus einer in Zeilen und
Spalten angeordneten Matrix von Sensorelementen. Dieser Sensortyp
stellt die weitest verbreitete Sensorform dar und ist entsprechend
kostengünstig.
Auch die spätere
Verarbeitung der mit einem solchen Sensor gewonnenen Daten ist besonders
einfach, da sich die räumliche
Position jedes Sensorelementes in einfacher Weise aus der Kombination
der entsprechenden Zeile und Spalte ergibt.
-
Vorzugsweise entspricht die während eines Aktivierungsintervalls
aktivierte Teilmenge von Sensorelementen einer kleinen ganzen Zahl
von Zeilen oder Spalten der Matrix von Sensorelementen, besonders
bevorzugt jedoch genau einer Zeile oder genau einer Spalte. Dies
ermöglicht
eine besonders gute zeitliche und räumliche Übereinstimmung der n Teilbilder
eines n-Tupels.
-
Besonders vorteilhaft ist es, wenn
alle Aktivierungsintervalle grundsätzlich die gleiche Dauer haben.
Dies erleichtert die Ansteuerung der Sensorvorrichtung. Zumindest
sollten die in den n-Tupeln einander bzgl. ihrer Beleuchtungsbedingungen
entsprechenden Aktivierungsintervalle dieselbe Länge aufweisen. Innerhalb eines
n-Tupels kann es jedoch sinnvoll sein, Aktivierungsintervalle mit
unterschiedlichen Beleuchtungsbedingungen unterschiedlich lang zu
gestalten.
-
Grundsätzlich gibt es drei Möglichkeiten
die Verarbeitung der Teilbilder eines n-Tupels miteinander zeitlich
zu gestalten. Einerseits kann die Verarbeitung derart erfolgen,
dass zunächst
jeweils aus denjenigen Teilbildern aller n-Tupel eines Rahmens, die
bei einander entsprechenden Beleuchtungsbedingungen aufgenommenen
wurden, n Bilder der Umgebung erzeugt und diese miteinander verarbeitet
werden. Dies erfordert eine Zwischenspeicherung der n Bilder. Dieses
Verfahren bietet sich insbesondere an, wenn mehrere Berechnungsschritte
erfolgen sollen, die jeweils auf wenigstens eines der n Bilder zugreifen
müssen.
Andererseits ist es auch möglich
eine Verarbeitung unmittelbar im Anschluss an die Aktivierung erfolgen
zu lassen. Dabei müssen
lediglich die aus einer oder wenigen Teilmengen von Sensorelementen
ausgelesenen Daten temporär zwischengespeichert
werden. Als Bild aufgebaut wird dann lediglich das Verarbeitungsergebnis,
also das berechnete Bild. Dieses Verfahren bietet sich beispielsweise
bei einfachen Berechnungen, wie einer pixelweisen Subtraktion im
Fall n = 2 an. Schließlich ist
es auch möglich,
zunächst
aus allen Teilbildern aller n-Tupel eines Rahmens ein Kombinationsbild
der Umgebung zu erzeugen und dessen Pixel entsprechend ihrer Zuordnung
zu den n-Tupeln miteinander verarbeitet werden. Diese Variante erfordert
die geringsten Änderungen
der Ansteuerung einer herkömmlichen
Rolling-Shutter-Sensorvorrichtung.
-
Zur Erzielung eines minimierten zeitlichen wie
räumlichen
Versatzes der miteinander zu verarbeitenden Pixel bzw. Sensorelemente
sowie aus Gründen
der höheren
Berechnungsgeschwindigkeit, des geringeren Speicherbedarf sowie
des reduzierten Auflösungsverlustes
wird Anwendungen, bei denen n = 2 ist, der Vorzug vor höheren n-Tupeln
gegeben.
-
Bei vielen Anwendungen, wie etwa
der Überwachung
eines Fahrzeuginnenraumes ist es erwünscht, dass die Benutzer von
der eingesetzten Vorrichtung möglichst
wenig wahrnehmen. Es ist daher wünschenswert,
eine Beleuchtungsquelle zu verwenden, die für den Menschen nicht sichtbare
Strahlung aussendet. Eine besonders bevorzugte Ausführungsform
der Erfindung zeichnet sich daher dadurch aus, dass die Beleuchtungsquelle
Licht im Infrarot-Bereich aussendet.
-
Die Umsetzung des erfindungsgemäßen Verfahrens
kann vorzugsweise durch geeignete Programmierung der Ansteuerung
handelsüblicher
Sensorvorrichtungen erfolgen, wobei je nach Bedarf auch Anpassungen
der Hardware vorzunehmen und/oder weitere Komponenten vorzusehen
sind.
-
Weitere Einzelheiten der Erfindung
ergeben sich aus der nachstehenden, ausführlichen Beschreibung und den
beigefügten
Zeichnungen, in denen bevorzugte Ausführungsformen der Erfindung
beispielsweise veranschaulicht sind.
-
In den Zeichnungen zeigen:
-
1:
eine Prinzipskizze zur Veranschaulichung des erfindungsgemäßen Verfahrens,
-
2:
eine Prinzipskizze zur Veranschaulichung eines Rolling Shutters
nach dem Stand der Technik.
-
2 zeigt
eine Prinzipskizze, die ein Rolling Shutter nach dem Stand der Technik
veranschaulichen soll. Der Übersichtlichkeit
halber ist von einer Sensorvorrichtung lediglich die Sensorfläche 1 dargestellt,
die aus einzelnen Sensorelementen 2 besteht, die matrixartig
in Zeilen und Spalten angeordnet sind. Üblicherweise umfasst eine handelsübliche Sensorvorrichtung
mehrere tausend Sensorelemente 2. Der Übersichtlichkeit halber wurde
in 2 eine Sensorfläche 1 mit
lediglich 13 × 13
Sensorelementen 2 dargestellt.
-
Die Teildarstellungen a), b) und
c) in 2 zeigen symbolisch
drei Stadien der Datenaufnahme in ihrer zeitlichen Reihenfolge während des
Betriebs der Sensorvorrichtung.
-
Stadium a) stellt die Aufnahme eines
ersten Vollbildes dar. Dazu wird eine Zeile von Sensorelementen
zurückgesetzt
(Reset) und dadurch für
die Integration einfallenden Lichtes aktiviert. Die Reset-Funktion
ist durch den gestrichelt dargestellten Pfeil 3a symbolisiert.
Sensorelemente 2, die aktiviert sind und einfallendes Licht
integrieren, z.B. indem sie freie Elektronen sammeln, die durch
das einfallende Licht in dem Halbleitermaterial des Sensors erzeugen,
sind symbolisch mit einem x gekennzeichnet. Nacheinander werden
alle Zeilen der Sensorfläche 1 zurückgesetzt,
was durch den Pfeil 4a angedeutet ist. Bildlich gesprochen
bewegt sich die Reset-Zeile 3a über die gesamte Sensorfläche 2.
-
In einem Abstand von einigen Zeilen,
im gezeigten Ausführungsbeispiel
drei Zeilen, folgt eine Auslesezeile, d.h. die entsprechenden Sensorelemente 2 in
dieser Zeile werden ausgelesen, digitalisiert und ihre entsprechenden
Werte gespeichert. Die Auslesefunktion ist durch den Pfeil 5a symbolisiert. Der
Doppelpfeil 6a, der den Abstand zwischen Reset 3a und
Auslesen 5a markiert steht zugleich für die Belichtungszeit. Werden
Reset- und Auslesezeile nämlich
mit gleichbleibendem Abstand und gleichbleibender Verweilzeit an
jeder Position in Richtung des Pfeils 4a über die
Sensorfläche 1 bewegt,
entspricht der räumliche
Abstand zwischen Reset- und Auslesezeile auch dem zeitlichen Abstand
während dessen
die Sensorelemente 2 einfallendes Licht integrieren können.
-
Sind alle Zeilen ausgelesen und die
Werte der Sensorelemente unter Wahrung ihrer räumlichen Anordnung gespeichert,
liegt ein erstes Vollbild oder ein erster Frame A vor. Nachfolgende
Frames B und C werden in gleicher Weise aufgenommen.
-
Stadium b) zeigt eine besondere Situation beim Übergang
von der Aufnahme des ersten Frames A zum zweiten Frame B. Während eine
noch zu Frame A gehörende
Zeile ausgelesen wird (Pfeil 5b), sind bereits mehrere
zu Frame B gehörige
Zeilen (oberhalb der Reset-Zeile 3b) aktiviert und integrieren
einfallendes Licht. Hierdurch wird zwar eine schnelle Bildfolge
erreicht. Sollen jedoch aufeinander folgende Bilder bei unterschiedlichen
Beleuchtungsbedingungen aufgenommen und später miteinander verarbeitet
werden, ist diese fehlende Trennung zwischen den Frames nachteilig.
Der Frame B nämlich, während dessen
Aufnahme der Beleuchtungswechsel erfolgt, kann für Messzwecke nicht herangezogen werden
und muss verworfen werden. Die Frametime für ein berechnetes Bild R, das
sich aus einer Verarbeitung der eindeutig beleuchteten Frames A
und C miteinander ergibt, entspricht daher der dreifachen Frametime
für herkömmliche
Aufnahmen (einfache Frametime), was für die meisten Messanforderungen erheblich
zu lang ist, insbesondere, da der zeitliche Abstand zwischen zwei
miteinander zu verarbeitenden Pixeln zwei einfache Frametimes beträgt. In 2 sind durch die ausgeschaltete
Glühbirne 7a und
die eingeschaltete Glühbirne 7c unterschiedliche Beleuchtungszustände symbolisch
dargestellt. Die geteilte Glühbirne 7b symbolisiert
einen Beleuchtungswechsel während
der Aufnahme des Frames B. in der Praxis werden unterschiedliche
Beleuchtungszustände
z.B. dadurch realisiert, dass eine Beleuchtungsquelle zu vorgegebenen
Zeiten, die mit der Taktung der Bildfolge gekoppelt sind, ein- und
ausgeschaltet wird und die von der Aufnahmeoptik erfasste Umgebung
zeitweise beleuchtet.
-
Der genannte Nachteil des großen zeitlichen Abstandes
zwischen den miteinander zu verarbeitenden Frames A und C lässt sich
durch Reduzierung der zu einer Zeit aktiven Teilmenge der Sensorelemente 2 auf
eine einzige Zeile und damit durch eine Minimierung der Belichtungszeit
nur graduell beheben. Eine Aufnahme des Überlappungsframes B ist dann
nicht erforderlich. Die Frametime für ein berechnetes Bild R beträgt jedoch
noch immer das Doppelte einer einfachen Frametime und der zeitliche
Abstand der Aufnahmen zweier miteinander zu verarbeitender Pixel
beträgt
eine volle (einfache) Frametime.
-
1 stellt
in analoger Symbolik eine bevorzugte Ausführungsform des erfindungsgemäßen Verfahrens
dar, das eine Messbeobachtung auch schneller, dynamischer Prozesse unter
Verwendung handelsüblicher
Sensorvorrichtungen ermöglicht. Wie
beim herkömmlichen
Rolling Shutter werden Zeilen von Pixel durch einen Reset 3a, 3c aktiviert.
Die entsprechenden Sensorelemente 2 integrieren einfallendes
Licht bis zum Auslesevorgang 5a, 5c. Bei dem dargestellten
Ausführungsbeispiel
ist die zu einer Zeit aktive Teilmenge von Sensorelementen auf genau
eine Zeile reduziert. Die hieraus resultierende, kurze Belichtungszeit
stellt bei lichtstarken Anwendungen, wie sie z.B. in einem gut ausleuchtbaren
Innenraum eines Kraftfahrzeugs vorliegen, keinen Nachteil dar.
-
Wie durch die Glühbirnen 7a und 7c symbolisiert,
ist die Beleuchtungsquelle derart mit dem Zeilenvorschub synchronisiert,
dass jeweils zwei nacheinander aktivierte Zeilen von Sensorelementen 2 Licht
unter unterschiedlichen Beleuchtungsbedingungen integrieren. In
der Praxis ist dies z.B. erreichbar, indem die Beleuchtungsquelle,
z.B. eine Leuchtdiode oder ein Diodenlaser, die vorzugsweise im
nahen IR-Bereich abstrahlen, mit dem vertikalen Zeilentrigger der
Sensorvorrichtung getriggert wird. Die innerhalb eines solchen Doppels
(2-Tupels) von aufeinander folgenden Aktivierungsintervallen ausgelesenen
Pixel werden zum Aufbau zweier unterschiedlicher Teilbilder A und
C verwendet. Die Teilbilder A und C haben daher eine halbierte vertikale
Auflösung,
wogegen die horizontale Auflösung
unverändert
bleibt. Die Teilbilder A und C repräsentieren im Wesentlichen dieselbe
Szene unter unterschiedlichen Beleuchtungsbedingungen. Die Teilbilder
A und C entstehen gemeinsam während
nur einer einzigen (einfachen) Frametime, wobei einander bzgl. ihrer Position
entsprechende Pixel mit einem zeitlichen Abstand von nur einer Zeile
aufgenommen werden. Baute man die ausgelesenen Pixel gemäß ihrer
Position auf der Sensorfläche 1 zu
einem einzigen Vollbild AC zusammen, entspräche dies einem herkömmlichen
Vollbild mit voller vertikaler Auflösung, dessen aufeinander folgende
Zeilen jedoch unter unterschiedlichen Beleuchtungsbedingungen aufgenommen
wurden, wie die in 1 symbolisch
als Frame AC dargestellt ist.
-
Wie bereits erwähnt, stellt die Einbuße an vertikaler
Auflösung
keinen wesentlichen Nachteil dar, da die Zahl der Sensorelemente 2 handelsüblicher
Sensorvorrichtungen die Erfordernisse der meisten Messanwendungen
weit übersteigt.
Eine geeignete Anpassung der Auflösung der Aufnahmeoptik kann überdies
dafür sorgen,
der räumliche
Versatz um eine Zeile, der zwischen den einander entsprechenden
Pixeln der Teilbilder A und C besteht, bei der weiteren Bildverarbeitung
vernachlässigbar
ist.
-
Neben dem Aufnahme- und Zuordnungsprinzip
des erfindungsgemäßen Verfahrens,
sind in 1 drei mögliche Varianten
einer Bildverarbeitung im Anschluss an die Aufnahme beispielhaft
und symbolisch dargestellt. Am anschaulichsten ist der mit den durchgezogenen
Wegepfeilen 8, 8' markierte Bearbeitungsweg:
Die innerhalb eines Doppels von Aktivierungsintervallen ausgelesenen
Zeilen werden zum Aufbau unterschiedlicher Frames A und C verwendet,
indem sie z.B. abwechselnd in unterschiedlichen Speicherbereichen
einer Datenverarbeitungseinheit gespeichert werden, wie dies mit
den Wegepfeilen 8 angedeutet ist. In einem nachfolgenden
Berechnungsschritt werden die Frames A und C dann pixelweise miteinander
verarbeitet, z.B. durch pixelweise Subtraktion, Bildung einer normierten
Differenz oder Berechnung eines Verhältnisses der Pixelwerte, wobei
jeweils die einander bzgl. ihrer Position entsprechenden Pixel der
Frames A und C miteinander verrechnet werden, um zu einem Pixelwert
zu führen, der,
unter Wahrung der Position zum Aufbau des berechneten oder Ergebnis-Frames
R beiträgt.
-
Günstiger
kann es jedoch sein, auf den Aufbau der Frames A und C zu verzichten
und die innerhalb eines Doppels von Aktivierungsintervallen ausgelesenen
Zeilen unmittelbar miteinander zu verrechnen und direkt den Ergebnis-Frame
R aufzubauen, wie dies mit den gestrichelten Wegepfeilen 9 symbolisiert
wird. Diese Variante bietet sich insbesondere bei einfachen Berechnungen
an, bei denen nicht mehrfach auf die ursprünglichen Daten der Frames A
und C zurückgegriffen
werden muss.
-
Schließlich ist es auch möglich, die
ausgelesenen Pixelwerte ohne Berücksichtigung
ihrer Zuordnung zu einem der Teilbilder A und C einfach gemäß ihrer
Herkunftsposition auf der Sensorfläche in einem Kombinationsframe
AC zu speichern (Wegepfeile 10) und erst im Anschluss in
die Teilbilder A und C aufzuspalten (Wegepfeile 10') oder direkt
zeilenweise miteinander zu bearbeiten (Wegepfeil 10''). Diese Variante ist vorteilhaft,
weil sie die geringsten Änderungen
an der Ansteuerung einer handelsüblichen
Sensorvorrichtung erfordert.
-
Natürlich ist es auch möglich, Aktivierung und
Auslesen in höheren
n-Tupeln als Zweierpaaren durchzuführen. Dies eröffnet die
Möglichkeit
komplexerer Berechnungen unter Hinzuziehung von mehr als zwei unterschiedlichen
Beleuchtungsbedingungen. Die dabei jeweils aktivierten Teilmengen
müssen
auch nicht notwendig einzelne Zeilen sein. Ebenso ist die Wahl von
Spalten, Vielfachen von Zeilen bzw. Spalten oder gänzlich anderer
Teilmengenformen möglich,
wobei sich letzteres insbesondere bei Sensorvorrichtungen mit direkt
ansteuerbaren Sensorelementen 2 anbietet.
-
Eine bevorzugte Anwendung des erfindungsgemäßen Verfahrens
stellt die Überwachung eines
Innenraums eines Kraftfahrzeuges dar. Dabei ist eine Digitalkamera
auf CMOS-Basis an
einer Stelle des zu überwachenden
Innenraums installiert, die eine Aufnahmeoptik aufweist, die eine
interessierende Umgebung auf die Sensorfläche der Kamera abbildet. Als
interessierende Umgebungen kommen z.B. der gesamte Innenraum (etwa
bei Diebstahlsicherungen) oder spezielle Bezugspunkte, deren Bewegung
zu erfassen ist (etwa bei optischer Airbag-Steuerung) in Frage.
Eine IR-Lichtquelle beleuchtet diese Umgebung wenigstens bereichsweise, wobei
sie zeitlich mit z.B. dem Zeilenvorschubsignal der Kamera getriggert
wird. Die Aufnahme und Verarbeitung von jeweils zwei oder mehr Bildern
zur Erzeugung eines berechneten Bildes, das Grundlage eines automatischen
Entscheidungsprozesses sein kann, kann z.B. erforderlich sein, wenn
Störgrößen, wie
etwa natürliche
Sonnenstrahlung eliminiert werden sollen.
-
Selbstverständlich ist die vorliegende
Erfindung nicht auf die gezeigten Ausführungsbeispiele beschränkt. Viele
weitere, vorteilhafte Varianten sind innerhalb des von den Ansprüchen definierten
Bereichs denkbar.