-
HINTERGRUND UND TECHNISCHES GEBIET DER ERFINDUNG
-
Die vorliegende Erfindung bezieht sich auf ein Abbildungssystem zum Erfassen eines Bildes mit einer größeren Reaktivität gegenüber der Variation und Verteilung von Licht in einer Szene eines Erfassungsfeldes.
-
Das Abbildungssystem umfasst typischerweise einen Bildsensor mit einer Anordnung von allgemein aktiven Pixeln. Der Bildsensor umfasst eine Hauptausleseschaltung, die angepasst ist, um die aktiven Pixel nach der Belichtung der aktiven Pixel zu lesen und ein Bild von dem Auslesewert zu erfassen.
-
Die Belichtung der aktiven Pixel zur Aufnahme eines Bildes erfolgt nach mehreren, den Fotografen wohlbekannten Parametern, die sich auf das erhaltene Bild auswirken und insbesondere den Eigenschaften der abzubildenden Szene und insbesondere auf die Leuchtdichte der die Szene bildenden Elemente abgestimmt sein müssen.
-
Dies ist insbesondere der Fall in Bezug auf die Belichtungszeit, d.h. die Zeit, während der die aktiven Pixel vor dem Auslesen der aktiven Pixel belichtet werden. Der Begriff Verschlusszeit wird ebenfalls verwendet. Die Belichtungszeit definiert die Menge an einfallendem Licht, der den aktiven Pixeln ausgesetzt ist. Die Belichtungszeit muss daher an die Leuchtdichte der Elemente in der Szene, aber auch an die Lichtempfindlichkeit der aktiven Pixel angepasst werden.
-
Ein aktives Pixel kann durch einen augenblicklichen dynamischen Bereich der Lichtempfindlichkeit charakterisiert werden, der die maximale Menge an Licht wiedergibt, die von einem aktiven Pixel wiedergegeben werden kann, und die Menge an Rauschen, die von diesem Pixel im Dunkeln erzeugt wird. Wenn die Lichtmenge zu niedrig ist, enthält das Leseergebnis des aktiven Pixels viel Rauschen und ermöglicht daher nicht, dass ein Bild mit ausreichender Qualität erhalten wird. Wenn die Lichtmenge zu hoch ist, wird das aktive Pixel gesättigt und das Ergebnis des Pixelauslesens wird keine Details des abzubildenden Objekts mehr wiedergeben.
-
Andere Parameter können aus dem gleichen Grund in Betracht gezogen werden, z. B. die Verstärkungsverstärkung beim Verlassen der Anordnung aktiver Pixel, die durch einen einstellbaren Verstärker eingeführt wird. Es ist auch möglich, einen Parameter der Optik zu berücksichtigen, der auf dem Lichtweg vor den aktiven Pixeln angeordnet ist, wie die Blendenöffnung oder die Dämpfung eines einstellbaren optischen Dämpfungsglieds.
-
Die konstituierenden Elemente einer Szene können verschiedenste Luminanzwerte innerhalb eines gleichen Erfassungsfelds zur gleichen Zeit oder von einer Akquisition zu einer anderen aufweisen. Zum Beispiel hat ein Bild mitten in der Nacht nicht die gleichen Lichtverteilungseigenschaften wie ein Bild in der Mitte des Tages oder bei Sonnenuntergang. Es ist daher wichtig, die Bildaufnahmeparameter an die Luminanzeigenschaften des Bilderfassungsfeldes anzupassen.
-
Zu der Zeit der ersten Belichtung der aktiven Pixel mit dem Licht eines Erfassungsfeldes, für das die Luminanzeigenschaften der Bestandteile dem System unbekannt sind, können Standarderfassungsparameter verwendet werden. Es ist dann möglich, dass einige stark leuchtende Elemente zur Überbelichtung einiger Pixel führen können, die gesättigt werden, oder Elemente mit niedriger Luminanz können zur Unterbelichtung anderer Pixel führen.
-
Die Analyse des akquirierten Bildes ermöglicht die Bestimmung eines neuen Satzes von Akquisitionsparametern, und ein zweites Bild wird dann mit diesen neuen Akquisitionsparametern akquiriert. Die iterative Schleife ermöglicht, dass die Erfassungsparameter an die Verteilung und Variation der Leuchtkraft der Szene angepasst werden. Die Patentanmeldung
US2008/0094481A1 zeigt ein Beispiel für diese Art von Steuerung. Die Aufgabe der Bildanalyse ist umso aufwändiger, je größer die Größe und die hohe Qualität des Bildes sind.
-
Die 1a, 1b und 1c zeigen ein vereinfachtes Anwendungsbeispiel dieses Verfahrens, das eine Konturkurve eines Histogramms eines Beispiels einer Leuchtdichteverteilung in einem Erfassungsfeld angibt. In diesem Beispiel enthält die Luminanzverteilung der Szene in dem zu beschaffenden Erfassungsfeld Leuchtelemente, die zwischen einem ersten Abschnitt 100 niedriger Luminanz und einem zweiten Abschnitt 101 hoher Luminanz verteilt sind, getrennt durch einen Leerabschnitt 103, der die Abwesenheit von Elementen mit mittlerer Luminanz widerspiegelt.
-
Wie in 1a dargestellt, ermöglicht der momentane dynamische Bereich 104 der aktiven Pixel des Sensors zusammen mit den anfänglichen Erfassungsparametern des Sensors (Belichtungszeit, Blende, ...) die Wiedergabe der meisten der Elemente in dem Erfassungsfeld mit der zum ersten Teil 100 gehörenden Luminanz. Andererseits weisen die Elemente mit hoher Luminanz, die zu dem zweiten Abschnitt 101 gehören, eine Luminanz auf, die für die aktiven Pixel des Sensors, die sättigen, zu hoch ist. Daher zeigt ein erstes Hauptbild überbelichtete Bereiche, die die Sättigung der aktiven Pixel wiedergeben.
-
Die Erfassungsparameter werden daher modifiziert, um die von den aktiven Pixeln empfangene Lichtmenge zu begrenzen, um eine Sättigung derselben zu verhindern, beispielsweise durch Reduzieren der Belichtungszeit. Daher wird, wie in 1b dargestellt, der augenblickliche dynamische Bereich 104 der aktiven Pixel zu stärkeren Luminanzwerten zum Rendern von Elementen bewegt, die für die Anfangsparameter zu leuchtend sind und die aktiven Pixel gesättigt haben.
-
Da jedoch das Abbildungssystem keine Information über die Leuchtdichte der Leuchtelemente hat, die seine Pixel sättigen, kann eine Modifikation der Erfassungsparameter nicht als eine Funktion der Leuchtdichte der leuchtstärksten Elemente ausgeführt werden. Im Allgemeinen werden die Erfassungsparameter in Übereinstimmung mit vorab festgelegten Regeln modifiziert, die im Allgemeinen nicht an eine Leuchtdichteverteilung angepasst sind, die für eine Szene spezifisch ist, um eine Sättigung der Pixel zu verhindern. Dasselbe Verfahren kann umgekehrt von den leuchtstärksten Elementen zu den Elementen geringerer Leuchtdichte angewendet werden.
-
Es kann hier festgestellt werden, dass der momentane Dynamikbereich 104 der aktiven Pixel nur einen Teil des zweiten Teils 101 abdeckt. Als Ergebnis können zwar Elemente mit Luminanz, die zu diesem Abschnitt 101 gehören, in dem erfassten Bild erscheinen, während zuvor die aktiven Pixel gesättigt waren, die Elemente in dem zweiten Abschnitt 101 mit Luminanz, die den momentanen dynamischen Bereich 104 der aktiven Pixel überschreitet, weiterhin die aktiven Pixel sättigen. Parallel deckt der augenblickliche dynamische Bereich 104 den Abschnitt 103 ab, obwohl kein Leuchtelement diese Leuchtdichte aufweist.
-
Die Erfassungsparameter werden dann erneut modifiziert, um die von den aktiven Pixeln empfangene Lichtmenge zu begrenzen, um eine Sättigung derselben zu verhindern, beispielsweise durch Verringern der Belichtungszeit wie zuvor. Diese neue Konfiguration ist in 1c dargestellt. Da jedoch der Sensor keine Information über die tatsächliche Luminanz der Elemente hat, die eine Sättigung der aktiven Pixel verursachen, überlappt der momentane dynamische Bereich 104 den ersten Teil 101 und einen anderen Teil 105 größerer Luminanz, obwohl kein Leuchtelement eine diesem anderen Teil 105 entsprechende Luminanz aufweist.
-
Dieser Vorgang wird so oft wie nötig wiederholt, bis die Erfassungsparameter es dem momentanen dynamischen Bereich 104 der aktiven Pixel erlauben, die Teile 100, 101 abzudecken, von denen angenommen wird, dass sie die Elemente des interessierenden Bereichs in der Szene darstellen.
-
Diese Technik leidet jedoch unter mehreren Mängeln. Zunächst wird festgestellt, dass die Bestimmung von Erfassungsparametern durch „Versuch und Irrtum“ durch Multiplizieren von Versuchen erhalten wird. Die Szene des Erfassungsfeldes eines Sensors kann eine höchst inhomogene Leuchtdichteverteilung aufweisen, und diese Technik kann zu einer unzureichenden Bestimmung von Erfassungsparametern für mehrere Bildaufnahmen führen. In 1b ist zu sehen, dass der Abschnitt 103 bedeckt ist, während kein Leuchtelement diese Leuchtdichte aufweist. Das Gleiche gilt für den anderen Teil 105 in 1c.
-
Dies ist eine langwierige Prozedur, die die Erfassung von Bildern führt, die nicht verwendet werden können oder redundant sind, und die konstituierenden Elemente der Szene können variieren und daher auch die Luminanzverteilung. Zum Beispiel könnte sich in dem vorhergehenden Beispiel der erste Abschnitt 101 zwischen zwei Erfassungen nach links bewegt haben (reflektierende Verdunkelung der leuchtstärksten Elemente), was die Relevanz der vorhergehenden Iterationen in Zweifel zieht.
-
Wenn die Lichtdynamik einer Szene hoch ist und die Dynamik des Bildsensors übersteigt, treten außerdem Sättigungen und Unterbelichtungen trotz der iterativen Regelschleife der Erfassungsparameter auf.
-
Es wurden verschiedene Techniken vorgeschlagen, um die Dynamik von Bildgebern zu verbessern, um diese Sättigungen und Unterbelichtungen einer Szene zu verhindern. Diese Techniken können wie folgt aufgelistet werden:
- 1) mehrere Aufnahmen mit unterschiedlichen Belichtungszeiten;
- 2) Anwenden verschiedener Belichtungszeiten auf Untereinheiten von Pixeln in einer Pixelanordnung;
- 3) Erzeugen von zusammengesetzten Pixeln, die lichtempfindliche Elemente mit unterschiedlichen Empfindlichkeiten und insbesondere unterschiedlicher Größe kombinieren;
- 4) Erzeugung einer nichtlinearen Antwort mit einer Empfindlichkeit, die mit der pro Pixel empfangenen Lichtmenge abnimmt.
-
Methode 1) wird oft für Szenen verwendet, in denen es wenig Bewegung gibt. Wenn sich die Elemente in der Szene bewegen, werden die Bilder, die zu verschiedenen verzögerten Belichtungszeiten aufgenommen wurden, nicht mehr korrekt überlagert. Nichtsdestotrotz wird diese Technik häufig in digitalen fotografischen Geräten verwendet. Der allgemein verwendete Begriff ist HDRI für „High Dynamic Range Imaging“.
-
Methode
2) ist in der Regel in einem Bildsensor verkabelt. Zum Beispiel haben in Patent
US8022994 die ungeraden und geraden Pixellinien unterschiedliche Belichtungszeiten, wodurch zwei Teilbilder gebildet werden, die hellere Bereiche bzw. dunklere Bereiche übertragen. Die Bildverarbeitung rekombiniert diese zwei Bilder, um ein einzelnes Bild mit größerer Dynamik zu erzeugen. Manchmal kann jedoch ein Datenverlust festgestellt werden, wenn die Belichtungszeiten nicht an die Leuchtkraft der Szene angepasst sind. Wenn die Pixel einer Untergruppe gesättigt oder unterbelichtet sind, sind sie nicht länger von Nutzen, und die Auflösung kann dann durch einen Faktor von bis zu zwei geteilt werden.
-
Methode
3 ist ähnlich zu Methode
2), außer dass Unterschiede in der Empfindlichkeit Unterschiede in den Belichtungszeiten ersetzen. Der Hauptvorteil dieser Methode besteht darin, dass es keine Zeitverschiebung zwischen den zwei Teilbildern gibt. In Verfahren
2) erzeugt die Verwendung von zwei Belichtungszeiten eine Zeitverschiebung zwischen den zwei Aufnahmen für die Untergruppen von Pixeln. Wenn sich ein Element in dem Erfassungsfeld in Bewegung befindet, wird es daher nicht an der gleichen Position in den zwei Teilbildern liegen. Methode
3) ermöglicht es, dieses Problem zu umgehen. Ein Nachteil dieses Verfahrens besteht jedoch darin, dass diese unterschiedlichen Empfindlichkeiten werksseitig festgelegt sind und später nicht mehr für die Anpassung an eine bestimmte Szene modifiziert werden können. Die Patentanmeldung
EP2775525A1 gibt ein Beispiel für die Implementierung dieses Verfahrens.
-
Methode
4) fasst viele verschiedene Verfahren zusammen. Das Patent
EP2186318 schlägt ein Pixel mit einer logarithmischen Antwort vor, die das Sättigungsphänomen praktisch überwindet. Die Patentanmeldung
US20140103189A1 schlägt eine nichtlineare Kapazität in einem Ladungstransferpixel vor, die eine stückweise lineare Antwort erlaubt. Diese Pixel sind jedoch im Allgemeinen komplexer als ein einfaches aktives Pixel und auch voluminöser und sind nicht für Pixelanordnungen mit hoher Dichte und geringer Tonhöhe geeignet. Die von
EP2186318 vorgeschlagene Lösung bleibt eine ausgezeichnete Lösung für Anordnungen mittlerer und niedriger Dichte (weniger als eine Million Pixel), da sie die Kontrolle der Belichtungszeit ohne irgendein Sättigungsproblem vollständig vermeidet.
-
Die 2a, 2b und 2c veranschaulichen die Beziehung zwischen Sensordynamik, Qualität und Belichtungszeit. 2a zeigt die Definition der Betriebsdynamik, indem die Abhängigkeit des Bildsignals von der Leuchtdichte der Elemente in dem Erfassungsfeld für eine gegebene Belichtungszeit gezeigt wird. Es ist zu sehen, dass das Bildsignal, das ein Pixel verlässt, mit der Leuchtdichte ansteigt und bei einem bestimmten hohen Wert gesättigt wird, der als der Sättigungswert bekannt ist. Ein Bildsignal kann beobachtet werden, wenn es das dunkle Rauschen des Pixels überschreitet. Der Dynamikbereich kann daher als der Luminanzbereich definiert werden, über den das Bildsignal, das das Pixel verlässt, zwischen dunklem Rauschen und Sättigung liegt.
-
2b zeigt die Qualität eines Bildes, das beim Verlassen eines Pixels als Funktion der Leuchtdichte wahrgenommen wird. Wenn die Luminanz niedriger als der dynamische Bereich ist, kann das Bildsignal nicht von dunklem Rauschen unterschieden werden. Qualität ist daher Null. Im dynamischen Bereich verbessert sich die Bildqualität mit der Luminanz. Jenseits des dynamischen Bereichs. Die Qualität wird jedoch nach der Sättigung zu Null.
-
2c zeigt die Bildqualität als eine Funktion der Leuchtdichte, wenn unterschiedliche Belichtungszeiten verwendet werden. Die erste Kurve 110 veranschaulicht die Bildqualität für eine erste, relativ lange Belichtungszeit t1 . Die zweite Kurve 112 veranschaulicht die Bildqualität für eine kürzere Belichtungszeit t2 als die Belichtungszeit t1 . Dies führt zu einem ersten Dynamikbereich 111, der der ersten Kurve 110 entspricht, und zu einem zweiten Dynamikbereich 113, der der zweiten Kurve 112 entspricht. Der zweite Dynamikbereich 113 ist aufgrund seiner kürzeren Belichtungszeit breiter als der erste Dynamikbereich 111 und entspricht höheren Leuchtdichtewerten.
-
Es wird festgestellt, dass die längere Belichtungszeit t1 die Vermeidung von dunklem Rauschen mit geringerer Luminanz ermöglicht, aber auch, dass die Sättigung mit weniger Luminanz erreicht wird. Eine kürzere Belichtungszeit wie t2 erzeugt gegenteilige Effekte. In 2c ist zu sehen, dass bei zwei Belichtungszeiten die Erfassungsdynamik erweitert wird, wenn die Belichtungszeiten korrekt konfiguriert sind. Wenn die Belichtungszeiten jedoch zu weit voneinander entfernt sind, kann ein Luminanz- «Loch» zwischen den jeweiligen dynamischen Bereichen, die den zwei Belichtungszeiten zugeordnet sind, gebildet werden.
-
Die Details der Elemente im Erfassungsfeld mit der Luminanz, die in dieses <<Loch>> fällt, gehen verloren.
-
Obwohl Sensoren, die mit mehreren Belichtungszeiten versehen sind, lange verfügbar waren, bleibt die Bilderfassungsleistung von Bildgebern unter schwierigen dynamischen Bedingungen unbefriedigend. Insbesondere erfordern aufkommende Anwendungen, die auf künstliche Intelligenz zurückgreifen, wie automatische Fahrzeugantriebe, assistiertes Fahren, automatische Überwachung usw., dass Bildaufnehmer in der Lage sind, unter allen Bedingungen eine qualitativ hochwertige Bilderfassung zu erhalten.
-
KURZDARSTELLUNG DER ERFINDUNG
-
Es ist die Aufgabe der Erfindung, zumindest einige und vorzugsweise alle diese Nachteile zu überwinden, indem die Verwendung eines hochdynamischen Pixelsensors vorgeschlagen wird, wie er beispielsweise in
EP2186318 beschrieben ist, um einen Satz optimierter Parameter für einen hochauflösenden Sensor zu bestimmen.
-
Es wird daher ein Bildgebersystem vorgeschlagen, das einen Hauptbildsensor mit einem ersten Erfassungsfeld und einem Hauptfeld aktiver Pixel mit einem ersten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit und einer Hauptausleseschaltung, die angepasst ist, um die Pixel des Hauptbildsensors nach der Belichtung der Pixel zu lesen und ein Hauptbild von der Auslesung zu erfassen, wobei das Bildaufnahmesystem umfasst:
- - einen Hilfsbildsensor mit einem zweiten Erfassungsfeld, das das erste Erfassungsfeld zumindest teilweise abdeckt und eine zweite Anordnung von aktiven Pixeln umfasst, das einen zweiten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit aufweist, der breiter ist als der erste augenblickliche dynamische Bereich der Lichtempfindlichkeit, und eine Hilfsausleseschaltung, die dazu ausgelegt ist, die aktiven Pixel des Hilfsbildsensors nach Belichtung der aktiven Pixel zu lesen und ein Hilfsbild von dem Auslesewert zu erfassen; und
- - eine Datenverarbeitungseinheit, die konfiguriert ist, um aus dem Hilfsbild mindestens einen Wert eines Erfassungsparameters für den Hauptbildsensor zu bestimmen.
-
Der Hilfsbildsensor ermöglicht die Erfassung eines Hilfsbildes mit geringer oder keiner Sättigung oder Unterbelichtung (mittels eines breiteren dynamischen Funktionsbereichs), wodurch eine optimale Ermittlung eines Aufnahmeparameters für den Hauptbildsensor ermöglicht wird, so dass Aufnahmebedingungen des Hauptbildes am besten an die Szene in dem Erfassungsfeld angepasst werden.
-
Dieses Bildaufnahmesystem wird vorteilhafterweise durch die folgenden Merkmale vervollständigt, die für sich genommen oder in einer beliebigen technisch möglichen Kombination davon gelten:
- - die Datenverarbeitungseinheit eingerichtet ist, eine räumliche Helligkeitsverteilung in dem Hilfsbild zu ermitteln, und die Datenverarbeitungseinheit ausgebildet ist, - als Akquisitionsparameter des Hauptbildes - mindestens die Belichtungszeit der aktiven Pixel des Hauptbildsensors und/oder eine Verstärkungsverstärkung der mittleren Ausleseschaltung aus der räumlichen Helligkeitsverteilung im Hilfsbild;
- - die Breite des zweiten momentanen dynamischen Bereichs der Lichtempfindlichkeit ist zweimal größer als die Breite des ersten augenblicklichen dynamischen Bereichs der Lichtempfindlichkeit;
- - die Hauptanordnung des Hauptbildsensors hat eine Pixeldichte, die zweimal höher ist als die Dichte der aktiven Pixel der Anordnung aktiver Pixel des Hilfsbildsensors;
- - die Pixel der Hauptanordnung des Hauptbildsensors und die aktiven Pixel der Hilfsanordnung des Hilfsbildsensors sind auf der Oberfläche desselben Substrats verschachtelt;
- - die Pixel der Hauptanordnung des Hauptbildsensors sind auf einem ersten Substrat angeordnet und die aktiven Pixel der Hilfsanordnung des Hilfsbildsensors sind auf einem zweiten Substrat getrennt von dem ersten Substrat angeordnet;
- - der Hilfsbildsensor hat eine nichtlineare Spannungsantwort auf die Belichtung in dem ersten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit;
- - die aktiven Pixel des Hilfsbildsensors haben eine periodische räumliche Verteilung;
- - die aktiven Pixel des Hilfsbildsensors sind Pixel mit logarithmischer Antwort;
- - die aktiven Pixel des Hilfsbildsensors sind Pixel, die einen Zähler aufweisen, der dafür ausgelegt ist, bei Belichtung Ladungen zu akkumulieren und die Anzahl zu zählen, mit der die Ladungsakkumulation einen Akkumulationsrücksetzschwellenwert erreicht;
- - die aktiven Pixel des Hilfsbildsensors sind Entladungspixel, die dazu geeignet sind, bei Belichtung für eine Entladezeit zu entladen, die eine Funktion der Leuchtdichte der Belichtung ist;
- - der Hilfsbildsensor ist mit einer Farbfilteranordnung versehen, und die Datenverarbeitungseinheit ist konfiguriert, um zumindest den Weißabgleich von dem Hilfsbild als Erfassungsparameter für das Hauptbild zu bestimmen;
- - die Datenverarbeitungseinheit ist dazu eingerichtet, mehrere verschiedene Werte eines Erfassungsparameters für den Hauptbildsensor aus dem Hilfsbild zu bestimmen, und der Hauptbildsensor ist konfiguriert, um mehrere Hauptbilder unter Verwendung eines unterschiedlichen Werts des Erfassungsparameters für jedes der Hauptbilder zu erfassen.
-
Die Erfindung betrifft auch ein Verfahren zum Erfassen eines Bildes mittels eines Bilderzeugungssystems gemäß der Erfindung, wobei das Verfahren die folgenden Schritte umfasst:
- - der Hilfsbildsensor erfasst ein Hilfsbild,
- - die Datenverarbeitungseinheit ermittelt mindestens einen Wert eines Erfassungsparameters für den Hauptbildsensor aus dem Hilfsbild,
- - der Hauptbildsensor erfasst mindestens ein Hauptbild unter Verwendung des Werts des Erfassungsparameters.
-
In einer Ausführungsform bestimmt die Datenverarbeitungseinheit mehrere verschiedene Werte eines Erfassungsparameters für den Hauptbildsensor aus dem Hilfsbild, und der Hauptbildsensor erfasst mehrere Hauptbilder unter Verwendung eines unterschiedlichen Werts des Erfassungsparameters für jedes der Hauptbilder.
-
PRÄSENTATION DER FIGUREN
-
Die Erfindung wird anhand der folgenden Beschreibung besser verstanden, die sich auf Ausführungsformen und Varianten der vorliegenden Erfindung bezieht, die als nicht einschränkende Beispiele gegeben und unter Bezugnahme auf die beigefügten schematischen Zeichnungen erläutert werden, in denen:
- - die bereits diskutierten 1a, 1b, 1c veranschaulichen die Mehrfachbelichtungstechnik mittels einer Konturkurve eines beispielhaften Histogramms der Leuchtdichteverteilung in einem Erfassungsfeld;
- - die bereits diskutierten 2a, 2b, 2c veranschaulichen die Antwort eines Pixels mit linearer photoelektrischer Antwort und die Definition des dynamischen Funktionsbereichs, die Bildqualität mit einer gegebenen Belichtungszeit und Änderungen der Bildqualität als eine Funktion der Belichtungszeit;
- - 3 veranschaulicht schematisch ein Bilderzeugungssystem gemäß einer möglichen Ausführungsform der Erfindung, bei dem die zwei Sensoren nebeneinander angeordnet und auf unterschiedlichen Substraten ausgebildet sind;
- - 4 veranschaulicht schematisch ein Bilderzeugungssystem gemäß einer möglichen Ausführungsform der Erfindung, bei der die zwei Sensoren Felder von aktiven Pixeln aufweisen, die miteinander verschachtelt sind;
- - 5 zeigt schematisch ein Detail eines Beispiels einer Verschachtelung zwischen den zwei Anordnungen aktiver Pixel;
- - 6 veranschaulicht schematisch eine beispielhafte Struktur eines Beispiels einer aktiven Pixelschaltung, die mit einem Zähler versehen ist;
- - 7 zeigt schematisch Beispiele von Ladungsabnahmekurven in einem aktiven Pixel;
- - Die 8a, 8b, 8c veranschaulichen die Implementierung einer Ausführungsform der Erfindung in dem in den 1a bis 1c dargestellten Fall.
-
In allen Figuren sind ähnliche Elemente mit den gleichen Bezugszeichen bezeichnet.
-
DETAILLIERTE BESCHREIBUNG
-
In der vorliegenden Beschreibung ist mit Bild eine Menge von Daten gemeint, die eine räumlich verteilte Darstellung in zwei Dimensionen von mindestens einer optischen Eigenschaft, typischerweise Leuchtdichte, von Elementen in einer Szene darstellt, wobei die Daten räumlich gemäß der räumlichen Darstellung organisiert sind. In der folgenden Beschreibung besteht das Hauptfeld des Hauptbildsensors aus aktiven Pixeln. Andere Konfigurationen können verwendet werden, zum Beispiel mit anderen Pixeln als aktiven Pixeln für das Hauptfeld.
-
Bezugnehmend auf 3, die ein Beispiel eines Bilderzeugungssystems gemäß einer möglichen Ausführungsform der Erfindung darstellt, umfasst das Bilderzeugungssystem einen Hauptbildsensor 1 mit einem Hauptfeld 2 aus aktiven Pixeln mit einem ersten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit. Das Bildgebersystem umfasst auch eine Hauptausleseschaltung, die angepasst ist, um die aktiven Pixel des Hauptbildsensors 1 nach der Belichtung der aktiven Pixel zu lesen und ein Hauptbild von dem Auslesewert zu erfassen.
-
Der Hauptbildsensor kann insbesondere ein Sensor sein, der mit einer möglichen Implementierung von Mehrfachbelichtungszeiten versehen ist, die entweder als separate Schüsse implementiert und in einem einzigen Schuss gemäß den oben dargelegten Bedingungen zusammengemischt werden können, insbesondere für die bereits erwähnten Verfahren 1) und 2).
-
Jedes aktive Pixel umfasst einen Photodetektor, z.B. eine Photodiode, und einen aktiven Verstärker. Es kann ein herkömmliches Drei-Transistor-, Vier-Transistor-Aktivpixel oder eine andere Konfiguration sein. Aus Gründen der Kompaktheit ist vorzugsweise jedes aktive Pixel ein Vier-Transistor-Pixel, dessen Ausgangsverstärker von mehreren Photodioden gemeinsam genutzt wird.
-
Der Hauptbildsensor 1 umfasst auch eine Optik 3, die übliche Komponenten zur Bilderfassung umfasst, wie beispielsweise eine Linse 4 oder eine Linsenanordnung 5, die mit einer Blende oder einem Verschluss ausgestattet ist. Die Optik 3 kann insbesondere durch Erfassungsparameter wie Belichtungszeit oder Blendenöffnung gesteuert werden, die die von den aktiven Pixeln empfangene Lichtmenge steuern.
-
Der Hauptbildsensor 1 weist ein erstes Erfassungsfeld 6 auf, das von der Optik 3 ausgeht. Im Erfassungsfeld 6 gibt es eine Szene, die aus verschiedenen Elementen unterschiedlicher Helligkeit besteht. Wenn die aktiven Pixel der Hauptanordnung 2 belichtet werden, tritt das von diesen verschiedenen Elementen der Szene emittierte/reflektierte Licht durch die Optik 3 und erreicht die aktiven Pixel der Hauptanordnung 2. Die Menge an einfallendem Licht auf die aktiven Pixel hängt von der Belichtungszeit und den Eigenschaften der Optik 3 und insbesondere von der Öffnungsgröße ab.
-
Die Hauptanordnung 2 ist auf einem Substrat 7 gebildet, das typischerweise die Hauptausleseschaltung enthält. Die elektrischen Eigenschaften der aktiven Pixel variieren mit der Menge an einfallendem Licht während der Belichtung. Beim Auslesen dieser aktiven Pixel misst die Hauptausleseschaltung die elektrischen Eigenschaften jedes aktiven Pixels und erhält dadurch ein Hauptbild, das die Menge an einfallendem Licht auf jedem aktiven Pixel darstellt.
-
Das Bilderzeugungssystem umfasst auch einen Hilfsbildsensor 11 mit einem zweiten Erfassungsfeld 16, das das erste Erfassungsfeld 6 zumindest teilweise überlappt. Es ist bevorzugt, dass das erste Erfassungsfeld 6 und das zweite Erfassungsfeld 16 eine maximale Übereinstimmung aufweisen, beispielsweise mehr als 80%, insbesondere mehr als zehn Zentimeter von dem Bildaufnahmesystem, was im Allgemeinen ein minimaler Abstand für die Bilderfassung ist. Eine gute Überlagerung der Erfassungsfelder kann erhalten werden, indem die Sensoren nebeneinander mit parallelen oder konvergierenden optischen Achsen angeordnet werden. Vorzugsweise können das zweite Erfassungsfeld 16 und das erste Erfassungsfeld gleich sein, was durch Verwenden der gleichen Optik für die zwei Sensoren 1, 11 und insbesondere durch Verwenden einer Bildrückgabevorrichtung wie eines Spiegels erhalten werden kann.
-
Die zweite Anordnung 12 von aktiven Pixeln hat einen zweiten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit, der breiter ist als der erste augenblickliche dynamische Bereich der Lichtempfindlichkeit. Vorzugsweise ist die Breite des zweiten momentanen dynamischen Bereichs der Lichtempfindlichkeit zweimal größer als die Breite des ersten augenblicklichen dynamischen Bereichs der Lichtempfindlichkeit und weiter bevorzugt Zehnmal der Breite des ersten augenblicklichen dynamischen Bereichs der Lichtempfindlichkeit.
-
Die Breite eines augenblicklichen dynamischen Bereichs der Lichtempfindlichkeit kann einfach bestimmt werden, indem deren Grenzen mit festen Erfassungsparametern nachgewiesen werden. Für die untere Grenze wird zuerst das Rauschen bestimmt, das den Sensor unter Testbedingungen beeinflusst: der Sensor wird im Dunkeln platziert, ein Bild wird erfasst und aus den Werten der Pixel in dem erfassten Bild wird ein Rauschpegel statistisch bestimmt. Die untere Grenze des momentanen dynamischen Bereichs der Lichtempfindlichkeit entspricht der Luminanz der Elemente in dem Erfassungsfeld, wodurch ein Pixelwert, der höher als dieser Rauschpegel ist, erhalten werden kann.
-
Die obere Grenze entspricht der Luminanz der Elemente in dem Erfassungsfeld, auf und an denen die aktiven Pixel zu sättigen beginnen. Es ist auch möglich, auf die momentane Dynamik der aktiven Pixel durch Berechnen des Verhältnisses der beiden Grenzen, die wie oben erläutert bestimmt wurden, zu schließen.
-
Der Hilfsbildsensor 11 umfasst auch eine Optik 13 mit üblichen Komponenten zur Bilderfassung, wie zum Beispiel eine Linse 14 oder eine Linsenanordnung 15, die mit einer Blende oder einem Verschluss ausgestattet ist. Die Optik 13 kann insbesondere durch Aufnahmeparameter wie Belichtungszeit oder Blendenöffnung gesteuert werden, die die von den aktiven Pixeln empfangene Lichtmenge steuern. Eine vereinfachte Optik mit einer Linse mit fester Apertur kann jedoch ausreichen.
-
Ähnlich wie der erste Sensor 1 weist der zweite Sensor eine Hilfsausleseschaltung auf, die dazu ausgelegt ist, die aktiven Pixel des Hilfsbildsensors 11 nach der Belichtung der aktiven Pixel zu lesen und ein Hilfsbild von dem Auslesewert zu erfassen. Ähnlich wie der Hauptbildsensor 1 ist die Hilfsanordnung 12 auf einem Substrat 17 ausgebildet, das typischerweise die Hilfsausleseschaltung aufweist. Die elektrischen Eigenschaften der aktiven Pixel variieren mit der Menge an einfallendem Licht während der Belichtung. Beim Lesen dieser aktiven Pixel misst die Hilfsausleseschaltung die elektrischen Eigenschaften jedes aktiven Pixels und erhält dadurch das Hilfsbild, das die Menge an einfallendem Licht auf jedem aktiven Pixel darstellt.
-
Der Hilfsbildsensor 11 wird daher verwendet, um vor dem Erfassen eines Hauptbildes durch den Hauptbildsensor 1 ein Hilfsbild zu erfassen, so dass aus diesem Hilfsbild mindestens ein Aufnahmeparameter für den Hauptbildsensor ermittelt wird und zum Erfassen des Hauptbildes verwendet werden kann.
-
Zu diesem Zweck umfasst das Abbildungssystem auch eine Datenverarbeitungseinheit 10, die eingerichtet ist, aus dem Hilfsbild mindestens einen Wert eines Erfassungsparameters für den Hauptbildsensor zu ermitteln. Zum Beispiel kann dieser Erfassungsparameter die Belichtungszeit und/oder die Blendenöffnung und/oder die Verstärkungsverstärkung der Hauptausleseschaltung und/oder die optische Dämpfung eines optischen Abschwächers und/oder den Weißabgleich sein. Die Verarbeitungseinheit 10 ist daher sowohl mit dem Hilfsbildsensor 11 verbunden, um das Hilfsbild zu empfangen, und mit dem Hauptbildsensor 1, um diesen mit dem Wert des Erfassungsparameters zu versorgen.
-
Insbesondere kann die Datenverarbeitungseinheit 10 eingerichtet sein, um eine räumliche Helligkeitsverteilung im Hilfsbild zu bestimmen und als Wert des Erfassungsparameters des Hauptbildes mindestens eine Belichtungszeit der aktiven Pixel des Hauptbildsensors 1 und/oder eine Verstärkungsverstärkung der Hauptausleseschaltung aus der aus dem Hilfsbild abgeleiteten räumlichen Helligkeitsverteilung.
-
Das Verfahren zum Erfassen eines Bildes mittels eines Abbildungssystems gemäß einer der möglichen Ausführungsformen umfasst daher die Schritte, wobei:
- - der Hilfsbildsensor 11 erfasst ein Hilfsbild,
- - die Datenverarbeitungseinheit 10 bestimmt aus dem Hilfsbild mindestens einen Wert eines Erfassungsparameters für den Hauptbildsensor 1,
- - der Hauptbildsensor 1 erfasst ein Hauptbild unter Verwendung des Werts des Erfassungsparameters.
-
Insofern das Hilfsbild im Wesentlichen verwendet wird, um den Wert eines Erfassungsparameters für den Hauptbildsensor 1 zu bestimmen, muss die Auflösung des Hilfsbildes nicht so hoch wie die Auflösung des Hauptbildes sein. Daraus folgt, dass die Dichte der aktiven Pixel in dem Hilfsbildsensor 11 nicht so hoch sein muss wie die Dichte der aktiven Pixel in dem Hauptbildsensor 1.
-
Daher kann das Hauptfeld 2 des Hauptbildsensors 1 eine Dichte aktiver Pixel aufweisen, die zweimal höher ist als die Dichte der aktiven Pixel in dem Feld 12 aktiver Pixel des Hilfsbildsensors 11, sogar vorzugsweise Zehnmal höher als die Dichte der aktiven Pixel in der Anordnung 12 von aktiven Pixeln des Hilfsbildsensors 11. In Bezug auf die Anzahl von Pixeln kann die Hauptanordnung 2 des Hauptbildsensors 1 eine Anzahl von aktiven Pixeln aufweisen, die höher als das Zehnfache der Anzahl aktiver Pixel in der Anordnung 12 von aktiven Pixeln des Hilfsbildsensors 11 ist, sogar vorzugsweise mehr als das Hundertfache der Anzahl von aktiven Pixeln in der Anordnung 12 von aktiven Pixeln des Hilfsbildsensors 11.
-
Eine geringe Auflösung für das Hilfsbild reduziert die Bearbeitungslast der Verarbeitungseinheit und ermöglicht somit insbesondere eine beschleunigte Analyse des Hilfsbildes. Diese niedrige Auflösung ermöglicht auch die vorteilhafte Verwendung von logarithmischen Pixeln ohne Sättigung und ohne Kontrolle über Bilderfassungsparameter, wie sie durch das Patent
EP2186318 vorgeschlagen werden.
-
Der Hilfsbildsensor 11 hat jedoch eine ausreichende Auflösung, um eine Feinanalyse des Hilfsbildes zu ermöglichen. Daher weist die Anordnung 12 von aktiven Pixeln in dem Hilfsbildsensor 11 vorzugsweise eine Anzahl von aktiven Pixeln auf, die höher als 320 × 240 Pixel und vorzugsweise höher als ein Tausendstel, sogar ein Hundertstel der aktiven Pixel in der Hauptanordnung 2 des Hauptbildsensors 1.
-
Es ist möglich, den Hilfsbildsensor mit einer Farbfilteranordnung(CFA) zu versehen. Diese Farbfilteranordnung besteht aus kleinen Farbfiltern, die vor den lichtempfindlichen Elementen der aktiven Pixel des Hilfsbildsensors angeordnet sind. Es ist dann möglich, die Verteilung der Leuchtdichte in verschiedenen Farben zu bestimmen. In diesem Fall kann die Datenverarbeitungseinheit 10 konfiguriert sein, um zumindest den Weißabgleich aus dem Hilfsbild als Erfassungsparameter für das Hauptbild zu bestimmen.
-
In dem Beispiel in 3 sind der Hauptbildsensor 1 und der Hilfsbildsensor 11 räumlich getrennt und Seite an Seite gezeigt. Die aktiven Pixel der Hauptanordnung 2 des Hauptbildsensors 1 sind auf einem ersten Substrat 7 angeordnet und die aktiven Pixel der Hilfsanordnung 12 des Hilfsbildsensors 1 sind auf einem zweiten Substrat 17 getrennt von dem ersten Substrat 7 angeordnet. Diese Konfiguration hat den Vorteil, dass mit Haupt- und Hilfssensoren unterschiedlicher Hersteller gearbeitet werden kann.
-
Diese Konfiguration ist jedoch nicht notwendig Um die Struktur des Bilderzeugungssystems zu vereinfachen, und unter Bezugnahme auf 4 und 5, ist es möglich, zu bestimmen, welche von den aktiven Pixeln 30 der Hauptanordnung 2 des Hauptbildsensors 1 und der aktiven Pixel 32 des Hilfsfeldes 12 des Hilfsbildsensors 11 auf der Oberfläche desselben Substrats 23 zu verschachteln sind. Die Hauptanordnung 2 und Die Hauptanordnung 12 liegen dann in einer gleichen Ebene. Die Hauptanordnung 2 und die Hilfsanordnung 12 bilden dann eine gemeinsame Anordnung 22.
-
Die zwei Sensoren 1, 11 mit verschachtelten Anordnungen teilen die gleiche gemeinsame Optik 23, beispielsweise mit einer gemeinsamen Linse 24 und einer gemeinsamen Linsenanordnung 24, und daher das gleiche gemeinsame Erfassungsfeld 26, das daher sowohl das erste Erfassungsfeld als auch das zweite Erfassungsfeld bildet. Jeder Bildsensor 1, 11 kann jedoch eine Ausleseschaltung aufrechterhalten, die ihren jeweiligen aktiven Pixeln zugeordnet ist.
-
5 zeigt ein Beispiel für die Organisation der aktiven Pixel in diesem Fall. Ein Beispiel für die räumliche Organisation der aktiven Pixel 30, 32 in dem gemeinsamen Anordnungen 22 ist darin dargestellt. Die ersten aktiven Pixel 30 entsprechen den aktiven Pixeln des Hauptanordnung 2 des Hauptbildsensors 1, während zweite aktive Pixel 32 den aktiven Pixeln der Hilfsanordnung 12 des Hilfsbildsensors 11 entsprechen und zwischen aktiven Pixeln 30 des Hauptbildsensors 11 verteilt sind. Es ist anzumerken, dass die zweiten aktiven Pixel 32 hier größer als die ersten aktiven Pixel 30 gezeigt sind, was für hochdynamische aktive Pixel üblich ist. Dies ist jedoch nicht zwingend, und die zweiten aktiven Pixel 32 könnten beispielsweise ähnlich groß wie die ersten aktiven Pixel 30 sein.
-
Wie zuvor ist anzumerken, dass die Anzahl der aktiven Pixel 30 des Hauptbildsensors 1 viel höher, mindestens zweimal höher und vorzugsweise mindestens Zehnmal höher als die Anzahl der aktiven Pixel 32 des Hilfsbildsensors 11 ist. Vorzugsweise sind die aktiven Pixel 32 des Hilfsbildsensors 11 nicht benachbart zueinander, sondern sind durch aktive Pixel 30 des Hauptbildsensors 11 voneinander isoliert. Außerdem weisen die aktiven Pixel 32 des Hilfsbildsensors 12 vorzugsweise eine aperiodische räumliche Verteilung auf, um die Erzeugung geometrischer Effekte, wie beispielsweise eines Moire-Effekts, zu verhindern, und weisen daher keine symmetrische Verteilung innerhalb der aktiven Pixel 30 des Hauptbildsensors 11 auf.
-
Wie oben angegeben, sind die aktiven Pixel des Hauptbildsensors 1 von dem Typ, der üblicherweise in Bildgebern verwendet wird, um hochauflösende Bilder zu erhalten, beispielsweise aktive Drei-Transistor- oder Vier-Transistor-Pixel. Die aktiven Pixel 30 des Hauptbildsensors 1 und die aktiven Pixel 32 des Hilfsbildsensors 11 unterscheiden sich in ihren verschiedenen augenblicklichen dynamischen Bereichen der Lichtempfindlichkeit.
-
Um aktive Pixel 32 des Hilfsbildsensors 11 mit einem zweiten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit zu erhalten, der wesentlich breiter ist als der der aktiven Pixel 30 des Hauptbildsensors 1, sind verschiedene Lösungen möglich.
-
Während der Hauptbildsensor 1 im allgemeinen eine lineare Spannungsantwort zumindest teilweise auf die Belichtung in dem ersten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit hat, weist der Hilfsbildsensor 2 vorzugsweise eine nichtlineare Spannungsantwort auf die Belichtung in dem ersten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit auf.
-
Es ist möglich, diese Nichtlinearität zu erhalten, indem Pixel mit logarithmischer Antwort als aktive Pixel
32 des Hilfsbildsensors
12 verwendet werden. Zum Beispiel schlägt das Patent
EP2186318 eine aktive Pixelstruktur vom CMOS-Typ vor, die verwendet werden kann. Andere Konfigurationen logarithmischer Antwortpixel können verwendet werden. Da die aktiven Pixel eine logarithmische Antwort haben, ändert sich ihre Reaktion kaum mit der Helligkeit, und daher kann eine Sättigung verhindert werden. Auf diese Weise kann ein nahezu unendlicher augenblicklicher dynamischer Bereich der Lichtempfindlichkeit erhalten werden.
-
6 zeigt ein Beispiel einer anderen Möglichkeit. Das aktive Pixel des Hilfsbildsensors 11 ist hier ein Pixel mit einem Zähler, der angepasst ist, Ladungen bei der Belichtung zu akkumulieren und die Anzahl von Malen zu zählen, wenn die Ladungsakkumulation eine Akkumulationsrücksetzschwelle erreicht. Eine Photodiode 50 ist über einen Knoten 51 mit dem Drain eines Reset-Transistors 52 verbunden. Ein Integrator 53 ist mit dem Knoten 51 verbunden und integriert die Spannung an den Anschlüssen der Photodiode 50. Das Ergebnis dieser Integration wird an das Tor des Transistors 52 angelegt. Wenn das Ergebnis der Integration einen ausreichenden Wert erreicht, wird der Transistor 52 leitend und setzt die Photodiode 53 zurück. Ein Zähler 54, der konfiguriert ist, um die Anzahl von Malen zu zählen, die ein Schwellenwert überschritten wird, gibt Information über die Anzahl von Zyklen. Andere Konfigurationen sind offensichtlich möglich, insbesondere um die Schwelle oder Rückstellung anzupassen. Die Publikation <<Architekturen für hohe Dynamikbereiche, Hochgeschwindigkeits-Bildsensor-Ausleseschaltunge>> von S. Kavusi et al in <<Internationale IFIP-Konferenz 2006 über sehr große Integration>> gibt weitere technische Details zu diesem Typ Pixel mit hoher dynamischer Funktion.
-
7 zeigt einen weiteren Ansatz, bei dem die aktiven Pixel 32 des Hilfsbildsensors 12 Entladungspixel sind, die bei Belichtung für eine Entladungszeit entladen werden, die eine Funktion der Belichtungshelligkeit ist. Hier sind zwei Beispiele von Entladungen 61, 62 veranschaulicht, die jeweils der Belichtung mit starker Luminanz und Belichtung mit geringer Luminanz entsprechen.
-
Bei der ersten Belichtung, bei starker Leuchtdichte, erfolgt die Entladung 61 schnell, so dass die Ladungsschwelle 60 bald nach einer kurzen Zeit t1 erreicht wird. Bei der zweiten Belichtung zu geringer Luminanz tritt die Entladung 62 langsamer auf, so dass die Ladungsschwelle 60 nach einer Zeit t2 länger als die Zeit t1 erreicht wird. Das Signal, das der Leuchtdichte der Belichtung entspricht, kann dann als proportional zu der Umkehrung der Entladezeit bestimmt werden. Daher ist das Signal zur Belichtung mit starker Leuchtdichte 1/t1 größer als das Signal zur Belichtung mit niedriger Leuchtdichte 1/t2. Hohe Dynamik ist möglich, wenn das Timing ausreichend fein abgestimmt ist.
-
Weitere technische Lösungen zur Erweiterung des Dynamikbereichs finden sich beispielsweise in der Arbeit „High Dynamic Range Imaging: Sensors and Architectures“ von Arnaud Darmont, 2013, ISBN 9780819488305.
-
Die große Breite des zweiten momentanen Dynamikbereichs der Lichtempfindlichkeit ermöglicht eine verbesserte Aufnahme des Hauptbildes mittels des Hilfsbildes. Zu diesem Zweck ist die Datenverarbeitungseinheit 10 eingerichtet, aus dem Hilfsbild mindestens einen Wert eines Erfassungsparameters für den Hauptbildsensor zu ermitteln.
-
Es ist auch möglich, mehrere Hauptbilder von demselben Hilfsbild zu erfassen. Zu diesem Zweck ist die Datenverarbeitungseinheit 10 konfiguriert, mehrere verschiedene Werte eines Erfassungsparameters für den Hauptbildsensor 1 von dem Hilfssensor zu bestimmen, und der Hauptbildsensor ist konfiguriert, um mehrere Hauptbilder unter Verwendung eines unterschiedlichen Werts des Erfassungsparameters für jedes der Hauptbilder zu erfassen.
-
Die 8a, 8b und 8 reproduzieren den in den 1a bis 1c dargestellten Fall, indem sie ein Beispiel einer Ausführungsform der Erfindung anwenden, bei der zwei Hauptbilder unter Verwendung verschiedener Werte eines gleichen Aufnahmeparameters, ermittelt aus dem gleichen Hilfsbild, aufgenommen werden.
-
8a zeigt die Erfassung des Hilfsbildes durch den Hilfsbildsensor 11. Aufgrund ihres breiten augenblicklichen dynamischen Bereichs der Lichtempfindlichkeit 70 sind die aktiven Pixel des Hilfsbildsensors 11 in der Lage, das Licht von allen in dem zweiten Erfassungsfeld 16 enthaltenen Elementen zu erfassen, unabhängig davon, ob diese Elemente zu dem ersten Teil 100 mit niedriger Luminanz oder zu dem zweiten Teil 101 mit hoher Luminanz gehören. Das Hilfsbild, das sich aus dieser Erfassung ergibt, wird durch die Verarbeitungseinheit 10 analysiert, die in der Lage ist, die zwei durch die Abschnitte 100 und 101 gebildeten Anordnungen zu identifizieren.
-
Die Verarbeitungseinheit bestimmt dann mindestens einen Wert eines Erfassungsparameters, so dass der erste momentane dynamische Bereich der Lichtempfindlichkeit 71 der aktiven Pixel des Hauptbildsensors am besten der Helligkeit der zu dem ersten Abschnitt 100 gehörenden Elemente entspricht, wie in 8b dargestellt. Es ist hier zu sehen, dass der erste augenblickliche dynamische Bereich der Lichtempfindlichkeit 71 nur den Teil der Luminanz 103 kaum abdeckt, der von keinem Element gezeigt wird. Ein erstes Hauptbild kann daher für die Elemente mit der dem ersten Teil 100 entsprechenden Leuchtdichte erhalten werden.
-
Aus dem gleichen Hilfsbild ermittelt die Verarbeitungseinheit auch mindestens einen Akquisitionsparameter, so dass der erste momentane Dynamikbereich der Lichtempfindlichkeit 71 der aktiven Pixel des Hauptbildsensors am besten der Leuchtdichte der zum Bereich 101 gehörenden Elemente entspricht, wie in 8c dargestellt. Es ist hier zu sehen, dass der erste momentane dynamische Bereich der Lichtempfindlichkeit 71 auf dem zweiten Abschnitt 101 zentriert ist, den er abdeckt. Daher gibt es weder eine Sättigung der aktiven Pixel noch eine Überlappung der Luminanzabschnitte 103, 105, die kein Element enthalten. Ein zweites Hauptbild kann daher erhalten werden.
-
Mit der Erfindung war es somit möglich, mit zwei Hauptbildern alle Elemente in dem ersten Erfassungsfeld 6 zu erfassen, wodurch sichergestellt wird, dass keine Pixelsättigung und somit kein Informationsverlust vorliegt.
-
Es ist zu sehen, dass diese zwei Belichtungen tatsächlich ein «Loch» in der Luminanzskala zwischen den dynamischen Bereichen in den 8b und 8c bilden. Dieses Loch ist jedoch in dem Bereich der Luminanz 103, in dem kein Element vorhanden ist, durch die Analyse des hochdynamischen Hilfsbildes sinnvoll positioniert. Das Ergebnis ist eine optimale Nutzung von Bildaufnahmen und somit eine Zeit- und Ressourcenersparnis.
-
Die Erfindung ist nicht auf die in den beigefügten Figuren beschriebene und dargestellte Ausführungsform beschränkt. Änderungen bleiben möglich, insbesondere hinsichtlich der Zusammensetzung der verschiedenen Elemente oder durch Substitution technischer Äquivalente, ohne den Schutzbereich der Erfindung zu verlassen.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- US 2008/0094481 A1 [0009]
- US 8022994 [0022]
- EP 2775525 A1 [0023]
- EP 2186318 [0024, 0031, 0058, 0069]
- US 20140103189 A1 [0024]