DE112017002190T5 - Abbildungssystem mit zwei sensoren - Google Patents

Abbildungssystem mit zwei sensoren Download PDF

Info

Publication number
DE112017002190T5
DE112017002190T5 DE112017002190.1T DE112017002190T DE112017002190T5 DE 112017002190 T5 DE112017002190 T5 DE 112017002190T5 DE 112017002190 T DE112017002190 T DE 112017002190T DE 112017002190 T5 DE112017002190 T5 DE 112017002190T5
Authority
DE
Germany
Prior art keywords
image sensor
main
auxiliary
pixels
active pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017002190.1T
Other languages
English (en)
Inventor
Yang Ni
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
New Imaging Technologies SAS
Original Assignee
New Imaging Technologies SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by New Imaging Technologies SAS filed Critical New Imaging Technologies SAS
Publication of DE112017002190T5 publication Critical patent/DE112017002190T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/533Control of the integration time by using differing integration times for different sensor regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/571Control of the dynamic range involving a non-linear response
    • H04N25/573Control of the dynamic range involving a non-linear response the logarithmic type

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Nonlinear Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Blocking Light For Cameras (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

Die Erfindung bezieht sich auf ein Abbildungssystem mit einem Hauptbildsensor (1) und einer Hauptanordnung (2) aus aktiven Pixeln mit einem ersten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit und eine Hauptleseschaltung, die angepasst ist, um die Pixel des Hauptbildsensors (1) zu lesen und ein Hauptbild von dem Auslesen zu erfassen, einen Hilfsbildsensor (11), der eine zweite Anordnung (12) aus aktiven Pixeln mit einem zweiten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit, der breiter ist als der erste augenblickliche dynamische Bereich der Lichtempfindlichkeit, und eine Hilfsleseschaltung umfasst, die angepasst ist, um die aktiven Pixel des Hilfsbildsensors (11) zu lesen und ein Hilfsbild von dem Auslesen zu erfassen, und einer Datenverarbeitungseinheit (10), die konfiguriert ist, um aus dem Hilfsbild mindestens einen Wert eines Erfassungsparameters für den Hauptbildsensor zu bestimmen.

Description

  • HINTERGRUND UND TECHNISCHES GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf ein Abbildungssystem zum Erfassen eines Bildes mit einer größeren Reaktivität gegenüber der Variation und Verteilung von Licht in einer Szene eines Erfassungsfeldes.
  • Das Abbildungssystem umfasst typischerweise einen Bildsensor mit einer Anordnung von allgemein aktiven Pixeln. Der Bildsensor umfasst eine Hauptausleseschaltung, die angepasst ist, um die aktiven Pixel nach der Belichtung der aktiven Pixel zu lesen und ein Bild von dem Auslesewert zu erfassen.
  • Die Belichtung der aktiven Pixel zur Aufnahme eines Bildes erfolgt nach mehreren, den Fotografen wohlbekannten Parametern, die sich auf das erhaltene Bild auswirken und insbesondere den Eigenschaften der abzubildenden Szene und insbesondere auf die Leuchtdichte der die Szene bildenden Elemente abgestimmt sein müssen.
  • Dies ist insbesondere der Fall in Bezug auf die Belichtungszeit, d.h. die Zeit, während der die aktiven Pixel vor dem Auslesen der aktiven Pixel belichtet werden. Der Begriff Verschlusszeit wird ebenfalls verwendet. Die Belichtungszeit definiert die Menge an einfallendem Licht, der den aktiven Pixeln ausgesetzt ist. Die Belichtungszeit muss daher an die Leuchtdichte der Elemente in der Szene, aber auch an die Lichtempfindlichkeit der aktiven Pixel angepasst werden.
  • Ein aktives Pixel kann durch einen augenblicklichen dynamischen Bereich der Lichtempfindlichkeit charakterisiert werden, der die maximale Menge an Licht wiedergibt, die von einem aktiven Pixel wiedergegeben werden kann, und die Menge an Rauschen, die von diesem Pixel im Dunkeln erzeugt wird. Wenn die Lichtmenge zu niedrig ist, enthält das Leseergebnis des aktiven Pixels viel Rauschen und ermöglicht daher nicht, dass ein Bild mit ausreichender Qualität erhalten wird. Wenn die Lichtmenge zu hoch ist, wird das aktive Pixel gesättigt und das Ergebnis des Pixelauslesens wird keine Details des abzubildenden Objekts mehr wiedergeben.
  • Andere Parameter können aus dem gleichen Grund in Betracht gezogen werden, z. B. die Verstärkungsverstärkung beim Verlassen der Anordnung aktiver Pixel, die durch einen einstellbaren Verstärker eingeführt wird. Es ist auch möglich, einen Parameter der Optik zu berücksichtigen, der auf dem Lichtweg vor den aktiven Pixeln angeordnet ist, wie die Blendenöffnung oder die Dämpfung eines einstellbaren optischen Dämpfungsglieds.
  • Die konstituierenden Elemente einer Szene können verschiedenste Luminanzwerte innerhalb eines gleichen Erfassungsfelds zur gleichen Zeit oder von einer Akquisition zu einer anderen aufweisen. Zum Beispiel hat ein Bild mitten in der Nacht nicht die gleichen Lichtverteilungseigenschaften wie ein Bild in der Mitte des Tages oder bei Sonnenuntergang. Es ist daher wichtig, die Bildaufnahmeparameter an die Luminanzeigenschaften des Bilderfassungsfeldes anzupassen.
  • Zu der Zeit der ersten Belichtung der aktiven Pixel mit dem Licht eines Erfassungsfeldes, für das die Luminanzeigenschaften der Bestandteile dem System unbekannt sind, können Standarderfassungsparameter verwendet werden. Es ist dann möglich, dass einige stark leuchtende Elemente zur Überbelichtung einiger Pixel führen können, die gesättigt werden, oder Elemente mit niedriger Luminanz können zur Unterbelichtung anderer Pixel führen.
  • Die Analyse des akquirierten Bildes ermöglicht die Bestimmung eines neuen Satzes von Akquisitionsparametern, und ein zweites Bild wird dann mit diesen neuen Akquisitionsparametern akquiriert. Die iterative Schleife ermöglicht, dass die Erfassungsparameter an die Verteilung und Variation der Leuchtkraft der Szene angepasst werden. Die Patentanmeldung US2008/0094481A1 zeigt ein Beispiel für diese Art von Steuerung. Die Aufgabe der Bildanalyse ist umso aufwändiger, je größer die Größe und die hohe Qualität des Bildes sind.
  • Die 1a, 1b und 1c zeigen ein vereinfachtes Anwendungsbeispiel dieses Verfahrens, das eine Konturkurve eines Histogramms eines Beispiels einer Leuchtdichteverteilung in einem Erfassungsfeld angibt. In diesem Beispiel enthält die Luminanzverteilung der Szene in dem zu beschaffenden Erfassungsfeld Leuchtelemente, die zwischen einem ersten Abschnitt 100 niedriger Luminanz und einem zweiten Abschnitt 101 hoher Luminanz verteilt sind, getrennt durch einen Leerabschnitt 103, der die Abwesenheit von Elementen mit mittlerer Luminanz widerspiegelt.
  • Wie in 1a dargestellt, ermöglicht der momentane dynamische Bereich 104 der aktiven Pixel des Sensors zusammen mit den anfänglichen Erfassungsparametern des Sensors (Belichtungszeit, Blende, ...) die Wiedergabe der meisten der Elemente in dem Erfassungsfeld mit der zum ersten Teil 100 gehörenden Luminanz. Andererseits weisen die Elemente mit hoher Luminanz, die zu dem zweiten Abschnitt 101 gehören, eine Luminanz auf, die für die aktiven Pixel des Sensors, die sättigen, zu hoch ist. Daher zeigt ein erstes Hauptbild überbelichtete Bereiche, die die Sättigung der aktiven Pixel wiedergeben.
  • Die Erfassungsparameter werden daher modifiziert, um die von den aktiven Pixeln empfangene Lichtmenge zu begrenzen, um eine Sättigung derselben zu verhindern, beispielsweise durch Reduzieren der Belichtungszeit. Daher wird, wie in 1b dargestellt, der augenblickliche dynamische Bereich 104 der aktiven Pixel zu stärkeren Luminanzwerten zum Rendern von Elementen bewegt, die für die Anfangsparameter zu leuchtend sind und die aktiven Pixel gesättigt haben.
  • Da jedoch das Abbildungssystem keine Information über die Leuchtdichte der Leuchtelemente hat, die seine Pixel sättigen, kann eine Modifikation der Erfassungsparameter nicht als eine Funktion der Leuchtdichte der leuchtstärksten Elemente ausgeführt werden. Im Allgemeinen werden die Erfassungsparameter in Übereinstimmung mit vorab festgelegten Regeln modifiziert, die im Allgemeinen nicht an eine Leuchtdichteverteilung angepasst sind, die für eine Szene spezifisch ist, um eine Sättigung der Pixel zu verhindern. Dasselbe Verfahren kann umgekehrt von den leuchtstärksten Elementen zu den Elementen geringerer Leuchtdichte angewendet werden.
  • Es kann hier festgestellt werden, dass der momentane Dynamikbereich 104 der aktiven Pixel nur einen Teil des zweiten Teils 101 abdeckt. Als Ergebnis können zwar Elemente mit Luminanz, die zu diesem Abschnitt 101 gehören, in dem erfassten Bild erscheinen, während zuvor die aktiven Pixel gesättigt waren, die Elemente in dem zweiten Abschnitt 101 mit Luminanz, die den momentanen dynamischen Bereich 104 der aktiven Pixel überschreitet, weiterhin die aktiven Pixel sättigen. Parallel deckt der augenblickliche dynamische Bereich 104 den Abschnitt 103 ab, obwohl kein Leuchtelement diese Leuchtdichte aufweist.
  • Die Erfassungsparameter werden dann erneut modifiziert, um die von den aktiven Pixeln empfangene Lichtmenge zu begrenzen, um eine Sättigung derselben zu verhindern, beispielsweise durch Verringern der Belichtungszeit wie zuvor. Diese neue Konfiguration ist in 1c dargestellt. Da jedoch der Sensor keine Information über die tatsächliche Luminanz der Elemente hat, die eine Sättigung der aktiven Pixel verursachen, überlappt der momentane dynamische Bereich 104 den ersten Teil 101 und einen anderen Teil 105 größerer Luminanz, obwohl kein Leuchtelement eine diesem anderen Teil 105 entsprechende Luminanz aufweist.
  • Dieser Vorgang wird so oft wie nötig wiederholt, bis die Erfassungsparameter es dem momentanen dynamischen Bereich 104 der aktiven Pixel erlauben, die Teile 100, 101 abzudecken, von denen angenommen wird, dass sie die Elemente des interessierenden Bereichs in der Szene darstellen.
  • Diese Technik leidet jedoch unter mehreren Mängeln. Zunächst wird festgestellt, dass die Bestimmung von Erfassungsparametern durch „Versuch und Irrtum“ durch Multiplizieren von Versuchen erhalten wird. Die Szene des Erfassungsfeldes eines Sensors kann eine höchst inhomogene Leuchtdichteverteilung aufweisen, und diese Technik kann zu einer unzureichenden Bestimmung von Erfassungsparametern für mehrere Bildaufnahmen führen. In 1b ist zu sehen, dass der Abschnitt 103 bedeckt ist, während kein Leuchtelement diese Leuchtdichte aufweist. Das Gleiche gilt für den anderen Teil 105 in 1c.
  • Dies ist eine langwierige Prozedur, die die Erfassung von Bildern führt, die nicht verwendet werden können oder redundant sind, und die konstituierenden Elemente der Szene können variieren und daher auch die Luminanzverteilung. Zum Beispiel könnte sich in dem vorhergehenden Beispiel der erste Abschnitt 101 zwischen zwei Erfassungen nach links bewegt haben (reflektierende Verdunkelung der leuchtstärksten Elemente), was die Relevanz der vorhergehenden Iterationen in Zweifel zieht.
  • Wenn die Lichtdynamik einer Szene hoch ist und die Dynamik des Bildsensors übersteigt, treten außerdem Sättigungen und Unterbelichtungen trotz der iterativen Regelschleife der Erfassungsparameter auf.
  • Es wurden verschiedene Techniken vorgeschlagen, um die Dynamik von Bildgebern zu verbessern, um diese Sättigungen und Unterbelichtungen einer Szene zu verhindern. Diese Techniken können wie folgt aufgelistet werden:
    1. 1) mehrere Aufnahmen mit unterschiedlichen Belichtungszeiten;
    2. 2) Anwenden verschiedener Belichtungszeiten auf Untereinheiten von Pixeln in einer Pixelanordnung;
    3. 3) Erzeugen von zusammengesetzten Pixeln, die lichtempfindliche Elemente mit unterschiedlichen Empfindlichkeiten und insbesondere unterschiedlicher Größe kombinieren;
    4. 4) Erzeugung einer nichtlinearen Antwort mit einer Empfindlichkeit, die mit der pro Pixel empfangenen Lichtmenge abnimmt.
  • Methode 1) wird oft für Szenen verwendet, in denen es wenig Bewegung gibt. Wenn sich die Elemente in der Szene bewegen, werden die Bilder, die zu verschiedenen verzögerten Belichtungszeiten aufgenommen wurden, nicht mehr korrekt überlagert. Nichtsdestotrotz wird diese Technik häufig in digitalen fotografischen Geräten verwendet. Der allgemein verwendete Begriff ist HDRI für „High Dynamic Range Imaging“.
  • Methode 2) ist in der Regel in einem Bildsensor verkabelt. Zum Beispiel haben in Patent US8022994 die ungeraden und geraden Pixellinien unterschiedliche Belichtungszeiten, wodurch zwei Teilbilder gebildet werden, die hellere Bereiche bzw. dunklere Bereiche übertragen. Die Bildverarbeitung rekombiniert diese zwei Bilder, um ein einzelnes Bild mit größerer Dynamik zu erzeugen. Manchmal kann jedoch ein Datenverlust festgestellt werden, wenn die Belichtungszeiten nicht an die Leuchtkraft der Szene angepasst sind. Wenn die Pixel einer Untergruppe gesättigt oder unterbelichtet sind, sind sie nicht länger von Nutzen, und die Auflösung kann dann durch einen Faktor von bis zu zwei geteilt werden.
  • Methode 3 ist ähnlich zu Methode 2), außer dass Unterschiede in der Empfindlichkeit Unterschiede in den Belichtungszeiten ersetzen. Der Hauptvorteil dieser Methode besteht darin, dass es keine Zeitverschiebung zwischen den zwei Teilbildern gibt. In Verfahren 2) erzeugt die Verwendung von zwei Belichtungszeiten eine Zeitverschiebung zwischen den zwei Aufnahmen für die Untergruppen von Pixeln. Wenn sich ein Element in dem Erfassungsfeld in Bewegung befindet, wird es daher nicht an der gleichen Position in den zwei Teilbildern liegen. Methode 3) ermöglicht es, dieses Problem zu umgehen. Ein Nachteil dieses Verfahrens besteht jedoch darin, dass diese unterschiedlichen Empfindlichkeiten werksseitig festgelegt sind und später nicht mehr für die Anpassung an eine bestimmte Szene modifiziert werden können. Die Patentanmeldung EP2775525A1 gibt ein Beispiel für die Implementierung dieses Verfahrens.
  • Methode 4) fasst viele verschiedene Verfahren zusammen. Das Patent EP2186318 schlägt ein Pixel mit einer logarithmischen Antwort vor, die das Sättigungsphänomen praktisch überwindet. Die Patentanmeldung US20140103189A1 schlägt eine nichtlineare Kapazität in einem Ladungstransferpixel vor, die eine stückweise lineare Antwort erlaubt. Diese Pixel sind jedoch im Allgemeinen komplexer als ein einfaches aktives Pixel und auch voluminöser und sind nicht für Pixelanordnungen mit hoher Dichte und geringer Tonhöhe geeignet. Die von EP2186318 vorgeschlagene Lösung bleibt eine ausgezeichnete Lösung für Anordnungen mittlerer und niedriger Dichte (weniger als eine Million Pixel), da sie die Kontrolle der Belichtungszeit ohne irgendein Sättigungsproblem vollständig vermeidet.
  • Die 2a, 2b und 2c veranschaulichen die Beziehung zwischen Sensordynamik, Qualität und Belichtungszeit. 2a zeigt die Definition der Betriebsdynamik, indem die Abhängigkeit des Bildsignals von der Leuchtdichte der Elemente in dem Erfassungsfeld für eine gegebene Belichtungszeit gezeigt wird. Es ist zu sehen, dass das Bildsignal, das ein Pixel verlässt, mit der Leuchtdichte ansteigt und bei einem bestimmten hohen Wert gesättigt wird, der als der Sättigungswert bekannt ist. Ein Bildsignal kann beobachtet werden, wenn es das dunkle Rauschen des Pixels überschreitet. Der Dynamikbereich kann daher als der Luminanzbereich definiert werden, über den das Bildsignal, das das Pixel verlässt, zwischen dunklem Rauschen und Sättigung liegt.
  • 2b zeigt die Qualität eines Bildes, das beim Verlassen eines Pixels als Funktion der Leuchtdichte wahrgenommen wird. Wenn die Luminanz niedriger als der dynamische Bereich ist, kann das Bildsignal nicht von dunklem Rauschen unterschieden werden. Qualität ist daher Null. Im dynamischen Bereich verbessert sich die Bildqualität mit der Luminanz. Jenseits des dynamischen Bereichs. Die Qualität wird jedoch nach der Sättigung zu Null.
  • 2c zeigt die Bildqualität als eine Funktion der Leuchtdichte, wenn unterschiedliche Belichtungszeiten verwendet werden. Die erste Kurve 110 veranschaulicht die Bildqualität für eine erste, relativ lange Belichtungszeit t1 . Die zweite Kurve 112 veranschaulicht die Bildqualität für eine kürzere Belichtungszeit t2 als die Belichtungszeit t1 . Dies führt zu einem ersten Dynamikbereich 111, der der ersten Kurve 110 entspricht, und zu einem zweiten Dynamikbereich 113, der der zweiten Kurve 112 entspricht. Der zweite Dynamikbereich 113 ist aufgrund seiner kürzeren Belichtungszeit breiter als der erste Dynamikbereich 111 und entspricht höheren Leuchtdichtewerten.
  • Es wird festgestellt, dass die längere Belichtungszeit t1 die Vermeidung von dunklem Rauschen mit geringerer Luminanz ermöglicht, aber auch, dass die Sättigung mit weniger Luminanz erreicht wird. Eine kürzere Belichtungszeit wie t2 erzeugt gegenteilige Effekte. In 2c ist zu sehen, dass bei zwei Belichtungszeiten die Erfassungsdynamik erweitert wird, wenn die Belichtungszeiten korrekt konfiguriert sind. Wenn die Belichtungszeiten jedoch zu weit voneinander entfernt sind, kann ein Luminanz- «Loch» zwischen den jeweiligen dynamischen Bereichen, die den zwei Belichtungszeiten zugeordnet sind, gebildet werden.
  • Die Details der Elemente im Erfassungsfeld mit der Luminanz, die in dieses <<Loch>> fällt, gehen verloren.
  • Obwohl Sensoren, die mit mehreren Belichtungszeiten versehen sind, lange verfügbar waren, bleibt die Bilderfassungsleistung von Bildgebern unter schwierigen dynamischen Bedingungen unbefriedigend. Insbesondere erfordern aufkommende Anwendungen, die auf künstliche Intelligenz zurückgreifen, wie automatische Fahrzeugantriebe, assistiertes Fahren, automatische Überwachung usw., dass Bildaufnehmer in der Lage sind, unter allen Bedingungen eine qualitativ hochwertige Bilderfassung zu erhalten.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Es ist die Aufgabe der Erfindung, zumindest einige und vorzugsweise alle diese Nachteile zu überwinden, indem die Verwendung eines hochdynamischen Pixelsensors vorgeschlagen wird, wie er beispielsweise in EP2186318 beschrieben ist, um einen Satz optimierter Parameter für einen hochauflösenden Sensor zu bestimmen.
  • Es wird daher ein Bildgebersystem vorgeschlagen, das einen Hauptbildsensor mit einem ersten Erfassungsfeld und einem Hauptfeld aktiver Pixel mit einem ersten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit und einer Hauptausleseschaltung, die angepasst ist, um die Pixel des Hauptbildsensors nach der Belichtung der Pixel zu lesen und ein Hauptbild von der Auslesung zu erfassen, wobei das Bildaufnahmesystem umfasst:
    • - einen Hilfsbildsensor mit einem zweiten Erfassungsfeld, das das erste Erfassungsfeld zumindest teilweise abdeckt und eine zweite Anordnung von aktiven Pixeln umfasst, das einen zweiten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit aufweist, der breiter ist als der erste augenblickliche dynamische Bereich der Lichtempfindlichkeit, und eine Hilfsausleseschaltung, die dazu ausgelegt ist, die aktiven Pixel des Hilfsbildsensors nach Belichtung der aktiven Pixel zu lesen und ein Hilfsbild von dem Auslesewert zu erfassen; und
    • - eine Datenverarbeitungseinheit, die konfiguriert ist, um aus dem Hilfsbild mindestens einen Wert eines Erfassungsparameters für den Hauptbildsensor zu bestimmen.
  • Der Hilfsbildsensor ermöglicht die Erfassung eines Hilfsbildes mit geringer oder keiner Sättigung oder Unterbelichtung (mittels eines breiteren dynamischen Funktionsbereichs), wodurch eine optimale Ermittlung eines Aufnahmeparameters für den Hauptbildsensor ermöglicht wird, so dass Aufnahmebedingungen des Hauptbildes am besten an die Szene in dem Erfassungsfeld angepasst werden.
  • Dieses Bildaufnahmesystem wird vorteilhafterweise durch die folgenden Merkmale vervollständigt, die für sich genommen oder in einer beliebigen technisch möglichen Kombination davon gelten:
    • - die Datenverarbeitungseinheit eingerichtet ist, eine räumliche Helligkeitsverteilung in dem Hilfsbild zu ermitteln, und die Datenverarbeitungseinheit ausgebildet ist, - als Akquisitionsparameter des Hauptbildes - mindestens die Belichtungszeit der aktiven Pixel des Hauptbildsensors und/oder eine Verstärkungsverstärkung der mittleren Ausleseschaltung aus der räumlichen Helligkeitsverteilung im Hilfsbild;
    • - die Breite des zweiten momentanen dynamischen Bereichs der Lichtempfindlichkeit ist zweimal größer als die Breite des ersten augenblicklichen dynamischen Bereichs der Lichtempfindlichkeit;
    • - die Hauptanordnung des Hauptbildsensors hat eine Pixeldichte, die zweimal höher ist als die Dichte der aktiven Pixel der Anordnung aktiver Pixel des Hilfsbildsensors;
    • - die Pixel der Hauptanordnung des Hauptbildsensors und die aktiven Pixel der Hilfsanordnung des Hilfsbildsensors sind auf der Oberfläche desselben Substrats verschachtelt;
    • - die Pixel der Hauptanordnung des Hauptbildsensors sind auf einem ersten Substrat angeordnet und die aktiven Pixel der Hilfsanordnung des Hilfsbildsensors sind auf einem zweiten Substrat getrennt von dem ersten Substrat angeordnet;
    • - der Hilfsbildsensor hat eine nichtlineare Spannungsantwort auf die Belichtung in dem ersten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit;
    • - die aktiven Pixel des Hilfsbildsensors haben eine periodische räumliche Verteilung;
    • - die aktiven Pixel des Hilfsbildsensors sind Pixel mit logarithmischer Antwort;
    • - die aktiven Pixel des Hilfsbildsensors sind Pixel, die einen Zähler aufweisen, der dafür ausgelegt ist, bei Belichtung Ladungen zu akkumulieren und die Anzahl zu zählen, mit der die Ladungsakkumulation einen Akkumulationsrücksetzschwellenwert erreicht;
    • - die aktiven Pixel des Hilfsbildsensors sind Entladungspixel, die dazu geeignet sind, bei Belichtung für eine Entladezeit zu entladen, die eine Funktion der Leuchtdichte der Belichtung ist;
    • - der Hilfsbildsensor ist mit einer Farbfilteranordnung versehen, und die Datenverarbeitungseinheit ist konfiguriert, um zumindest den Weißabgleich von dem Hilfsbild als Erfassungsparameter für das Hauptbild zu bestimmen;
    • - die Datenverarbeitungseinheit ist dazu eingerichtet, mehrere verschiedene Werte eines Erfassungsparameters für den Hauptbildsensor aus dem Hilfsbild zu bestimmen, und der Hauptbildsensor ist konfiguriert, um mehrere Hauptbilder unter Verwendung eines unterschiedlichen Werts des Erfassungsparameters für jedes der Hauptbilder zu erfassen.
  • Die Erfindung betrifft auch ein Verfahren zum Erfassen eines Bildes mittels eines Bilderzeugungssystems gemäß der Erfindung, wobei das Verfahren die folgenden Schritte umfasst:
    • - der Hilfsbildsensor erfasst ein Hilfsbild,
    • - die Datenverarbeitungseinheit ermittelt mindestens einen Wert eines Erfassungsparameters für den Hauptbildsensor aus dem Hilfsbild,
    • - der Hauptbildsensor erfasst mindestens ein Hauptbild unter Verwendung des Werts des Erfassungsparameters.
  • In einer Ausführungsform bestimmt die Datenverarbeitungseinheit mehrere verschiedene Werte eines Erfassungsparameters für den Hauptbildsensor aus dem Hilfsbild, und der Hauptbildsensor erfasst mehrere Hauptbilder unter Verwendung eines unterschiedlichen Werts des Erfassungsparameters für jedes der Hauptbilder.
  • PRÄSENTATION DER FIGUREN
  • Die Erfindung wird anhand der folgenden Beschreibung besser verstanden, die sich auf Ausführungsformen und Varianten der vorliegenden Erfindung bezieht, die als nicht einschränkende Beispiele gegeben und unter Bezugnahme auf die beigefügten schematischen Zeichnungen erläutert werden, in denen:
    • - die bereits diskutierten 1a, 1b, 1c veranschaulichen die Mehrfachbelichtungstechnik mittels einer Konturkurve eines beispielhaften Histogramms der Leuchtdichteverteilung in einem Erfassungsfeld;
    • - die bereits diskutierten 2a, 2b, 2c veranschaulichen die Antwort eines Pixels mit linearer photoelektrischer Antwort und die Definition des dynamischen Funktionsbereichs, die Bildqualität mit einer gegebenen Belichtungszeit und Änderungen der Bildqualität als eine Funktion der Belichtungszeit;
    • - 3 veranschaulicht schematisch ein Bilderzeugungssystem gemäß einer möglichen Ausführungsform der Erfindung, bei dem die zwei Sensoren nebeneinander angeordnet und auf unterschiedlichen Substraten ausgebildet sind;
    • - 4 veranschaulicht schematisch ein Bilderzeugungssystem gemäß einer möglichen Ausführungsform der Erfindung, bei der die zwei Sensoren Felder von aktiven Pixeln aufweisen, die miteinander verschachtelt sind;
    • - 5 zeigt schematisch ein Detail eines Beispiels einer Verschachtelung zwischen den zwei Anordnungen aktiver Pixel;
    • - 6 veranschaulicht schematisch eine beispielhafte Struktur eines Beispiels einer aktiven Pixelschaltung, die mit einem Zähler versehen ist;
    • - 7 zeigt schematisch Beispiele von Ladungsabnahmekurven in einem aktiven Pixel;
    • - Die 8a, 8b, 8c veranschaulichen die Implementierung einer Ausführungsform der Erfindung in dem in den 1a bis 1c dargestellten Fall.
  • In allen Figuren sind ähnliche Elemente mit den gleichen Bezugszeichen bezeichnet.
  • DETAILLIERTE BESCHREIBUNG
  • In der vorliegenden Beschreibung ist mit Bild eine Menge von Daten gemeint, die eine räumlich verteilte Darstellung in zwei Dimensionen von mindestens einer optischen Eigenschaft, typischerweise Leuchtdichte, von Elementen in einer Szene darstellt, wobei die Daten räumlich gemäß der räumlichen Darstellung organisiert sind. In der folgenden Beschreibung besteht das Hauptfeld des Hauptbildsensors aus aktiven Pixeln. Andere Konfigurationen können verwendet werden, zum Beispiel mit anderen Pixeln als aktiven Pixeln für das Hauptfeld.
  • Bezugnehmend auf 3, die ein Beispiel eines Bilderzeugungssystems gemäß einer möglichen Ausführungsform der Erfindung darstellt, umfasst das Bilderzeugungssystem einen Hauptbildsensor 1 mit einem Hauptfeld 2 aus aktiven Pixeln mit einem ersten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit. Das Bildgebersystem umfasst auch eine Hauptausleseschaltung, die angepasst ist, um die aktiven Pixel des Hauptbildsensors 1 nach der Belichtung der aktiven Pixel zu lesen und ein Hauptbild von dem Auslesewert zu erfassen.
  • Der Hauptbildsensor kann insbesondere ein Sensor sein, der mit einer möglichen Implementierung von Mehrfachbelichtungszeiten versehen ist, die entweder als separate Schüsse implementiert und in einem einzigen Schuss gemäß den oben dargelegten Bedingungen zusammengemischt werden können, insbesondere für die bereits erwähnten Verfahren 1) und 2).
  • Jedes aktive Pixel umfasst einen Photodetektor, z.B. eine Photodiode, und einen aktiven Verstärker. Es kann ein herkömmliches Drei-Transistor-, Vier-Transistor-Aktivpixel oder eine andere Konfiguration sein. Aus Gründen der Kompaktheit ist vorzugsweise jedes aktive Pixel ein Vier-Transistor-Pixel, dessen Ausgangsverstärker von mehreren Photodioden gemeinsam genutzt wird.
  • Der Hauptbildsensor 1 umfasst auch eine Optik 3, die übliche Komponenten zur Bilderfassung umfasst, wie beispielsweise eine Linse 4 oder eine Linsenanordnung 5, die mit einer Blende oder einem Verschluss ausgestattet ist. Die Optik 3 kann insbesondere durch Erfassungsparameter wie Belichtungszeit oder Blendenöffnung gesteuert werden, die die von den aktiven Pixeln empfangene Lichtmenge steuern.
  • Der Hauptbildsensor 1 weist ein erstes Erfassungsfeld 6 auf, das von der Optik 3 ausgeht. Im Erfassungsfeld 6 gibt es eine Szene, die aus verschiedenen Elementen unterschiedlicher Helligkeit besteht. Wenn die aktiven Pixel der Hauptanordnung 2 belichtet werden, tritt das von diesen verschiedenen Elementen der Szene emittierte/reflektierte Licht durch die Optik 3 und erreicht die aktiven Pixel der Hauptanordnung 2. Die Menge an einfallendem Licht auf die aktiven Pixel hängt von der Belichtungszeit und den Eigenschaften der Optik 3 und insbesondere von der Öffnungsgröße ab.
  • Die Hauptanordnung 2 ist auf einem Substrat 7 gebildet, das typischerweise die Hauptausleseschaltung enthält. Die elektrischen Eigenschaften der aktiven Pixel variieren mit der Menge an einfallendem Licht während der Belichtung. Beim Auslesen dieser aktiven Pixel misst die Hauptausleseschaltung die elektrischen Eigenschaften jedes aktiven Pixels und erhält dadurch ein Hauptbild, das die Menge an einfallendem Licht auf jedem aktiven Pixel darstellt.
  • Das Bilderzeugungssystem umfasst auch einen Hilfsbildsensor 11 mit einem zweiten Erfassungsfeld 16, das das erste Erfassungsfeld 6 zumindest teilweise überlappt. Es ist bevorzugt, dass das erste Erfassungsfeld 6 und das zweite Erfassungsfeld 16 eine maximale Übereinstimmung aufweisen, beispielsweise mehr als 80%, insbesondere mehr als zehn Zentimeter von dem Bildaufnahmesystem, was im Allgemeinen ein minimaler Abstand für die Bilderfassung ist. Eine gute Überlagerung der Erfassungsfelder kann erhalten werden, indem die Sensoren nebeneinander mit parallelen oder konvergierenden optischen Achsen angeordnet werden. Vorzugsweise können das zweite Erfassungsfeld 16 und das erste Erfassungsfeld gleich sein, was durch Verwenden der gleichen Optik für die zwei Sensoren 1, 11 und insbesondere durch Verwenden einer Bildrückgabevorrichtung wie eines Spiegels erhalten werden kann.
  • Die zweite Anordnung 12 von aktiven Pixeln hat einen zweiten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit, der breiter ist als der erste augenblickliche dynamische Bereich der Lichtempfindlichkeit. Vorzugsweise ist die Breite des zweiten momentanen dynamischen Bereichs der Lichtempfindlichkeit zweimal größer als die Breite des ersten augenblicklichen dynamischen Bereichs der Lichtempfindlichkeit und weiter bevorzugt Zehnmal der Breite des ersten augenblicklichen dynamischen Bereichs der Lichtempfindlichkeit.
  • Die Breite eines augenblicklichen dynamischen Bereichs der Lichtempfindlichkeit kann einfach bestimmt werden, indem deren Grenzen mit festen Erfassungsparametern nachgewiesen werden. Für die untere Grenze wird zuerst das Rauschen bestimmt, das den Sensor unter Testbedingungen beeinflusst: der Sensor wird im Dunkeln platziert, ein Bild wird erfasst und aus den Werten der Pixel in dem erfassten Bild wird ein Rauschpegel statistisch bestimmt. Die untere Grenze des momentanen dynamischen Bereichs der Lichtempfindlichkeit entspricht der Luminanz der Elemente in dem Erfassungsfeld, wodurch ein Pixelwert, der höher als dieser Rauschpegel ist, erhalten werden kann.
  • Die obere Grenze entspricht der Luminanz der Elemente in dem Erfassungsfeld, auf und an denen die aktiven Pixel zu sättigen beginnen. Es ist auch möglich, auf die momentane Dynamik der aktiven Pixel durch Berechnen des Verhältnisses der beiden Grenzen, die wie oben erläutert bestimmt wurden, zu schließen.
  • Der Hilfsbildsensor 11 umfasst auch eine Optik 13 mit üblichen Komponenten zur Bilderfassung, wie zum Beispiel eine Linse 14 oder eine Linsenanordnung 15, die mit einer Blende oder einem Verschluss ausgestattet ist. Die Optik 13 kann insbesondere durch Aufnahmeparameter wie Belichtungszeit oder Blendenöffnung gesteuert werden, die die von den aktiven Pixeln empfangene Lichtmenge steuern. Eine vereinfachte Optik mit einer Linse mit fester Apertur kann jedoch ausreichen.
  • Ähnlich wie der erste Sensor 1 weist der zweite Sensor eine Hilfsausleseschaltung auf, die dazu ausgelegt ist, die aktiven Pixel des Hilfsbildsensors 11 nach der Belichtung der aktiven Pixel zu lesen und ein Hilfsbild von dem Auslesewert zu erfassen. Ähnlich wie der Hauptbildsensor 1 ist die Hilfsanordnung 12 auf einem Substrat 17 ausgebildet, das typischerweise die Hilfsausleseschaltung aufweist. Die elektrischen Eigenschaften der aktiven Pixel variieren mit der Menge an einfallendem Licht während der Belichtung. Beim Lesen dieser aktiven Pixel misst die Hilfsausleseschaltung die elektrischen Eigenschaften jedes aktiven Pixels und erhält dadurch das Hilfsbild, das die Menge an einfallendem Licht auf jedem aktiven Pixel darstellt.
  • Der Hilfsbildsensor 11 wird daher verwendet, um vor dem Erfassen eines Hauptbildes durch den Hauptbildsensor 1 ein Hilfsbild zu erfassen, so dass aus diesem Hilfsbild mindestens ein Aufnahmeparameter für den Hauptbildsensor ermittelt wird und zum Erfassen des Hauptbildes verwendet werden kann.
  • Zu diesem Zweck umfasst das Abbildungssystem auch eine Datenverarbeitungseinheit 10, die eingerichtet ist, aus dem Hilfsbild mindestens einen Wert eines Erfassungsparameters für den Hauptbildsensor zu ermitteln. Zum Beispiel kann dieser Erfassungsparameter die Belichtungszeit und/oder die Blendenöffnung und/oder die Verstärkungsverstärkung der Hauptausleseschaltung und/oder die optische Dämpfung eines optischen Abschwächers und/oder den Weißabgleich sein. Die Verarbeitungseinheit 10 ist daher sowohl mit dem Hilfsbildsensor 11 verbunden, um das Hilfsbild zu empfangen, und mit dem Hauptbildsensor 1, um diesen mit dem Wert des Erfassungsparameters zu versorgen.
  • Insbesondere kann die Datenverarbeitungseinheit 10 eingerichtet sein, um eine räumliche Helligkeitsverteilung im Hilfsbild zu bestimmen und als Wert des Erfassungsparameters des Hauptbildes mindestens eine Belichtungszeit der aktiven Pixel des Hauptbildsensors 1 und/oder eine Verstärkungsverstärkung der Hauptausleseschaltung aus der aus dem Hilfsbild abgeleiteten räumlichen Helligkeitsverteilung.
  • Das Verfahren zum Erfassen eines Bildes mittels eines Abbildungssystems gemäß einer der möglichen Ausführungsformen umfasst daher die Schritte, wobei:
    • - der Hilfsbildsensor 11 erfasst ein Hilfsbild,
    • - die Datenverarbeitungseinheit 10 bestimmt aus dem Hilfsbild mindestens einen Wert eines Erfassungsparameters für den Hauptbildsensor 1,
    • - der Hauptbildsensor 1 erfasst ein Hauptbild unter Verwendung des Werts des Erfassungsparameters.
  • Insofern das Hilfsbild im Wesentlichen verwendet wird, um den Wert eines Erfassungsparameters für den Hauptbildsensor 1 zu bestimmen, muss die Auflösung des Hilfsbildes nicht so hoch wie die Auflösung des Hauptbildes sein. Daraus folgt, dass die Dichte der aktiven Pixel in dem Hilfsbildsensor 11 nicht so hoch sein muss wie die Dichte der aktiven Pixel in dem Hauptbildsensor 1.
  • Daher kann das Hauptfeld 2 des Hauptbildsensors 1 eine Dichte aktiver Pixel aufweisen, die zweimal höher ist als die Dichte der aktiven Pixel in dem Feld 12 aktiver Pixel des Hilfsbildsensors 11, sogar vorzugsweise Zehnmal höher als die Dichte der aktiven Pixel in der Anordnung 12 von aktiven Pixeln des Hilfsbildsensors 11. In Bezug auf die Anzahl von Pixeln kann die Hauptanordnung 2 des Hauptbildsensors 1 eine Anzahl von aktiven Pixeln aufweisen, die höher als das Zehnfache der Anzahl aktiver Pixel in der Anordnung 12 von aktiven Pixeln des Hilfsbildsensors 11 ist, sogar vorzugsweise mehr als das Hundertfache der Anzahl von aktiven Pixeln in der Anordnung 12 von aktiven Pixeln des Hilfsbildsensors 11.
  • Eine geringe Auflösung für das Hilfsbild reduziert die Bearbeitungslast der Verarbeitungseinheit und ermöglicht somit insbesondere eine beschleunigte Analyse des Hilfsbildes. Diese niedrige Auflösung ermöglicht auch die vorteilhafte Verwendung von logarithmischen Pixeln ohne Sättigung und ohne Kontrolle über Bilderfassungsparameter, wie sie durch das Patent EP2186318 vorgeschlagen werden.
  • Der Hilfsbildsensor 11 hat jedoch eine ausreichende Auflösung, um eine Feinanalyse des Hilfsbildes zu ermöglichen. Daher weist die Anordnung 12 von aktiven Pixeln in dem Hilfsbildsensor 11 vorzugsweise eine Anzahl von aktiven Pixeln auf, die höher als 320 × 240 Pixel und vorzugsweise höher als ein Tausendstel, sogar ein Hundertstel der aktiven Pixel in der Hauptanordnung 2 des Hauptbildsensors 1.
  • Es ist möglich, den Hilfsbildsensor mit einer Farbfilteranordnung(CFA) zu versehen. Diese Farbfilteranordnung besteht aus kleinen Farbfiltern, die vor den lichtempfindlichen Elementen der aktiven Pixel des Hilfsbildsensors angeordnet sind. Es ist dann möglich, die Verteilung der Leuchtdichte in verschiedenen Farben zu bestimmen. In diesem Fall kann die Datenverarbeitungseinheit 10 konfiguriert sein, um zumindest den Weißabgleich aus dem Hilfsbild als Erfassungsparameter für das Hauptbild zu bestimmen.
  • In dem Beispiel in 3 sind der Hauptbildsensor 1 und der Hilfsbildsensor 11 räumlich getrennt und Seite an Seite gezeigt. Die aktiven Pixel der Hauptanordnung 2 des Hauptbildsensors 1 sind auf einem ersten Substrat 7 angeordnet und die aktiven Pixel der Hilfsanordnung 12 des Hilfsbildsensors 1 sind auf einem zweiten Substrat 17 getrennt von dem ersten Substrat 7 angeordnet. Diese Konfiguration hat den Vorteil, dass mit Haupt- und Hilfssensoren unterschiedlicher Hersteller gearbeitet werden kann.
  • Diese Konfiguration ist jedoch nicht notwendig Um die Struktur des Bilderzeugungssystems zu vereinfachen, und unter Bezugnahme auf 4 und 5, ist es möglich, zu bestimmen, welche von den aktiven Pixeln 30 der Hauptanordnung 2 des Hauptbildsensors 1 und der aktiven Pixel 32 des Hilfsfeldes 12 des Hilfsbildsensors 11 auf der Oberfläche desselben Substrats 23 zu verschachteln sind. Die Hauptanordnung 2 und Die Hauptanordnung 12 liegen dann in einer gleichen Ebene. Die Hauptanordnung 2 und die Hilfsanordnung 12 bilden dann eine gemeinsame Anordnung 22.
  • Die zwei Sensoren 1, 11 mit verschachtelten Anordnungen teilen die gleiche gemeinsame Optik 23, beispielsweise mit einer gemeinsamen Linse 24 und einer gemeinsamen Linsenanordnung 24, und daher das gleiche gemeinsame Erfassungsfeld 26, das daher sowohl das erste Erfassungsfeld als auch das zweite Erfassungsfeld bildet. Jeder Bildsensor 1, 11 kann jedoch eine Ausleseschaltung aufrechterhalten, die ihren jeweiligen aktiven Pixeln zugeordnet ist.
  • 5 zeigt ein Beispiel für die Organisation der aktiven Pixel in diesem Fall. Ein Beispiel für die räumliche Organisation der aktiven Pixel 30, 32 in dem gemeinsamen Anordnungen 22 ist darin dargestellt. Die ersten aktiven Pixel 30 entsprechen den aktiven Pixeln des Hauptanordnung 2 des Hauptbildsensors 1, während zweite aktive Pixel 32 den aktiven Pixeln der Hilfsanordnung 12 des Hilfsbildsensors 11 entsprechen und zwischen aktiven Pixeln 30 des Hauptbildsensors 11 verteilt sind. Es ist anzumerken, dass die zweiten aktiven Pixel 32 hier größer als die ersten aktiven Pixel 30 gezeigt sind, was für hochdynamische aktive Pixel üblich ist. Dies ist jedoch nicht zwingend, und die zweiten aktiven Pixel 32 könnten beispielsweise ähnlich groß wie die ersten aktiven Pixel 30 sein.
  • Wie zuvor ist anzumerken, dass die Anzahl der aktiven Pixel 30 des Hauptbildsensors 1 viel höher, mindestens zweimal höher und vorzugsweise mindestens Zehnmal höher als die Anzahl der aktiven Pixel 32 des Hilfsbildsensors 11 ist. Vorzugsweise sind die aktiven Pixel 32 des Hilfsbildsensors 11 nicht benachbart zueinander, sondern sind durch aktive Pixel 30 des Hauptbildsensors 11 voneinander isoliert. Außerdem weisen die aktiven Pixel 32 des Hilfsbildsensors 12 vorzugsweise eine aperiodische räumliche Verteilung auf, um die Erzeugung geometrischer Effekte, wie beispielsweise eines Moire-Effekts, zu verhindern, und weisen daher keine symmetrische Verteilung innerhalb der aktiven Pixel 30 des Hauptbildsensors 11 auf.
  • Wie oben angegeben, sind die aktiven Pixel des Hauptbildsensors 1 von dem Typ, der üblicherweise in Bildgebern verwendet wird, um hochauflösende Bilder zu erhalten, beispielsweise aktive Drei-Transistor- oder Vier-Transistor-Pixel. Die aktiven Pixel 30 des Hauptbildsensors 1 und die aktiven Pixel 32 des Hilfsbildsensors 11 unterscheiden sich in ihren verschiedenen augenblicklichen dynamischen Bereichen der Lichtempfindlichkeit.
  • Um aktive Pixel 32 des Hilfsbildsensors 11 mit einem zweiten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit zu erhalten, der wesentlich breiter ist als der der aktiven Pixel 30 des Hauptbildsensors 1, sind verschiedene Lösungen möglich.
  • Während der Hauptbildsensor 1 im allgemeinen eine lineare Spannungsantwort zumindest teilweise auf die Belichtung in dem ersten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit hat, weist der Hilfsbildsensor 2 vorzugsweise eine nichtlineare Spannungsantwort auf die Belichtung in dem ersten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit auf.
  • Es ist möglich, diese Nichtlinearität zu erhalten, indem Pixel mit logarithmischer Antwort als aktive Pixel 32 des Hilfsbildsensors 12 verwendet werden. Zum Beispiel schlägt das Patent EP2186318 eine aktive Pixelstruktur vom CMOS-Typ vor, die verwendet werden kann. Andere Konfigurationen logarithmischer Antwortpixel können verwendet werden. Da die aktiven Pixel eine logarithmische Antwort haben, ändert sich ihre Reaktion kaum mit der Helligkeit, und daher kann eine Sättigung verhindert werden. Auf diese Weise kann ein nahezu unendlicher augenblicklicher dynamischer Bereich der Lichtempfindlichkeit erhalten werden.
  • 6 zeigt ein Beispiel einer anderen Möglichkeit. Das aktive Pixel des Hilfsbildsensors 11 ist hier ein Pixel mit einem Zähler, der angepasst ist, Ladungen bei der Belichtung zu akkumulieren und die Anzahl von Malen zu zählen, wenn die Ladungsakkumulation eine Akkumulationsrücksetzschwelle erreicht. Eine Photodiode 50 ist über einen Knoten 51 mit dem Drain eines Reset-Transistors 52 verbunden. Ein Integrator 53 ist mit dem Knoten 51 verbunden und integriert die Spannung an den Anschlüssen der Photodiode 50. Das Ergebnis dieser Integration wird an das Tor des Transistors 52 angelegt. Wenn das Ergebnis der Integration einen ausreichenden Wert erreicht, wird der Transistor 52 leitend und setzt die Photodiode 53 zurück. Ein Zähler 54, der konfiguriert ist, um die Anzahl von Malen zu zählen, die ein Schwellenwert überschritten wird, gibt Information über die Anzahl von Zyklen. Andere Konfigurationen sind offensichtlich möglich, insbesondere um die Schwelle oder Rückstellung anzupassen. Die Publikation <<Architekturen für hohe Dynamikbereiche, Hochgeschwindigkeits-Bildsensor-Ausleseschaltunge>> von S. Kavusi et al in <<Internationale IFIP-Konferenz 2006 über sehr große Integration>> gibt weitere technische Details zu diesem Typ Pixel mit hoher dynamischer Funktion.
  • 7 zeigt einen weiteren Ansatz, bei dem die aktiven Pixel 32 des Hilfsbildsensors 12 Entladungspixel sind, die bei Belichtung für eine Entladungszeit entladen werden, die eine Funktion der Belichtungshelligkeit ist. Hier sind zwei Beispiele von Entladungen 61, 62 veranschaulicht, die jeweils der Belichtung mit starker Luminanz und Belichtung mit geringer Luminanz entsprechen.
  • Bei der ersten Belichtung, bei starker Leuchtdichte, erfolgt die Entladung 61 schnell, so dass die Ladungsschwelle 60 bald nach einer kurzen Zeit t1 erreicht wird. Bei der zweiten Belichtung zu geringer Luminanz tritt die Entladung 62 langsamer auf, so dass die Ladungsschwelle 60 nach einer Zeit t2 länger als die Zeit t1 erreicht wird. Das Signal, das der Leuchtdichte der Belichtung entspricht, kann dann als proportional zu der Umkehrung der Entladezeit bestimmt werden. Daher ist das Signal zur Belichtung mit starker Leuchtdichte 1/t1 größer als das Signal zur Belichtung mit niedriger Leuchtdichte 1/t2. Hohe Dynamik ist möglich, wenn das Timing ausreichend fein abgestimmt ist.
  • Weitere technische Lösungen zur Erweiterung des Dynamikbereichs finden sich beispielsweise in der Arbeit „High Dynamic Range Imaging: Sensors and Architectures“ von Arnaud Darmont, 2013, ISBN 9780819488305.
  • Die große Breite des zweiten momentanen Dynamikbereichs der Lichtempfindlichkeit ermöglicht eine verbesserte Aufnahme des Hauptbildes mittels des Hilfsbildes. Zu diesem Zweck ist die Datenverarbeitungseinheit 10 eingerichtet, aus dem Hilfsbild mindestens einen Wert eines Erfassungsparameters für den Hauptbildsensor zu ermitteln.
  • Es ist auch möglich, mehrere Hauptbilder von demselben Hilfsbild zu erfassen. Zu diesem Zweck ist die Datenverarbeitungseinheit 10 konfiguriert, mehrere verschiedene Werte eines Erfassungsparameters für den Hauptbildsensor 1 von dem Hilfssensor zu bestimmen, und der Hauptbildsensor ist konfiguriert, um mehrere Hauptbilder unter Verwendung eines unterschiedlichen Werts des Erfassungsparameters für jedes der Hauptbilder zu erfassen.
  • Die 8a, 8b und 8 reproduzieren den in den 1a bis 1c dargestellten Fall, indem sie ein Beispiel einer Ausführungsform der Erfindung anwenden, bei der zwei Hauptbilder unter Verwendung verschiedener Werte eines gleichen Aufnahmeparameters, ermittelt aus dem gleichen Hilfsbild, aufgenommen werden.
  • 8a zeigt die Erfassung des Hilfsbildes durch den Hilfsbildsensor 11. Aufgrund ihres breiten augenblicklichen dynamischen Bereichs der Lichtempfindlichkeit 70 sind die aktiven Pixel des Hilfsbildsensors 11 in der Lage, das Licht von allen in dem zweiten Erfassungsfeld 16 enthaltenen Elementen zu erfassen, unabhängig davon, ob diese Elemente zu dem ersten Teil 100 mit niedriger Luminanz oder zu dem zweiten Teil 101 mit hoher Luminanz gehören. Das Hilfsbild, das sich aus dieser Erfassung ergibt, wird durch die Verarbeitungseinheit 10 analysiert, die in der Lage ist, die zwei durch die Abschnitte 100 und 101 gebildeten Anordnungen zu identifizieren.
  • Die Verarbeitungseinheit bestimmt dann mindestens einen Wert eines Erfassungsparameters, so dass der erste momentane dynamische Bereich der Lichtempfindlichkeit 71 der aktiven Pixel des Hauptbildsensors am besten der Helligkeit der zu dem ersten Abschnitt 100 gehörenden Elemente entspricht, wie in 8b dargestellt. Es ist hier zu sehen, dass der erste augenblickliche dynamische Bereich der Lichtempfindlichkeit 71 nur den Teil der Luminanz 103 kaum abdeckt, der von keinem Element gezeigt wird. Ein erstes Hauptbild kann daher für die Elemente mit der dem ersten Teil 100 entsprechenden Leuchtdichte erhalten werden.
  • Aus dem gleichen Hilfsbild ermittelt die Verarbeitungseinheit auch mindestens einen Akquisitionsparameter, so dass der erste momentane Dynamikbereich der Lichtempfindlichkeit 71 der aktiven Pixel des Hauptbildsensors am besten der Leuchtdichte der zum Bereich 101 gehörenden Elemente entspricht, wie in 8c dargestellt. Es ist hier zu sehen, dass der erste momentane dynamische Bereich der Lichtempfindlichkeit 71 auf dem zweiten Abschnitt 101 zentriert ist, den er abdeckt. Daher gibt es weder eine Sättigung der aktiven Pixel noch eine Überlappung der Luminanzabschnitte 103, 105, die kein Element enthalten. Ein zweites Hauptbild kann daher erhalten werden.
  • Mit der Erfindung war es somit möglich, mit zwei Hauptbildern alle Elemente in dem ersten Erfassungsfeld 6 zu erfassen, wodurch sichergestellt wird, dass keine Pixelsättigung und somit kein Informationsverlust vorliegt.
  • Es ist zu sehen, dass diese zwei Belichtungen tatsächlich ein «Loch» in der Luminanzskala zwischen den dynamischen Bereichen in den 8b und 8c bilden. Dieses Loch ist jedoch in dem Bereich der Luminanz 103, in dem kein Element vorhanden ist, durch die Analyse des hochdynamischen Hilfsbildes sinnvoll positioniert. Das Ergebnis ist eine optimale Nutzung von Bildaufnahmen und somit eine Zeit- und Ressourcenersparnis.
  • Die Erfindung ist nicht auf die in den beigefügten Figuren beschriebene und dargestellte Ausführungsform beschränkt. Änderungen bleiben möglich, insbesondere hinsichtlich der Zusammensetzung der verschiedenen Elemente oder durch Substitution technischer Äquivalente, ohne den Schutzbereich der Erfindung zu verlassen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2008/0094481 A1 [0009]
    • US 8022994 [0022]
    • EP 2775525 A1 [0023]
    • EP 2186318 [0024, 0031, 0058, 0069]
    • US 20140103189 A1 [0024]

Claims (15)

  1. Abbildungssystem mit einem Hauptbildsensor (1) mit einem ersten Erfassungsfeld (6) und einer Hauptanordnung (2) aus aktiven Pixeln mit einem ersten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit und eine Hauptausleseschaltung, die angepasst ist, um die Pixel des Hauptbildsensors (1) nach dem Belichten der Pixel zu lesen und ein Hauptbild von dem Auslesen zu erfassen, dadurch gekennzeichnet, dass das Bildgebersystem umfasst: - einen Hilfsbildsensor (11) mit einem zweiten Erfassungsfeld (16), das das erste Erfassungsfeld zumindest teilweise abdeckt und umfasst eine zweite Anordnung (12) aus aktiven Pixeln mit einem zweiten augenblicklichen dynamischen Bereich der Lichtempfindlichkeit, der breiter als der erste augenblickliche dynamische Bereich der Lichtempfindlichkeit und eine Hilfsausleseschaltung, die angepasst ist, um die aktiven Pixel des Hilfsbildsensors (11) nach der Belichtung der aktiven Pixel zu lesen und ein Hilfsbild von dem ausgelesenen Bild zu erfassen, und - eine Datenverarbeitungseinheit (10), die konfiguriert ist, um aus dem Hilfsbild mindestens einen Wert eines Erfassungsparameters für den Hauptbildsensor zu bestimmen.
  2. Abbildungssystem nach Anspruch 1, wobei die Datenverarbeitungseinheit (10) konfiguriert ist, um eine räumliche Helligkeitsverteilung in dem Hilfsbild zu bestimmen, wobei die Datenverarbeitungseinheit (10) eingerichtet ist, als Akquisitionsparameter des Hauptbildes zumindest die Belichtungszeit der aktiven Pixel des Hauptbildsensors (1) und/oder eine Verstärkungsverstärkung der Hauptausleseschaltung aus der räumlichen Helligkeitsverteilung im Hilfsbild.
  3. Abbildungssystem nach einem der vorhergehenden Ansprüche, wobei die Breite des zweiten momentanen dynamischen Bereichs der Lichtempfindlichkeit zweimal größer ist als die Breite des ersten augenblicklichen dynamischen Bereichs der Lichtempfindlichkeit.
  4. Abbildungssystem nach einem der vorhergehenden Ansprüche, wobei die Hauptanordnung (2) des Hauptbildsensors (1) eine Pixeldichte aufweist, die zweimal höher ist als die Dichte der aktiven Pixel der Anordnung (12) aktiver Pixel des Hilfsbildsensors (11).
  5. Abbildungssystem nach einem der vorhergehenden Ansprüche, wobei die Pixel (30) der Hauptanordnung (2) des Hauptbildsensors (1) und die aktiven Pixel (32) der Hilfsanordnung (12) des Hilfsbildsensors (11) auf der Oberfläche desselben Substrats verschachtelt sind.
  6. Abbildungssystem nach einem der Ansprüche 1 bis 4, wobei die Pixel (30) der Hauptanordnung (2) des Hauptbildsensors (1) auf einem ersten Substrat (7) angeordnet sind und die aktiven Pixel (32) der Hilfsanordnung (12) des Hilfsbildsensors (1) auf einem zweiten Substrat (17) getrennt von dem ersten Substrat (7) angeordnet sind.
  7. Abbildungssystem nach einem der vorhergehenden Ansprüche, wobei der Hilfsbildsensor (2) eine nichtlineare Spannungsantwort auf die Belichtung in dem ersten momentanen dynamischen Bereich der Lichtempfindlichkeit aufweist.
  8. Abbildungssystem nach einem der vorhergehenden Ansprüche, wobei die aktiven Pixel (32) des Hilfsbildsensors (12) eine periodische räumliche Verteilung aufweisen.
  9. Abbildungssystem nach einem der vorhergehenden Ansprüche, wobei die aktiven Pixel (32) des Hilfsbildsensors (12) Pixel mit logarithmischer Antwort sind.
  10. Abbildungssystem nach einem der Ansprüche 1 bis 8, wobei die aktiven Pixel (32) des Hilfsbildsensors (12) Pixel sind, die einen Zähler aufweisen, der dafür ausgelegt ist, bei Belichtung Ladungen zu akkumulieren und die Anzahl zu zählen, mit der die Ladungsakkumulation einen Akkumulationsrücksetzschwellenwert erreicht.
  11. Abbildungssystem nach einem der Ansprüche 1 bis 8, wobei die aktiven Pixel (32) des Hilfsbildsensors (12) Entladungspixel sind, die bei Belichtung für eine Entladezeit entladen werden, die von der Leuchtdichte der Belichtung abhängt.
  12. Abbildungssystem nach einem der vorhergehenden Ansprüche, wobei der Hilfsbildsensor (12) mit einer Farbfilteranordnung versehen ist und die Datenverarbeitungseinheit (10) konfiguriert ist, zumindest den Weißabgleich aus dem Hilfsbild als Erfassungsparameter für das Hauptbild zu bestimmen.
  13. Abbildungssystem nach einem der vorhergehenden Ansprüche, wobei die Datenverarbeitungseinheit (10) konfiguriert ist, mehrere unterschiedliche Werte eines Erfassungsparameters für den Hauptbildsensor (1) aus dem Hilfsbild zu bestimmen, und der Hauptbildsensor (1) ist konfiguriert, um mehrere Hauptbilder unter Verwendung eines unterschiedlichen Wertes des Erfassungsparameters für jedes der Hauptbilder zu erfassen.
  14. Verfahren zum Erfassen eines Bildes mittels eines Bilderzeugungssystems nach einem der vorhergehenden Ansprüche, wobei das Verfahren die folgenden Schritte umfasst: - den Hilfsbildsensor (11) erfasst ein Hilfsbild, - die Datenverarbeitungseinheit (10) ermittelt aus dem Hilfsbild mindestens einen Wert eines Erfassungsparameters für den Hauptbildsensor (1), -- den Hauptbildsensor (1) erfasst mindestens ein Hauptbild unter Verwendung des Werts des Erfassungsparameters.
  15. Verfahren nach Anspruch 14, wobei die Datenverarbeitungseinheit (10) mehrere verschiedene Werte eines Erfassungsparameters für den Hauptbildsensor (1) aus dem Hilfsbild bestimmt, und wobei der Hauptbildsensor (1) mehrere Hauptbilder unter Verwendung eines unterschiedlichen Werts des Erfassungsparameters für jedes der Hauptbilder erfasst.
DE112017002190.1T 2016-04-26 2017-04-24 Abbildungssystem mit zwei sensoren Pending DE112017002190T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1653672 2016-04-26
FR1653672A FR3050596B1 (fr) 2016-04-26 2016-04-26 Systeme imageur a deux capteurs
PCT/EP2017/059674 WO2017186647A1 (fr) 2016-04-26 2017-04-24 Système imageur à deux capteurs

Publications (1)

Publication Number Publication Date
DE112017002190T5 true DE112017002190T5 (de) 2019-01-03

Family

ID=56896667

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017002190.1T Pending DE112017002190T5 (de) 2016-04-26 2017-04-24 Abbildungssystem mit zwei sensoren

Country Status (6)

Country Link
US (1) US10848658B2 (de)
JP (1) JP6961617B2 (de)
CN (1) CN109417603A (de)
DE (1) DE112017002190T5 (de)
FR (1) FR3050596B1 (de)
WO (1) WO2017186647A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190208136A1 (en) * 2017-12-29 2019-07-04 Waymo Llc High-speed image readout and processing

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080094481A1 (en) 2006-10-19 2008-04-24 Barinder Singh Rai Intelligent Multiple Exposure
EP2186318A1 (de) 2007-08-28 2010-05-19 New Imaging Technologies Aktives cmos-pixel mit sehr hoher funktionsdynamik
US8022994B2 (en) 2007-08-31 2011-09-20 Omnivision Technologies, Inc. Image sensor with high dynamic range in down-sampling mode
US20140103189A1 (en) 2012-10-12 2014-04-17 Omnivision Technologies, Inc. Compact In-Pixel High Dynamic Range Imaging
EP2775525A1 (de) 2013-03-04 2014-09-10 Omnivision Technologies, Inc. Pixelbereich mit hohem Dynamikumfang mit einer Vielzahl von Photodioden mit einem einzigen Implantat

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003101871A (ja) * 2001-09-21 2003-04-04 Konica Corp 撮影装置
JP2003101886A (ja) * 2001-09-25 2003-04-04 Olympus Optical Co Ltd 撮像装置
US7830435B2 (en) * 2003-09-03 2010-11-09 Eastman Kodak Company Image sensor and image capture system with extended dynamic range
JP5301889B2 (ja) * 2008-06-16 2013-09-25 オリンパス株式会社 顕微鏡用撮像システム、露光調整プログラム、及び露光調整方法
JP2010204304A (ja) * 2009-03-02 2010-09-16 Panasonic Corp 撮像装置、運転者監視装置および顔部測距方法
JP5422362B2 (ja) * 2009-12-15 2014-02-19 株式会社東芝 固体撮像装置
JP5843486B2 (ja) * 2011-05-31 2016-01-13 キヤノン株式会社 撮像装置およびその制御方法
US8643132B2 (en) * 2011-06-08 2014-02-04 Omnivision Technologies, Inc. In-pixel high dynamic range imaging
EP2815568B1 (de) * 2012-02-13 2018-04-04 Nokia Technologies Oy Verfahren und vorrichtung zur erweiterten automatischen einstellung des fokus in der digitalfotografie
JP2013187727A (ja) * 2012-03-08 2013-09-19 Konica Minolta Inc 固体撮像装置
JP5868545B2 (ja) * 2012-04-19 2016-02-24 レイセオン カンパニー 再分配されたデジタルピクセル
JP6175748B2 (ja) * 2012-08-29 2017-08-09 株式会社ニコン 撮像装置
CN202818447U (zh) * 2012-09-04 2013-03-20 上海海鸥数码照相机有限公司深圳研发中心 超宽动态数码相机
US9578224B2 (en) * 2012-09-10 2017-02-21 Nvidia Corporation System and method for enhanced monoimaging
JP6065474B2 (ja) * 2012-09-11 2017-01-25 株式会社リコー 撮像制御装置、撮像制御方法およびプログラム
FR2997496A1 (fr) * 2012-10-25 2014-05-02 St Microelectronics Grenoble 2 Detection de niveau de luminosite ambiante
JP6172967B2 (ja) * 2013-02-20 2017-08-02 キヤノン株式会社 撮像装置、及びその制御方法
JP2015072982A (ja) * 2013-10-02 2015-04-16 株式会社ニコン 撮像素子および撮像装置
US9380229B2 (en) * 2014-02-28 2016-06-28 Samsung Electronics Co., Ltd. Digital imaging systems including image sensors having logarithmic response ranges and methods of determining motion
JP2016058559A (ja) * 2014-09-10 2016-04-21 ソニー株式会社 固体撮像装置およびその駆動方法、並びに電子機器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080094481A1 (en) 2006-10-19 2008-04-24 Barinder Singh Rai Intelligent Multiple Exposure
EP2186318A1 (de) 2007-08-28 2010-05-19 New Imaging Technologies Aktives cmos-pixel mit sehr hoher funktionsdynamik
US8022994B2 (en) 2007-08-31 2011-09-20 Omnivision Technologies, Inc. Image sensor with high dynamic range in down-sampling mode
US20140103189A1 (en) 2012-10-12 2014-04-17 Omnivision Technologies, Inc. Compact In-Pixel High Dynamic Range Imaging
EP2775525A1 (de) 2013-03-04 2014-09-10 Omnivision Technologies, Inc. Pixelbereich mit hohem Dynamikumfang mit einer Vielzahl von Photodioden mit einem einzigen Implantat

Also Published As

Publication number Publication date
CN109417603A (zh) 2019-03-01
JP6961617B2 (ja) 2021-11-05
US10848658B2 (en) 2020-11-24
FR3050596B1 (fr) 2018-04-20
WO2017186647A1 (fr) 2017-11-02
FR3050596A1 (fr) 2017-10-27
JP2019515549A (ja) 2019-06-06
US20190124242A1 (en) 2019-04-25

Similar Documents

Publication Publication Date Title
EP0878091B1 (de) Farbbildsensor für kurzzeitbelichtung
DE69736621T2 (de) Aktiver Farbpixelsensor mit elektronischen Verschlusseigenschaften, mit Überstrahungsschutzsteuerung und geringem Übersprechen
DE3687877T2 (de) Kamera und verfahren zur bilderzeugung.
DE102007026337B4 (de) Digitale Kamera
DE2930636C2 (de)
DE69528386T2 (de) Abbildungssystem
DE102012216021B4 (de) Erzeugen mehrerer bilder mit grossem dynamikbereich von einem einzigen sensorfeld
DE4329839A1 (de) Abbildungseinrichtung mit zwei Bildsensoren
EP1909492B1 (de) Digitale Laufbildkamera
DE2632893B2 (de) Schaltung zur Steuerung der Belichtung einer Fotokamera
DE102014214750B3 (de) Bildaufnahmesystem mit schnell vibrierendem Global-Shutter-CMOS-Sensor
DE3224299A1 (de) Erfassungsanordnung, insbesondere fuer optische abbildungssysteme
DE10338681A1 (de) Digitalkamera
DE102010030108A1 (de) Farbbildsensor
DE19533061C2 (de) Photoelektrische Halbleiter-Lichterfassungseinrichtung mit programmierbarem Offset-Strom und Bildsensor mit einer solchen Einrichtung
DE102010028746A1 (de) Bildsensor und Verfahren zum Aufnehmen eines Bildes
DE102011081405B4 (de) Bildsensor, Abbildungsvorrichtung und Verfahren für einen Bildsensor
DE19926129B4 (de) Verfahren und Vorrichtung zum Testen von Photoempfängerarrays und von zugeordneten Lesekanälen
EP0934649B1 (de) Verfahren zum erfassen eines bildsignals
DE112017002190T5 (de) Abbildungssystem mit zwei sensoren
DE102008016393B4 (de) Verfahren zur Korrektur von Bildfehlern elektronischer Kameras
DE69108803T2 (de) Anordnung für die Verarbeitung von Stehbildern.
DE10125307A1 (de) Optischer Sensor
DE102004007990A1 (de) Schärfenerfassungsvorrichtung
DE2944158A1 (de) Fotometer

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005235000

Ipc: H04N0023700000

R012 Request for examination validly filed