DE102010028746A1 - Bildsensor und Verfahren zum Aufnehmen eines Bildes - Google Patents

Bildsensor und Verfahren zum Aufnehmen eines Bildes Download PDF

Info

Publication number
DE102010028746A1
DE102010028746A1 DE102010028746A DE102010028746A DE102010028746A1 DE 102010028746 A1 DE102010028746 A1 DE 102010028746A1 DE 102010028746 A DE102010028746 A DE 102010028746A DE 102010028746 A DE102010028746 A DE 102010028746A DE 102010028746 A1 DE102010028746 A1 DE 102010028746A1
Authority
DE
Germany
Prior art keywords
pixel
exposure interval
color
image
accumulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102010028746A
Other languages
English (en)
Other versions
DE102010028746B4 (de
Inventor
Michael Schöberl
André Kaup
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE102010028746A priority Critical patent/DE102010028746B4/de
Priority to PCT/EP2011/057143 priority patent/WO2011138369A1/de
Priority to EP11717651.1A priority patent/EP2567539B1/de
Publication of DE102010028746A1 publication Critical patent/DE102010028746A1/de
Application granted granted Critical
Publication of DE102010028746B4 publication Critical patent/DE102010028746B4/de
Priority to US13/669,163 priority patent/US20130063622A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/533Control of the integration time by using differing integration times for different sensor regions
    • H04N25/534Control of the integration time by using differing integration times for different sensor regions depending on the spectral component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/583Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

Ein besserer Kompromiss zwischen Dynamikumfang, Ortsauflösung, Implementierungsaufwand und Bildqualität wird erzielt, indem zwar jeder Pixel effektiv eine Belichtung über das gesamte Belichtungsintervall hinweg durchführt, dabei aber für unterschiedliche Pixelsensoren bzw. Pixel eine unterschiedliche Unterteilung dieses Belichtungsintervalls in Akkumulationsintervalle vorgenommen wird. In dem Fall von mehr als einem Akkumulationsintervall pro Belichtungsintervall werden die in den Akkumulationsintervallen erfassten Werte summiert, um den jeweiligen Pixelwert zu erhalten. Da die Belichtung effektiv für alle Pixel weiterhin über das gesamte Belichtungsintervall erfolgt, entsteht keine Bildqualitätsverschlechterung bzw. entstehen keine Artefakte bei Bildbewegungen. Alle Pixel erfahren weiterhin die gleiche Bildverschmierung aufgrund der Bewegung. Der zusätzliche Hardware-Aufwand verglichen zu handelsüblichen Pixelsensoren, wie z. B. CMOS-Sensoren, ist entweder überhaupt nicht vorhanden oder kann je nach Implementierung sehr gering gehalten werden. Eine Ortsauflösungsverringerung ist zudem nicht notwendig, da die Pixel grundsätzlich gleichermaßen zur Bildaufnahme beitragen.

Description

  • Die vorliegende Erfindung bezieht sich auf einen Bildsensor und ein Verfahren zum Aufnehmen eines Bildes, wie sie beispielsweise in einer Kamera, nämlich einer Standbildkamera oder einer Videokamera, eingesetzt werden können.
  • Heutige Bildsensoren haben einen sehr begrenzten Dynamikumfang, so dass viele typische Szenen nicht vollständig abgebildet werden können. Wünschenswert wäre eine möglichst hohe Dynamik pro Aufnahme. Bisherige Techniken für einen hohen Dynamikumfang bzw. für HDR (HDR = High Dynamic Range) zeigen deutliche Bildstörungen bei der Aufnahme von bewegten Szenen. Hochauflösende Aufnahmen mit korrekter Bewegungsunschärfe erfordern viel Aufwand.
  • Zur Erweiterung des Dynamikumfangs für Bildsensoren, d. h. für HDR, existieren verschiedene Möglichkeiten. Die folgende Gruppe von Möglichkeiten sieht eine Verrechnung von Bildern nach einer regulären Aufnahme vor:
    • – Nach einer ersten Möglichkeit werden einzelne unabhängige Aufnahmen einer Szene, die mit verschieden langen Belichtungszeiten erhalten worden sind, miteinander kombiniert. Bei Standbildern ist diese Vorgehensweise problemfrei, allerdings ergeben sich Bildstörungen in dem Fall einer Bewegung während der Aufnahme, wie es in [2] beschrieben wird. Von dieser Möglichkeit wird auch in Videokameras Gebrauch gemacht [16], wobei das Vorgehen dort jedoch auch zu Bewegungsartefakten bedingt durch ein Rolling-Shutter-Auslesemuster und unterschiedliche Belichtungszeitpunkte der einzelnen Belichtungen führt.
    • – Eine alternative Vorgehensweise, wonach einzelne Bilder miteinander verrechnet werden, sieht vor, dass die verschiedenen Messungen für jeden Bildpunkt anders kombiniert werden, um eine Messunsicherheit bei Bewegung zu berücksichtigen. Es entsteht eine HDR-Aufnahme ohne Bewegung und völlig ohne Bewegungsunschärfe [10], was jedoch für die Aufnahme von qualitativ hochwertigen Bewegtbildern nicht erwünscht ist.
    • – Alternative Möglichkeiten basieren auf einer Nachverarbeitung von Aufnahmen und einer Schätzung einer Bewegung zwischen zwei Bildern. Diese Vorgehensweisen benötigen deutlich mehr Rechenleistung. Eine solche Nachverarbeitung kann zur Reduktion des Rauschens und damit der Erhöhung des Dynamikumfangs für bestehende Videosequenzen verwendet werden [1]. Die Aufnahme einer Videosequenz mit abwechselnd kurzen und langen Belichtungen kann über Bewegungsschätzung und darauf folgender Interpolation ebenso zu besseren Bildern führen [5]. Bei ungünstigen Szenen ist in beiden Fällen jedoch kein Erfolg garantiert.
  • Andere Möglichkeiten zur Erzielung eines höheren Dynamikumfangs setzen an dem Sensor-Design an. Hier bieten sich folgende Optionen an:
    • – Eine Möglichkeit besteht dann, bessere Sensoren mit einer großen „Full-Well-Kapazität” zu konstruieren, so dass pro Pixel viele Elektronen gesammelt werden können. Der Unterschied zwischen vielen und wenig Elektronen ergibt den großen Dynamikumfang. Das Problem bei dieser Vorgehensweise besteht allerdings darin, dass eine große Kapazität in jedem Pixel auch eine große Pixelfläche erfordert. Zusätzlich ist bei der Umsetzung zu beachten, dass ein großer Dynamikumfang auch besonders wenig Rauschen, eine hohe Genauigkeit und einen langsamen Betrieb im Bereich der Ausleseschaltungen erfordert.
    • – Eine weitere Möglichkeit besteht darin, Sensoren mit einer nicht-linearen Kennlinie zu verwenden, wie z. B. logarithmische oder LIN-LOG-Kennlinien. Systeme, die auf solchen Sensoren basieren, weisen allerdings eine große Menge an FPN-(FPN = Fixed Pattern Noise = Fest-Muster-Rauschen)Bildstörungen auf, die besonders schwer zu kompensieren sind [14].
    • – Schließlich ist es möglich, die Sensoren in dem Zusammenhang mit besonderen Modi zum mehrfachen Auslesen während einer Belichtung zu nutzen, wobei beim Auslesen die bisher gesammelte Information nicht gelöscht wird [9, 3, 4]. Eine direkte Extrapolation führt allerdings ebenfalls zu Artefakten bei der Bewegung.
    • – Eine weitere Möglichkeit besteht darin, jedes Pixel mit einem zusätzlichen Schaltkreis zu versehen, der beispielsweise einen Komparator, einen Zähler usw. aufweisen kann. Solche zusätzlichen Schaltkreise können zur gesteuerten Bilderzeugung mit hoher Dynamik verwendet werden. In [7] und [6] wird ein Vergleich verschiedener solcher Implementierungen und ihr Rauschverhalten erläutert. Beim LARS iii Prinzip misst beispielsweise jeder Pixel nicht nur die Intensität bis zum Ende der Belichtung, sondern auch den Zeitpunkt des Überlaufs. Das ergibt Pixel mit unterschiedlich langer Belichtung je nach Helligkeit und damit Störungen abhängig von der Szenenhelligkeit bei Bewegung.
  • Weitere mögliche Ansätze zur Dynamikumfangerweiterung sehen ein Array aus Pixeln mit jeweils unterschiedlicher Empfindlichkeit vor [15]:
    • – Beispielsweise wird in [12] die Verwendung eines optischen ND-(Neutraldichte)Filters pro Pixel mit unterschiedlicher Dichte in fester Anordnung beschrieben, so dass über eine Rekonstruktion ein Bild mit höherer Dynamik rekonstruiert werden kann. Die örtliche Auflösung sinkt dabei jedoch. Die optische Maske für jedes Bild ist fest.
    • – Der Eastman Kodak Image Sensor erreicht einen größeren Dynamikumfang und mehr Empfindlichkeit über zusätzliche panchromatische Pixel. Auch hier tritt ein Auflösungsverlust ein, und es sind zusätzliche Algorithmen zur Farbrekonstruktion erforderlich [8].
    • – Der Fuji Super CCD weist zusätzlich sehr kleine Pixel zwischen den normalen Pixeln auf und erfordert zusätzliche Algorithmen zur Rekonstruktion [15].
  • Eine Aufspaltung des Lichtstrahls, über beispielsweise einen Strahlteiler, bei gleichzeitiger Aufnahme der gleichen Szene mit mehreren Kameras aus dem gleichen Blickwinkel kann genutzt werden, um eine größere Dynamik abzudecken. Dies ermöglicht die Aufnahme auch ohne Artefakte. Ein System mit drei Kameras ist beispielsweise in [17] beschrieben. Allerdings ist ein großer Aufwand für mechanische Ausrichtung und optische Komponenten nötig.
  • Im Bereich der adaptiven Systeme gibt es einen Vorschlag, wonach ein LC-Display vor einer Kamera angebracht wird [13]. Ausgehend von einem Bild kann dann die Helligkeit in bestimmten Bildbereichen für die weiteren Bilder angepasst werden. Bei geschickter Reduktion der Helligkeit in hellen Bildbereichen kann dann eine Belichtung einer Szene mit korrekter Bewegungsunschärfe erzeugt werden. Ein Teil der oben genannten Möglichkeiten zur Dynamikumfangserweiterung ist nicht in der Lage, ein hochwertiges HDR-Bild einer bewegten Szene zu erstellen. Es entstehen Artefakte, da jeder Bildpunkt zu unterschiedlichen Zeiten oder mit unterschiedlicher effektiver Belichtungszeit in die Aufnahme einfließt. Eine Software-Korrektur mit Schätzung und Interpolation der Bewegung in der Szene ist zwar möglich, das Ergebnis ist aber einer echten Aufnahme stets unterlegen.
  • Systeme mit unterschiedlich empfindlichen Bildpunkten, wie sie ebenfalls oben beschrieben worden sind, benötigen für jeden der möglichen Fälle, nämlich „hell” und „dunkel”, unterschiedliche Pixel auf dem Bildsensor. Dies verringert die örtliche Auflösung. Zusätzliche Elektronik in jedem Pixel führt weiterhin zu einer geringeren Empfindlichkeit, da in diesen Bereichen keine lichtempfindliche Fläche realisiert werden kann.
  • Systeme, die beide Nachteile umgehen, erfordern zusätzliche Mechanik. Wie im Vorhergehenden erwähnt, ist beispielsweise das Vorsehen von Strahlteilern in dem Zusammenhang mit dem Einsatz von mehreren Kameras möglich [17] oder die Verwendung zusätzlicher optischer Abschwächer vor jedem Pixel [13]. Diese Lösungen sind aber entweder extrem aufwendig oder führen ebenfalls zu einer Verringerung der Auflösung.
  • In US 4040076 wird zudem noch eine Technik beschrieben, die unter „skimming gate” bekannt ist. Bei dieser Technik wird zunächst ein Teil der akkumulierten Ladung der Pixel ausgelesen, um eine größere Dynamik zu erreichen, wozu allerdings wieder ein extra Schaltungsaufbau erforderlich ist.
  • Die Aufgabe der vorliegenden Erfindung besteht deshalb darin, einen Bildsensor und ein Verfahren zum Aufnehmen eines Bildes zu schaffen, die einen besseren Kompromiss zwischen Dynamikumfang, Ortsauflösung, Implementierungsaufwand und Bildqualität ermöglichen.
  • Diese Aufgabe wird durch einen Bildsensor gemäß Anspruch 1 und ein Verfahren gemäß Anspruch 14 gelöst.
  • Ein Kerngedanke der vorliegenden Erfindung besteht darin, dass ein besserer Kompromiss zwischen Dynamikumfang, Ortsauflösung, Implementierungsaufwand und Bildqualität erzielt werden kann, wenn zwar jeder Pixel effektiv eine Belichtung über das gesamte Belichtungsintervall hinweg durchführt, dabei aber für unterschiedliche Pixelsensoren bzw. Pixel eine unterschiedliche Unterteilung dieses Belichtungsintervalls in Akkumulationsintervalle vorgenommen wird. In dem Fall von mehr als einem Akkumulationsintervall pro Belichtungsintervall werden die in den Akkumulationsintervallen erfassten Werte summiert, um den jeweiligen Pixelwert zu erhalten. Da die Belichtung effektiv für alle Pixel weiterhin über das gesamte Belichtungsintervall erfolgt, entsteht keine Bildqualitätsverschlechterung bzw. entstehen keine Artefakte bei Bildbewegungen. Alle Pixel erfahren weiterhin die gleiche Bildverschmierung aufgrund der Bewegung. Der zusätzliche Hardware-Aufwand verglichen zu handelsüblichen Pixelsensoren, wie z. B. CMOS-Sensoren, ist entweder überhaupt nicht vorhanden oder kann je nach Implementierung sehr gering gehalten werden. Eine Ortsauflösungsverringerung ist zudem nicht notwendig, da die Pixel grundsätzlich gleichermaßen zur Bildaufnahme beitragen. Auf diese Weise können Pixel, die ansprechend des aufzunehmenden Lichts langsamer Ladungen akkumulieren, weil sie für das Licht weniger empfindlich sind oder auf sie eine kleinere Lichtmenge trifft, mit einer feineren Unterteilung angesteuert werden und Pixel, die für das Umgekehrte zutrifft, mit einer gröberen, wodurch der Dynamikumfang insgesamt erhöht wird, und das bei Beibehaltung von Ortsauflösung und Bildqualität und mit lediglich geringem Implementierungsaufwand.
  • Gemäß einem Ausführungsbeispiel wird die Belichtungsintervallunterteilung abhängig davon vorgenommen, wie hell das Bild an den unterschiedlichen Pixelsensoren ist, derart, dass die Anzahl der Akkumulationsintervalle umso größer ist, je heller das Bild an dem jeweiligen Pixelsensor ist. Der Dynamikumfang erhöht sich damit weiter, da hell beleuchtete Pixel weniger wahrscheinlich in Sättigung geraten, da das Belichtungsintervall in die Akkumulationsintervalle unterteilt wird. Die Unterteilungen der Belichtungsintervalle der Pixel bzw. Pixelsensoren abhängig von dem Bild können gemäß einem ersten Ausführungsbeispiel Pixel-individuell bestimmt werden. Die Akkumulationsintervallunterteilung wird für Pixelsensoren bzw. Pixel feiner gewählt, an deren Positionen das Bild heller ist, und für die anderen Pixelsensoren weniger fein, d. h. mit weniger Akkumulationsintervallen pro Belichtungsintervall. Der Belichtungsintervallaufteiler, der für die Belichtungsintervallunterteilung in die Akkumulationsintervalle zuständig ist, kann dabei die Helligkeit an dem jeweiligen Pixelsensor aus der Aufnahme des vorhergehenden Bildes, wie z. B. dem Pixelwert des vorhergehenden Bildes für den jeweiligen Pixelsensor, bestimmen. Eine andere Möglichkeit besteht darin, dass der Belichtungsintervallaufteiler aktuell die aufkumulierte Lichtmenge der Pixelsensoren während des Belichtungsintervalls beobachtet und ein aktuelles Akkumulationsintervall beendet und ein neues beginnt, wenn die aktuelle aufkumulierte Lichtmenge eines jeweiligen Pixelsensors eine vorbestimmte Menge überschreitet. Die Beobachtung kann kontinuierlich oder intermittierend, wie z. B. periodisch in zeitlich gleichen Abständen, die kleiner als die Belichtungszeitdauer sind, vorgenommen werden und beispielsweise ein zerstörungsfreies Auslesen eines Akkumulators des jeweiligen Pixelsensors umfassen.
  • Anstelle einer Pixel-individuellen Einstellung der Belichtungsintervallunterteilung in die Akkumulationsintervalle kann es vorgesehen sein, dass die Belichtungsintervallunterteilung in die Akkumulationsintervalle für verschiedene disjunkte echte Teilmengen der Pixelsensoren des Bildsensors durchgeführt wird, wobei die Teilmengen beispielsweise unterschiedlichen Farbempfindlichkeitsspektren entsprechen. In diesem Fall ist es auch möglich, zusätzliche Sensoren zu den Pixelsensoren zu verwenden, um die bildabhängige Belichtungsintervallunterteilung vorzunehmen. Alternativ können repräsentative Pixelsensoren des Bildsensors selbst herangezogen werden. Auf Basis der so erhaltenen Information über das Bild bzw. die Szene, wird ein Farbspektrum des Bildes erfasst und abhängig davon die Belichtungsintervallunterteilung in die Akkumulationsintervalle für die einzelnen Pixelsensorgruppen, wie z. B. die einzelnen Farbkomponenten des Bildsensors, durchgeführt.
  • Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die Figuren näher erläutert, worunter
  • 1 einen Graphen zeigt, in welchem das Ansprechverhalten von Farbkanälen eines typischen Bildsensors in normiert codierten Werten für Weißlicht der Farbtemperatur T dargestellt sind;
  • 2 einen Graphen zeigt, in welchem eine Kameraausgabe über eine Variation der Lichtmenge für eine Farbtemperatur T = 2700 K für die Farbkanäle rot, grün und blau (durchgezogene Linien) aufgetragen ist, sowie die Rauschstandardabweichung (horizontale gestrichelte Linien) und die Dynamikbereichsgrenzen (gepunktete vertikale Linien);
  • 3a bis 3c Diagramme zeigen, in welchen der Dynamikbereich bei einer Farbtemperatur T = 2700 K für die Farbkanäle rot, grün und blau zusammen mit einem „sicheren Bereich” für eine korrekte Belichtung aller Farbkanäle dargestellt ist, und zwar einmal für eine normale Belichtung mit durchgehender Belichtung der Pixel, einmal für eine hälftige Belichtungsintervallunterteilung in Akkumulationsintervalle für jede Primärfarbe und ein anderes Mal für eine durchgängige Belichtung für blaue Pixel bei hälftiger Belichtungsintervallunterteilung in Akkumulationsintervalle für rote und grüne Pixel;
  • 4 eine schematische Zeichnung eines Bildsensors gemäß einem Ausführungsbeispiel zeigt;
  • 5 eine schematische Zeichnung zur Veranschaulichung einer Belichtungsintervallunterteilung in Akkumulationsintervalle gemäß einem Ausführungsbeispiel zeigt;
  • 6 Graphen zeigt, bei denen der Akkumulationszustand eines Pixelsensors über die Zeit für verschiedene exemplarische Belichtungsintervallunterteilungen in Akkumulationsintervalle und unterschiedliche Beleuchtungszustände an den Pixelsensoren dargestellt sind;
  • 7 eine schematische Darstellung eines Bildsensors gemäß einem weiteren Ausführungsbeispiel; und
  • 8 ein Blockschaltbild eines Ausschnitts aus einem Bildsensor gemäß einem weiteren Ausführungsbeispiel.
  • Bevor nachfolgend Bezug nehmend auf die Figuren mehrere Ausführungsbeispiele der vorliegenden Anmeldung beschrieben werden, wird darauf hingewiesen, dass gleiche Elemente, die in mehreren dieser Figuren auftreten, mit gleichen Bezugszeichen versehen sind, und dass eine wiederholte Beschreibung dieser Elemente weitestgehend vermieden wird, sondern dass die Beschreibung dieser Elemente bezüglich einer Figur auch für die anderen Figuren gelten soll, solange sich aus der speziellen Beschreibung der jeweiligen Figur kein Widerspruch ergibt.
  • Zusätzlich wird darauf hingewiesen, dass sich im Folgenden die Beschreibung zunächst auf Ausführungsbeispiele der vorliegenden Anmeldung bezieht, wonach die Belichtungsintervallunterteilung in Akkumulations(teil)intervalle farbindividuell für verschiedene Farben eines Bildsensors durchgeführt wird, obwohl, wie es im Anschluss daran beschrieben werden wird, die vorliegende Erfindung nicht auf diese Art der Granularität der Belichtungsintervalluntereilung eingeschränkt ist, sondern die Belichtungsintervallunterteilung kann auch mit einer örtlichen Granularität, wie z. B. Pixel-individuell oder für andere lokale Pixelgruppen, bildabhängig bestimmt werden. Die Illustration der Vorteile der vorliegenden Anmeldung in Bezug auf die Ausführungsbeispiele mit Belichtungsintervallunterteilung pro Farbe eines Bildsensors lässt sich aber ohne weiteres auch auf die sich daran anschließenden Ausführungsbeispiele übertragen.
  • Um die Vorteile der bildabhängigen Belichtungsintervallunterteilung in Akkumulationsintervalle verständlicher zu machen, wird zunächst kurz auf die Probleme eingegangen, die bei Farbbildsensoren in dem Zusammenhang mit dem Weißabgleich existieren.
  • Digitale Kameras werden in einem weiteren Bereich von Anwendungen verwendet und in vielen Fällen kann die Szenenbeleuchtung um ein großes Ausmaß variieren. Digitale Bildsensoren sind allerdings bezüglich ihrer spektralen Empfindlichkeit fest.
  • Falls beispielsweise Weißlicht einer bestimmten Farbtemperatur T auf einen Sensor fällt, wird man beispielsweise eine unterschiedliche Ausgabe in jedem der Farbkanäle sehen. Die normierte Ausgabe eines typischen Bildsensors ist in 1 gezeigt. Eine zusätzliche Verarbeitung, die als Weißabgleich bezeichnet wird, muss durchgeführt werden, um weiße Pixel bzw. Superpixel aus den Pixeln der unterschiedlichen Grundfarben zu erzeugen.
  • Üblicherweise umfasst der Weißabgleich zwei Aspekte:
    Erstens muss die Farbtemperatur der Beleuchtung der Szene für eine Korrektur bekannt sein. Im Fotografie-Konsumerbereich werden viele Algorithmen zur automatischen Schätzung der Beleuchtungsfarbtemperatur verwendet. In High-End-Aufzeichnungsszenarien, wie z. B. Bewegungsbildern, bildet die Farbtemperatur einen gesteuerten Parameter, der für den Kamerabetreiber bekannt ist.
    Zweitens sollte eine Anpassung der Daten vorgenommen werden. Unterschiedliche Farbräume können verwendet werden, um eine multiplikative Korrektur anzuwenden.
  • Das Problem des unausgeglichenen Farbansprechens ist jedoch gravierender. Wie es im Folgenden gezeigt werden wird, ist der sichere Bereich für eine korrekte Belichtung sehr viel kleiner als der Kameradynamikbereich. Es existieren zwar ausgeklügelte Algorithmen, um unterbelichtete Farbbilder mit Hilfe von korrekt belichteten Graustufenbildern zu verbessern [5], aber diese Verfahren sind im Hinblick auf den Berechnungsaufwand komplex und erfordern viele Belichtungen. Falls eine bestimmte Bildregion überbelichtet ist, können sogar ausgeklügelte Techniken zur Fehlerausmerzung nur versuchen, die fehlende Information zu erahnen. Aber auch dies ist berechnungstechnisch komplex und es existiert keine Garantie für einen Erfolg.
  • Wichtiger wäre vielmehr, dass die Belichtung zunächst einmal korrekt ist. Die nachfolgend beschriebenen Ausführungsbeispiele erzielen dies. Insbesondere ist es möglich, den begrenzten Dynamikbereich, wie er exemplarisch eben durch unausgeglichene Farben hervorgerufen wird, während der Erfassung zu adressieren. Ein paar Möglichkeiten sind in der Beschreibungseinleitung der vorliegenden Anmeldung beschrieben worden. Viele von diesen Möglichkeiten führten jedoch zu Artefakten in dem Fall des Vorhandenseins einer Szenenbewegung. Die nachfolgend beschriebenen Ausführungsbeispiele jedoch ermöglichen eine digitale Empfindlichkeitsanpassung für Pixel bzw. Farbkanäle ohne eine Beeinträchtigung der Bewegungsverschmierung.
  • Das Problem der Dynamikbereichsreduktion durch unausgeglichene Farbempfindlichkeit wird im Folgenden ein wenig näher erörtert.
  • Der Dynamikbereich von Bildsensoren ist begrenzt. Insbesondere ist der Dynamikbereich von oben begrenzt, nämlich durch Klippen, und von unten, nämlich dann, wenn das Signal im Rauschen untergeht. Zum Beispiel sei auf 2 Bezug genommen, die für ein typisches Kameraansprechverhalten einen typischen Dynamikbereich anzeigt. 2 zeigt Pixelwerte in relativen Intensitäten in einer Log-Log-Skala zur Basis 10. Die durchgezogenen Linien zeigen das Ansprechverhalten für jeden der Farbkanäle.
  • Wie zu sehen ist, besitzt jeder Farbkanal ein Maximum an einer unterschiedlichen Intensität. Die vertikalen gepunkteten Linien zur Rechten zeigen die maximale Intensität für jeden Farbkanal. Oberhalb dieser Intensität kann keine Bildinformation erfasst werden und für ein korrekt belichtetes Bild müssen die Szenenintensitäten darunter bleiben.
  • Die untere Grenze des Dynamikbereiches ist durch das Grundrauschen gegeben. Die gestrichelte horizontale Linie zeigt die Standardabweichung σ des Rauschens im Dunkeln. Die untere Grenze des Dynamikbereiches liegt bei einem Signal-zu-Rausch-Verhältnis von 1. Die gepunkteten vertikalen Linien zur Linken zeigen die minimalen Intensitäten. Jene Information unterhalb dieser Schwelle wird im Bild nicht sichtbar sein, sondern im Rauschen untergehen.
  • Die sich ergebenden Dynamikbereichsgrenzen sind in 3a zusammengefasst. Man kann sehen, dass die Farbkanäle zueinander einen ähnlichen Dynamikbereich von 38 dB aufweisen, aber unterschiedliche Positionen entlang der Φ-Achse zeigen unterschiedliche relative Empfindlichkeiten.
  • Bei Bilderzeugung ist man daran interessiert, Bilder mit allen drei Farbkanälen zur gleichen Zeit zu erzeugen. Ein sicherer Bereich für die Belichtung ist dann derjenige Intensitätsbereich, für welchen alle Farbkanäle ein gültiges Bild liefern, d. h. ein Bild, bei denen alle Pixel korrekt belichtet sind, d. h. die Intensität innerhalb oben erläuterter Grenzen liegt. Liegt eine Fehlanpassung zwischen den Farbkanälen vor, muss die Belichtung auf einen Dynamikbereich eingeschränkt werden, wo alle Farbkanäle gültige Bilder erzeugen. Dieser „Sicherheitsbereich” ist in 3a auf der rechten Seite gezeigt. Der „sichere Bereich” bildet also die Schnittmenge aller Dynamikbereiche der einzelnen Farbkomponenten und ist in dem Beispiel von 3a um etwa 4 dB gegenüber den individuellen Dynamikbereichen der einzelnen Farbkomponenten reduziert oder, alternativ ausgedrückt, um 1,5 Blendenzahlen.
  • Die obigen Beispiele sind für eine Weißlichtquelle mit einer korrelierten Farbtemperatur T = 2700 K dargestellt. Für andere Lichtquellen würde sich ein anderes Verhältnis der Ausgabesignale der Farbkanäle ergeben.
  • 1 zeigt das Intensitätsverhältnis der Farbkanäle über einen typischen Bereich von Farbtemperaturen hinweg. Der grüne Kanal weist die höchste Empfindlichkeit auf und die Ausgabesignale sind deshalb auf den grünen Ausgabewert normiert. Die Kanäle rot und blau befinden sich stets darunter und die Reduktion des Dynamikbereiches zeigt sich über den gesamten Bereich von Farbtemperaturen.
  • Ein Bild, das bei diesen Farbtemperaturen normal aufgenommen wird, d. h. mit einer durchgehenden Belichtungszeit, die für alle Farben gleich ist, zeigt einen signifikanten Farbstich. Eine typische Weißausgleichsoperation könnte dies durch eine Multiplikation der Pixelwerte kompensieren. Diese Multiplikation entspricht einer vertikalen Verschiebung der Farbkanäle in 2. Diese vertikale Verschiebung führt wiederum zu einer weißen Farbantwort in den schließlichen Bildern, aber die Dynamikbereichsgrenzen bleiben dabei dieselben.
  • Der volle Dynamikbereich einer Kamera könnte erhalten bleiben, wenn alle Farbkanäle gleich empfindlich auf Weißlicht ansprechen würden. Ein Bildsensor könnte spezifisch entworfen sein, um eine ausgeglichene Ausgabe für eine bestimmte Farbtemperatur zu liefern. Üblich ist ein Ausgleich für typische Taglichtaufzeichnungsbedingungen bei T = 5600 K.
  • Im analogen Film- und Fotografiebereich wird ein Weißausgleich manchmal mit optischen Filtern erzielt. Beispielsweise kann eine Wolframdraht-beleuchtete Szene oder sogar die Lichtquelle selbst mit einem Farbumwandlungsfilter gefiltert werden. Die Kamera wird dann einen anderen Weißausgleich sehen. Diese Filter sind heutzutage für die High-End-Digitalbildaufnahme immer noch in Verwendung. Allerdings gehören optische Filter zu einem empfindlichen und teuren Teil einer Kameraausrüstung. Zusätzlich reduzieren Filter die Lichtmenge für alle Farbkanäle und die Gesamtempfindlichkeit wird ebenfalls reduziert.
  • Zur Erzeugung einer ausgeglichenen Belichtung wäre es natürlich ebenfalls möglich, die Belichtungszeiten der Farbkanäle individuell einzustellen, d. h. unterschiedliche Belichtungsintervalle für die einzelnen Farben zu verwenden. Verschmierungseffekte wären dann aber für die verschiedenen Farben unterschiedlich, was wiederum eine Bildverschlechterung bedeutet.
  • Aus den oben dargelegten Gründen führen folgende Überlegungen zu Ausführungsbeispielen der vorliegenden Erfindung. Zur Vermeidung von unterschiedlichen Bildeigenschaften bzw. unterschiedlicher Verschmierung bei den einzelnen Pixelfarben sollte die effektive Belichtungszeit für alle Farben gleich sein. Da aber die unterschiedlichen Farbpixel bzw. die Pixel unterschiedlicher Farbe unterschiedlich schnell an ihre Sättigung geraten, nämlich abhängig von ihrer Empfindlichkeit und dem Farbton der Szene, die aufgenommen wird, wird gemäß einem Ausführungsbeispiel der vorliegenden Erfindung für die verschiedenen Farben des Bildsensors das Belichtungsintervall unterschiedlich in, wie z. B. unterschiedlich viele, Akkumulationsteilintervalle unterteilt, an deren Ende in einem jeweiligen lückenlosen Auslese/Rücksetz-Vorgang Auslesewerte ausgelesen und schließlich zu dem Pixelwert aufsummiert werden. Die Bildeigenschaften bleiben somit gleich, da die effektive Belichtungszeitdauer für alle Farbpixel die gleiche ist. Allerdings kann jede Farbe optimal belichtet werden, insofern nämlich, als keine Überbelichtung auftritt.
  • Die Entscheidung betreffend die Belichtungsintervallunterteilung pro Farbe kann – muss aber nicht – Bild- bzw. Szenenabhängig getroffen werden, so dass die Dynamikbereichserweiterung unabhängig von der Szene bzw. dem Bild und deren Ausleuchtung bzw. Farbstich erzielt werden kann. Eine Verbesserung kann aber auch schon mit fester Einstellung der Belichtungsintervallunterteilung unterhalten werden. Beispielsweise kann eine Kompensation der Empfindlichkeitsunterschiede der einzelnen Farbpixel durch unterschiedliche Belichtungsintervallunterteilung so kompensiert werden, dass insgesamt der Dynamikbereich, in welchem alle Farbpixel einer gleichzeitigen Bildaufnahme korrekt ausgeleuchtet sind, vergrößert wird.
  • Um dies zu veranschaulichen, sei noch einmal auf die 3a3c Bezug genommen. All diesen Figuren liegt eine Ausleuchtung mit T = 2700 K zugrunde. Die 3a wurde oben schon erläutert. In ihr sind die gemessenen Dynamikbereiche für einen regulären Betrieb eines Bildsensors mit Pixelsensoren dargestellt. Das heißt, die Farbpixel aller Farben wurden mit dem gleichen Belichtungsintervall kontinuierlich über das Belichtungsintervall belichtet. Es ergibt sich der rechts dargestellte „sichere Dynamikbereich”. In 3b ist der Fall dargestellt, dass alle Farbpixel, d. h. grün, blau und rot, mit einer hälftigen Unterteilung des Belichtungszeitintervalls in zwei gleich große Akkumulationsteilintervalle angesteuert werden, um die zwei sich ergebenden Akkumulationswerte pro Pixel einer Summation zu unterziehen, um den jeweiligen Pixelwert zu erhalten, wodurch der Dynamikbereich durch die hälftige Unterteilung des Belichtungsintervalls nach oben verschoben wurde. Wie es ersichtlich ist, erhöht sich für jeden Kanal der Dynamikbereich somit um etwa 1,5 dB, und der Dynamikbereich wird um 3 dB nach oben verschoben, d. h. zu helleren Szenen hin. Der sich ergebende „sichere Dynamikbereich” hat sich dadurch ein wenig erhöht.
  • Ein deutlicherer Dynamikbereichsgewinn ergibt sich aber in dem Fall von 3c, bei welchem nämlich die lichtschwächeren Pixel, nämlich die blauen Pixel, normal angesteuert wurden, d. h. mit einer Belichtung über die gesamte Belichtungszeitdauer hinweg ohne zwischenzeitliches lückenloses Auslesen/Rücksetzen, wohingegen die empfindlicheren grünen und roten Pixel mit einer hälftigen Unterteilung des Belichtungsintervalls in zwei gleich große Akkumulationsteilintervalle angesteuert wurden – mit anschließender Summierung der ausgelesenen Werte –, um deren Dynamikbereich gemäß 3b zu verschieben. Diese farbindividuelle Verschiebung der Dynamikbereiche für die Farben rot und grün bei gleichzeitiger Beibehaltung des Dynamikbereichs für die Farbe blau gemäß 3a sorgt in dem Fall von 3c insgesamt für einen deutlich größeren Überlapp der einzelnen Dynamikbereiche, d. h. zu einer Vergrößerung des „sicheren Dynamikbereichs”, der wieder rechts dargestellt ist. Der verwendbare Dynamikbereich hat sich um 3 dB oder, anders ausgedrückt, um eine Blendenzahl erhöht gegenüber dem Fall von 3a. Die effektive Belichtungszeit und damit die Bewegungsunschärfe der Farbkanäle ist damit für alle drei Kanäle identisch.
  • Der soeben beschriebene Dynamikgewinn kann sogar noch erhöht werden, wenn die Belichtungsintervallunterteilung bild- bzw. szenenabhängig durchgeführt wird.
  • Und der soeben beschriebene Dynamikgewinn kann noch erhöht werden, wenn zusätzlich zur Bild- bzw. Szenenabhängigkeit sogar noch die Granularität der Einstellung der Belichtungsintervallunterteilung ortsabhängig durchgeführt wird, d. h. wenn die disjunkten Mengen von Pixeln, in welchen Einheiten die Belichtungsintervalleinteilung einstellbar ist, nicht nur nach Farbenzugehörigkeit getrennt sind, sondern nach lateralem Ort in der Fläche der Pixelsensoren des Bildsensors. Wenn nämlich eine Belichtungsintervallunterteilung über das Bild hinweg für Pixel gleichen Empfindlichkeitsspektrums bzw. gleicher Farbe lokal variiert wird, je nachdem, ob der betreffende Teil des Bildsensors hell ausgeleuchtet ist oder nicht, kann die bildabhängige Belichtungsintervallunterteilung sogar hohe Bildkontraste kompensieren, indem der Dynamikbereich jeweiliger Pixel dorthin verschoben wird, wo sich die Lichtmenge an der entsprechenden Stelle des Bildsensors gerade befindet (vgl. 3c).
  • Nachdem nun die Vorteile von Ausführungsbeispielen der vorliegenden Erfindung motiviert und erläutert worden sind, werden im Folgenden Ausführungsbeispiele der vorliegenden Erfindung näher beschrieben.
  • 4 zeigt einen Bildsensor 10, der eine Vielzahl von Pixelsensoren 12 aufweist. Die Pixelsensoren 12 sind in dem Fall von 4 exemplarisch in einem Array in einer Bildsensorfläche regelmäßig angeordnet – in 4 exemplarisch in Zeilen und Spalten, obwohl andere Anordnungen – seien sie regelmäßig oder nicht – ebenfalls möglich sind. Auf den Bildsensor 10 wird das Bild eines Objekts 14 abgebildet, und zwar in 4 exemplarisch über eine geeignete Optik 16, wobei eine solche optische Abbildung allerdings nicht wesentlich ist und der Bildsensor 10 auch zum Zwecke der Aufnahme von Bildern verwendet werden kann, die nicht aus einer optischen Abbildung entstanden sind.
  • Der Bildsensor 10 ist ausgebildet, um ein Bild aufzunehmen, und zwar derart, dass bei Aufnahme des Bildes zwar jeder Pixelsensor 12 effektiv eine Belichtung über ein gemeinsames Belichtungsintervall durchführt, aber eine unterschiedliche Belichtungsintervallunterteilung in Akkumulationsteilintervalle unter den Pixelsensoren 12 verwendet wird. Um dies näher zu veranschaulichen, sind in 4 die Pixelsensoren 12 exemplarisch als nummeriert angedeutet und auf der linken Seite der 4 ist für zwei unterschiedliche Pixel, hier exemplarisch die Pixel Nr. 1 und 2, die Ansteuerung während einer Bildaufnahme exemplarisch veranschaulicht. Genauer ausgedrückt sind in 4 auf der linken Seite übereinander zwei Zeitdiagramme dargestellt, nämlich ein Zeitdiagramm 161 für das Pixel 1 und ein Zeitdiagram 162 für das Pixel 2, und es ist angedeutet, dass ähnliche Diagramme für die anderen Pixelsensoren 12 existieren, in 4 aber der Übersichtlichkeit halber nicht gezeigt sind. Jedes Zeitdiagramm besitzt eine horizontal verlaufende Zeit- und eine vertikal verlaufende Akkumulationsachse. Das Zeitdiagramm 161 zeigt an, dass das Pixel #1 über das Belichtungsintervall 18 hinweg akkumuliert. Allerdings ist das Belichtungsintervall für das Pixel #1 in vier Akkumulationsteilintervalle 201 unterteilt. Die Akkumulationsteilintervalle können gleich groß sein, aber dies ist nicht zwingend. Die Akkumulationsteilintervalle überlappen sich nicht, sondern grenzen im Wesentlichen zeitlich nahtlos aneinander, um zusammen sich im Wesentlichen über das gesamte Belichtungsintervall 18 zu erstrecken. Am Ende jedes Akkumulationsteilintervalls 201 wird das Pixel #1 ausgelesen und zurückgesetzt. Am Ende des letzten Akkumulationsteilintervalls 201 innerhalb des Belichtungsintervalls 18 könnte das Zurücksetzen des Pixelsensors 1 ggf. auch unterbleiben. In anderen Worten ausgedrückt wird an den Enden der Akkumulationsteilintervalle 201 ein Akkumulator des Pixelsensors ausgelesen und dann zurückgesetzt, um in einem darauf folgenden Akkumulationsteilintervall 201 wieder Ladungsträger aufgrund der einfallenden Lichtstrahlung zu akkumulieren. In 4 ist exemplarisch angedeutet, es existiere eine maximale Ladungsmenge Qmax für den Pixelsensor bzw. dessen Akkumulator. Ferner ist in 4 der zeitliche Verlauf des Ladungszustandes bei 221 angedeutet. Wie es mit der gepunkteten Linie 241 angedeutet ist, wäre der Pixelsensor 12 des Pixels 1 überbelichtet worden, wenn die Akkumulation wie üblich kontinuierlich über das Belichtungsintervall 18 hinweg durchgeführt worden wäre. Um den Pixelwert des Pixels 1 zu erhalten, werden die an den Enden der Akkumulationsteilintervalle 201 erhaltenen Auslesewerte aufsummiert, und zwar ggf. noch unter einer Gewichtung oder ohne Gewichtung, wobei die Gewichtung auch von der Anzahl der Akkumulationsteilintervalle abhängen könnte, so dass beispielsweise der Gewichtungsfaktor 1/N sein könnte, mit N = Anzahl der Akkumulationsteilintervalle pro Belichtungsintervall 18, oder die Gewichtung der relativen Empfindlichkeit der jeweils zugeordneten Farbe des Pixels – normiert auf die empfindlichste Farbe – entspricht. Die erhaltene Summe ist ein Maß für die auf den Pixel 1 während der Belichtungszeit 18 aufgetroffenen Lichtmenge.
  • In 4 ist nun exemplarisch dargestellt, dass das Pixel 2 keine weitere Unterteilung des Belichtungsintervalls in Akkumulationsteilintervalle vornimmt bzw. das Akkumulationsteilintervall 202 dem Belichtungsintervall 18 entspricht. Wie es zu sehen ist, ist auch das Pixel 2 nicht übersteuert worden, sondern sein Akkumulationszustand 242 bleibt unterhalb des Ladungsmengeschwellwertes Qmax.
  • In anderen Worten ausgedrückt zeigt 4, dass bei Aufnahme eines Bildes der Pixelsensor #1 in den sich nicht überlappenden, im Wesentlichen lückenlos aufeinander folgenden Akkumulationsteilintervallen 201, die zusammen das Belichtungsintervall 18 ergeben, jeweils einen Ausleswert erfasst, um eine Anzahl von Auslesewerten zu erhalten, die einer Summation unterzogen werden, um einen Pixelwert für den Pixelsensor 12 an Pixel #1 zu erhalten, wobei der Pixelsensor 12 an Pixel #2 einen Auslesewert im Akkumulationsteilintervall 202 erfasst, der den Pixelwert für diesen Pixelsensor darstellt.
  • Nur exemplarisch beschränkt sich die Darstellung von 4 auf die Belichtungsintervallunterteilungen für zwei exemplarische Pixel. Die Belichtungsintervallunterteilungen der übrigen Pixelsensoren 12 kann ebenso variieren.
  • Der Bildsensor 10 kann so ausgebildet sein, dass die Belichtungsintervallunterteilung in ein, zwei oder mehr Akkumulationsteilintervalle, für alle Pixelsensoren 12 fest und zumindest für zwei echte Teilmengen von Pixelsensoren unterschiedlich zueinander eingestellt ist. Wie oben beschrieben, kann beispielsweise für die lichtempfindlicheren Pixelsensoren 12 eines ersten Farbempfindlichkeitsspektrums, wie z. B. die grünen Pixel, eine andere Belichtungsintervallunterteilung verwendet werden als für Pixelsensoren 12 eines anderen Farbempfindlichkeitsspektrums, wie z. B. die roten und/oder blauen Pixel. In diesem Fall kann beispielsweise die Belichtungsintervallunterteilung für diejenigen Pixelsensoren feiner gewählt werden, für die eine Verringerung der Empfindlichkeit gewünscht ist, wobei eine feinere Belichtungsintervallunterteilung zu einer höheren Anzahl von Akkumulationsteilintervallen führt. Auf diese Weise kann, wie es im Vorhergehenden Bezug nehmend auf 3c erläutert worden ist, der Dynamikbereich des Bildsensors 10 erhöht werden. Die Pixelsensoren 12 der unterschiedlichen Farbempfindlichkeitsspektren können dabei, wie üblich, gleichmäßig über dem Bildsensor bzw. lateral über dem Bildsensor 12 verteilt angeordnet sein, wie z. B. in Superpixel-Clustern oder dergleichen. Ganz allgemein kann über das Verfahren der abtastbare Dynamikbereich in einen gewünschten Bereich höherer Szenen-Intensitäten geschoben werden. Für den Spezialfall eines Einzel-Pixels kann die Empfindlichkeit ganz in den Bereich der tatsächlichen Szenen-Helligkeit geschoben werden. Der Gruppierung von Pixeln, für die eine gemeinsame Belichtungsintervallunterteilung verwendet wird, anhand der Farbkanäle ist nur eines von mehreren Ausführungsbeispielen für eine feste Gruppierung. Der Bildsensor könnte auch Gruppen von unterschiedlichen großen Pixeln bzw. Pixelsensoren mit unterschiedlich großer lichtempfindlicher Fläche aufweisen, und diese Gruppenunterteilung könnte der Granularität zugrunde gelegt werden, in der die Belichtungsintervallunterteilung variiert, wobei natürlich auch Pixelsensoren mit unterschiedlich großer lichtempfindlicher Fläche ein zueinander unterschiedliches Farbempfindlichkeitsspektrum aufweisen, nämlich unterschiedlich im Sinne der Höhe und der Skalierung, während sich unterschiedliche Farbpixel auch hinsichtlich der spektralen Form ihrer Farbempfindlichkeitsspektren unterscheiden.
  • Anstelle einer Voreinstellung ist es auch möglich, dass der Bildsensor 10 einen Belichtungsintervallaufteiler 26 aufweist, der ausgebildet ist, um die Unterteilungen des Belichtungsintervalls 18 in die Akkumulationsteilintervalle durchzuführen bzw. einzustellen. Der Belichtungsintervallaufteiler 26 kann dabei beispielsweise eine Benutzerschnittstelle aufweisen, die es einem Benutzer ermöglicht, die Belichtungsintervallunterteilung zu steuern oder zumindest zu beeinflussen. Vorzugsweise ist der Belichtungsintervallaufteiler derart ausgebildet, dass er in der Lage ist, die Feinheit der Belichtungsintervallunterteilung unterschiedlicher Pixel relativ zueinander zu verändern, wie z. B. das Verhältnis der Anzahl der Akkumulationsteilintervalle pro Belichtungsintervall 18. Beispielsweise wäre es möglich, dass der Belichtungsintervallaufteiler 26 ein Bedienelement für einen Benutzer aufweist, an welchem der Benutzer eine zur Beleuchtung einer Szene verwendete Farbtemperatur eingeben kann. Für sehr niedrige Farbtemperaturen kann dann beispielsweise vorgesehen sein, dass die Belichtungsintervallunterteilung für die roten und grünen Pixelsensoren feiner durchgeführt bzw. eingestellt wird als für die roten Pixelsensoren, und in dem Fall einer hohen Farbtemperatur könnte Belichtungsintervallunterteilung für die Farben blau und grün feiner eingestellt werden als für die Farbpixelsensoren der Farbe Rot.
  • Alternativ zu oder zusätzlich zu dem Vorsehen einer Benutzerbeeinflussung der Belichtungsintervallunterteilung kann es vorgesehen sein, dass der Belichtungsintervallaufteiler 26 so ausgebildet ist, dass derselbe die Belichtungsintervallunterteilung für die Pixelsensoren 12 bild- oder szeneabhängig durchführt. Beispielsweise könnte der Belichtungsintervallaufteiler 26 das Verhältnis der Belichtungsintervallunterteilungsfeinheit unter den unterschiedlichfarbenen Pixelsensoren automatisch abhängig von einem Farbstich bzw. Farbton des aufzunehmenden Bildes bzw. der aufzunehmenden Szene, in der das Bild aufzunehmen ist, vornehmen. Hierzu wird später noch ein Ausführungsbeispiel erläutert. Informationen über einen Szenefarbstich könnte der Belichtungsintervallaufteiler aus eigens vorgesehenen Farbsensoren erhalten oder einer Aufnahme eines vorhergehenden Bildes. 4 zeigt beispielsweise exemplarisch, dass das Belichtungsintervall 18 zu einem Zeitpunkt tBild(i) startet, woraufhin zu einem Zeitpunkt tBild(i+1) eine erneute Aufnahme durchgeführt wird usw. In anderen Worten ausgedrückt, könnte es sich bei dem Bildsensor 10 um den Teil einer Videokamera handeln, und für die Aufnahme zum Zeitpunkt tBild(i+1) könnte die Belichtungsintervallunterteilung abhängig von Einstellungen durchgeführt werden, die zur Aufnahme des Bildes zum Zeitpunkt tBild(i) vorgenommen worden sind. Die Bildaufnahmen könnten mit einer Framerate, 1/Δt, durchgeführt werden, d. h. tBild(i+1) = tBild(i) + Δt.
  • Ferner könnte der Bildsensor 10 so ausgebildet sein, dass der Belichtungsintervallaufteiler in der Lage ist, Belichtungsintervallunterteilungen von Pixelsensoren gleicher Farbe bzw. gleichen Farbempfindlichkeitsspektrums, die an lateral unterschiedlichen Positionen angeordnet sind, während einer Aufnahme unterschiedlich einzustellen. Insbesondere könnte der Belichtungsintervallaufteiler also so ausgebildet sein, dass er die Unterteilung des Belichtungsintervalls 18 in die Akkumulationsteilintervalle abhängig davon durchführt, wie hell das Bild an dem den Pixelsensoren 12 entsprechenden Positionen ist, derart, dass die Anzahl der Akkumulationsteilintervalle umso größer ist je heller das Bild an der entsprechenden Position ist. Die Helligkeit an den entsprechenden Pixelpositionen könnte der Belichtungsintervallaufteiler 26 wiederum aus vorherigen Bildaufnahmen prädizieren oder aber, wie es im Folgenden noch erläutert werden wird, durch Beobachtung des aktuellen Akkumulationszustandes der jeweiligen Pixelsensoren 12 bestimmen bzw. schätzen. Die lokale Granularität, in welcher der Belichtungsintervallaufteiler 26 die lokale Belichtungsintervallunterteilung vornimmt, könnte pixelweise sein, superpixelweise sein oder natürlich auch gröber sein als Einzelpixel- oder Einzelsuperpixelgranularität.
  • 5 zeigt noch einmal exemplarisch den Fall einer Belichtungsintervallunterteilung für das Pixel #1 in vier Akkumulationsteilintervalle und für das Pixel #2 in nur ein Akkumulationsteilintervall, und zwar für den exemplarischen Fall einer Unterteilung in gleich lange Akkumulationsintervalle und in einer detaillierteren Weise. Das Belichtungsintervall ist τexp lang und erstreckt sich von Zeitpunkt t1 bis t2. Für das Pixel #2 erfolgt zu Beginn des Akkumulationsteilintervalls 202 ein Rücksetzvorgang und am Ende des Akkumulationsteilintervalls 202 ein Auslesevorgang. Für das Pixel #1 erfolgt zu Beginn des ersten Akkumulationsteilintervalls 201 ein Rücksetzvorgang und am Ende des letzten Akkumulationsteilintervalls 201 ein Auslesevorgang und zwischen den Akkumulationsteilintervallen 201 ein lückenloser Auslese/Rücksetz-Vorgang. Somit zeigt 5 ein Vorgehen, wonach während des Belichtungsintervalls 18 in dem Pixel #1 vier im Wesentlichen lückenlose Auslese/Rücksetz-Vorgänge durchgeführt werden, oder, um genau zu sein, drei solche Vorgänge innerhalb des Belichtungsintervalls 18 und ein Auslesevorgang am Ende beim Zeitpunkt t2, wodurch das Belichtungsintervall 18 für das Pixel 1 in vier Akkumulationsteilintervalle der Länge τN mit N = 4 unterteilt wird, wobei τN = τxp/N gilt. Wie es ebenfalls zu sehen ist, kann der letzte Vorgang auf ein Auslesen begrenzt sein und zu Beginn des Belichtungsintervalls 18 zum Zeitpunkt t1 wird – oder ist noch – der entsprechende Pixelsensor zurückgesetzt. Das Zurücksetzen bewirkt ein Voreinstellen des oben schon einmal erwähnten Akkumulationsspeichers, wie z. B. einer Kapazität, im Inneren des entsprechenden Pixelsensors, der dann mit einer Rate, die dem momentan einfallenden Lichtstrom entspricht, entladen oder aufgeladen wird. Das Auslesen ergibt einen Auslesewert des momentanen Ladezustands des Akkumulationsspeichers. Das Auslesen kann destruktiv sein, d. h. den Ladezustand verändern, da ja im Anschluss wieder ein Rücksetzen erfolgt. In 5 ist das Belichtungsintervall 18 exemplarisch für das Pixel #1 in vier Akkumulationsteilintervalle und für das Pixel #2 nur in eines unterteilt worden, aber natürlich ist auch eine feinere oder gröbere Unterteilung mit N ≥ 2 möglich. Das Zurücksetzten des Akkumulationsspeichers kann eine vollständige Entladung vorsehen. Alternativ kann gemäß einer sog. „skimming gate” Technik das Rücksetzen so durchgeführt werden, dass bei den Auslese/Rücksetzvorgängen immer nur einer Teil der aufakkumulierten Ladung „abgeschöpft” bzw. in Spannung umgewandelt wird, und eine anderer vorbestimmter Teil im Akkumulator verbleibt, welcher Teil quasi den Zielwert für die Zurücksetzvorgänge bilden könnte.
  • Die vorerwähnten Auslese/Rücksetz-Vorgänge in den 4 und 5 involvieren einen Auslesevorgang und einen Rücksetzvorgang, die im Wesentlichen unmittelbar aufeinander folgen. Zwischen denselben tritt somit im Wesentlichen keine Lichtakkumulation auf. Das Verhältnis zwischen der Summe der zeitlichen Lücken zwischen Auslesevorgang und nachfolgendem Rücksetzvorgang und der Zeitdauer texp beträgt beispielsweise gleich oder weniger als 9/10 oder sogar noch bevorzugter weniger als 99/100.
  • Nach dem Ausführungsbeispiel von 5 sind also die Akkumulationsteilintervalle gleich lang. Dementsprechend könnte also der Bildsensor von 4 so ausgebildet sein, dass die Belichtungsintervallunterteilung für die Pixelsensoren 12 nur so durchgeführt werden kann, dass das Belichtungsintervall 18 jeweils in gleich große Akkumulationsteilintervalle unterteilt wird, d. h. für die Pixelsensoren 12 jeweils nur N variiert wird, nämlich, wie im Vorhergehenden beschrieben, pro Pixel oder pro Farbe usw.
  • Der schließliche Pixelwert ī für das augenblickliche Frame bzw. für die augenblickliche Aufnahme wird dann in dem Bildsensor 10 durch Aufsummation der einzelnen ausgelesenen Werte erhalten, wenn es mehrere sind, so dass für die Pixelwerte der Pixelsensoren 12 des Bildsensors 10 beispielsweise gilt: ī = ΣIn = {1...N} wobei In der Auslesewert des n-ten Akkumulationsintervalls sei und N die Anzahl der Akkumulationsintervall in einem Belichtungsintervall. Wie zu sehen ist, kann die Summation fehlen, wenn lediglich ein Akkumulationsintervall vorliegt, wie z. B. bei dem Pixel #2 in den 4 und 5.
  • Die Summe könnte gewichtet werden. Beispielsweise könnte der Bildsensor 10 so ausgebildet sein, dass die Pixelwerte von Pixelsensoren 12 eines ersten Farbempfindlichkeitsspektrums bzw. einer ersten Farbe mit einem ersten Faktor aFarbe_1 gewichtet werden, um sie gegenüber Pixelwerten von Pixelsensoren eines anderen Farbempfindlichkeitsspektrums anders zu gewichten, so dass gelten würde: ī = aFarbe_1·ΣIn n = {1...N}
  • Die Korrektur könnte für einen Weißabgleich sorgen, d. h. die inhärente Unausgeglichenheit der Empfindlichkeit der unterschiedlichfarbigen Pixelsensoren bei Annahme einer bestimmten Weißlichttemperatur ausgleichen. Wie bereits erwähnt, könnten aber auch andere Unterschiede zwischen den Pixeln vorgesehen sein, wie z. B. UNerschiede in der größe der lichtemittierenden Fläche, für welche dann allgemeiner ausgedrückt eine unterschiedlicher Faktor aGruppe_1 vorgesehen sein könnte.
  • Bei dem Ausführungsbeispiel von 5, wonach die Belichtungsintervallunterteilung nur in gleich großen Akkumulationsteilintervallen vorgenommen werden kann, wird der Belichtungsintervallaufteiler 26 insofern bei seiner Arbeit eingeschränkt, als dieser mit Festlegung der Länge des ersten – oder irgendeines – Akkumulationsteilintervalls für einen Pixelsensor 12 oder eine bestimmte Gruppe von Pixelsensoren 12, wie z. B. den Pixelsensoren 12 einer bestimmten Farbe, auch die restliche Unterteilung des Belichtungsintervalls vorgibt bzw. inhärent festgelegt ist. Nachfolgende Helligkeitsänderungen des Bildes während der restlichen Zeit des Belichtungsintervalls können von dem Belichtungsintervallaufteiler dann nicht mehr berücksichtigt werden. In dem Fall von 5 kann der Belichtungsintervallaufteiler 26 die Einteilung wie im Vorhergehenden beschrieben beispielsweise auf Basis vergangener Informationen, wie z. B. den Einstellungen für eine vorhergehende Bildaufnahme durchführen, oder durch Beobachtung des aktuellen Akkumulationszustandes eines Pixels 12 von Beginn der Aufnahme an beispielsweise, um dann N einmal festzulegen, wonach keine weitere „Nachbesserung” bzw. Anpassung an plötzliche Lichtbedingungsänderungen möglich ist.
  • 6 zeigt untereinander die Belichtungsintervallunterteilung für drei verschiedene Pixel gemäß einem etwas anderen Ausführungsbeispiel. Gemäß dem Ausführungsbeispiel von 6 wird das Belichtungsintervall 18 in eine Anzahl von Einheitsintervallen unterteilt, in 6 exemplarisch acht und exemplarisch gleich lange Einheitsintervalle 30. Gemäß dem Ausführungsbeispiel von 6 ist hier die Belichtungsintervallunterteilung darauf eingeschränkt, dass die entstehenden Akkumulationsteilintervalle 20 eines Belichtungsintervalls 18 stets nur an den Einheitsintervallgrenzen enden bzw. beginnen können, d. h. die Lückenlosen Auslese/Rücksetzvorgänge nur an diesen Zeitpunkten liegen können, oder, wiederum anders ausgedrückt, die Akkumulationsintervalle in dem exemplarischen Fall von 6 nur in Einheiten der Einheitsintervalle 30 verlängert werden können, um zeitlich gesehen eine Länge zu besitzen, die einem ganzzahligen Vielfachen der Länge eines Einheitsintervalls 30 entspricht. Beispielsweise wird an diesen Zeitpunkten stets ein Vergleich des aktuellen Akkumulationszustands mit einer bestimmten Schwelle durchgeführt, die beispielsweise 1/3, 2/5 oder irgendeinen Bruchteil dazwischen des maximalen Akkumulationszustands beträgt, um bei Überschreiten der Schwelle einen lückenlosen Auslese/Rücksetzvorgang auszulösen.
  • Bei dem Ausführungsbeispiel von 6 ist es somit möglich, dass der Belichtungsintervallaufteiler 26 Änderungen der einfallen Lichtintensität noch bei der Belichtungsintervallunterteilung noch während des aktuellen Belichtungsintervalls 18 berücksichtigen kann. Eine solche Änderung der einfallen Lichtintensität noch während des aktuellen Belichtungsintervalls 18 ist exemplarisch in 6 für ein Pixel #4 dargestellt, wobei in 6 für jedes Pixel ein aktueller Akkumulationszustand I über die Zeit t hinweg aufgetragen ist, wobei exemplarisch zum Zeitpunkt t0 eine Änderung der Lichtintensität angedeutet ist, indem nämlich von diesem Zeitpunkt sich der Akkumulationszustand schneller ändert. In 6 auf der rechten Seite ist angedeutet, wie sich der jeweilige Pixelwert Ī aus den einzelnen Auslesewerten I ergibt, wobei die hochgestellten Indizes die jeweilige Pixelnummer andeuten und die tiefgestellten Indizes den jeweiligen Auslesewert in der Reihenfolge ihres Auslesens während des Belichtungsintervalls 18.
  • Im Folgenden werden Bezug nehmend auf 7 und 8 zwei Ausführungsbeispiele für einen Bildsensor beschrieben, die in der vorhergehenden Beschreibung bereits angeklungen sind, im Folgenden aber detaillierter beschrieben werden.
  • 7 zeigt einen Bildsensor 10' mit einer Vielzahl von Pixelsensoren 12 unterschiedlicher Farbempfindlichkeitsspektren, wobei in 7 exemplarisch drei unterschiedliche Pixelsensorarten bzw. -farben dargestellt sind, nämlich durch Verwendung unterschiedlicher Schraffur. Bei den drei unterschiedlichen Farben handelt es sich beispielsweise um Rot, Grün und Blau, wobei aber auch andere Farbempfindlichkeitsspektren möglich sind und auch die Anzahl an unterschiedlichen Farbempfindlichkeitsspektren anders gewählt sein kann. Der Bildsensor 10' weist ferner einen eigens vorgesehenen Sensor 32 auf, um ein auf den Bildsensor 10' einfallendes Licht an den unterschiedlichen Farbempfindlichkeitsspektren abzutasten. Beispielsweise weist der Sensor 32 wiederum unterschiedliche Sensorelemente 32a, 32b und 32c auf, deren Empfindlichkeitsspektrum zueinander unterschiedlich ist und deren Lichtspektren an den Lichtempfindlichkeitsspektren der Pixelsensoren 12 so angeordnet sind, dass sie denselben 1:1 zugeordnet sind. Der Bildsensor 10' von 7 weist ferner einen Belichtungsintervallaufteiler 26 auf, der auf Basis des Ausgangssignals des Sensors 32 einen Farbton bzw. einen Farbstich des einfallenden Lichtes bestimmt bzw. abhängig hiervon eine Belichtungsintervallunterteilung für die Pixelsensoren 12 der unterschiedlichen Farbempfindlichkeitsspektren relativ zueinander in ihrer Feinheit ändert, wie z. B. die Anzahl an Akkumulationsteilintervallen, in die das Belichtungsintervall zur Aufnahme eines Bildes unterteilt wird, wie es im Vorhergehenden beschrieben worden ist. Zwischen der Messung bzw. Bestimmung des Farbtons bzw. des Farbstiches der Szene und der Einstellung der Belichtungsintervallaufteilung für die einzelnen Farben des Bildsensors kann ein zeitlicher Versatz liegen, d. h. die Messung des Farbstiches kann vor der eigentlichen Bildaufnahme stattfinden. Alternativ kann die Messung zum Erfassen des Farbstiches der Szene gleichzeitig mit der eigentlichen Bildaufnahme gestartet werden. Gemäß einem Ausführungsbeispiel kann der Belichtungsintervallaufteiler 26 beispielsweise die Auswertung des Farbstiches der Szene zu einem vorbestimmten Zeitpunkt nach Beginn des Belichtungsintervalls durchführen, und daraufhin eine Belichtungsintervallunterteilung für eine der Farbempfindlichkeitsspektren so festlegen, dass die Akkumulationsintervalle – bis auf vielleicht eines, falls die Unterteilung nicht „aufgeht” – zwischen einer Zeitdauer gleich des Zeitspanne zwischen Beginn des Belichtungsintervalls und der Farbstichauswertung und der Zeitdauer des gesamten Belichtungsintervalls liegen.
  • In 7 ist ferner dargestellt, dass der Bildsensor 10' optional einen Weißabgleicher 34 aufweisen kann, der ausgebildet ist, um die Pixelwerte der Pixelsensoren 12 mit unterschiedlichen Gewichtungen zu gewichten, und zwar mit unterschiedlichen Gewichtungen für die unterschiedlichen Farbempfindlichkeitsspektren, zu denen die einzelnen Pixelsensoren 12 gehören, um auf diese Weise durch die Gewichtungen den inhärenten Empfindlichkeitsunterschied der Pixelsensoren 12 der unterschiedlichen Farben auszugleichen oder aber um einen Farbton der Aufnahme wunschgemäß, d. h. gemäß einer bestimmten Absicht des Benutzers, einzustellen.
  • 8 zeigt ein weiteres Ausführungsbeispiel für einen Bildsensor 10'' gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Der Bildsensor von 8 umfasst eine Vielzahl von Pixelsensoren 12. Stellvertretend für die Pixelsensoren 12 ist in 8 dargestellt, dass ein Pixelsensor 12 beispielsweise eine lichtempfindliche Fläche 36 und einen zugeordneten Akkumulator 38 aufweist, wie z. B. einen Kondensator oder eine andere Kapazität, in welchem bzw. welcher Ladungen akkumuliert werden, die durch auf die lichtempfindliche Fläche 36 auftreffendes Licht induziert werden, oder in welchem beim Rücksetzen aufakkumulierte Ladung aufgrund von auf die lichtempfindliche Fläche 36 auftreffendes Licht entladen wird.
  • Gemäß 8 ist der Akkumulator 38 mit einem Digital/Analog-Wandler 40 verbindbar, der in der Lage ist, den aktuellen Ladungszustand des Akkumulators 38 in einen digitalen Wert umzuwandeln. Es sei sogleich darauf hingewiesen, dass der Digital/Analog-Wandler 40 nicht kritisch ist. Anstelle eines Digital/Analog-Wandlers könnte auch ein anderer Ausleser vorgesehen sein, der den aktuellen Akkumulationszustand des Akkumulators 38 analog ausliest und an seinem Ausgang ausgibt.
  • An den Ausgang des Auslesers 40 schließt sich ein Addierer 42 an, der einen weiteren Ausgang und einen weiteren Eingang besitzt, zwischen die ein Zwischenspeicher 44 geschaltet ist. Durch diese Verschaltung wird der ausgelesene Wert von dem Ausleser 40 mit einer Summe der zuvor im gleichen Belichtungsintervall ausgelesenen Werten des gleichen Pixels summiert. Am Ende eines Belichtungsintervalls liegt somit am Ausgang des Addierers 42 der aufsummierte Wert der ausgelesenen Werte des jeweiligen Pixelsensors 12 an, wobei sich an den Ausgang des Addierers 42 optional noch ein Gewichter 46 anschließen kann, der beispielsweise die im Vorhergehenden erwähnte Farb-abhängige Gewichtung des Pixelwertes vornehmen kann, so dass am Ausgang des optionalen Gewichters 46 der Pixelwert des betrachteten Pixels in gewichteter Weise vorläge.
  • Der Bildsensor 10'' umfasst ferner einen Belichtungsintervallaufteiler 26, der für den in 8 exemplarisch betrachteten Pixelsensor die Belichtungsintervallunterteilung einstellt und den Ausleser 40 entsprechend ansteuert, um an dem Ende bzw. den Enden der Akkumulationsteilintervalle den Akkumulationszustand des Akkumulators 38 auszulesen und zurückzusetzen.
  • Nachdem im Vorhergehenden der Aufbau des Bildsensors von 8 beschrieben worden ist, wird im Folgenden dessen Funktionsweise beschrieben. Vor einer Belichtung eines Bildes wird der Zwischenspeicher 44 auf 0 zurückgesetzt. Auch der Akkumulator 38 wird zurückgesetzt und es wird dafür gesorgt, dass die Akkumulation über die lichtempfindliche Fläche 36 erst am Beginn des Belichtungsintervalls, d. h. an dem ersten Akkumulationsteilintervall, erfolgt. Der Belichtungsintervallaufteiler 26 hat bis zu diesem Zeitpunkt die Einstellung der Belichtungsintervallunterteilung entweder schon bestimmt oder bestimmt sie noch. Wie im Vorhergehenden erwähnt, kann der Belichtungsintervallaufteiler 26 bei seiner Bestimmung von einer Benutzereingabeeinrichtung 48 oder einem eigens vorgesehenen Sensor 32 beeinflusst werden. Alternativ oder zusätzlich kann der Belichtungsintervallaufteiler 26 auch den aktuellen Akkumulationszustand des Akkumulators 38 beobachten, beispielsweise mittels eines Komparators, der den Akkumulationszustand, wie im Vorhergehenden erwähnt, mit einem vorbestimmten Wert vergleicht und in dem Fall der Überschreitung einen der lückenlosen Auslese/Rücksetzvorgänge veranlasst. Es ist auch möglich, dass der Belichtungsintervallaufteiler 26 den Akkumulator 38' eines stellvertretenden Pixelsensors des Bildsensors 10'' beobachtet, um auf den Akkumulationszustand des Akkumulators 38 des aktuellen Pixelsensors 12 zurückzuschließen bzw. um den Akkumulationszustand dieses stellvertretenden Akkumulators 38' als Schätzwert für den Akkumulationszustand des Akkumulators 38 zu verwenden, um dann, wie im Vorhergehenden beschrieben, die Belichtungsintervallunterteilung noch während des aktuellen Belichtungsintervalls einzustellen. Dieser stellvertretende Pixelsensor könnte sich beispielsweise in der in einer Zeilenauslesescanrichtung vorangehenden Zeile befinden. Wie es ferner durch gestrichelte Linien angezeigt ist, kann der Belichtungsintervallaufteiler 26 auch den Pixelwert des Pixelsensors 12 für eine vorhergehende Bildaufnahme als Prädiktion dafür verwenden, wie hell das Pixel in der aktuellen Bildaufnahme ausgeleuchtet (werden) wird, um entsprechend die Belichtungsintervallunterteilung für das aktuelle Belichtungsintervall vorzunehmen.
  • In dem Fall der pixelindividuellen Einstellung der Belichtungsintervallunterteilung kann beispielsweise der Belichtungsintervallaufteiler 26 einen Komparator pro Pixelsensor 12 aufweisen.
  • Es wird darauf hingewiesen, dass die ausgelesenen Werte am Ausgang des Auslesers 40 vorzugsweise einen linearen Zusammenhang zu der Lichtmenge aufweisen, die auf die lichtempfindliche Fläche des entsprechenden Pixelsensors in dem entsprechenden Akkumulationsintervall traf. Es kann sein, dass zur Linearisierung eine Korrektur der ansonsten nicht-linearen Auslesewerte vorgenommen wird, wie z. B. durch einen zwischen dem Ausgang des Auslesers 40 und dem Addierer 42 platzierten Linearisierer (nicht gezeigt), der beispielsweise eine entsprechende Linearisierungskurve auf die Werte anwendet bzw. letztere gemäß der Kurve auf die liniearisierten Werte abbildet. Alternativ kann die Linearisierung inhärent im Ausleseprozess stattfinden, wie z. B. bei einer Digitalisierung. Auch eine analoge Schaltung könnte verwendet werden. Zusätzlich könnte bei Belichtungszeiten unterschiedlicher Länge eine Kompensation des Dunkelstroms vorgesehen sein, und zwar auch schon vor der eigentlichen Akkumulation. Das Zurücksetzten des Akkumulators kann, wie im vorhergehenden erwähnt, auch anders durchgeführt werden, als durch eine vollständige Entladung. Vielmehr kann gemäß der „skimming gate” Technik das Rücksetzen so durchgeführt werden, dass beim Auslesen immer nur einer Teil der aufakkumulierten Ladung „abgeschöpft” bzw. in Spannung umgewandelt wird, und eine anderer Teil im Akkumulator verbleibt.
  • Die obigen Ausführungsbeispiele zeigten also eine Möglichkeit dafür, eine Dynamikbereichsanpassung eines Bildsensors für einzelne Pixel oder Pixelgruppen vorzunehmen. Nach konkreten Ausführungsbeispielen ist es beispielsweise möglich, dass die Belichtungsintervallunterteilung in Akkumulationsteilintervalle für rote Bildpunkte feiner eingestellt wird, wenn die Szene mit einer Glühlampe beleuchtet wird. Es ist dann nämlich deutlich mehr rot in der Szene vorhanden, und der rote Kanal wird wahrscheinlich zuerst in Sättigung gehen. Eine feinere Unterteilung des Belichtungsintervalls führt aber, wie Bezug nehmend auf 3a3c beschrieben, zu einer Verschiebung des Dynamikbereiches zu mehr Helligkeit hin, so dass dieses Vorgehen für rote Bildpunkte insgesamt für einen größeren Aussteuerbereich sorgen würde. Andererseits ist es auch möglich, die Belichtungsintervallunterteilung so vorzunehmen, dass Bildpunkte in hellen Bildbereichen eine feinere Belichtungsintervallunterteilung erfahren, so dass insgesamt eine Aufnahme von Szenen mit sehr hoher Dynamik ermöglicht wird. In 6 wurden verschiedene Fälle dargestellt, nämlich stellvertretend für verschiedene Pixel 4, 5 und 6, wobei die bisher integrierte Intensität I über die Zeit aufgetragen wurde. Dunkle Bildbereiche werden dann beispielsweise nur in einer einzigen Belichtung erfasst, wie es bei dem Pixel 6 dargestellt ist. Das Vorgehen ermöglich eine hohe Empfindlichkeit des Bildsensors. Helle Bildbereiche werden mehrfach ausgelesen und belichtet, wie z. B. in dem Fall der Pixel 4 und 5. Dies ergibt eine Verringerung der Empfindlichkeit bzw. eine Verschiebung des Dynamikbereiches zu mehr Helligkeit hin. Bei Bewegung im Bild der Bildaufnahme kann die Einteilung der Abschnitte angepasst werden.
  • Die obigen Ausführungsbeispiele benötigen einen Sensor, der einzelne Bildpunkte zurücksetzen und damit eine Belichtung starten kann, während andere Bildpunkte bzw. Pixelsensoren noch weiter belichten. Eine Steuerung, die im Bildsensor bzw. Sensorchip oder extern angeordnet sein kann, kann abhängig von der Helligkeit aus vergangenen Bildern oder der aktuellen Helligkeit entscheiden, welche Bildpunkte zurückgesetzt werden. Das System könnte sich damit selbst steuern. Zu jedem Zeitpunkt des Auslesens würde dann, wie im Vorhergehenden beschrieben, die Belichtungsintervallunterteilung so vorgenommen werden, dass jeder einzelne Bildpunkt im nächsten Zeitabschnitt nicht überlaufen wird.
  • Noch einmal zurückkehrend zu dem Beispiel von 6, kann beispielsweise ein Bildpunkt mit wenig Intensität auf seiner lichtempfindlichen Fläche nur eine einzige Belichtung während des Belichtungsintervalls durchführen, wohingegen ein heller Bildpunkt während des Belichtungsintervalls einmal oder mehrmals zurückgesetzt wird, wobei die Intensität dann aus den einzelnen Auslesewerten zum Zeitpunkt des bzw. der Resets zusammengesetzt wird. Ein Bildpunkt, wie z. B. der Pixel 4 in 6, der zunächst dunkel beleuchtet wird, und somit mit einem langen Akkumulationsteilintervall beginnt, kann nachher eine feinere Unterteilung des Belichtungsintervalls noch im gleichen Belichtungsintervall erfahren. Beispielsweise bewegt sich ein helles Objekt in die Richtung des Bildpunktes, von welchem Zeitpunkt an kürzere Akkumulationsintervalle nötig sind.
  • Da gemäß den obigen Ausführungsbeispielen die Belichtung bei jedem Bildpunkt bzw. Pixel entlang der kompletten Belichtungszeit bzw. des kompletten Belichtungsintervalls alle Informationen über Änderungen der Intensität mit einbezieht, weisen die erzeugten Bilder keine Artefakte aufgrund der Belichtungsintervallunterteilung auf bzw. der Abtastung auf, und sowohl helle als auch dunkle Bildbereiche weisen die gleiche Menge an Bewegungsunschärfe auf. Damit werden die erzeugten Aufnahmen von HDR-Sequenzen in dem Fall einer Sequenz von Bildaufnahmen auch für die qualitativ hochwertigen Bildaufnahmen geeignet.
  • Zudem kann mit den obigen Ausführungsbeispielen die volle örtliche Auflösung des jeweiligen Bildsensors genutzt werden. Es werden keine Pixel für andere Helligkeiten bereitgestellt, die bei der aktuellen Szenehelligkeit nicht verwendet werden könnten. Die minimale Empfindlichkeit eines Bildsensors muss nicht verändert werden, da keine aufwendigen Schaltungen in jedem der Pixel untergebracht werden müssen.
  • Bezüglich obiger Ausführungsbeispiele wird ferner darauf hingewiesen, dass die Konstruktion der obigen Bildsensoren mit einem einzigen CMOS-Sensor und optional einer geeigneten Optik ohne weiteres möglich ist. Es wird keine zusätzliche Mechanik/Optik zwangsläufig benötigt.
  • Insbesondere ist es in dem Fall von 8 beispielsweise möglich, dass die Vielzahl von Pixelsensoren gemeinsam in einem Halbleiterchip oder Chipmodul integriert sind. Der Akkumulator ist ebenfalls in selbigem integriert, und zwar in einer 1:1 Zuordnung, d. h. für jeden Sensor 12 genau ein Akkumulator. Alternativ könnten auch mehrere Akkumulatoren pro Sensor vorhanden sein, die dann in den aufeinander folgenden Akkumulationsintervallen eines Belichtungsintervalls verwendet werden. Auch der Ausleser 40 kann in dem Halbleiterchip oder Chipmodul integriert sein, und zwar einmal für jedes Pixel oder einmal für jede Gruppe, wie z. B. Zeile, von Pixeln. Der Belichtungsintervallaufteiler 26 könnte nur ebenfalls in dem Halbleiterchip oder Chipmodul integriert sein – mit einem Komparator pro Pixel oder Pixelgruppe –, und auch die Komponenten 42, 44 und/oder 46 könnten in dem Chip integriert sein, und zwar pro Ausleser, Pixel usw. Selbst der Zusatzsensor könnte darauf implementiert sein, oder es sind zumindest Anschlüsse für 32 und/oder 48 vorgesehen, wenn dieselben vorhanden sind.
  • Bezüglich der obigen Ausführungsbeispiele wird ferner darauf hingewiesen, dass die Entscheidung über das Zurücksetzen des Bildpunktes entweder direkt in den Auslese-Schaltkreisen des Sensors oder nach einer Digitalisierung des Bildes ausgeführt werden kann. Die Entscheidung kann basierend auf der Intensität des vorherigen Bildes getroffen werden, wie es im Vorhergehenden beschrieben wurde, oder, wie es ebenfalls im Vorhergehenden beschrieben wurde, es kann eine Anpassung an die aktuelle Intensität jedes einzelnen Bildpunktes durchgeführt werden. Wenn während der Aufnahme ein helles Objekt vor den Bildpunkt wandert, dann ist erst ab diesem Zeitpunkt ein kurzes Auslesen sinnvoll.
  • Obige Ausführungsbeispiele bieten deshalb die Möglichkeit, eine Kamera bereitzustellen, die eine sehr große Bildwiederholrate aufweisen könnte, und zwar eine Kamera mit einem erweiterten Dynamikumfang. Insbesondere bietet sich die Möglichkeit mit obigen Ausführungsbeispielen Kameras für die Aufnahme von Filmen mit hohem Dynamikumfang, hoher Auflösung und sehr guter Bildqualität zu erhalten. Besonders bei großflächiger Projektion, wie z. B. im Kino, ist die Aufzeichnung der richtigen Bewegungsunschärfe ein wichtiges Element, und obige Ausführungsbeispiele ermöglichen die Erreichung dieses Ziels.
  • Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar.
  • Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein. Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.
  • Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahin gehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft. Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein.
  • Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist.
  • Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft. Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.
  • Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.
  • Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahin gehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen.
  • Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.
  • Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC.
  • Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.
    • [1] E. P. Rennett and L. McMillan. Video enhancement using per-pixel virtual exposures. In ACM SIGGRAPH 2005 Papers, S. 852. ACM, 2005.
    • [2] PE Debevec and J. Malik. Recovering high dynamic range radiance maps from photographs. The ACM SIGGRAPH 97, 1997.
    • [3] B. Fowler and P. D. I. I. PDI. Low Noise Wide Dynamic Range Image Sensor Readout using Multiple Reads During Integration (MRDI). Technical report, Technical Report, 2002.
    • [4] A. Kachatkou and R. van Silfhout. Dynamic range enhancement algorithms for CMOS Sensors with non-destructive readout. In IEEE International Workshop on Imaging Systems and Techniques, 2008. IST 2008, pages 132–137, 2008.
    • [5] S. B. Kang, M. Uyttendaele, S. Winder, and R. Szeliski. High dynamic range video. ACM Transactions on Graphics, 22(3): 319–325, 2003.
    • [6] S. Kavusi, K. Ghosh, and A. El Gamal. Architectures for high dynamic range, high speed image sensor readout circuits. International Federation for Information Processing Publications IFIP, 249: 1, 2008.
    • [7] Sam Kavusi and Abbas El Gamal. Quantitative study of high-dynamicrange image sensor architectures. In SPIE Sensors and Camera Systems for Scientific, Industrial, and Digital Photography Applications V, volume 5301, pages 264–275. SPIE, 2004.
    • [8] T. Kijima, H. Nakamura, J. T. Compton, and J. F. Hamilton. Image sensor with improved light sensitivity, January 27 2006. US Patent App. 11/341,210 .
    • [9] Liu and A. El Gamal. Photocurrent estimation from multiple nondestructive samples in CMOS image sensor. In Proceedings of SPIE, Bd. 4306, S. 450, 2001.
    • [10] X. Liu and A. El Gamal. Synthesis of high dynamic range motion blur free image from multiple captures. IEEE Transaction.s on Circuits and Systems 1: Fundamental Theory and Applications, 50(4): 530–539, 2003.
    • [11] M. Schöberl and A. Oberdörster and and S. Fößel and H. Bloss and A. Kaup. Digital neutral density filter for moving picture cameras. In SPIE Electronic Imaging, Computational Imaging VIIL SPIE, 1 2010.
    • [12] Shree K. Nayar and Tomoo Mitsunaga. High dynamic range imaging: spatially varying pixel exposures. Computer Vision and Pattern Recognition, IEEE Computer Society Conference on, 1: 1472, 2000.
    • [13] S. K. Nayar and V. Branzoi. Adaptive dynamic range imaging: Optical control of pixel exposures over space and time. In Proceedings of the Ninth IEEE International Conference an Computer Vision, page 1168, 2003.
    • [14] S. O. Otim, D. Joseph, B. Choubey, and S. Collins. Modelling of high dynamic range logarithmic CMOS image sensors. Proceedings of the 21st IEEE Instrument ation and Measurement Technology Conference IMTC, 1: 451–456, May 2004.
    • [15] R. A. Street. High dynamic range segmented pixel sensor array, August 4 1998. US Patent 5,789,737 .
    • [16] J. Unger and S. Gustavson. High-dynamic-range video for photometric measurement of illumination. In Proceedings of SPIE, volume 6501, page 65010E, 2007.
    • [17] Hongcheng Wang, Ramesh Rastcar, and Nareudra Ahuja. High dynamic ringe video Ersing split aperture camera. In IEEE 6th Workshop an Omnidirectional Vision, Camera Networks and Non-classical Cameras OMNIVIS, 2005.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 4040076 [0010]
    • US 11/341210 [0098]
    • US 5789737 [0098]
  • Zitierte Nicht-Patentliteratur
    • E. P. Rennett and L. McMillan. Video enhancement using per-pixel virtual exposures. In ACM SIGGRAPH 2005 Papers, S. 852. ACM, 2005 [0098]
    • PE Debevec and J. Malik. Recovering high dynamic range radiance maps from photographs. The ACM SIGGRAPH 97, 1997 [0098]
    • B. Fowler and P. D. I. I. PDI. Low Noise Wide Dynamic Range Image Sensor Readout using Multiple Reads During Integration (MRDI). Technical report, Technical Report, 2002 [0098]
    • A. Kachatkou and R. van Silfhout. Dynamic range enhancement algorithms for CMOS Sensors with non-destructive readout. In IEEE International Workshop on Imaging Systems and Techniques, 2008. IST 2008, pages 132–137, 2008 [0098]
    • S. B. Kang, M. Uyttendaele, S. Winder, and R. Szeliski. High dynamic range video. ACM Transactions on Graphics, 22(3): 319–325, 2003 [0098]
    • S. Kavusi, K. Ghosh, and A. El Gamal. Architectures for high dynamic range, high speed image sensor readout circuits. International Federation for Information Processing Publications IFIP, 249: 1, 2008 [0098]
    • Sam Kavusi and Abbas El Gamal. Quantitative study of high-dynamicrange image sensor architectures. In SPIE Sensors and Camera Systems for Scientific, Industrial, and Digital Photography Applications V, volume 5301, pages 264–275. SPIE, 2004 [0098]
    • Liu and A. El Gamal. Photocurrent estimation from multiple nondestructive samples in CMOS image sensor. In Proceedings of SPIE, Bd. 4306, S. 450, 2001 [0098]
    • X. Liu and A. El Gamal. Synthesis of high dynamic range motion blur free image from multiple captures. IEEE Transaction.s on Circuits and Systems 1: Fundamental Theory and Applications, 50(4): 530–539, 2003 [0098]
    • M. Schöberl and A. Oberdörster and and S. Fößel and H. Bloss and A. Kaup. Digital neutral density filter for moving picture cameras. In SPIE Electronic Imaging, Computational Imaging VIIL SPIE, 1 2010 [0098]
    • Shree K. Nayar and Tomoo Mitsunaga. High dynamic range imaging: spatially varying pixel exposures. Computer Vision and Pattern Recognition, IEEE Computer Society Conference on, 1: 1472, 2000 [0098]
    • S. K. Nayar and V. Branzoi. Adaptive dynamic range imaging: Optical control of pixel exposures over space and time. In Proceedings of the Ninth IEEE International Conference an Computer Vision, page 1168, 2003 [0098]
    • S. O. Otim, D. Joseph, B. Choubey, and S. Collins. Modelling of high dynamic range logarithmic CMOS image sensors. Proceedings of the 21st IEEE Instrument ation and Measurement Technology Conference IMTC, 1: 451–456, May 2004 [0098]
    • J. Unger and S. Gustavson. High-dynamic-range video for photometric measurement of illumination. In Proceedings of SPIE, volume 6501, page 65010E, 2007 [0098]
    • Hongcheng Wang, Ramesh Rastcar, and Nareudra Ahuja. High dynamic ringe video Ersing split aperture camera. In IEEE 6th Workshop an Omnidirectional Vision, Camera Networks and Non-classical Cameras OMNIVIS, 2005 [0098]

Claims (15)

  1. Bildsensor mit einer Vielzahl von Pixelsensoren (12), wobei der Bildsensor ausgebildet ist, um eine Bild aufzunehmen, und derart ausgebildet ist, dass bei Aufnahme des Bildes ein erster Pixelsensor in jedem einer ersten Anzahl von nicht überlappenden, im Wesentlichen lückenlos aufeinanderfolgenden ersten Akkumulationsintervallen (201), die zusammen ein Belichtungsintervall (18) ergeben, jeweils einen Wert erfasst, um eine Anzahl von Werten zu erhalten, die, wenn die erste Anzahl größer 1 ist, einer Summation unterzogen werden, um einen Pixelwert für den ersten Pixelsensor zu erhalten, und ein zweiter Pixelsensor in jedem einer zweiten Anzahl von nicht überlappenden, im Wesentlichen lückenlos aufeinanderfolgenden zweiten Akkumulationsintervallen (202), die zusammen das Belichtungsintervall (18) ergeben, jeweils einen Wert erfasst, um eine Anzahl von Werten zu erhalten, die, wenn die zweite Anzahl größer 1 ist, einer Summation unterzogen werden, um einen Pixelwert für den zweiten Pixelsensor zu erhalten, wobei sich eine Unterteilung des Belichtungsintervalls (18) in die ersten Akkumulationsintervalle (201) von einer Unterteilung des Belichtungsintervalls (18) in die zweiten Akkumulationsintervalle (202) unterscheidet.
  2. Bildsensor gemäß Anspruch 1, bei dem die Vielzahl von Pixelsensoren (12) Pixelsensoren eines ersten Farbempfindlichkeitsspektrums und Pixelsensoren eines zweiten Farbempfindlichkeitsspektrums aufweisen, wobei der erste Pixelsensor zu den Pixelsensoren des ersten Farbempfindlichkeitsspektrums und der zweite Pixelsensor zu den Pixelsensoren des zweiten Farbempfindlichkeitsspektrums gehört, wobei der Bildsensor derart ausgebildet ist, dass die Unterteilung des Belichtungsintervalls (18) in Akkumulationsintervalle für die Pixelsensoren des ersten Farbempfindlichkeitsspektrums und die Pixelsensoren des zweiten Farbempfindlichkeitsspektrums jeweils untereinander gleich aber für die Pixelsensoren des ersten Farbempfindlichkeitsspektrums unterschiedlich ist zu derjenigen für die Pixelsensoren des zweiten Farbempfindlichkeitsspektrums.
  3. Bildsensor gemäß Anspruch 1 oder 2, bei dem der Bildsensor derart ausgebildet ist, dass ein Unterschied zwischen der Unterteilung des Belichtungsintervalls (18) in die ersten Akkumulationsintervalle (201) zu der Unterteilung des Belichtungsintervalls in die zweiten Akkumulationsintervalle (202) für unterschiedliche Aufnahmen unterschiedlich einstellbar ist.
  4. Bildsensor gemäß Anspruch 1, der derart ausgebildet ist, dass die Unterteilungen des Belichtungsintervalls (18) in Akkumulationsintervalle für jeden Pixelsensor (12) individuell oder in Einheiten von disjunkten Mengen von lateral ungleichmäßig verteilten Pixelsensoren für unterschiedliche Aufnahmen unterschiedlich einstellbar sind.
  5. Bildsensor gemäß einem der Ansprüche 1 bis 4, der einen Belichtungsintervallaufteiler (26) aufweist, der ausgebildet ist, um die Unterteilungen des Belichtungsintervalls (18) in die ersten bzw. zweiten Akkumulationsintervalle abhängig von Licht einzustellen, das von einer Szene stammt, in der das Bild aufgenommen wird.
  6. Bildsensor gemäß Anspruch 5, bei dem der Belichtungsintervallaufteiler (26) ausgebildet ist, um auf Basis einer Aufnahme eines zeitlich vorausgehenden Bildes eine Prädiktion durchzuführen, wie hell das Bild an einer dem ersten bzw. dem zweiten Pixelsensor entsprechenden Position ist, und die Unterteilungen des Belichtungsintervalls in die ersten bzw. zweiten Akkumulationsintervalle vorab einzustellen.
  7. Bildsensor gemäß Anspruch 5 oder 6, bei dem der Belichtungsintervallaufteiler (26) einen Sensor (32) zusätzlich zu der Vielzahl von Pixelsensoren (12) aufweist, der ausgebildet ist, um einen Farbton von auf den Bildsensor treffendem Licht zu erfassen.
  8. Bildsensor gemäß einem der Ansprüche 1 bis 7, der einen Belichtungsintervallaufteiler (26) aufweist, der ausgebildet ist, um die Unterteilungen des Belichtungsintervalls (18) in die ersten bzw. zweiten Akkumulationsintervalle abhängig davon, wie hell das Bild an einer dem ersten bzw. zweiten Pixelsensor entsprechenden Position ist, einzustellen, derart, dass die Anzahl der ersten bzw. zweiten Akkumulationsintervalle um so größer ist, je heller das Bild an der entsprechenden Position ist.
  9. Bildsensor gemäß Anspruch 8, bei dem der Belichtungsintervallaufteiler (26) ausgebildet ist, um jeweils eine aktuell aufkumulierte Lichtmenge (241, 242) des ersten und zweiten Pixelsensors oder von entsprechenden stellvertretenden Pixelsensoren während des Belichtungsintervalls (18) zu beobachten und für den ersten bzw. zweiten Pixelsensor ein aktuelles Akkumulationsintervall zu beenden und ein neues zu beginnen, wenn die aktuell aufkumulierte Lichtmenge eine vorbestimmte Menge überschreitet.
  10. Bildsensor gemäß einem der Ansprüche 1 bis 7, bei dem die Vielzahl von Pixelsensoren (12) Pixelsensoren eines ersten Farbempfindlichkeitsspektrums und Pixelsensoren eines zweiten Farbempfindlichkeitsspektrums aufweisen, wobei der erste Pixelsensor zu den Pixelsensoren des ersten Farbempfindlichkeitsspektrums und der zweite Pixelsensor zu den Pixelsensoren des zweiten Farbempfindlichkeitsspektrums gehört, und wobei der Bildsensor einen Belichtungsintervallaufteiler (26) aufweist, der ausgebildet ist, um abhängig davon, wie viel eines mittleren Farbspektrums des Bildes auf das erste bzw. zweite Farbspektrum entfällt, die Unterteilungen des Belichtungsintervalls in die ersten und zweiten Akkumulationsintervalle durchzuführen, derart, dass die Anzahl der ersten Akkumulationsintervalle (201) größer ist als die Anzahl der zweiten Akkumulationsintervalle (202), wenn die Pixelsensoren des ersten Farbempfindlichkeitsspektrums empfindlicher sind für das mittlere Farbspektrum des Bildes als die Pixelsensoren des zweiten Farbempfindlichkeitsspektrums, und umgekehrt.
  11. Bildsensor gemäß Anspruch 10, bei dem der Belichtungsintervallaufteiler (26) ausgebildet ist, um eine aktuell aufkumulierte Lichtmenge von zumindest einem der Pixelsensoren des ersten Farbempfindlichkeitsspektrums und zumindest einem der Pixelsensoren des zweiten Farbempfindlichkeitsspektrums zu beobachten und für die Pixelsensoren des ersten bzw. zweiten Farbempfindlichkeitsspektrums ein aktuelles Akkumulationsintervall zu beenden und ein neues zu beginnen, wenn die aktuell aufkumulierte Lichtmenge des zumindest einen Pixelsensors des jeweiligen Farbempfindlichkeitsspektrums eine vorbestimmte Menge überschreitet.
  12. Bildsensor gemäß einem der vorhergehenden Ansprüche, der ferner einen Weißabgleicher (34) aufweist, der ausgebildet ist, zu bewirken, dass Pixelwerte von Pixelsensoren eines ersten Farbempfindlichkeitsspektrums relativ zu Pixelwerten des eines zweiten Farbempfindlichkeitsspektrums unterschiedlich gewichtet sind.
  13. Kamera mit einem Bildsensor gemäß einem der vorhergehenden Ansprüche.
  14. Verfahren zum Aufnehmen eines Bildes mit einer Vielzahl von Pixelsensoren (12), wobei das Verfahren folgende Schritte bei Aufnahme des Bildes aufweist: Ansteuern eines ersten Pixelsensors, so dass derselbe in jedem einer ersten Anzahl von nicht überlappenden, im Wesentlichen lückenlos aufeinanderfolgenden ersten Akkumulationsintervallen (201), die zusammen ein Belichtungsintervall (18) ergeben, jeweils einen Wert erfasst, um eine Anzahl von Werten zu erhalten, unter, wenn die erste Anzahl größer 1 ist, Summierung der Werte, um einen Pixelwert für den ersten Pixelsensor zu erhalten, und Ansteuern eines zweiten Pixelsensors, so dass derselbe in jedem einer zweiten Anzahl von nicht überlappenden, im Wesentlichen lückenlos aufeinanderfolgenden zweiten Akkumulationsintervallen (202), die zusammen das Belichtungsintervall (18) ergeben, jeweils einen Wert erfasst, um eine Anzahl von Werten zu erhalten, unter, wenn die zweite Anzahl größer 1 ist, Summierung der Werte, um einen Pixelwert für den zweiten Pixelsensor zu erhalten, wobei sich eine Unterteilung des Belichtungsintervalls (18) in die ersten Akkumulationsintervalle (201) von einer Unterteilung des Belichtungsintervalls (18) in die zweiten Akkumulationsintervalle (202) unterscheidet.
  15. Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens nach Anspruch 14, wenn das Programm auf einem Computer abläuft
DE102010028746A 2010-05-07 2010-05-07 Bildsensor und Verfahren zum Aufnehmen eines Bildes Active DE102010028746B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102010028746A DE102010028746B4 (de) 2010-05-07 2010-05-07 Bildsensor und Verfahren zum Aufnehmen eines Bildes
PCT/EP2011/057143 WO2011138369A1 (de) 2010-05-07 2011-05-04 Bildsensor und verfahren zum aufnehmen eines bildes
EP11717651.1A EP2567539B1 (de) 2010-05-07 2011-05-04 Bildsensor und verfahren zum aufnehmen eines bildes
US13/669,163 US20130063622A1 (en) 2010-05-07 2012-11-05 Image sensor and method of capturing an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010028746A DE102010028746B4 (de) 2010-05-07 2010-05-07 Bildsensor und Verfahren zum Aufnehmen eines Bildes

Publications (2)

Publication Number Publication Date
DE102010028746A1 true DE102010028746A1 (de) 2011-11-10
DE102010028746B4 DE102010028746B4 (de) 2012-06-06

Family

ID=44246363

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010028746A Active DE102010028746B4 (de) 2010-05-07 2010-05-07 Bildsensor und Verfahren zum Aufnehmen eines Bildes

Country Status (4)

Country Link
US (1) US20130063622A1 (de)
EP (1) EP2567539B1 (de)
DE (1) DE102010028746B4 (de)
WO (1) WO2011138369A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10244194B2 (en) 2012-03-30 2019-03-26 Nikon Corporation Individual cell charge control in an image sensor

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5734082B2 (ja) * 2011-05-11 2015-06-10 キヤノン株式会社 撮像装置及びその制御方法、並びにプログラム
US9245348B2 (en) * 2012-06-15 2016-01-26 Microsoft Technology Licensing, Llc Determining a maximum inscribed size of a rectangle
US9363425B2 (en) * 2012-12-06 2016-06-07 Semiconductor Components Industries, Llc Color filter arrangements for fused array imaging systems
US10104388B2 (en) * 2014-06-30 2018-10-16 Sony Corporation Video processing system with high dynamic range sensor mechanism and method of operation thereof
EP3804294B1 (de) * 2018-06-07 2023-08-30 Dolby Laboratories Licensing Corporation Bewegungskompensierte bilderzeugung aus einzelbildsensoren mit doppelter belichtungszeit und hdr-farbe
CN111728578B (zh) * 2020-06-09 2023-09-01 重庆金山科技(集团)有限公司 胶囊内镜控制方法及胶囊内镜

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4040076A (en) 1976-07-28 1977-08-02 Rca Corporation Charge transfer skimming and reset circuit
US5789737A (en) 1997-01-22 1998-08-04 Xerox Corporation High dynamic range segmented pixel sensor array
US20060027730A1 (en) * 2003-04-11 2006-02-09 Cyrus Bamji Method and system to differentially enhance sensor dynamic range using enhanced common mode reset
EP1924080A1 (de) * 2006-11-14 2008-05-21 Samsung Electronics Co., Ltd. Hochdynamischer Bereichsbildsensor und Verfahren und Mittel zum Messen der Pixelleistung
US20100053346A1 (en) * 2008-09-03 2010-03-04 Tomoo Mitsunaga Image Processing Apparatus, Imaging Apparatus, Solid-State Imaging Device, Image Processing Method and Program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4847680A (en) * 1986-09-24 1989-07-11 Canon Kabushiki Kaisha Image pickup apparatus with white balance control
US6943837B1 (en) * 1999-12-31 2005-09-13 Intel Corporation Method and apparatus for colormetric channel balancing for solid state image sensor using time division multiplexed sampling waveforms
JP4826028B2 (ja) * 2001-05-24 2011-11-30 株式会社ニコン 電子カメラ
JP2004357202A (ja) * 2003-05-30 2004-12-16 Canon Inc 撮影装置
US20050094003A1 (en) * 2003-11-05 2005-05-05 Per Thorell Methods of processing digital image and/or video data including luminance filtering based on chrominance data and related systems and computer program products
JP4706936B2 (ja) * 2008-09-26 2011-06-22 ソニー株式会社 撮像装置、その制御方法およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4040076A (en) 1976-07-28 1977-08-02 Rca Corporation Charge transfer skimming and reset circuit
US5789737A (en) 1997-01-22 1998-08-04 Xerox Corporation High dynamic range segmented pixel sensor array
US20060027730A1 (en) * 2003-04-11 2006-02-09 Cyrus Bamji Method and system to differentially enhance sensor dynamic range using enhanced common mode reset
EP1924080A1 (de) * 2006-11-14 2008-05-21 Samsung Electronics Co., Ltd. Hochdynamischer Bereichsbildsensor und Verfahren und Mittel zum Messen der Pixelleistung
US20100053346A1 (en) * 2008-09-03 2010-03-04 Tomoo Mitsunaga Image Processing Apparatus, Imaging Apparatus, Solid-State Imaging Device, Image Processing Method and Program

Non-Patent Citations (15)

* Cited by examiner, † Cited by third party
Title
A. Kachatkou and R. van Silfhout. Dynamic range enhancement algorithms for CMOS Sensors with non-destructive readout. In IEEE International Workshop on Imaging Systems and Techniques, 2008. IST 2008, pages 132-137, 2008
B. Fowler and P. D. I. I. PDI. Low Noise Wide Dynamic Range Image Sensor Readout using Multiple Reads During Integration (MRDI). Technical report, Technical Report, 2002
E. P. Rennett and L. McMillan. Video enhancement using per-pixel virtual exposures. In ACM SIGGRAPH 2005 Papers, S. 852. ACM, 2005
Hongcheng Wang, Ramesh Rastcar, and Nareudra Ahuja. High dynamic ringe video Ersing split aperture camera. In IEEE 6th Workshop an Omnidirectional Vision, Camera Networks and Non-classical Cameras OMNIVIS, 2005
J. Unger and S. Gustavson. High-dynamic-range video for photometric measurement of illumination. In Proceedings of SPIE, volume 6501, page 65010E, 2007
Liu and A. El Gamal. Photocurrent estimation from multiple nondestructive samples in CMOS image sensor. In Proceedings of SPIE, Bd. 4306, S. 450, 2001
M. Schöberl and A. Oberdörster and and S. Fößel and H. Bloss and A. Kaup. Digital neutral density filter for moving picture cameras. In SPIE Electronic Imaging, Computational Imaging VIIL SPIE, 1 2010
PE Debevec and J. Malik. Recovering high dynamic range radiance maps from photographs. The ACM SIGGRAPH 97, 1997
S. B. Kang, M. Uyttendaele, S. Winder, and R. Szeliski. High dynamic range video. ACM Transactions on Graphics, 22(3): 319-325, 2003
S. K. Nayar and V. Branzoi. Adaptive dynamic range imaging: Optical control of pixel exposures over space and time. In Proceedings of the Ninth IEEE International Conference an Computer Vision, page 1168, 2003
S. Kavusi, K. Ghosh, and A. El Gamal. Architectures for high dynamic range, high speed image sensor readout circuits. International Federation for Information Processing Publications IFIP, 249: 1, 2008
S. O. Otim, D. Joseph, B. Choubey, and S. Collins. Modelling of high dynamic range logarithmic CMOS image sensors. Proceedings of the 21st IEEE Instrument ation and Measurement Technology Conference IMTC, 1: 451-456, May 2004
Sam Kavusi and Abbas El Gamal. Quantitative study of high-dynamicrange image sensor architectures. In SPIE Sensors and Camera Systems for Scientific, Industrial, and Digital Photography Applications V, volume 5301, pages 264-275. SPIE, 2004
Shree K. Nayar and Tomoo Mitsunaga. High dynamic range imaging: spatially varying pixel exposures. Computer Vision and Pattern Recognition, IEEE Computer Society Conference on, 1: 1472, 2000
X. Liu and A. El Gamal. Synthesis of high dynamic range motion blur free image from multiple captures. IEEE Transaction.s on Circuits and Systems 1: Fundamental Theory and Applications, 50(4): 530-539, 2003

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10244194B2 (en) 2012-03-30 2019-03-26 Nikon Corporation Individual cell charge control in an image sensor
US10574918B2 (en) 2012-03-30 2020-02-25 Nikon Corporation Image pickup element and image pickup device
US11317046B2 (en) 2012-03-30 2022-04-26 Nikon Corporation Image pickup element and image pickup device
EP2833619B1 (de) * 2012-03-30 2023-06-07 Nikon Corporation Bildaufnahmeelement und bildaufnahmevorrichtung
US11689832B2 (en) 2012-03-30 2023-06-27 Nikon Corporation Image pickup element and image pickup device

Also Published As

Publication number Publication date
EP2567539B1 (de) 2018-07-04
US20130063622A1 (en) 2013-03-14
WO2011138369A1 (de) 2011-11-10
DE102010028746B4 (de) 2012-06-06
EP2567539A1 (de) 2013-03-13

Similar Documents

Publication Publication Date Title
EP2567539B1 (de) Bildsensor und verfahren zum aufnehmen eines bildes
DE69828046T2 (de) Erweiterter dynamikbereich für bildformungssystem und verfahren
DE102007026337B4 (de) Digitale Kamera
DE112008001990B4 (de) Belichtungssteuerung für ein Bildgebungssystem
US8558913B2 (en) Capture condition selection from brightness and motion
DE112007001808B4 (de) Elektronische Bilderfassung mit vermindertem Rauschen
DE102015121971A1 (de) Bildaufnahmevorrichtung und Ansteuerverfahren für Bildsensor
DE4329839A1 (de) Abbildungseinrichtung mit zwei Bildsensoren
EP1909492B1 (de) Digitale Laufbildkamera
DE102012201696A1 (de) Bildverarbeitungsvorrichtung, zugehöriges Steuerverfahren, Programm und Aufzeichnungsmedium
DE102009053281A1 (de) Bildsensor
DE102014013446A1 (de) Bildaufnahmevorrichtung und -system und Steuerverfahren für die Bildaufnahmevorrichtung
DE112010002987T5 (de) Verfahren zum Verbessern von Bildern
DE10338681A1 (de) Digitalkamera
DE112010003748T5 (de) Verfahren und vorrichtung für die bildkorrektur
EP3100594B1 (de) Selbstjustierender sensor zum erfassen des tageslichts
DE102011081405B4 (de) Bildsensor, Abbildungsvorrichtung und Verfahren für einen Bildsensor
DE102013208804B4 (de) Lichtlaufzeitsensor mit zuschaltbarer Hintergrundlichtunterdrückung
WO2013026825A1 (de) Abbildungsvorrichtung und verfahren für eine abbildungsvorrichtung
DE102013208805B4 (de) Lichtlaufzeitsensor mit Zwischenspeicher
DE102009029868B4 (de) Bildaufnahmevorrichtung und Verfahren zum Erzeugen einer Aufnahme
DE102017129770B4 (de) Verfahren und Vorrichtung zum Aufnehmen eines Digitalbildes
DE102008052679A1 (de) Digitalkamerasensor, Digitalkamera sowie Verfahren zum Aufnehmen eines Kamerabildes
DE112017002190T5 (de) Abbildungssystem mit zwei sensoren
DE102010002599B4 (de) Sensorvorrichtung und Verfahren zum Erfassen von lokalen Intensitätsgradienten

Legal Events

Date Code Title Description
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20120907

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005235000

Ipc: H04N0023700000