DE102013012810A1 - Verfahren zum Aktivieren und Deaktivieren einer Bildkorrekturfunktion, Kamerasystem und Kraftfahrzeug - Google Patents

Verfahren zum Aktivieren und Deaktivieren einer Bildkorrekturfunktion, Kamerasystem und Kraftfahrzeug Download PDF

Info

Publication number
DE102013012810A1
DE102013012810A1 DE102013012810.2A DE102013012810A DE102013012810A1 DE 102013012810 A1 DE102013012810 A1 DE 102013012810A1 DE 102013012810 A DE102013012810 A DE 102013012810A DE 102013012810 A1 DE102013012810 A1 DE 102013012810A1
Authority
DE
Germany
Prior art keywords
image sensor
correction function
camera system
motor vehicle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102013012810.2A
Other languages
English (en)
Inventor
Peadar Conneely
Patrick Eoghan Denny
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Priority to DE102013012810.2A priority Critical patent/DE102013012810A1/de
Priority to EP14179295.2A priority patent/EP2833618B1/de
Priority to US14/449,187 priority patent/US9762810B2/en
Publication of DE102013012810A1 publication Critical patent/DE102013012810A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/002Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles specially adapted for covering the peripheral part of the vehicle, e.g. for viewing tyres, bumpers or the like
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/583Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben eines Kamerasystems eines Kraftfahrzeugs, wobei mittels eines Bildsensors (15) des Kamerasystems Bilder eines Umgebungsbereichs des Kraftfahrzeugs über eine Optikeinrichtung (16) erfasst werden und mittels einer Steuereinheit (17) des Kamerasystems eine Bildkorrekturfunktion aktiviert wird, bei welcher ein Lichtabfall in einem Randbereich der Bilder hervorgerufen durch die Optikeinrichtung (16) kompensiert wird, wobei mittels der Steuereinheit (17) ein aktueller Helligkeitsgrad des Umgebungsbereichs erfasst wird und das Aktivieren und ein Deaktivieren der Bildkorrekturfunktion in Abhängigkeit von dem aktuellen Helligkeitsgrad erfolgt.

Description

  • Die Erfindung betrifft ein Verfahren zum Betreiben eines Kamerasystems eines Kraftfahrzeugs, wobei mittels eines Bildsensors des Kamerasystems Bilder eines Umgebungsbereichs des Kraftfahrzeugs über eine Optikeinrichtung des Kamerasystems erfasst werden, und wobei mittels einer Steuereinheit des Kamerasystems eine Bildkorrekturfunktion aktiviert wird. Bei einer aktivierten Bildkorrekturfunktion wird ein Lichtabfall (light fall-off) in einem Randbereich der Bilder, hervorgerufen durch die Optikeinrichtung, kompensiert. Die Erfindung betrifft außerdem ein Kamerasystem zum Durchführen eines solchen Verfahrens, wie auch ein Kraftfahrzeug mit einem Kamerasystem.
  • Fahrzeugkameras sind bereits Stand der Technik. Es ist bereits bekannt, mehrere Kameras an einem Kraftfahrzeug anzubringen, welche Bilder der Umgebung um das Kraftfahrzeug herum bereitstellen. Jede Kamera erfasst einen Umgebungsbereich des Kraftfahrzeugs, und die bereitgestellten Bilder können beispielsweise auf einem Display im Innenraum des Kraftfahrzeugs dargestellt werden. In diesem Zusammenhang kann anhand der Bilder aller Kameras beispielsweise ein so genanntes „Bird Eye View”-Bild erzeugt werden, welches eine Draufsicht auf das Kraftfahrzeug und dessen Umgebung aus einer Vogelperspektive zeigt.
  • Bei heutigen Fahrzeugkameras wird üblicherweise eine Optikeinrichtung – insbesondere eine Linse – eingesetzt, welche einen relativ breiten Öffnungswinkel aufweist. Beispielsweise werden hier so genannte Fischaugenlinsen eingesetzt. Es werden beispielsweise Linsen eingesetzt, die einen Öffnungswinkel größer als 160° aufweisen. Der Öffnungswinkel kann sogar 190° betragen. Eine solche Weitwinkeloptikeinrichtung hat jedoch den Nebeneffekt, dass die Optikeinrichtung einen geringeren Transmissionsfaktor für Licht aufweist, das unter einem größeren Einfallswinkel einfällt. Dieser optische Effekt führt dazu, dass die Bildpunkte im Randbereich des Bilds dunkler als im Zentrum des Bilds sind. Dieser Effekt wird als „Randlichtabfall” (boundary light fall-off) bezeichnet und ähnelt der so genannten Vignettierung. Die Folge ist, dass die Helligkeit der Bildpunkte in Richtung zum Bildrand hin abnimmt. Um diesen Lichtabfall im Randbereich der Bilder zu kompensieren, wird im Stand der Technik eine Bildkorrekturfunktion angewendet. Diese Funktion wird auch als „Linsenkorrektur” (lens correction) bezeichnet und sieht vor, dass die dunkleren Bildpunkte im Randbereich der Bilder mit einem Kompensationsfaktor multipliziert werden, sodass sich insgesamt eine größere digitale Verstärkung für die dunklen Bildpunkte als für die Bildpunkte im Zentrum des Bilds ergibt.
  • Es ist außerdem Stand der Technik, dass eine Kamera von einem Normallichtmodus in den so genannten Schwachlichtmodus (low light mode) geschaltet werden kann. In dem Schwachlichtmodus wird gegenüber dem Normallichtmodus ein größerer Verstärkungsfaktor eingestellt, mit welchem die analogen Bildsignale des Bildsensors verstärkt werden. In dem Schwachlichtmodus wird außerdem die Belichtungszeit erhöht und die Bildrate (frame rate) des Bildsensors reduziert. Unter dem Begriff „Bildrate” wird dabei eine Bildwiederholungsfrequenz verstanden, mit welcher mittels des Bildsensors Einzelbilder bereitgestellt werden. Die Bildrate gibt somit die Anzahl der bereitgestellten Bilder pro Zeiteinheit (pro Sekunde) an. Dabei ist es üblich, in dem Normallichtmodus eine Bildrate von beispielsweise 30 Bildern pro Sekunde und in dem Schwachlichtmodus eine Bildrate von zum Beispiel 15 Bildern pro Sekunde einzustellen. Diese Umschaltung in den Schwachlichtmodus erfolgt üblicherweise in Abhängigkeit von der Helligkeit der abgebildeten Szene. Bei einer dunkleren Szene wird die Belichtungszeit erhöht, was wiederum zu einer Reduktion der Bildrate führt.
  • Es ist Aufgabe der Erfindung, eine Lösung aufzuzeigen, wie bei einem Verfahren der eingangs genannten Gattung die Qualität der Bilder im Randbereich im Vergleich zum Stand der Technik verbessert werden kann.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch ein Kamerasystem sowie durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche, der Beschreibung und der Figuren.
  • Bei einem erfindungsgemäßen Verfahren zum Betreiben eines Kamerasystems eines Kraftfahrzeugs werden mittels eines Bildsensors des Kamerasystems Bilder eines Umgebungsbereichs des Kraftfahrzeugs über eine Optikeinrichtung erfasst. Eine Steuereinheit aktiviert eine Bildkorrekturfunktion, welche einen Lichtabfall in einem Randbereich der Bilder kompensiert, der durch die Optikeinrichtung hervorgerufen wird. Erfindungsgemäß ist vorgesehen, dass mittels der Steuereinheit ein aktueller Helligkeitsgrad des Umgebungsbereichs erfasst wird und das Aktivieren und ein Deaktivieren der Bildkorrekturfunktion in Abhängigkeit von dem aktuellen Helligkeitsgrad erfolgt.
  • Durch eine solche Vorgehensweise kann die Qualität der Bilder im Randbereich im Vergleich zum Stand der Technik verbessert werden. Die Erfindung basiert dabei auf der Erkenntnis, dass die dunkleren Bildpunkte, die im Randbereich der Bilder liegen und aufgrund des geringeren Transmissionsfaktors der Optikeinrichtung für größere Einfallswinkel dunkler als andere Bildpunkte sind, deutlich anfälliger für Rauschen sind als die helleren Bildpunkte. Werden die analogen Bildsignale mittels eines analogen Verstärkers mit einem Verstärkungsfaktor verstärkt, was typischerweise innerhalb der Kamera durchgeführt wird, so ergibt sich für die Bildpunkte im Randbereich insgesamt eine zweifache Verstärkung, nämlich einerseits durch den analogen Verstärker und andererseits noch durch die digitale Bildkorrekturfunktion, bei welcher die Bildpunkte im Randbereich mit einem Kompensationsfaktor im digitalen Bereich multipliziert werden. Der Verstärkungsfaktor des analogen Verstärkers ist wiederum abhängig von dem Helligkeitsgrad des abgebildeten Umgebungsbereichs (der abgebildeten Szene). Es gilt dabei die Beziehung, dass je dunkler die abgebildete Szene ist, desto größer der Verstärkungsfaktor des analogen Verstärkers ist. Bei einem dunklen Umgebungsbereich wird somit die Erzeugung des Rauschens bei den Bildpunkten im Randbereich begünstigt. Um dies zu verhindern, wird die Bildkorrekturfunktion erfindungsgemäß abhängig von dem aktuellen Helligkeitsgrad der Szene aktiviert und deaktiviert.
  • Die Reduktion des Rauschens im Randbereich der Bilder hat auch den Vorteil, dass der so genannte „Schwarzpegel” (black level) der Bildpunkte reduziert werden kann. Außerdem kann der automatische Weißabgleich der Kamera bei einer dunklen Szene – insbesondere im Schwachlichtmodus – verbessert werden. Blaue Bildpunkte können nämlich bei einer helleren Szene einfacher verrauscht werden als grüne oder rote Bildpunkte, weil die blauen Bildpunkte eine geringere Quantenausbeute (quantum efficiency) aufweisen.
  • Die Steuereinheit kann den aktuellen Helligkeitsgrad des Umgebungsbereichs direkt oder indirekt erfassen. In einer Ausführungsform ist vorgesehen, dass der Helligkeitsgrad indirekt erfasst wird und die Steuereinheit einen Betriebsparameter des Bildsensors erfasst, der mit dem Helligkeitsgrad des Umgebungsbereichs korreliert ist. Das Aktivieren und Deaktivieren der Bildkorrekturfunktion kann dann in Abhängigkeit von einem aktuellen Wert des Betriebsparameters erfolgen. Als Betriebsparameter kann dabei beispielsweise ein Verstärkungsfaktor des analogen Verstärkers und/oder eine Belichtungszeit des Bildsensors verwendet werden. Diese Ausführungsform macht sich die Tatsache zunutze, dass bei einer Kamera der Verstärkungsfaktor und/oder die Belichtungszeit in der Regel abhängig von der Helligkeit der Szene automatisch eingestellt wird und somit ein genaues Maß für den Helligkeitsgrad darstellt. Dieser Betriebsparameter kann somit direkt von der Steuereinheit ausgelesen werden und charakterisiert dann den aktuellen Helligkeitsgrad der Umgebung. Wird ein hoher Verstärkungsfaktor und/oder eine hohe Belichtungszeit eingestellt, so kann die Bildkorrekturfunktion deaktiviert werden, weil ein hoher Verstärkungsfaktor und/oder hohe Belichtungszeit auf eine dunkle Szene hindeuten.
  • Vorzugsweise wird das Kamerasystem in Abhängigkeit von dem aktuellen Helligkeitsgrad – vorzugsweise abhängig von dem genannten Betriebsparameter – von einem Normallichtmodus in einen Schwachlichtmodus (low light mode) geschaltet. In dem Schwachlichtmodus wird gegenüber dem Normallichtmodus ein höherer Verstärkungsfaktor des analogen Verstärkers und/oder eine höhere Belichtungszeit des Bildsensors und/oder eine reduzierte Bildrate des Bildsensors eingestellt. Es hat sich dabei als besonders vorteilhaft erwiesen, wenn mit dem Umschalten in den Schwachlichtmodus gleichzeitig die Bildkorrekturfunktion deaktiviert wird und mit erneutem Umschalten in den Normallichtmodus wieder aktiviert wird. Es ist nämlich üblicherweise der Schwachlichtmodus, in welchem ein erhöhter Verstärkungsfaktor und eine größere Belichtungszeit eingestellt werden und die Bildpunkte im Randbereich der Bilder somit wahrscheinlicher verrauscht werden können. Diese Ausführungsform sorgt dafür, dass in dem Schwachlichtmodus das Rauschen bei den Bildpunkten im Randbereich reduziert werden kann und im Randbereich der Bilder somit insgesamt eine verbesserte Bildstruktur erkennbar ist und die Bildinformationen nicht verloren gehen.
  • Das Umschalten des Kamerasystems zwischen dem Normallichtmodus und dem Schwachlichtmodus kann auch unter Berücksichtigung des aktuellen Werts der Temperatur des Bildsensors vorgenommen werden. Im Stand der Technik hat sich nämlich folgendes Problem herausgestellt: Bei einer dunklen Szene wird entsprechend ein relativ hoher Verstärkungsfaktor des Bildsensors eingestellt, um auch bei dunklen Bildpunkten die im Bild vorhandenen Informationen zu extrahieren. Bei einem höheren Verstärkungsfaktor entsteht in dem Bildsensor jedoch der sogenannte Dunkelstrom relativ hoher Stärke. Dieser Dunkelstrom verändert dann die Spannungsmenge korrespondierend zur Helligkeit der Bildpunkte, was wiederum zu einer automatischen Reduktion des Verstärkungsfaktors und der Belichtungszeit führt. Mit anderen Worten glaubt die Kamera, dass die abgebildete Szene heller als in der Tat ist, obwohl die Erhöhung der Helligkeit der Bildpunkte tatsächlich durch den Dunkelstrom verursacht wird. Diese falsche Interpretation der Helligkeit der abgebildeten Szene kann dazu führen, dass die Bildrate der Kamera überhaupt nicht reduziert wird.
  • Aus diesem Grund kann das Umschalten des Kamerasystems zwischen dem Normallichtmodus und dem Schwachlichtmodus unter Berücksichtigung des aktuellen Temperaturwerts des Bildsensors durchgeführt werden. Dies basiert auf der Erkenntnis, dass im Stand der Technik die Umschaltung zwischen den unterschiedlichen Betriebsmodi nicht immer zuverlässig erfolgt. Eine weitere Erkenntnis besteht darin, dass die Probleme im Stand der Technik dadurch verursacht werden, dass bei einer dunkleren Szene ein höherer Verstärkungsfaktor des Bildsensors eingestellt wird, was wiederum den Dunkelstrom im Bildsensor verursacht. Der Dunkelstrom verursacht dann eine Erhöhung der Helligkeit der Bildpunkte, was durch die Kamera fälschlicherweise als eine Änderung der Helligkeit der abgebildeten Szene interpretiert wird. Die Erfindung basiert ferner auf der Erkenntnis, dass der Dunkelstrom proportional zur Temperatur des Bildsensors ist und die Nachteile des Standes der Technik dadurch umgangen werden können, dass bei der Einstellung der Bildrate der Kamera auch die aktuelle Temperatur des Bildsensors berücksichtigt wird. Die Umschaltung zwischen den Betriebsmodi kann somit im Vergleich zum Stand der Technik zuverlässiger durchgeführt werden.
  • Das Umschalten zwischen dem Normallichtmodus und dem Schwachlichtmodus erfolgt vorzugsweise in Abhängigkeit von einem Vergleich des aktuellen Werts eines Betriebsparameters, der mit dem Helligkeitsgrad der Szene korreliert ist, mit zumindest einer Schwelle, die abhängig von dem aktuellen Temperaturwert des Bildsensors eingestellt wird. Als Betriebsparameter wird hier vorzugsweise der genannte Verstärkungsfaktor des analogen Verstärkers verwendet. Somit kann die Berücksichtigung der Temperatur beim Umschalten zwischen den beiden Modi ohne viel Aufwand implementiert werden.
  • Das Umschalten von dem Normallichtmodus in den Schwachlichtmodus kann dann erfolgen, wenn der aktuelle Wert des Betriebsparameters (insbesondere des Verstärkungsfaktors) eine erste Schwelle überschreitet, die in Abhängigkeit von dem aktuellen Temperaturwert des Bildsensors eingestellt wird. Und umgekehrt kann das Kamerasystem von dem Schwachlichtmodus wieder in den Normallichtmodus umgeschaltet werden, wenn der Betriebsparameter eine zweite Schwelle unterschreitet, die in Abhängigkeit von dem aktuellen Temperaturwert eingestellt wird. Die zweite Schwelle kann dabei eine von der ersten Schwelle verschiedene Schwelle, insbesondere eine kleinere Schwelle, sein, sodass eine Hysterese bereitgestellt wird, welche für eine zusätzliche Stabilität und Robustheit bei der Umschaltung sorgt. Alternativ können auch gleiche Schwellen implementiert werden, sodass sowohl für das Überschreiten als auch für das Unterschreiten eine einzige Schwelle vorgesehen ist, welche abhängig von der Temperatur des Bildsensors eingestellt wird.
  • Vorzugsweise gilt die Beziehung, dass bei einer höheren Temperatur des Bildsensors die zumindest eine Schwelle auf einen geringeren Schwellwert als bei einer geringeren Temperatur eingestellt wird. Dies bedeutet, dass bei einer höheren Temperatur das Umschalten von dem Normallichtmodus in den Schwachlichtmodus früher – d. h. bei einem geringeren Wert des Verstärkungsfaktors – als bei einer geringeren Temperatur erfolgt. Auf diese Art und Weise wird bei der Reduktion der Bildrate der Dunkelstrom kompensiert.
  • Vorzugsweise wird die zumindest eine Schwelle für den Betriebsparameter in Abhängigkeit von einem Vergleich des aktuellen Temperaturwerts des Bildsensors mit zumindest einem Temperaturschwellwert eingestellt. Auch diese Ausführungsform sorgt für einen reduzierten Rechenaufwand. Die aktuelle Temperatur des Bildsensors wird nämlich mit zumindest einem Temperaturschwellwert verglichen, und abhängig von dem Ergebnis dieses Vergleiches wird die zumindest eine Schwelle für den Betriebsparameter eingestellt.
  • Dies kann insbesondere so aussehen, dass die zumindest eine Schwelle für den Betriebsparameter von einem ersten Schwellwert auf einen geringeren zweiten Schwellwert dann reduziert wird, wenn der aktuelle Temperaturwert einen ersten Temperaturschwellwert überschreitet. Die zumindest eine Schwelle für den Betriebsparameter kann von dem zweiten Schwellwert wieder auf den ersten Schwellwert dann erhöht werden, wenn der aktuelle Wert der Temperatur einen zweiten Temperaturschwellwert unterschreitet. Der erste und der zweite Temperaturschwellwert können vorzugsweise voneinander unterschiedliche Schwellwerte sein, so dass bei der Einstellung der zumindest einen Schwelle für den Betriebsparameter eine Hysterese implementiert wird, welche für eine zusätzliche Robustheit und Zuverlässigkeit bei der Einstellung der Schwelle für den Betriebsparameter sorgt.
  • In einer Ausführungsform kann der Bildsensor ein HDR-Bildsensor sein, mittels welchem HDR-Bilder („high dynamic range” oder „high dynamic range imaging”) des Umgebungsbereichs bereitgestellt werden. Zum Bereitstellen eines HDR-Bilds werden dabei zumindest zwei Belichtungszeitwerte des HDR-Bildsensors eingestellt. Dann kann die oben genannte Bildkorrekturfunktion ausschließlich auf Bildpunkte angewendet werden, die bei einem höheren der Belichtungszeitwerte erzeugt wurden. Diese Ausführungsform verringert das Rauschen eines HDR-Bilds, weil die Bildkorrekturfunktion nicht auf die Bildpunkte mit dem geringeren Belichtungszeitwert angewendet wird, welche mit einer höheren Wahrscheinlichkeit verrauscht werden können. Optional kann auch vorgesehen sein, dass – zumindest in einem Betriebsmodus des Bildsensors – drei Belichtungszeitwerte des HDR-Bildsensors eingestellt werden. Diese können einen kurzen Belichtungszeitwert, einen langen Belichtungszeitwert und einen sehr kurzen Belichtungszeitwert umfassen. Dann kann die oben genannte Bildkorrekturfunktion ausschließlich auf Bildpunkte angewendet werden, die bei dem langen Belichtungszeitwert und/oder bei dem kurzen Belichtungszeitwert erzeugt wurden.
  • Bei einem HDR-Bildsensor werden zwei Bilder mit unterschiedlichen Belichtungszeitwerten aufgenommen und zu einem HDR-Bild verarbeitet. Alternativ können auch unterschiedliche Belichtungswerte für unterschiedliche Bildbereiche desselben Bilds definiert werden. Der HDR-Bildsensor ist vorzugsweise nach der so genannten „Split Pixel Technology” ausgebildet, bei welcher gleichzeitig zwei Bilder des Umgebungsbereichs mit zwei verschiedenen Belichtungszeitwerten aufgenommen werden, was die HDR-Bewegungsunschärfe reduziert. Die Bildkorrekturfunktion wird dabei auf dasjenige Teilbild des HDR-Bilds angewendet, welches bei der höheren Belichtungszeit aufgenommen wurde.
  • Es kann beispielsweise der Bildsensor OV10630 oder OV10635 der Firma Omnivision eingesetzt werden.
  • Alternativ kann aber auch ein Nicht-HDR-Bildsensor verwendet werden.
  • Die Erfindung betrifft außerdem ein Kamerasystem, welches zum Durchführen eines erfindungsgemäßen Verfahrens ausgebildet ist.
  • Ein erfindungsgemäßes Kraftfahrzeug, insbesondere ein Personenkraftwagen, umfasst ein erfindungsgemäßes Kamerasystem.
  • Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für das erfindungsgemäße Kamerasystem sowie für das erfindungsgemäße Kraftfahrzeug.
  • Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Alle vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder aber in Alleinstellung verwendbar.
  • Die Erfindung wird nun anhand eines bevorzugten Ausführungsbeispiels sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.
  • Es zeigen:
  • 1 in schematischer Darstellung ein Kraftfahrzeug mit einem Kamerasystem gemäß einer Ausführungsform der Erfindung;
  • 2 in schematischer Darstellung ein Blockdiagramm einer einzelnen Kamera des Kamerasystems; und
  • 3 und 4 Flussdiagramme zur Erläuterung eines Verfahrens gemäß einer Ausführungsform der Erfindung.
  • Ein in 1 dargestelltes Kraftfahrzeug 1 ist beispielsweise ein Personenkraftwagen. Das Kraftfahrzeug 1 umfasst ein Kamerasystem 2, welches im Ausführungsbeispiel eine Vielzahl von Kameras 3, 4, 5, 6 aufweist, die an dem Kraftfahrzeug 1 verteilt angeordnet sind. Im Ausführungsbeispiel sind vier Kameras 3, 4, 5, 6 vorgesehen, wobei die Erfindung auch nicht auf eine solche Anzahl und Anordnung der Kameras 3, 4, 5, 6 beschränkt ist. Es kann grundsätzlich eine beliebige Anzahl von Kameras verwendet werden, welche an unterschiedlichen Stellen des Kraftfahrzeugs 1 angeordnet werden können. Alternativ zu einem solchen Multikamerasystem 2 kann auch ein Kamerasystem 2 mit einer einzigen Kamera verwendet werden.
  • Eine erste Kamera 3 ist beispielsweise am vorderen Stoßfänger des Kraftfahrzeugs angeordnet. Eine zweite Kamera 4 ist zum Beispiel im Heckbereich angeordnet, etwa am hinteren Stoßfänger oder an einer Heckklappe. Die beiden seitlichen Kameras 5, 6 können zum Beispiel in die jeweiligen Außenspiegel integriert sein. Die Kameras 3, 4, 5, 6 sind mit einer zentralen Recheneinrichtung 7 elektrisch gekoppelt, welche wiederum mit einer Anzeigeeinrichtung 8 gekoppelt ist. Die Anzeigeeinrichtung 8 kann ein LCD-Display sein.
  • Die Kameras 3, 4, 5, 6 sind Video-Kameras, welche jeweils eine Sequenz von Bildern pro Zeiteinheit aufnehmen und an die Recheneinrichtung 7 übermitteln können. Die Kameras 3, 4, 5, 6 weisen jeweils einen großen Öffnungswinkel auf, etwa in einem Wertebereich von 150° bis 200°. Sie können auch so genannte Fischaugenkameras sein. Optional können die Kameras 3, 4, 5, 6 auch HDR-Kameras sein.
  • Die Kamera 3 erfasst einen Umgebungsbereich 9 vor dem Kraftfahrzeug 1. Die Kamera 4 erfasst einen Umgebungsbereich 10 hinter dem Kraftfahrzeug 1. Die Kamera 5 erfasst einen seitlichen Umgebungsbereich 11 links neben dem Kraftfahrzeug 1, während die Kamera 6 einen Umgebungsbereich 12 auf der rechten Seite des Kraftfahrzeugs erfasst. Die Kameras 3, 4, 5, 6 stellen Bilder der jeweiligen Umgebungsbereiche 9, 10, 11, 12 bereit und übermitteln diese Bilder an die Recheneinrichtung 7. Wie aus 1 hervorgeht, überlappen sich die abgebildeten Umgebungsbereiche 9, 10, 11, 12 paarweise gegenseitig. Aus den Bildern der Kameras 3, 4, 5, 6 erzeugt die Recheneinrichtung 7 eine Bilddarstellung, welche dann auf der Anzeigeeinrichtung 8 angezeigt wird. Diese Bilddarstellung kann beispielsweise eine Draufsichtdarstellung sein, welche das Kraftfahrzeug 1 und seine Umgebung 9, 10, 11, 12 aus einer Vogelperspektive zeigt.
  • Ein beispielhafter Aufbau einer einzelnen Kamera 3 ist dabei in 2 schematisch und vereinfacht gezeigt. Die Kamera 3 umfasst eine Kommunikationsschnittstelle 13, welche an einen Kommunikationsbus 14 des Kraftfahrzeugs 1 angeschlossen ist. Über den Kommunikationsbus 14 kann die Kamera 3 mit der zentralen Recheneinrichtung 7 kommunizieren.
  • Die Kamera 3 ist eine Video-Kamera. Sie umfasst einen Bildsensor 15, der hinter einer Optikeinrichtung 16, insbesondere einer Linse, angeordnet ist. Der Bildsensor 15 kann beispielsweise ein CCD-Sensor oder ein CMOS-Sensor sein. Der Bildsensor 15 ist mit einer Steuereinheit 17 gekoppelt, welche die digitalen Bilder des Bildsensors 15 empfängt.
  • Die Steuereinheit 17 ist auch mit der Schnittstelle 13 gekoppelt, über welche die Steuereinheit 17 mit der zentralen Recheneinrichtung 7 kommuniziert.
  • Wie bereits ausgeführt, ist die Kamera 3 in 2 vereinfacht dargestellt. Der Bildsensor 15 kann dabei neben dem tatsächlichen Bild-Array, mittels welchem die analogen Bilder erzeugt werden, auch einen analogen Verstärker aufweisen, mittels welchem die analogen Bilder mit einem Verstärkungsfaktor G verstärkt werden. Außerdem kann der Bildsensor 15 auch einen AD-Wandler beinhalten, mittels welchem die analogen Bilder in digitale Bilder umgewandelt werden.
  • Mittels der Steuereinheit 17 können verschiedene Betriebsparameter des Bildsensors 15 eingestellt werden. Unter anderem wird der genannte Verstärkungsfaktor G, eine Bildrate FR sowie eine Belichtungszeit E mittels der Steuereinheit 17 eingestellt. Alternativ können diese Betriebsparameter G, FR, E auch durch die zentrale Recheneinrichtung 7 vorgegeben werden.
  • Die Kamera 3 beinhaltet auch einen Temperatursensor 18, der die aktuelle Temperatur T des Bildsensors 15 erfasst und an die Steuereinheit 17 übermittelt. Alternativ kann die Temperatur T auch rechentechnisch anhand der Bilddaten bestimmt werden.
  • Die Kamera 3 kann zwischen einem Normallichtmodus NLM und einem Schwachlichtmodus LLM umgeschaltet werden. Das Umschalten der Kamera 3 wird nun Bezug nehmend auf 3 näher erläutert: Das Verfahren startet in einem Schritt S1 und geht zu einem Schritt S2 über, in welchem der Normallichtmodus NLM aktiviert wird. Hier wird die Bildrate FR auf einen ersten Wert eingestellt, beispielsweise 30 Bilder pro Sekunde. In diesem Normallichtmodus ist auch der Verstärkungsfaktor G und die Belichtungszeit E geringer als in dem Schwachlichtmodus LLM.
  • Die Steuereinheit 17 überprüft dann fortlaufend und in Echtzeit, ob der aktuelle Verstärkungsfaktor G eine erste Schwelle TG1 überschreitet. Falls G größer als TG1 ist, geht das Verfahren zu einem Schritt S3 über, in welchem die Kamera 3 in den Schwachlichtmodus LLM umgeschaltet wird. In diesem Schwachlichtmodus LLM wird die Bildrate FR auf einen zweiten Wert reduziert, der beispielsweise 15 Bilder pro Sekunde betragen kann. Befindet sich die Kamera 3 im Schwachlichtmodus, so überprüft die Steuereinheit 17, ob der Verstärkungsfaktor G eine zweite Schwelle TG2 unterschreitet. Diese zweite Schwelle TG2 ist kleiner als die erste Schwelle TG1. Alternativ kann auch eine gleiche Schwelle verwendet werden. Durch Vorsehen von zwei verschiedenen Schwellen TG1 und TG2 wird eine Hysterese implementiert, sodass die Umschaltung insgesamt robuster erfolgt. Es werden somit häufige Schaltvorgänge verhindert.
  • Die beiden Schwellen TG1 und TG2 können auch in Abhängigkeit von der aktuellen Temperatur T eingestellt werden. Ein Verfahren zur Einstellung der Schwellen TG1 und TG2 wird Bezug nehmend auf 4 näher erläutert:
    Dieses Verfahren startet in einem Schritt S10 und geht zu einem Schritt S11 über, in welchem die erste Schwelle TG1 auf einen ersten Schwellwert TG11 eingestellt wird. Gleichzeitig wird die zweite Schwelle TG2 auf einen zweiten Wert TG21 eingestellt, wobei TG21 < TG11.
  • Überschreitet nun die Temperatur T einen ersten Temperaturschwellwert TT1, so geht das Verfahren zu einem weiteren Schritt S12 über, in welchem die beiden Schwellen TG1 und TG2 reduziert werden und hierbei auf einen dritten Wert TG12 respektive einen vierten Wert TG22 eingestellt werden, wobei TG12 < TG11 und TG22 < TG21. Es kann vorzugsweise auch folgende Beziehung gelten: (TG12 – TG22) = (TG11 – TG21). Mit anderen Worten kann die Differenz zwischen der ersten Schwelle TG1 und der zweiten Schwelle TG2 konstant bleiben.
  • Unterschreitet nun die Temperatur T wieder einen zweiten Temperaturschwellwert TT2, so geht das Verfahren wieder zum Schritt S11 zurück, so dass die Schwellen TG1 und TG2 wieder erhöht werden. Der zweite Temperaturschwellwert TT2 ist dabei kleiner als der erste Temperaturschwellwert TT1. Auch somit wird eine Hysterese bereitgestellt, so dass eine häufige Umschaltung zwischen den Schwellen verhindert wird. Alternativ kann jedoch auch ein einziger Temperaturschwellwert verwendet werden. Dann gilt:
    TT1 = TT2.
  • Im Ausführungsbeispiel können folgende Werte verwendet werden: TT1 = 70°C und TT2 = 65°C. Im Allgemeinen kann eine Differenz zwischen den Temperaturschwellwerten TT1 und TT2 in einem Wertebereich von 0 bis 10°C liegen.
  • In der Steuereinheit 17 (oder alternativ in der Recheneinrichtung 7) wird auch eine Bildkorrekturfunktion implementiert, welche zur Kompensation eines Lichtabfalls im Randbereich der Bilder dient, der durch die Optikeinrichtung 16 und, genauer gesagt, durch den breiten Öffnungswinkel größer als 160° hervorgerufen wird. Diese Bildkorrekturfunktion sieht vor, dass die Helligkeitswerte – nämlich die Y-Werte – der Bildpunkte im Randbereich der Bilder mit einem Kompensationsfaktor multipliziert und somit verstärkt werden. Dieser Kompensationsfaktor kann auch für unterschiedliche Bildpunkte unterschiedlich sein, nämlich abhängig von dem Abstand zum Rand des Bilds. Der Kompensationsfaktor kann insbesondere zum Bildrand hin größer sein.
  • Diese Bildkorrekturfunktion wird nun ausschließlich in dem Normallichtmodus NLM aktiviert und beim Umschalten in den Schwachlichtmodus LLM deaktiviert. Wird die Kamera 3 wieder in den Normallichtmodus NLM umgeschaltet, so wird die Bildkorrekturfunktion wieder aktiviert. Das Aktivieren und das Deaktivieren der Bildkorrekturfunktion ist somit abhängig von der aktuellen Helligkeit der Umgebung 9, 10, 11, 12 des Kraftfahrzeugs 1.
  • Alternativ zu einem Nicht-HDR-Bildsensor 15 kann auch ein HDR-Bildsensor 15 eingesetzt werden, mittels welchem HDR-Bilder der Umgebung 9, 10, 11, 12 bereitgestellt werden. Zur Bereitstellung eines HDR-Bilds werden dabei zwei herkömmliche Bilder mit unterschiedlichen Belichtungszeiten E aufgenommen und zu einem HDR-Bild zusammen verarbeitet. Die Bildkorrekturfunktion kann hier ausschließlich auf dasjenige Bild bzw. auf diejenigen Bildpunkte angewendet werden, welche bei der höheren Belichtungszeit erzeugt wurden.

Claims (10)

  1. Verfahren zum Betreiben eines Kamerasystems (2) eines Kraftfahrzeugs (1), wobei mittels eines Bildsensors (15) des Kamerasystems (2) Bilder eines Umgebungsbereichs (9, 10, 11, 12) des Kraftfahrzeugs (1) über eine Optikeinrichtung (16) erfasst werden und mittels einer Steuereinheit (17) des Kamerasystems (2) eine Bildkorrekturfunktion aktiviert wird, bei welcher ein Lichtabfall in einem Randbereich der Bilder hervorgerufen durch die Optikeinrichtung (16) kompensiert wird, dadurch gekennzeichnet, dass mittels der Steuereinheit (17) ein aktueller Helligkeitsgrad des Umgebungsbereichs (9, 10, 11, 12) erfasst wird und das Aktivieren und ein Deaktivieren der Bildkorrekturfunktion in Abhängigkeit von dem aktuellen Helligkeitsgrad erfolgt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass mittels der Steuereinheit (17) ein Betriebsparameter (G, E) des Bildsensors (15) erfasst wird, der mit dem Helligkeitsgrad des Umgebungsbereichs (9, 10, 11, 12) korreliert ist, und das Aktivieren und das Deaktivieren der Bildkorrekturfunktion in Abhängigkeit von einem aktuellen Wert des Betriebsparameters (G, E) erfolgt.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass als Betriebsparameter (G, E) ein Verstärkungsfaktor (G) und/oder eine Belichtungszeit (E) verwendet wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in Abhängigkeit von dem aktuellen Helligkeitsgrad das Kamerasystem (2) von einem Normallichtmodus (NLM) in einen Schwachlichtmodus (LLM) geschaltet wird, in welchem ein Verstärkungsfaktor (G) und/oder eine Belichtungszeit (E) gegenüber dem Normallichtmodus (NLM) erhöht und/oder eine Bildrate (FR) des Bildsensors (15) reduziert wird, wobei beim Umschalten in den Schwachlichtmodus (LLM) die Bildkorrekturfunktion deaktiviert und beim erneuten Umschalten in den Normallichtmodus (NLM) wieder aktiviert wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass eine Temperatur (T) des Bildsensors (15) erfasst wird und das Umschalten unter Berücksichtigung des aktuellen Werts der Temperatur (T) erfolgt.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass das Umschalten in Abhängigkeit von einem Vergleich des aktuellen Werts eines Betriebsparameters (G, E) des Bildsensors (15), welcher mit dem Helligkeitsgrad korreliert ist, insbesondere eines Verstärkungsfaktors (G), mit zumindest einer Schwelle (TG1, TG2) erfolgt, die abhängig von dem aktuellen Wert der Temperatur (T) eingestellt wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die zumindest eine Schwelle (TG1, TG2) bei einer höheren Temperatur (T) auf einen geringeren Schwellwert (TG12, TG22) als bei einer geringeren Temperatur (T) eingestellt wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Bildsensor (15) ein HDR-Bildsensor ist, mittels welchem HDR-Bilder des Umgebungsbereichs (9, 10, 11, 12) bereitgestellt werden, wobei zum Bereitstellen eines HDR-Bilds zumindest zwei Belichtungszeitwerte (E) des HDR-Bildsensors eingestellt werden, und wobei die Bildkorrekturfunktion ausschließlich auf Bildpunkte angewendet wird, die bei einem höheren der Belichtungszeitwerte (E) erzeugt wurden.
  9. Kamerasystem (2) für ein Kraftfahrzeug (1), mit einer Optikeinrichtung (16), mit einem Bildsensor (15) zum Bereitstellen von Bildern eines Umgebungsbereichs (9, 10, 11, 12) des Kraftfahrzeugs (1) über die Optikeinrichtung (16), und mit einer Steuereinheit (17) zum Aktivieren und Deaktivieren einer Bildkorrekturfunktion, bei welcher ein Lichtabfall in einem Randbereich der Bilder hervorgerufen durch die Optikeinrichtung (16) kompensiert wird, dadurch gekennzeichnet, dass die Steuereinheit (17) dazu ausgelegt ist, einen aktuellen Helligkeitsgrad des Umgebungsbereichs (9, 10, 11, 12) zu erfassen und die Bildkorrekturfunktion in Abhängigkeit von dem aktuellen Helligkeitsgrad zu aktivieren und zu deaktivieren.
  10. Kraftfahrzeug (1) mit einem Kamerasystem (2) nach Anspruch 9.
DE102013012810.2A 2013-08-01 2013-08-01 Verfahren zum Aktivieren und Deaktivieren einer Bildkorrekturfunktion, Kamerasystem und Kraftfahrzeug Withdrawn DE102013012810A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102013012810.2A DE102013012810A1 (de) 2013-08-01 2013-08-01 Verfahren zum Aktivieren und Deaktivieren einer Bildkorrekturfunktion, Kamerasystem und Kraftfahrzeug
EP14179295.2A EP2833618B1 (de) 2013-08-01 2014-07-31 Verfahren zum Aktivieren und Deaktivieren einer Bildkorrekturfunktion, Kamerasystem und Kraftfahrzeug
US14/449,187 US9762810B2 (en) 2013-08-01 2014-08-01 Method for activating and deactivating an image correction function, camera system and motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013012810.2A DE102013012810A1 (de) 2013-08-01 2013-08-01 Verfahren zum Aktivieren und Deaktivieren einer Bildkorrekturfunktion, Kamerasystem und Kraftfahrzeug

Publications (1)

Publication Number Publication Date
DE102013012810A1 true DE102013012810A1 (de) 2015-02-05

Family

ID=51265542

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013012810.2A Withdrawn DE102013012810A1 (de) 2013-08-01 2013-08-01 Verfahren zum Aktivieren und Deaktivieren einer Bildkorrekturfunktion, Kamerasystem und Kraftfahrzeug

Country Status (3)

Country Link
US (1) US9762810B2 (de)
EP (1) EP2833618B1 (de)
DE (1) DE102013012810A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016002590A1 (de) * 2016-03-03 2017-09-07 Audi Ag Fahrzeug mit Kameraeinrichtung und Außenlichtanlage
DE102018202319A1 (de) * 2018-02-15 2019-08-22 Continental Automotive Gmbh Verfahren und Vorrichtung zum Betreiben eines Kamera-Monitor-Systems für ein Kraftfahrzeug
DE102018207388B4 (de) 2018-05-14 2024-03-28 Continental Automotive Technologies GmbH Verfahren und Vorrichtung zur Erzeugung eines Anzeigebildes in einem Kraftfahrzeug

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101629825B1 (ko) * 2014-12-04 2016-06-22 현대모비스 주식회사 Hdr 기능을 이용한 차량용 디스플레이 장치 및 방법
US9616773B2 (en) 2015-05-11 2017-04-11 Uber Technologies, Inc. Detecting objects within a vehicle in connection with a service
US10712160B2 (en) 2015-12-10 2020-07-14 Uatc, Llc Vehicle traction map for autonomous vehicles
US9841763B1 (en) 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle
US9840256B1 (en) * 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle
US9990548B2 (en) 2016-03-09 2018-06-05 Uber Technologies, Inc. Traffic signal analysis system
US10459087B2 (en) 2016-04-26 2019-10-29 Uber Technologies, Inc. Road registration differential GPS
US9672446B1 (en) 2016-05-06 2017-06-06 Uber Technologies, Inc. Object detection for an autonomous vehicle
DE102017208663A1 (de) * 2016-06-09 2017-12-14 Conti Temic Microelectronic Gmbh Umgebungserfassende Vorrichtung sowie Kraftfahrzeug mit einer solchen umgebungserfassenden Vorrichtung
US20180003511A1 (en) 2016-07-01 2018-01-04 Uber Technologies, Inc. Autonomous vehicle localization using submaps
CN107972583B (zh) * 2016-10-25 2021-06-25 丰田自动车株式会社 车辆用成像显示装置以及记录介质
CN108540636A (zh) * 2017-03-06 2018-09-14 中兴通讯股份有限公司 一种基于双摄像头的拍照方法及装置
JP2018191230A (ja) * 2017-05-11 2018-11-29 ソニーセミコンダクタソリューションズ株式会社 撮像素子及びその駆動方法、並びに、電子機器
US10491807B2 (en) * 2017-06-27 2019-11-26 GM Global Technology Operations LLC Method to use vehicle information and sensors for photography and video viewing recording
US11260875B2 (en) 2017-12-07 2022-03-01 Uatc, Llc Systems and methods for road surface dependent motion planning
WO2019155757A1 (ja) * 2018-02-07 2019-08-15 ソニー株式会社 画像処理装置、画像処理方法及び画像処理システム
US11334753B2 (en) 2018-04-30 2022-05-17 Uatc, Llc Traffic signal state classification for autonomous vehicles
JP7141242B2 (ja) * 2018-05-18 2022-09-22 株式会社小糸製作所 センサシステム
US10785419B2 (en) * 2019-01-25 2020-09-22 Pixart Imaging Inc. Light sensor chip, image processing device and operating method thereof
US11653101B2 (en) 2019-05-17 2023-05-16 Samsung Electronics Co., Ltd. Imaging system for generating high dynamic range image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6833862B1 (en) * 1999-06-30 2004-12-21 Logitech, Inc. Image sensor based vignetting correction
US20050007460A1 (en) * 2003-07-08 2005-01-13 Stavely Donald J. Systems and methods for counteracting lens vignetting
US20110228163A1 (en) * 2010-03-17 2011-09-22 Panasonic Corporation Imaging apparatus, camera body and interchangeable lens

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7965336B2 (en) * 2002-11-14 2011-06-21 Donnelly Corporation Imaging system for vehicle
JP4366966B2 (ja) * 2003-03-13 2009-11-18 株式会社ニコン ホワイトバランス調整回路
JP2006217418A (ja) * 2005-02-04 2006-08-17 Canon Inc 画像処理装置及び方法
KR101035824B1 (ko) * 2006-05-09 2011-05-20 샤프 가부시키가이샤 촬상 장치 및 촬상 방법
WO2011000392A1 (en) * 2009-07-02 2011-01-06 Hi-Key Limited Method and camera system for improving the contrast of a camera image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6833862B1 (en) * 1999-06-30 2004-12-21 Logitech, Inc. Image sensor based vignetting correction
US20050007460A1 (en) * 2003-07-08 2005-01-13 Stavely Donald J. Systems and methods for counteracting lens vignetting
US20110228163A1 (en) * 2010-03-17 2011-09-22 Panasonic Corporation Imaging apparatus, camera body and interchangeable lens

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GRANA, C.: Veiling Luminance estimation on FPGA-based embedded smart camera. In: 2012 Intelligent Vehicles Symposium, Alcalá de Henares, Spain, June 3-7, 2012. XP032452945 *
JOHNSON, A.: Field Testing of the Mars Exploration Rovers Descent Image Motion Estimation System. In: Proceedings of the 2005 IEEE International Conference on Robotics and Automation. Barcelona, Spain 18-22 April 2005. XP010875426. *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016002590A1 (de) * 2016-03-03 2017-09-07 Audi Ag Fahrzeug mit Kameraeinrichtung und Außenlichtanlage
DE102016002590B4 (de) * 2016-03-03 2017-11-23 Audi Ag Fahrzeug mit Kameraeinrichtung und Außenlichtanlage
DE102018202319A1 (de) * 2018-02-15 2019-08-22 Continental Automotive Gmbh Verfahren und Vorrichtung zum Betreiben eines Kamera-Monitor-Systems für ein Kraftfahrzeug
DE102018207388B4 (de) 2018-05-14 2024-03-28 Continental Automotive Technologies GmbH Verfahren und Vorrichtung zur Erzeugung eines Anzeigebildes in einem Kraftfahrzeug

Also Published As

Publication number Publication date
US9762810B2 (en) 2017-09-12
US20150035985A1 (en) 2015-02-05
EP2833618B1 (de) 2018-01-17
EP2833618A3 (de) 2015-02-11
EP2833618A2 (de) 2015-02-04

Similar Documents

Publication Publication Date Title
DE102013012810A1 (de) Verfahren zum Aktivieren und Deaktivieren einer Bildkorrekturfunktion, Kamerasystem und Kraftfahrzeug
DE102012201071B4 (de) Gesichtsabbildungssystem und verfahren zum steuern des gesichtsabbildungssystems sowie computerlesbares medium
DE3687877T2 (de) Kamera und verfahren zur bilderzeugung.
DE102014210059B4 (de) Optische Einrichtung, Steuerungsverfahren für diese und Speichermedium, das ein Steuerungsprogramm für diese speichert
DE102004007649A1 (de) System und Verfahren zum Analysieren eines digitalen Bildes
DE102014013446A1 (de) Bildaufnahmevorrichtung und -system und Steuerverfahren für die Bildaufnahmevorrichtung
DE102016121755A1 (de) Verfahren zum Bestimmen eines zusammengesetzten Bilds eines Umgebungsbereichs eines Kraftfahrzeugs mit Anpassung von Helligkeit und/oder Farbe, Kamerasystem sowie Krafzfahrzeug
DE102013115000A1 (de) Blendungsminderung für dynamischen Rückspiegel
DE112014001571T5 (de) Bildverarbeitungsvorrichtung
DE102010030108A1 (de) Farbbildsensor
EP2567539B1 (de) Bildsensor und verfahren zum aufnehmen eines bildes
DE112018007360T5 (de) Bildverarbeitungsvorrichtung, Bildanzeigesystem und Bildverarbeitungsverfahren
DE102015012809A1 (de) Bildaufnahmeeinrichtung für ein Kraftfahrzeug und Verfahren zum Betreiben einer derartigen Bildaufnahmeeinrichtung
DE102014118314A1 (de) Verfahren zum Anpassen einer Helligkeit eines Hochkontrastbilds, Kamerasystem und Kraftfahrzeug
WO2017093227A1 (de) Verfahren und vorrichtung zur bildkorrektur
DE102006040349B4 (de) Verfahren und Vorrichtung zur Erkennung von defekten Pixeln eines Bildaufnahmesensors in einem Fahrerassistenzsystem
DE102013011844A1 (de) Verfahren zum Anpassen einer Gammakurve eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102013020952A1 (de) Verfahren zum Einstellen eines für die Helligkeit und/oder für den Weißabgleich einer Bilddarstellung relevanten Parameters in einem Kamerasystem eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102008016393B4 (de) Verfahren zur Korrektur von Bildfehlern elektronischer Kameras
DE112017007165T5 (de) Bildverarbeitungsvorrichtung und abbildungsvorrichtung
DE102017121916A1 (de) Harmonisierung von Bildrauschen in einer Kameraeinrichtung eines Kraftfahrzeugs
DE102012024650A1 (de) Verfahren zur Reduktion einer HDR-Bewegungsunschärfe bei einem HDR-Bild, HDR-Kameraeinrichtung und Kraftfahrzeug
DE102015118474A1 (de) Verfahren zum Anpassen eines Kameraparameters und/oder eines Bilds,Computerprogrammprodukt, Kamerasystem, Fahrerassistenzsystem und Kraftfahrzeug
DE102018113281A1 (de) Verfahren zur Bildharmonisierung, Computerprogrammprodukt, Kamerasystem und Kraftfahrzeug
DE102009017135A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Videodatenanalyse

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee