DE102013020949A1 - Verbessertes Alpha-Blending von Bildern eines Kamerasystems eines Kraftfahrzeugs - Google Patents

Verbessertes Alpha-Blending von Bildern eines Kamerasystems eines Kraftfahrzeugs Download PDF

Info

Publication number
DE102013020949A1
DE102013020949A1 DE102013020949.8A DE102013020949A DE102013020949A1 DE 102013020949 A1 DE102013020949 A1 DE 102013020949A1 DE 102013020949 A DE102013020949 A DE 102013020949A DE 102013020949 A1 DE102013020949 A1 DE 102013020949A1
Authority
DE
Germany
Prior art keywords
image
images
pixel values
values
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102013020949.8A
Other languages
English (en)
Inventor
wird später genannt werden Erfinder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Priority to DE102013020949.8A priority Critical patent/DE102013020949A1/de
Publication of DE102013020949A1 publication Critical patent/DE102013020949A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben eines Kamerasystems eines Kraftfahrzeugs, bei welchem zumindest eine erste und eine zweite Kameras jeweils ein Bild (Ya, Yb, Yc, Yd) eines Umgebungsbereichs des Kraftfahrzeugs erfassen. Aus den Bildern (Ya, Yb, Yc, Yd) wird ein Gesamtbildes (GB) erzeugt, wobei sich in dem Gesamtbild (GB) die Bilder (Ya, Yb, Yc, Yd) in einem Überlappungsbereich (23, 24, 25, 26) überlappen, und wobei in dem Überlappungsbereich (23, 24, 25, 26) ein Alpha-Blending-Verfahren auf die Bilder (Ya, Yb, Yc, Yd) angewandt wird. Es werden jeweilige Bildpunktwerte der Bilder (Ya, Yb, Yc, Yd) zumindest außerhalb des Überlappungsbereichs (23, 24, 25, 26) erfasst und ein Unterschied zwischen den Bildpunktwerten des einen Bilds (Ya, Yb, Yc, Yd) und den Bildpunktwerten des anderen Bilds (Ya, Yb, Yc, Yd) bestimmt. Der Unterschied wird durch Korrigieren der Bildpunktwerte des einen Bilds (Ya, Yb, Yc, Yd) und/oder der Bildpunktwerte des anderen Bilds (Ya, Yb, Yc, Yd) kompensiert, wobei das Kompensieren des Unterschieds in einem Ausmaß durchgeführt wird, welches ausgehend von dem Überlappungsbereich (23, 24, 25, 26) in Richtung weg von dem Überlappungsbereich (23, 24, 25, 26) abnimmt.

Description

  • Die Erfindung betrifft ein Verfahren zum Betreiben eines Kamerasystems eines Kraftfahrzeugs, bei welchem zumindest zwei Kameras jeweils Bilder eines Umgebungsbereichs des Kraftfahrzeugs erfassen und sich jeweilige Sichtfelder der Kameras paarweise bereichsweise überlappen. Es wird jeweils ein Bild mittels der zumindest zwei Kameras erfasst. Aus den Bildern wird mittels einer Bildverarbeitungseinrichtung ein Gesamtbild erzeugt, wobei sich in dem Gesamtbild die Bilder in einem Überlappungsbereich überlappen, und wobei in dem Überlappungsbereich ein Alpha-Blending-Verfahren auf die Bilder angewandt wird, indem für Bildpunkte des Überlappungsbereichs Alpha-Werte bestimmt werden. Es werden jeweilige Bildpunktwerte der Bilder zumindest außerhalb des Überlappungsbereichs erfasst, und ein Unterschied zwischen den Bildpunktwerten des einen Bilds und den Bildpunktwerten des anderen Bilds wird bestimmt. Der Unterschied wird dann durch Korrigieren der Bildpunktwerte des einen Bilds und/oder der Bildpunktwerte des anderen Bilds zumindest außerhalb des Überlappungsbereichs durch die Bildverarbeitungseinrichtung kompensiert. Die Erfindung betrifft außerdem ein Kamerasystem zum Durchführen eines solchen Verfahrens sowie ein Kraftfahrzeug mit einem solchen Kamerasystem.
  • Kamerasysteme für Kraftfahrzeuge sind bereits Stand der Technik. In einem Kraftfahrzeug kann bekanntlich eine Vielzahl von Kameras eingesetzt werden, wobei es heutzutage mehr und mehr üblich wird, für ein Fahrerassistenzsystem eines Fahrzeugs eine Kameraanordnung mit wenigstens zwei Kameras zu verwenden, welche jeweils einen Umgebungsbereich des Kraftfahrzeugs erfassen. Es können sogar eine Vielzahl von Kameras eingesetzt werden, welche die gesamte Umgebung um das Kraftfahrzeug herum erfassen. Auf einer Anzeigeeinrichtung – etwa einem LCD-Display – kann dann ein Bild der Umgebung angezeigt werden. Beispielsweise kann ein Bereich der Umgebung hinter dem Kraftfahrzeug (sogenanntes „Rear View”) oder aber ein Bereich der Umgebung vor dem Kraftfahrzeug („Front View”) auf der Anzeigeeinrichtung dargestellt werden. Es ist außerdem bekannt, aus den Bildern aller Kameras eine Draufsichtdarstellung zu erzeugen, welche eine Draufsicht auf das Kraftfahrzeug sowie seine Umgebung aus einer Vogelperspektive zeigt. Auch eine solche Draufsichtdarstellung kann dann auf dem Display angezeigt werden. Eine solche Vorgehensweise ist beispielsweise aus dem Dokument US 2011/0156887 bekannt.
  • Die Erfindung geht von einem Kamerasystem aus, wie es beispielsweise in der Druckschrift EP 2 012 271 A2 beschrieben ist. Bei diesem Kamerasystem sind mehrere Kameras an dem Kraftfahrzeug angeordnet, welche insgesamt die Umgebung um das Kraftfahrzeug herum erfassen. Die jeweiligen Sichtfelder der Kameras überlappen sich dabei gegenseitig paarweise. Aus den Bildern der Kameras wird ein Gesamtbild erzeugt, in welchem sich die Bilder unterschiedlicher Kameras in einem Überlappungsbereich überlappen. Es findet ein Abgleich der Helligkeitswerte von Objektbereichen statt.
  • Zur Erzeugung eines Gesamtbildes aus zumindest zwei Bildern, welche sich gegenseitig in einem Überlappungsbereich des Gesamtbildes überlappen, ist bereits bekannt, das so genannte Alpha-Blending (Alpha-Vermischen) zu verwenden. Beim Alpha-Blending werden zwei Bilder mit einem überlappenden Teilbereich zu einem Gesamtbild überlagert, wobei mit zunehmender Annäherung an den Rand des Sichtfelds und somit an den Rand des Überlappungsbereiches die Transparenz der Bildpunkte eines der beiden Bilder zunimmt. Wenn eine vollständige Transparenz oder Lichtdurchlässigkeit des Bildpunktes gegeben ist, so liegt beim Alpha-Blending ein Alpha-Wert von Null vor. Entsprechend steht ein Alpha-Wert von α = 1 für völlige Lichtundurchlässigkeit, es liegt also Opazität dieses Bildpunktes vor. Ein hinter dem opaken Bildpunkt des ersten Bildes angeordneter Bildpunkt des zweiten Bildes ist damit nicht mehr erkennbar.
  • In der Druckschrift EP 2 012 271 A2 wird darüber hinaus vorgeschlagen, die Unterschiede in der Helligkeit der Bilder zu kompensieren. In der Umgebung um das Kraftfahrzeug herum treten nämlich unterschiedliche Lichtverhältnisse auf, sodass auch die Bilder unterschiedlicher Kameras unterschiedliche Helligkeitswerte aufweisen. Um bei zusammengesetzten Bildern einen sprunghaften Übergang in der Helligkeit zwischen den Bildern zu verhindern, wird hier eine Korrektur und somit eine Kompensation der Unterschiede vorgenommen. Diese Kompensation erfolgt hier im Rahmen der so genannten automatischen Verstärkungsregelung (automatic gain control, AGC).
  • Eine solche Kompensation ist außerdem aus dem Dokument US 7 139 412 B2 bekannt.
  • In der Druckschrift US 2011/0150329 sind statistische Methoden beschrieben, wie beispielsweise Farbverschiebungen in zusammengesetzten Bildern unterschiedlicher Kameras bestimmt und dann korrigiert werden können.
  • Aus dem Stand der Technik sind also insgesamt Korrekturverfahren bekannt, welche zur Kompensation der Unterschiede in Bildpunktwerten von Bildern dienen, welche zu einem Gesamtbild miteinander kombiniert werden. Die bekannten Korrekturverfahren haben jedoch folgende Nachteile: Werden beispielsweise die Helligkeitsunterschiede oder aber die Farbverschiebungen korrigiert, indem beispielsweise die Mittelwerte der Helligkeit der jeweiligen Bilder aneinander angeglichen werden, so können Helligkeitsinformationen oder aber Farbinformationen der Szene verloren gehen, wenn die Unterschiede zwischen den jeweiligen Bildern relativ groß sind. Verzichtet man jedoch vollständig auf eine Kompensation der Unterschiede, so können beim Zusammensetzen der unterschiedlichen Bilder Sprünge in der Helligkeit oder in den Farbwerten auftreten.
  • Es ist Aufgabe der Erfindung, eine Lösung aufzuzeigen, wie bei einem Verfahren der eingangs genannten Gattung ein gleichmäßiger Übergang zwischen den Bildern unterschiedlicher Kameras erreicht werden kann, ohne dass die jeweiligen Bilder ihre ursprüngliche Struktur verlieren.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch ein Kamerasystem sowie durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche, der Beschreibung und der Figuren.
  • Ein erfindungsgemäßes Verfahren dient zum Betreiben eines Kamerasystems eines Kraftfahrzeugs. Zumindest eine erste und eine zweite Kamera erfassen jeweils Bilder eines Umgebungsbereichs des Kraftfahrzeugs, wobei sich jeweilige Sichtfelder der Kameras bereichsweise überlappen. Die erste Kamera erfasst ein erstes Bild; die zweite Kamera erfasst ein zweites Bild. Aus den Bildern wird ein Gesamtbild mittels einer elektronischen Bildverarbeitungseinrichtung des Kamerasystems erzeugt, wobei sich in dem Gesamtbild die Bilder in einem Überlappungsbereich überlappen. In dem Überlappungsbereich wird ein Alpha-Blending-Verfahren auf die Bilder angewandt, indem für Bildpunkte des Überlappungsbereichs Alpha-Werte bestimmt werden. Diese Alpha-Werte definieren Transparenzwerte für das erste Bild und/oder Opazitätswerte für das zweite Bild. Es werden jeweilige Bildpunktwerte der Bilder (insbesondere Helligkeitswerte und/oder Farbwerte) zumindest außerhalb des Überlappungsbereichs erfasst. Die Bildverarbeitungseinrichtung bestimmt dann einen Unterschied zwischen den Bildpunktwerten des ersten Bilds einerseits und den Bildpunktwerten des zweiten Bilds andererseits. Die Bildverarbeitungseinrichtung kompensiert dann den Unterschied durch Korrigieren der Bildpunktwerte des ersten Bilds und/oder der Bildpunktwerte des anderen Bilds zumindest außerhalb des Überlappungsbereichs. Erfindungsgemäß ist vorgesehen, dass das Kompensieren des Unterschieds in einem Ausmaß durchgeführt wird, welches ausgehend von dem Überlappungsbereich in Richtung weg von dem Überlappungsbereich abnimmt.
  • Demnach wird das Kompensieren des Unterschieds durch Korrigieren der Bildpunktwerte des einen Bilds und/oder der Bildpunktwerte des anderen Bilds mit Korrekturwerten durchgeführt, welche ausgehend von dem Überlappungsbereich in Richtung weg von dem Überlappungsbereich und somit in Richtung zu einer Mittellinie des jeweiligen Bilds kleiner werden. Die Kompensation wird somit nahe des Überlappungsbereichs in einem größeren Ausmaß als weiter weg von dem Überlappungsbereich durchgeführt und ist somit abhängig von der Position des jeweiligen Bildpunkts im Gesamtbild. Durch eine solche Kompensation, welche nahe des Überlappungsbereichs stärker als weiter weg von dem Überlappungsbereich ist, kann insgesamt ein sehr flüssiger und gleichmäßiger Übergang zwischen den Bildern ohne sprunghafte Bildänderungen erzeugt werden. Auf der anderen Seite wird jedoch durch die schwächere Kompensation weiter weg von dem Überlappungsbereich erreicht, dass die ursprüngliche Struktur des jeweiligen Bilds nicht zu sehr beeinträchtigt wird und die dort vorhandenen Informationen nicht verloren gehen können. Der ursprüngliche Charakter der beiden Bilder kann somit aufrechterhalten werden, und gleichzeitig kann ein sprungfreier und gleichmäßiger Übergang zwischen den Bilder geschaffen werden.
  • Das aus den Bildern der zumindest zwei Kameras erzeugte Gesamtbild kann beispielsweise auf einer elektronischen Anzeigeeinrichtung im Innenraum des Kraftfahrzeugs dargestellt werden, zum Beispiel auf einem LCD-Display. Bei dem Gesamtbild kann es sich vorzugsweise um eine Draufsichtdarstellung, also um das so genannte „Bird Eye View” handeln, d. h. um ein Bild, welches das Kraftfahrzeug und seine Umgebung aus einer Vogelperspektive und somit von einem virtuellen Blickpunkt aus zeigt, der sich über dem Kraftfahrzeug befindet.
  • Die zumindest zwei Kameras sind bevorzugt Video-Kameras, welche jeweils eine Sequenz von Einzelbildern pro Sekunde erfassen können. Diese Bilder werden dann mittels der Bildverarbeitungseinrichtung verarbeitet, und aus diesen Bildern wird durch die Bildverarbeitungseinrichtung ein Video in Echtzeit erzeugt, welches eine zeitliche Sequenz von Gesamtbildern darstellt, die jeweils aus synchron erfassten Einzelbildern der Kameras erzeugt werden.
  • Vorzugsweise wird für die räumliche Verteilung des Ausmaßes der Kompensation und somit für die räumliche Verteilung der Korrekturwerte eine stetige Funktion bestimmt.
  • Dies bedeutet, dass das Ausmaß der Kompensation in Richtung weg von dem Überlappungsbereich stetig abnimmt. Somit können auch sprunghafte Bildstrukturen außerhalb des Überlappungsbereichs verhindert werden.
  • Es erweist sich als besonders vorteilhaft, wenn die Kompensation des Unterschieds im Rahmen des Alpha-Blending-Verfahrens in ein und demselben Bildverarbeitungsschritt mittels der Bildverarbeitungseinrichtung durchgeführt wird. Dies bedeutet, dass das Alpha-Blending-Verfahren und die Kompensation des Unterschieds zusammen in einem gemeinsamen Bildverarbeitungsschritt durchgeführt werden. Hierbei kann zum Beispiel die Gleichung, wie sie üblicherweise zum Alpha-Blending der Bilder verwendet wird, in entsprechender Weise angepasst werden, sodass diese Gleichung auch Einfluss auf die Bildpunkte außerhalb des Überlappungsbereichs hat und somit auch die Unterschiede in den Bildpunktwerten der Bilder kompensiert. Somit kann die Kompensation ohne zusätzlichen Aufwand vorgenommen werden, sodass auch keine zusätzlichen Hardware-Komponenten und grundsätzlich auch keine zusätzliche Rechenleistung benötigt werden. Die Kompensation erfolgt bei dieser Ausführungsform außerdem besonders schnell und kann daher auch in Echtzeit implementiert werden.
  • Als Bildpunktwerte der Bilder können in einer Ausführungsform Helligkeitswerte erfasst werden, insbesondere Luminanzwerte. Abhängig von den Helligkeitswerten der Bilder wird dann der Unterschied in der Helligkeit der Bilder erfasst und kompensiert. Dementsprechend werden die Helligkeitswerte des einen Bilds und/oder die Helligkeitswerte des anderen Bilds zumindest außerhalb des Überlappungsbereichs korrigiert und somit der Unterschied in der Helligkeit der Bilder reduziert. Auf diese Art und Weise können Sprünge in der Helligkeit des Gesamtbilds verhindert werden.
  • Ergänzend oder alternativ können als Bildpunktwerte auch Farbwerte der Bilder erfasst werden, insbesondere Chrominanzwerte. Abhängig von den Farbwerten der Bilder kann dann der Unterschied in der Farbgebung der Bilder und somit eine Farbverschiebung zwischen den Bildern erfasst und korrigiert werden. Das Kompensieren umfasst hier, dass die Farbwerte des einen Bilds und/oder die Farbwerte des anderen Bilds zumindest außerhalb des Überlappungsbereichs korrigiert werden, um die Farbverschiebung zu reduzieren. Somit können Sprünge in der Farbgebung des Gesamtbilds verhindert werden.
  • Die Bestimmung des Unterschieds zwischen den Bildpunktwerten des einen Bilds und den Bildpunktwerten des anderen Bilds kann folgendermaßen durchgeführt werden: Die Bildverarbeitungseinrichtung kann einen Mittelwert und/oder einen Medianwert der Bildpunktwerte des einen Bilds bestimmen. Die Bildverarbeitungseinrichtung kann auch einen Mittelwert und/oder einen Medianwert der Bildpunktwerte des anderen Bilds bestimmen. Der Unterschied wird dann abhängig von dem Mittelwert/Medianwert der Bildpunktwerte des einen Bilds einerseits und abhängig von dem Mittelwert/Medianwert der Bildpunktwerte des anderen Bilds andererseits bestimmt. Als Unterschied kann beispielsweise eine Differenz zwischen dem Mittelwert/Medianwert des einen Bilds und dem Mittelwert/Medianwert des anderen Bilds berechnet werden.
  • Die Erfindung betrifft außerdem ein Kamerasystem für ein Kraftfahrzeug, wobei das Kamerasystem zum Durchführen eines erfindungsgemäßen Verfahrens ausgebildet ist.
  • Die Erfindung betrifft auch ein Kraftfahrzeug, insbesondere einen Personenkraftwagen, mit einem erfindungsgemäßen Kamerasystem.
  • Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für das erfindungsgemäße Kamerasystem sowie für das erfindungsgemäße Kraftfahrzeug.
  • Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Alle vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder aber in Alleinstellung verwendbar.
  • Die Erfindung wird nun anhand eines bevorzugten Ausführungsbeispiels, wie auch unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. Es sei betont, dass das nachfolgend beschriebene Ausführungsbeispiel eine bevorzugte Ausführungsform der Erfindung darstellt und die Erfindung somit nicht auf diese beispielhafte Ausführungsform beschränkt ist.
  • Es zeigen:
  • 1 in schematischer Darstellung ein Kraftfahrzeug mit einem Kamerasystem gemäß einer Ausführungsform der Erfindung;
  • 2 ein Blockdiagramm eines Kamerasystems gemäß einer Ausführungsform der Erfindung;
  • 3 in schematischer Darstellung ein aus zwei Bildern unterschiedlicher Kameras zusammengesetztes Gesamtbild; und
  • 4 in schematischer Darstellung ein Gesamtbild, welches aus Bildern von insgesamt vier Kameras erzeugt wird, wobei ein Verfahren gemäß einer Ausführungsform der Erfindung näher erläutert wird.
  • Ein in 1 dargestelltes Kraftfahrzeug 1 ist beispielsweise ein Personenkraftwagen. Das Kraftfahrzeug 1 hat ein Kamerasystem 2 mit beispielsweise vier Kameras 3, 4, 5, 6, welche an dem Kraftfahrzeug 1 derart verteilt angeordnet sind, dass die Kameras 3, 4, 5, 6 insgesamt die Umgebung um das Kraftfahrzeug 1 herum erfassen. Es wird also die komplette Umgebung des Kraftfahrzeugs 1 und somit ein 360°-Bild erfasst. Die Kamera 3 ist im vorderen Bereich des Kraftfahrzeugs 1 angeordnet, beispielsweise hinter der Windschutzscheibe. Die Kamera 3 erfasst somit einen Umgebungsbereich 7 vor dem Kraftfahrzeug 1. Die zweite Kamera 4 ist im Heckbereich des Kraftfahrzeugs 1 angebracht, beispielsweise an einer Heckklappe oder aber hinter der Heckscheibe. Sie erfasst somit einen Umgebungsbereich 8 hinter dem Kraftfahrzeug 1. Die seitlichen Kameras 5, 6 können beispielsweise in die jeweiligen Außenspiegel integriert sein. Die dritte Kamera 5 erfasst dabei den Umgebungsbereich 9 links des Kraftfahrzeugs 1, während die vierte Kamera 6 einen Umgebungsbereich 10 auf der rechten Seite des Kraftfahrzeugs 1 erfasst.
  • Die Anzahl sowie die Anordnung der Kameras 3, 4, 5, 6 sind in 1 lediglich beispielhaft dargestellt und können je nach Ausführungsform variieren.
  • Die Kameras 3, 4, 5, 6 weisen einen relativ breiten Öffnungswinkel auf, welcher beispielsweise in einem Wertbereich von 160° bis 200° liegen kann. Die Kameras 3, 4, 5, 6 können beispielsweise sogenannte Fischaugenkameras sein.
  • Die Kameras 3, 4, 5, 6 sind Video-Kameras, welche jeweils eine Vielzahl von Einzelbildern pro Sekunde aufnehmen können. Die Bilder werden dann an eine zentrale Bildverarbeitungseinrichtung 11 übermittelt, welche die Bilder aller Kameras 3, 4, 5, 6 verarbeitet. Die Aufnahme der Bilder durch alle Kameras 3, 4, 5, 6 erfolgt zeitsynchron.
  • Die Kamera 3 erfasst also den Umgebungsbereich 7 vor dem Kraftfahrzeug 1. Die Kamera 3 hat also einen Erfassungsbereich bzw. ein Sichtfeld 12, welche bzw. welches den Umgebungsbereich 7 vor dem Kraftfahrzeug 1 abdeckt. Entsprechend weist auch die zweite Kamera 4 ein Sichtfeld 13 auf, welches den Umgebungsbereich 8 hinter dem Kraftfahrzeug 1 abdeckt. Entsprechende Sichtfelder der Kameras 5, 6 sind in 1 mit 14 und 15 bezeichnet. Wie aus 1 hervorgeht, überlappen sich die Sichtfelder der Kameras 3, 4, 5, 6 paarweise und bereichsweise gegenseitig. Und zwar überlappen sich die Sichtfelder 12 und 14 der Kameras 3, 5, die Sichtfelder 12, 15 der Kameras 3, 6, wie auch die Sichtfelder 13, 14 der Kameras 4, 5 sowie die Sichtfelder 13, 15 der Kameras 4, 6.
  • Wie bereits ausgeführt, empfängt die Bildverarbeitungseinrichtung 11 die Bilder aller Kameras 3, 4, 5, 6 und kann diese Bilder verarbeiten. Beispielsweise berechnet die Bildverarbeitungseinrichtung 11 aus den Videos aller Kameras 3, 4, 5, 6 in Echtzeit ein Gesamtbild, welches eine Draufsicht auf das Kraftfahrzeug 1 und seine Umgebung 7, 8, 9, 10 aus einer Vogelperspektive zeigt. Bezogen auf die Einzelbilder (Frames) der Kameras 3, 4, 5, 6 erzeugt die Bildverarbeitungseinrichtung 11 aus diesen Einzelbildern aller Kameras 3, 4, 5, 6 ein Gesamtbild, welches eine solche Draufsicht zeigt. Werden nun aus den gesamten Sequenzen von Einzelbildern der Kameras 3, 4, 5, 6 solche Gesamtbilder berechnet, so ergibt sich eine zeitliche Sequenz von Gesamtbildern, also ein Gesamtvideo. Diese Gesamtbilder können dann in Echtzeit auf einem Display 16 im Kraftfahrzeug 1 dargestellt werden.
  • In 2 ist ein Blockdiagramm des Kamerasystems 2 dargestellt. Wie bereits ausgeführt, liefern die Kameras 3, 4, 5, 6 jeweilige Bilder B3, B4, B5, B6, aus denen das Gesamtbild GB erzeugt wird. Obwohl nachfolgend lediglich von Einzelbildern B3, B4, B5, B6 gesprochen wird, ist es selbstverständlich, dass die Kameras 3, 4, 5, 6 jeweils ein ganzes Video und somit eine zeitliche Sequenz von Bildern liefern. Der Einfachheit halber wird die nachfolgende Beschreibung jedoch auf Einzelbilder der Kameras 3, 4, 5, 6 bezogen.
  • Die Bilder B5 der Kamera 5 werden in einem Speicher 17 abgelegt, nämlich in einem sogenannten „Buffer”. Entsprechend werden auch die Bilder B6 der Kamera 6 in einem Speicher 18 gespeichert, während die Bilder B3 und B4 ebenfalls in jeweiligen Speichern 19, 20 abgelegt werden. In einem nachfolgenden Block 21 werden die Bilder B5 und B6 der Kameras 5, 6 zusammengefasst. Parallel dazu werden auch die Bilder B3 und B4 der Kameras 3, 4 in einem weiteren Block 22 zusammengefasst. Aus diesen zusammengefassten Bildern wird dann das Gesamtbild GB erzeugt, in welchem sich die Bilder B3, B4, B5, B6 paarweise bereichsweise überlappen. Und zwar weist das Gesamtbild GB insgesamt vier Überlappungsbereiche 23 bis 26 auf: Die Bilder B3, B5 überlappen sich gegenseitig im Überlappungsbereich 23; die Bilder B3 und B6 überlappen sich im Überlappungsbereich 24; die Bilder B5 und B4 überlappen sich im Überlappungsbereich 25; die Bilder B4 und B6 überlappen sich im Überlappungsbereich 26.
  • Zur Erzeugung des Gesamtbilds GB werden also die Bilder Ya, Yb, Yc, Yd zusammengesetzt. Es müssen dabei nicht die gesamten Bilder Ya, Yb, Yc, Yd verwendet werden, sondern es ist bei der Erzeugung eines „Bird Eye View” auch üblich, lediglich Teilregionen der Bilder Ya, Yb, Yc, Yd zu verwenden, welche den jeweiligen Umgebungsbereich 7, 8, 9, 10 bis zu einer bestimmten Entfernung von dem Kraftfahrzeug 1 zeigen.
  • Zum Zusammensetzen der Bilder Ya, Yb, Yc, Yd wird das Alpha-Blending-Verfahren genutzt. Bezug nehmend nun auf 3 wird nachfolgend ein Verfahren gemäß einer Ausführungsform der Erfindung näher erläutert. Die nachfolgende Beschreibung bezieht sich zunächst auf das Zusammensetzen von zwei Bildern Ya, Yc zu einem Gesamtbild GB unter Verwendung des Alpha-Blending-Verfahrens.
  • Gemäß 3 wird bei dem Gesamtbild GB auch ein Abbild des Kraftfahrzeugs 1' genutzt. Dieses Fahrzeugbild 1' kann beispielsweise in einem Speicher abgelegt sein. Die Kamera 5 liefert das Bild Yc; die Kamera 3 erzeugt das Bild Ya. Das bekannte Alpha-Blending-Verfahren benutzt üblicherweise folgende Gleichung: GB = α·Ya + (1 – α)Yc.
  • In dem Überlappungsbereich 23 sind die Alpha-Werte größer als null und kleiner als eins, sodass für den Überlappungsbereich 23 sowohl die Bildpunkte des Bilds Ya als auch die Bildpunkte des Bilds Yc genutzt werden. α kann dabei eine Matrix sein, sodass die Alpha-Werte innerhalb des Überlappungsbereichs 23 variieren.
  • Erfindungsgemäß wird die obige Gleichung nun derart modifiziert, dass beim Durchführen des Alpha-Blending gleichzeitig auch die Bildpunkte des Bilds Ya und/oder die Bildpunkte des Bilds Yc außerhalb des Überlappungsbereichs 23 korrigiert werden, um Unterschiede in den Bildpunktwerten der Bilder Ya, Yc zu kompensieren. Diese Kompensation wird im Rahmen des Alpha-Blending durchgeführt, indem die obige Gleichung beispielsweise folgendermaßen modifiziert wird: GB = α·β1·δ·Ya + (1 – α)·β2·δ·Yc.
  • β1 bzw. β2 stellt dabei einen globalen Korrekturfaktor dar, welcher für alle Bildpunkte gleich ist und abhängig von dem Unterschied zwischen den Bildpunktwerten des Bilds Ya und den Bildpunktwerten des Bilds Yc bestimmt wird. Wird der Unterschied in der Helligkeit kompensiert, so wird β in Abhängigkeit von einer Differenz zwischen den Luminanzwerten des Bilds Ya und den Luminanzwerten des Bilds Yc bestimmt, beispielsweise abhängig von der Differenz der jeweiligen Mittelwerte und/oder Medianwerte der Luminanz. Wird hingegen die Farbverschiebung zwischen den Bildern Ya, Yc kompensiert, so wird β abhängig von einer Differenz zwischen den Chrominanzwerten des Bilds Ya und den Chrominanzwerten des Bilds Yc bestimmt, beispielsweise abhängig von einer Differenz zwischen den jeweiligen Mittelwerten und/oder den jeweiligen Medianwerten. Mit dem globalen Korrekturfaktor β werden die Bildpunktwerte des Bilds Ya und die Bildpunktwerte des Bilds Yc im Mittel aneinander angeglichen. Der Faktor β kann in der obigen Gleichung unterschiedlich für das Bild Ya und für das Bild Yc sein, sodass β1 und β2 unterschiedlich sind.
  • δ bezeichnet hingegen einen positionsabhängigen Korrekturfaktor, beispielsweise eine Korrekturmatrix. Der Korrekturfaktor δ stellt hier das Ausmaß der Kompensation dar. Mit diesem Faktor δ wird nämlich erreicht, dass die Kompensation in einem Ausmaß durchgeführt wird, welches ausgehend von dem Überlappungsbereich 23 in Richtung weg von dem Überlappungsbereich 23 abnimmt. Es gilt nämlich die Beziehung, dass je größer der Abstand vom Überlappungsbereich 23 ist, desto kleiner der Faktor δ ist.
  • Alternativ kann zum Durchführen des Alpha-Blending auch folgende Gleichung genutzt werden: GB = α·(Ya + β·δ) + ((1 – α)·(Yb – β·δ)).
  • Im Gegensatz zu der ersten Gleichung findet hier eine Addition bzw. eine Subtraktion des Korrekturfaktors βδ statt. Der Effekt ist jedoch der gleiche, sodass der gesamte Korrekturfaktor βδ nahe des Überlappungsbereichs 23 größer als weiter weg von dem Überlappungsbereich 23 ist.
  • Wie bereits ausgeführt, wird der globale Korrekturfaktor β so berechnet, dass (ohne den Faktor β) die Mittelwerte oder die Medianwerte der Helligkeit und/oder der Chrominanzwerte der beiden Bilder Ya, Yc gleich groß sind. Demgegenüber sorgt der Korrekturfaktor δ dafür, dass die Bildpunkte des Bilds Ya und/oder die Bildpunkte des Bilds Yc im Bereich des Überlappungsbereichs 23 stärker als die weiter weg liegenden Bildpunkte korrigiert werden.
  • Optional kann auch ein zusätzlicher Korrekturfaktor σ berücksichtigt werden: GB = α·β1·δ·σ1·Ya + (1 – α)·β2·δ·σ2·Yc.
  • Dieser Korrekturfaktor σ1, σ2 wird abhängig von der Differenz zwischen den Helligkeitswerten (oder Farbwerten) des jeweiligen Bilds Ya, Yc und dem Mittelwert aus Helligkeitswerten (bzw. Farbwerten) aller Bilder Ya, Yc bestimmt. Dieser Korrekturfaktor σ1, σ2 berücksichtigt also eine Abweichung der Bildpunktwerte des jeweiligen Bilds Ya, Yc von dem Mittelwert/Medianwert für alle Bilder Ya, Yc.
  • Ein weiteres beispielhaftes Gesamtbild GB, welches aus Bildern Ya, Yb, Yc, Yd der Kameras 3, 4, 5, 6 erzeugt wird, ist in 4 schematisch dargestellt. Die Bilder Ya, Yb, Yc, Yd überlappen sich paarweise gegenseitig in Überlappungsbereichen 23, 24, 25, 26. Wie bereits ausgeführt, werden die Helligkeitswerte und/oder die Farbwerte der Bilder Ya, Yb, Yc, Yd korrigiert, sodass die Unterschiede kompensiert und beispielsweise die Mittelwerte oder Medianwerte der jeweiligen Helligkeitswerte und/oder der jeweiligen Farbwerte aneinander angeglichen werden (vgl. Korrekturfaktor β). Diese Kompensation wird auch hier in einem Ausmaß durchgeführt (δ), welches nahe der Überlappungsbereiche 23, 24, 25, 26 maximal ist. Das Minimum des Ausmaßes der Kompensation liegt jeweils auf einer Mittellinie 27, 28, 29, 30. Die jeweilige Mittellinie 27, 28, 29, 30 befindet sich dabei in der Mitte des Sichtfelds 12, 13, 14, 15 der jeweiligen Kamera 3, 4, 5, 6. Das jeweilige Sichtfeld 12, 13, 14, 15 der Kameras 3, 4, 5, 6 ist also durch die jeweilige Mittellinie 27, 28, 29, 30 halbiert, wobei die Mittellinie 27, 28, 29, 30 parallel zur y-Achse des jeweiligen Bildrahmens der Kameras 3, 4, 5, 6 definiert ist.
  • Für den Korrekturfaktor δ gilt also, dass je größer der Abstand von der jeweiligen Mittellinie 27, 28, 29, 30 ist, desto größer auch der Wert des Faktors δ ist.
  • Für den räumlichen Verlauf des Korrekturfaktors δ kann dabei eine stetige Funktion gewählt werden, wie beispielsweise eine Gaußfunktion, deren Maximum im Bereich des jeweiligen Überlappungsbereichs 23, 24, 25, 26 und deren Minimum auf der jeweiligen Mittellinie 27, 28, 29, 30 liegt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2011/0156887 [0002]
    • EP 2012271 A2 [0003, 0005]
    • US 7139412 B2 [0006]
    • US 2011/0150329 [0007]

Claims (8)

  1. Verfahren zum Betreiben eines Kamerasystems (2) eines Kraftfahrzeugs (1), bei welchem zumindest zwei Kameras (3, 4, 5, 6) jeweils Bilder (Ya, Yb, Yc, Yd) eines Umgebungsbereichs (7, 8, 9, 10) des Kraftfahrzeugs (1) erfassen und sich jeweilige Sichtfelder (12, 13, 14, 15) der Kameras (3, 4, 5, 6) paarweise bereichsweise überlappen, mit den Schritten: – Erfassen jeweils eines Bilds (Ya, Yb, Yc, Yd) mittels der zumindest zwei Kameras (3, 4, 5, 6), – aus den Bildern (Ya, Yb, Yc, Yd) Erzeugen eines Gesamtbildes (GB) mittels einer Bildverarbeitungseinrichtung (11) des Kamerasystems (2), wobei sich in dem Gesamtbild (GB) die Bilder (Ya, Yb, Yc, Yd) in einem Überlappungsbereich (23, 24, 25, 26) überlappen, und wobei in dem Überlappungsbereich (23, 24, 25, 26) ein Alpha-Blending-Verfahren auf die Bilder (Ya, Yb, Yc, Yd) angewandt wird, indem für Bildpunkte des Überlappungsbereichs (23, 24, 25, 26) Alpha-Werte (α) bestimmt werden, – Erfassen von jeweiligen Bildpunktwerten der Bilder (Ya, Yb, Yc, Yd) zumindest außerhalb des Überlappungsbereichs (23, 24, 25, 26) und Bestimmen eines Unterschieds zwischen den Bildpunktwerten des einen Bilds (Ya, Yb, Yc, Yd) und den Bildpunktwerten des anderen Bilds (Ya, Yb, Yc, Yd) und – Kompensieren des Unterschieds durch Korrigieren der Bildpunktwerte des einen Bilds (Ya, Yb, Yc, Yd) und/oder der Bildpunktwerte des anderen Bilds (Ya, Yb, Yc, Yd) zumindest außerhalb des Überlappungsbereichs (23, 24, 25, 26) mittels der Bildverarbeitungseinrichtung (11), dadurch gekennzeichnet, dass das Kompensieren des Unterschieds in einem Ausmaß (δ) durchgeführt wird, welches ausgehend von dem Überlappungsbereich (23, 24, 25, 26) in Richtung weg von dem Überlappungsbereich (23, 24, 25, 26) abnimmt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Ausmaß (δ) der Kompensation in Richtung weg von dem Überlappungsbereich (23, 24, 25, 26) stetig abnimmt.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Kompensation im Rahmen des Alpha-Blending-Verfahrens in einem gemeinsamen Bildverarbeitungsschritt mittels der Bildverarbeitungseinrichtung (11) durchgeführt wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Bildpunktwerte Helligkeitswerte der Bilder (Ya, Yb, Yc, Yd) erfasst werden und abhängig von den Helligkeitswerten der Bilder (Ya, Yb, Yc, Yd) der Unterschied in der Helligkeit der Bilder (Ya, Yb, Yc, Yd) erfasst und kompensiert wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Bildpunktwerte Farbwerte der Bilder (Ya, Yb, Yc, Yd) erfasst werden und abhängig von den Farbwerten der Bilder (Ya, Yb, Yc, Yd) der Unterschied in der Farbgebung der Bilder (Ya, Yb, Yc, Yd) erfasst und kompensiert wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Unterschied abhängig von einem Mittelwert und/oder von einem Medianwert der Bildpunktwerte des einen Bilds (Ya, Yb, Yc, Yd) und abhängig von einem Mittelwert und/oder von einem Medianwert der Bildpunktwerte des anderen Bilds (Ya, Yb, Yc, Yd) bestimmt wird.
  7. Kamerasystem (2) für ein Kraftfahrzeug (1), mit zumindest einer ersten und einer zweiten Kamera (3, 4, 5, 6) jeweils zum Erfassen von Bildern (Ya, Yb, Yc, Yd) eines Umgebungsbereichs (7, 8, 9, 10) des Kraftfahrzeugs (1), wobei sich jeweilige Sichtfelder (12, 13, 14, 15) der Kameras (3, 4, 5, 6) bereichsweise überlappen, und mit einer Bildverarbeitungseinrichtung (11), welche dazu ausgelegt ist, aus einem Bild (Ya, Yb, Yc, Yd) der ersten Kamera (3, 4, 5, 6) und einem Bild (Ya, Yb, Yc, Yd) der zweiten Kamera (3, 4, 5, 6) ein Gesamtbild (GB) zu erzeugen, in welchem sich die beiden Bilder (Ya, Yb, Yc, Yd) in einem Überlappungsbereich (23, 24, 25, 26) gegenseitig überlappen, wobei die Bildverarbeitungseinrichtung (11) dazu ausgelegt ist, in dem Überlappungsbereich (23, 24, 25, 26) das Alpha-Blending-Verfahren auf die beiden Bilder (Ya, Yb, Yc, Yd) anzuwenden und hierbei für Bildpunkte des Überlappungsbereichs (23, 24, 25, 26) Alpha-Werte (α) zu bestimmen, und wobei die Bildverarbeitungseinrichtung (11) weiterhin dazu ausgelegt ist, jeweilige Bildpunktwerte der Bilder (Ya, Yb, Yc, Yd) zumindest außerhalb des Überlappungsbereichs (23, 24, 25, 26) zu erfassen und einen Unterschied zwischen den Bildpunktwerten des ersten Bilds (Ya, Yb, Yc, Yd) und den Bildpunktwerten des zweiten Bilds (Ya, Yb, Yc, Yd) zu bestimmen und den Unterschied durch Korrigieren der Bildpunktwerte des ersten Bilds (Ya, Yb, Yc, Yd) und/oder der Bildpunktwerte des zweiten Bilds (Ya, Yb, Yc, Yd) zumindest außerhalb des Überlappungsbereichs (23, 24, 25, 26) zu kompensieren, dadurch gekennzeichnet, dass die Bildverarbeitungseinrichtung (11) dazu ausgelegt ist, das Kompensieren des Unterschieds in einem Ausmaß (δ) durchzuführen, welches ausgehend von dem Überlappungsbereich (23, 24, 25, 26) in Richtung weg von dem Überlappungsbereich (23, 24, 25, 26) abnimmt.
  8. Kraftfahrzeug (1) mit einem Kamerasystem (2) nach Anspruch 7.
DE102013020949.8A 2013-12-12 2013-12-12 Verbessertes Alpha-Blending von Bildern eines Kamerasystems eines Kraftfahrzeugs Withdrawn DE102013020949A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013020949.8A DE102013020949A1 (de) 2013-12-12 2013-12-12 Verbessertes Alpha-Blending von Bildern eines Kamerasystems eines Kraftfahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013020949.8A DE102013020949A1 (de) 2013-12-12 2013-12-12 Verbessertes Alpha-Blending von Bildern eines Kamerasystems eines Kraftfahrzeugs

Publications (1)

Publication Number Publication Date
DE102013020949A1 true DE102013020949A1 (de) 2015-06-18

Family

ID=53191942

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013020949.8A Withdrawn DE102013020949A1 (de) 2013-12-12 2013-12-12 Verbessertes Alpha-Blending von Bildern eines Kamerasystems eines Kraftfahrzeugs

Country Status (1)

Country Link
DE (1) DE102013020949A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108010005A (zh) * 2016-10-31 2018-05-08 比亚迪股份有限公司 调节图像亮度的方法、装置及车辆
CN113892258A (zh) * 2019-05-29 2022-01-04 大陆汽车有限责任公司 用于表示移动平台周围环境的调和的被遮挡区域的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6128108A (en) * 1997-09-03 2000-10-03 Mgi Software Corporation Method and system for compositing images
US20040252884A1 (en) * 2003-06-12 2004-12-16 Fuji Xerox Co., Ltd. Methods for multisource color normalization
US7139412B2 (en) 2001-04-24 2006-11-21 Matsushita Electric Industrial Co., Ltd. Image synthesis display method and apparatus for vehicle camera
EP2012271A2 (de) 2007-07-02 2009-01-07 Nissan Motor Co., Ltd. Bildverarbeitungssystem und -verfahren
US20110150329A1 (en) 2009-12-18 2011-06-23 Nxp B.V. Method of and system for determining an average colour value for pixels
US20110156887A1 (en) 2009-12-30 2011-06-30 Industrial Technology Research Institute Method and system for forming surrounding seamless bird-view image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6128108A (en) * 1997-09-03 2000-10-03 Mgi Software Corporation Method and system for compositing images
US7139412B2 (en) 2001-04-24 2006-11-21 Matsushita Electric Industrial Co., Ltd. Image synthesis display method and apparatus for vehicle camera
US20040252884A1 (en) * 2003-06-12 2004-12-16 Fuji Xerox Co., Ltd. Methods for multisource color normalization
EP2012271A2 (de) 2007-07-02 2009-01-07 Nissan Motor Co., Ltd. Bildverarbeitungssystem und -verfahren
US20110150329A1 (en) 2009-12-18 2011-06-23 Nxp B.V. Method of and system for determining an average colour value for pixels
US20110156887A1 (en) 2009-12-30 2011-06-30 Industrial Technology Research Institute Method and system for forming surrounding seamless bird-view image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108010005A (zh) * 2016-10-31 2018-05-08 比亚迪股份有限公司 调节图像亮度的方法、装置及车辆
CN113892258A (zh) * 2019-05-29 2022-01-04 大陆汽车有限责任公司 用于表示移动平台周围环境的调和的被遮挡区域的方法

Similar Documents

Publication Publication Date Title
EP2623374B1 (de) Sichtsystem für Nutzfahrzeuge zur Darstellung von gesetzlich vorgeschriebenen Sichtfeldern eines Hauptspiegels und eines Weitwinkelspiegels
DE102012025322B4 (de) Kraftfahrzeug mit Kamera-Monitor-System
DE102011088332B4 (de) Verfahren zur Verbesserung der Objektdetektion bei Multikamerasystemen
DE102015206477A1 (de) Verfahren zur Darstellung einer Fahrzeugumgebung eines Fahrzeuges
DE102016121755A1 (de) Verfahren zum Bestimmen eines zusammengesetzten Bilds eines Umgebungsbereichs eines Kraftfahrzeugs mit Anpassung von Helligkeit und/oder Farbe, Kamerasystem sowie Krafzfahrzeug
DE102013020950B4 (de) Verfahren zum Betreiben eines Rückansichtskamerasystems eines Kraftfahrzeugs, Rückansichtskamerasystem und Kraftfahrzeug
DE102016225066A1 (de) Rundumsichtsystem für ein Fahrzeug
DE102011014368A1 (de) Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem
DE102014012250B4 (de) Verfahren zur Bilderverarbeitung und -darstellung
DE102013214369B4 (de) Verfahren und Vorrichtung zur Wiedergabe eines Umgebungsbereichs eines Fahrzeugs
DE102013020949A1 (de) Verbessertes Alpha-Blending von Bildern eines Kamerasystems eines Kraftfahrzeugs
DE102012025580A1 (de) Verfahren zum Betreiben eines Kamerasystems mit einer Master-Kamera, Kamerasystemund Kraftfahrzeug
DE102014116441A1 (de) Verfahren zum Darstellen einer Sicherheitsinformation, Fahrerassistenzsystem und Kraftfahrzeug
DE102013012778A1 (de) Verfahren zum Detektieren eines sich bewegenden Fußgängers anhand von charakteristischen Merkmalen und optischen Flussvektoren eines Bilds, Kamerasystem und Kraftfahrzeug
EP3106349B1 (de) Sichtsystem für ein nutzfahrzeug zur darstellung von gesetzlich vorgeschriebenen sichtfeldern eines hauptspiegels und eines weitwinkelspiegels
DE102013020952A1 (de) Verfahren zum Einstellen eines für die Helligkeit und/oder für den Weißabgleich einer Bilddarstellung relevanten Parameters in einem Kamerasystem eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102012016865B4 (de) Verbessertes Alpha-Blending von Bildern eines Kamerasystems eines Kraftfahrzeugs
DE102011010859B4 (de) Verfahren zum Betreiben eines Kamerasystems in einem Kraftfahrzeug, Kamerasystem und Kraftfahrzeug
DE102013011844A1 (de) Verfahren zum Anpassen einer Gammakurve eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102012024650A1 (de) Verfahren zur Reduktion einer HDR-Bewegungsunschärfe bei einem HDR-Bild, HDR-Kameraeinrichtung und Kraftfahrzeug
DE102014209863A1 (de) Verfahren und Vorrichtung zum Betreiben einer Stereokamera für ein Fahrzeug sowie Stereokamera für ein Fahrzeug
EP2816802A1 (de) Verfahren und Vorrichtung zum Anpassen eines Bildparameters
DE102017114450A1 (de) Vorrichtung und Verfahren zum Abbilden von Bereichen
DE102016117518A1 (de) Angepasstes Zusammenfügen von Einzelbildern zu einem Gesamtbild in einem Kamerasystem für ein Kraftfahrzeug
DE112020003339T5 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsprogramm

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee