DE102011006570A1 - Verfahren und Steuergerät zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs - Google Patents

Verfahren und Steuergerät zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs Download PDF

Info

Publication number
DE102011006570A1
DE102011006570A1 DE102011006570A DE102011006570A DE102011006570A1 DE 102011006570 A1 DE102011006570 A1 DE 102011006570A1 DE 102011006570 A DE102011006570 A DE 102011006570A DE 102011006570 A DE102011006570 A DE 102011006570A DE 102011006570 A1 DE102011006570 A1 DE 102011006570A1
Authority
DE
Germany
Prior art keywords
data
objects
camera
control unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102011006570A
Other languages
English (en)
Inventor
Johannes Foltin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102011006570A priority Critical patent/DE102011006570A1/de
Priority to EP12710263.0A priority patent/EP2691917A1/de
Priority to PCT/EP2012/055092 priority patent/WO2012130719A1/de
Priority to CN201280016177.XA priority patent/CN103597498B/zh
Priority to US14/008,948 priority patent/US9381852B2/en
Publication of DE102011006570A1 publication Critical patent/DE102011006570A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • B60Q1/143Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/05Special features for controlling or switching of the light beam
    • B60Q2300/056Special anti-blinding beams, e.g. a standard beam is chopped or moved in order not to blind
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/41Indexing codes relating to other road users or special conditions preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/42Indexing codes relating to other road users or special conditions oncoming vehicle

Abstract

Die Erfindung betrifft ein Verfahren (700) zum Übertragen von Daten (810a/b, 810d/e) über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät (150) eines Fahrzeugs (100). Dabei wurden die Daten (640a, 640b; 810a/b, 810d/e) unter Verwendung einer Kamera (110) aufgenommen, wobei eine Plausibilisierung über weitere Sensorik erfolgen kann. Das Verfahren (700) umfasst einen Schritt des Einlesens (710) von Objektdaten (815a–e) betreffend zumindest zwei Objekte (610, 620, 630; 810a–810e), wobei die Objektdaten (815a–e) Informationen über Objekte (810a–e) repräsentieren, die in einem von der Kamera (110) aufgenommen Bild als Objekt klassifiziert wurden. Ferner umfasst das Verfahren (700) einen Schritt des Bildens (720) von Objektgruppendaten (640a, 640b; 810a/b, 810d/e) aus den eingelesenen Objektdaten (815a–e) der zumindest zwei Objekte (610, 620, 630; 810a–e), wobei das Bilden (720) unter Verwendung von zumindest zwei unterschiedlichen Parametern (P1–P4) erfolgt, die aus Bilddaten des von der Kamera (110) aufgenommenen Bildes bereitgestellt wurden. Schließlich umfasst das Verfahren (700) einen Schritt des Übertragens (730) der Objektgruppendaten (640a, 640b; 810a/b, 810d/e) als Daten über eine aktuelle Fahrzeugumgebung an das Scheinwerfersteuergerät (150).

Description

  • Stand der Technik
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs, auf ein entsprechendes Steuergerät sowie auf ein entsprechendes Computerprogrammprodukt gemäß den Hauptansprüchen.
  • Moderne Fahrerassistenzsysteme umfassen eine Steuerung für die Scheinwerferanlage, damit ein Fahrer eines Fahrzeugs möglichst frühzeitig eine zu befahren der Wegstrecke erkennt. Dabei solle doch eine Blendung von weiteren Verkehrsteilnehmern vermieden werden.
  • In der DE 10 2007 041 781 B4 ist eine Fahrzeugerkennungsvorrichtung zur Erkennung von Fahrzeugen offenbart, wobei die Fahrzeuge mit eingeschaltetem Licht auf einer Fahrbahn fahren.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund wird mit der vorliegenden Erfindung ein Verfahren zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs, weiterhin ein Steuergerät, das dieses Verfahren verwendet sowie schließlich ein entsprechendes Computerprogrammprodukt gemäß den Hauptpatentansprüchen vorgestellt. Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung.
  • Die vorliegende Erfindung schafft ein Verfahren zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs, wobei die Daten unter Verwendung einer Kamera und/oder gegebenenfalls weiterer (Umfeld-)Sensorik zur Plausibilisierung aufgenommen wurden und wobei das Verfahren die folgenden Schritte aufweist:
    • – Einlesen von Objektdaten betreffend zumindest zwei Objekte, wobei die Objektdaten Informationen über Objekte repräsentieren, die in einem von der Kamera aufgenommen Bild als Objekt klassifiziert wurden;
    • – Bilden von Objektgruppendaten aus den eingelesenen Objektdaten der zumindest zwei Objekte, wobei das Bilden unter Verwendung von zumindest zwei unterschiedlichen Parametern erfolgt, die aus Bilddaten des von der Kamera aufgenommenen Bildes bereitgestellt wurden,
    • – Übertragen der Objektgruppendaten als Daten über eine aktuelle Fahrzeugumgebung an das Scheinwerfersteuergerät.
  • Die vorliegende Erfindung schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte des erfindungsgemäßen Verfahrens in entsprechenden Einrichtungen durchzuführen bzw. umzusetzen. Eine solche Vorrichtung kann ein Steuergerät oder insbesondere ein Datenaufbereitungsgerät sein. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
  • Insbesondere schafft die vorliegende Erfindung ein Datenaufbereitungsgerät zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs, wobei die Daten unter Verwendung einer Kamera aufgenommen wurden und wobei das Datenaufbereitungsgerät die folgenden Merkmale aufweist:
    • – eine Schnittstelle zum Einlesen von Objektdaten betreffend zumindest zwei Objekte, wobei die Objektdaten Informationen über Objekte repräsentieren, die in einem von der Kamera aufgenommen Bild als Objekt klassifiziert wurden;
    • – eine Einheit zum Bilden von Objektgruppendaten aus den eingelesenen Objektdaten der zumindest zwei Objekte, wobei das Bilden unter Verwendung von zumindest zwei unterschiedlichen Parametern erfolgt, die aus Bilddaten des von der Kamera aufgenommenen Bildes bereitgestellt wurden; und
    • – eine Schnittstelle zum Übertragen der Objektgruppendaten als Daten über eine aktuelle Fahrzeugumgebung an das Scheinwerfersteuergerät.
  • Unter einer Vorrichtung bzw. einem Datenaufbereitungsgerät kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuersignale ausgibt. Die Vorrichtung kann eine oder mehrere Schnittstelle(n) aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann/können. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
  • Von Vorteil ist auch ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, wenn das Programm auf einem Steuergerät, einem Datenaufbereitungsgerät oder einem einem Computer entsprechenden Gerät ausgeführt wird.
  • Unter einer Fahrzeugumgebung kann dabei ein aktuelles Umgebungsszenario um das Fahrzeug verstanden werden, wenn das Fahrzeug sich in Fahrt befindet oder allgemeiner gesagt am Straßenverkehr teilnimmt. Beispielsweise kann die Fahrzeugumgebung durch einen Straßenverlauf, am Fahrbahnrand angeordnete Leitpfosten, Verkehrszeichen, entgegenkommende Fahrzeuge oder Ähnliches gebildet werden. Eine solche Fahrzeugumgebung kann mit einer Kamera als optischem oder visuellem Sensor erfasst werden, wobei ein Kamerabild aufgenommen und ausgewertet wird. Dieses Kamerabild kann nachfolgend mit einem Klassifikationsalgorithmus bearbeitet werden, so dass einzelne Objekte in diesem Kamerabild erkannt werden. Beispielsweise können die einzelnen Objekte Scheinwerfer eines Fahrzeugs oder reflektierende Flächen von Leitpfosten oder Verkehrszeichen sein. Zu diesen Objekten werden entsprechende Objektdaten erzeugt, die zum Beispiel eine Position des erkannten Objektes im Kamerabild, eine Größe des erkannten Objekts, eine Form des erkannten Objekts oder Ähnliches darstellt. Ferner können durch die Auswertung des Kamerabilds mehrere Parameter zu diesen erkannten Objekten extrahiert werden, wie beispielsweise die Helligkeit der den Objekten entsprechenden Bereiche im Kamerabild, eine optische Schärfe der den betreffenden Objekten entsprechenden Bereiche im Kamerabild oder Ähnliches. Die Objektdaten können somit Daten in Bezug auf eine geometrische Anordnung oder Position des Objekts im Kamerabild sein, wogegen die Parameter, die aus den Bilddaten des von der Kamera aufgenommenen Bildes bereitgestellt werden, Daten betreffen, die durch die Messung (das heißt die Aufnahme des Kamerabildes bestimmt sind wie beispielsweise die Farbe oder der Blickwinkel eines entsprechenden Bereichs des Kamerabildes), über eine zeitliche Historie hinweg bestimmt werden (beispielsweise die Geschwindigkeit der einzelnen erkannten Objekte oder auch das Alter, d. h. wir lange oder seit wann das Objekt schon sichtbar ist) oder die eine Beziehung der Objekte zu anderen Objekten haben. Unter Objektgruppendaten lässt sich ein Datenpaket verstehen, welches Informationen über mehrere Objekte enthält, wobei das Datenpaket für Objektgruppendaten eine kleinere Größe aufweist, als die Summe der Objektdaten der einzelnen Objekte, die zur Bildung der Objektgruppendaten berücksichtigt wurden. Die Objektgruppendaten können dabei Informationen über die Objekte dieser Objektgruppe umfassen, die gleiche oder innerhalb eines Toleranzbereichs ähnliche Parameter aufweisen. Auch können beispielsweise Parameter zur Bildung einer solchen Objektgruppe verwendet werden, die sich auf eine Anordnung von Objekten zu einander beziehen.
  • Die vorliegende Erfindung basiert auf der Erkenntnis, dass nun durch das Zusammenfassen von Informationen über mehrere Objekte zu einem Datenpaket in Form der Objektgruppendaten eine wesentlich effizientere Übertragung von die Fahrzeugumgebung betreffenden Informationen an das Scheinwerfersteuergerät möglich ist, welches häufig von einem Scheinwerferhersteller geliefert wird. In diesem Fall brauchen nicht die Formationen jedes einzelnen erkannten Objekts in den Kamerabild übertragen werden, was anderenfalls speziell bei vielen erkannten Objekten und bei begrenzter zur Verfügung stehender Bandbreite für die Übertragung problematisch wäre. Durch die Bildung der Objektgruppendaten lässt sich somit eine Vorverarbeitung der visuellen aufgenommenen Fahrzeugumgebung durchführen, so dass dem Scheinwerfersteuergerät lediglich Informationen über beispielsweise zusammenhängende Bereiche oder Objekte in der Fahrzeugumgebung übermittelt werden müssen, die dann zur Steuerung der Scheinwerfer verwendet werden können. Beispielsweise kann erkannt werden, dass zwei in einem von bestimmten Abstand zueinander angeordnete helle z. B. kreisförmige Objekte wahrscheinlich ein Scheinwerferpaar eines entgegenkommenden Fahrzeugs oder Scheinwerfer von dicht hintereinander fahrenden Fahrzeugen darstellen, so dass das Scheinwerfersteuergerät Maßnahmen einleiten kann, um eine Blendung eines Fahrers dieses entgegenkommende Fahrzeugs zu verhindern. Dabei können auch Lichtobjekte, die nicht unbedingt zum gleichen Fahrzeug gehören, gruppiert werden (z. B. alle entgegenkommenden Fahrzeuge). Würden dagegen die beiden als kreisförmig erkannten Objekte separat übertragen, würde dies einen deutlich höheren Aufwand bei der Übertragung der Informationen zu diesen Objekten verursachen, und die verfügbare Bordinfrastruktur unnötig belasten. Die vorliegende Erfindung bietet somit den Vorteil einer Entlastung einer zur Verfügung stehenden Datenübertragungsstruktur in einem Fahrzeug, wobei dennoch eine gewünschte Funktionalität zur Aufrechterhaltung eines bestimmten Fahrerkomforts sichergestellt werden kann. Durch die Verwendung von zumindest zwei unterschiedlichen Parametern zur Bildung der Objektgruppendaten mit den zumindest zwei Objekten lässt sie eine besonders zuverlässige Gruppierung dieser Objekte in eine Objektgruppe realisieren.
  • Günstig ist es, wenn im Schritt des Bildens Parameter verwendet werden, die eine Information in Bezug auf eine Helligkeit, Farbe und/oder eine Schärfe eines dem Objekt zugeordneten Bildbereichs des von der Kamera aufgenommenen Bildes und/oder eine Information in Bezug auf eine Position, einen Abstand und/oder eine Bewegung eines der Objekte in Bezug zur Kamera oder in Bezug zu dem zweiten der zumindest zwei Objekte und/oder eine Dauer des Vorhandenseins des Objektes in zeitlich zurückliegenden Bildern der Kamera und/oder ein Alter der Objekte repräsentiert. Die Objekte werden häufig durch „Tracking” (d. h. ein Verfolgen) über mehrere Bilder hinweg verfolgt. Tracking kann z. B. verwendet werden, indem die Geschwindigkeit eines Fahrzeugs aus Differentiation der Position ermittelt wird: Mit der Objekt-Geschwindigkeit kann man die Position des Objektes bei der nächsten Messung vorhersagen und dann die neue Position des Objekts an Hand der Schätzung und den neuen Messwerten ermitteln. Wenn ein Objekt eindeutig identifiziert wird (was für das Tracking wichtig ist), kann man auch ohne großen Aufwand das „Alter” berechnen (z. B. Speichern des Zeitstempels beim ersten Auftreten des Objektes). Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil von einfach zu ermittelnden Parametern, wobei dennoch eine zuverlässige und einfache Gruppierung der Objekte in Objektgruppen möglich ist.
  • Gemäß einer weiteren Ausführungsform der vorliegenden Erfindung können im Schritt des Einlesens ferner weitere Objektdaten betreffend zumindest eines dritten Objektes eingelesen werden, wobei die weiteren Objektdaten Informationen über das dritte Objekt repräsentieren, das in dem von der Kamera aufgenommen Bild als Objekt klassifiziert wurde und wobei im Schritt des Bildens ferner die Objektgruppendaten unter Verwendung der weiteren Objektdaten gebildet wird. Eine solche Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass auch Informationen in Bezug auf mehr als zwei Objekte in die Objektgruppendaten eingebunden werden können. Dies bedeutet, dass die Objektgruppendaten beispielsweise Informationen über drei Objekte enthalten, wodurch sich eine weitere Reduktion der Datenübertragungslast an das Scheinwerfersteuergerät realisieren lässt. Je größer die Anzahl von Objekten ist, zu denen Informationen in den Objektgruppendaten berücksichtigt sind, desto geringer ist die Inanspruchnahme einer Datenübertragungsverbindung zur Übertragung von Informationen über die aus dem Kamerabild erkannten Objekte an das Scheinwerfersteuergerät.
  • Es können auch zwei (oder mehr) Objektgruppen zu einer einzelnen zusammengefasst werden. Dabei werden aus der Reihe der Objekte beispielsweise zuerst „kleine” Objektgruppen, bestehend aus wenigen Objekten, gebildet, die anschließend immer weiter miteinander verschmolzen werden, um daraus eine größere Objektgruppe zu bilden. Es können damit nicht ausschließlich mehrere Objekte zu einer Objektgruppe zusammengefasst werden, sondern auch mehrere Objektgruppen zu einer „verschmolzen” werden.
  • Um eine noch präzisere Bildung von Objektgruppen zu ermöglichen, können auch mehr als zwei voneinander unterschiedliche Parameter verwendet werden. Somit können gemäß einer weiteren Ausführungsform der vorliegenden Erfindung im Schritt des Bildens die Objektgruppendaten auf der Basis zumindest eines dritten von den zwei Parametern unterschiedlichen Parameters gebildet werden.
  • Gemäß einer anderen Ausführungsform der vorliegenden Erfindung können im Schritt des Bildens Objektgruppendaten gebildet werden, die eine Information über eine Position, eine Form, eine Bewegungsinformation, ein Alter (d. h. eine zeitliche Abhängigkeit), eine Helligkeit, eine Farbinformation, eine Anzahl der Objekte und/oder eine Größe eines Bildausschnitts enthalten, in dem die zumindest zwei Objekte im Bild der Kamera detektiert wurden. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass das Scheinwerfersteuergerät die Objektgruppendaten sehr einfach zur Steuerung, insbesondere zur Ausrichtung der Scheinwerfer verwenden kann, ohne aufwändigere Berechnungen selbst anstellen zu müssen.
  • Günstig ist es auch, wenn gemäß einer weiteren Ausführungsform im Schritt des Einlesens ferner zweite Objektdaten betreffend zumindest zwei weitere Objekte eingelesen werden, wobei die zweiten Objektdaten Informationen über die zwei weiteren Objekte repräsentieren, die in dem von der Kamera aufgenommenen Bild als Objekt klassifiziert wurden, wobei im Schritt des Bildens ferner zweite Objektgruppendaten aus den eingelesenen zweiten Objektdaten der zumindest zwei weiteren Objekte gebildet werden, wobei das Bilden der zweiten Objektgruppendaten unter Verwendung von zumindest zwei unterschiedlichen Parametern erfolgt, die aus Bilddaten des von der Kamera aufgenommenen Bildes bereitgestellt wurden und wobei im Schritt des Übertragens die zweiten Objektgruppendaten an das Scheinwerfersteuergerät übertragen werden. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil der Übertragung von mehreren Objektgruppen bzw. mehreren Daten die unterschiedlichen Objektgruppen zugeordnet sind, so dass sich insbesondere bei vielen erkannten Objekten die Beanspruchung eines Verbindungsbusses zum Scheinwerfersteuergerät weiter reduzieren lässt.
  • Bei der Bildung von Objektgruppen kann es vorteilhaft sein die Form der Objektgruppe zu berücksichtigen. So könnte beispielsweise eine Zusammenfassung ein gewisses Seitenverhältnis bevorzugen und demnach ein Objekt der einen oder der anderen Gruppe zuordnen. Man könnte beispielsweise auch auf die durchschnittliche Helligkeit der Objektgruppe oder die Objektdichte in der Fläche der Objektgruppe optimieren. Bei der nachfolgend näher beschriebenen Parameterliste, in der stichpunktartig die verschiedenen Parameter zur Bildung der Objektgruppen aufgelistet sind, gibt es mehrere die sich auch auf die Form, durchschnittliche Helligkeit etc. der Objekt-Gruppe beziehen.
  • Um eine besonders flexible Bildung von Objektgruppen zur ermöglichen, kann auch ein Objekt in mehrere Objektgruppen eingeordnet werden. In einer derartigen Ausführungsform der vorliegenden Erfindung kann insbesondere im Schritt des Einlesens ferner zumindest Objektdaten eines Zusatzobjektes eingelesen werden, wobei die Objektdaten des Zusatzobjektes Informationen über die das Zusatzobjekt repräsentieren, die in dem von der Kamera aufgenommen Bild als Objekt klassifiziert wurden und wobei im Schritt des Bildens die Objektgruppendaten und die zweiten Objektgruppendaten unter gemeinsamer Verwendung der Objektdaten des Zusatzobjektes gebildet werden.
  • Besonders vorteilhaft ist es, wenn nicht nur abstrakte Daten über eine Objektgruppe übertragen werden, sondern ein als Objektgruppendaten Informationen übertragen werden, die Reihen vordefinierter Szenarios um das Fahrzeug, insbesondere vor dem Fahrzeug betreffen. Ein solches Szenario könnte beispielsweise darin bestehen, dass eine (oder mehrere) Fahrzeug(e) dem eigenen Fahrzeug entgegenkommen. In diesem Fall könnte als Objektgruppendaten Informationen über dieses aktuelle Szenario eines entgegenkommenden Fahrzeugs übertragen werden. Diese Informationen betreffen beispielsweise eine Information wie weit der weg sich das Fahrzeug befindet. Gemäß einer solchen Ausführungsform der vorliegenden Erfindung können somit im Schritt des Bildens Objektgruppendaten gebildet werden, die einem dem Scheinwerfersteuergerät bekannten vordefinierten Szenario vor dem Fahrzeug entsprechen.
  • Besonders vorteilhaft ist es, wenn der hier vorgeschlagene Ansatz verwendet wird, um einen beispielsweise standardisierten Datenübertragungsbus zu Übertragung von Steuersignalen unterschiedlicher Fahrzeugkomponenten zu entlasten. In diesem Fall werden noch weitere Steuersignale als Informationen zur Scheinwerfersteuerung über eine solche Datenübertragungsleitung gesendet. Gemäß einer weiteren Ausführungsform der vorliegenden Erfindung können somit im Schritt des Übersendens die Objektgruppendaten an ein Scheinwerfersteuergerät gesendet werden, das von einem Datenaufbereitungsgerät unabhängig und räumlich getrennt in einem eigenen Gehäuse angeordnet ist, wobei das Datenaufbereitungsgerät die Schritte des Einlesens und des Bildens ausführt, insbesondere wobei im Schritt des Übertragens die Objektgruppendaten über einen Fahrzeug-Kommunikationsbus (z. B. CAN-Bus, Flexray, optische Bussysteme, drahtlose Systeme) des Fahrzeugs übertragen werden. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass ein bereits verfügbares Datenübertragungssystem in einem Fahrzeug benutzt werden kann, ohne eine übermäßige Belastung dieses Fahrzeug-Datenübertragungssystems durch Übertragung von Informationen zur Scheinwerfersteuerung zu verursachen.
  • Gemäß einer weiteren Ausführungsform der vorliegenden Erfindung kann der Schritt des Bildens ferner ansprechend auf ein Anforderungssignal des Scheinwerfer-Steuergerätes ausgeführt werden, wobei das Anforderungssignal insbesondere eine Information über eine Wahl der Parameter für die Bildung der Objektgruppendaten und/oder über eine Situationsvorgabe aufweist. Das Einlesen der Objekte wird üblicherweise zyklisch vorgenommen, sobald neue Messdaten der Kamera vorliegen. Das Anforderungssignal ermöglicht dann bei der Gruppenbildung eine Vorgabe, wie bzw. unter Verwendung von welchen Parametern die Objekte zusammengefasst werden sollten. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass das Scheinwerfer-Steuergerät bereits eine Vorauswahl von Parametern vornehmen kann, die zur optimalen Lichtaussendung durch die Scheinwerfer des Fahrzeugs benötigt werden. Auf diese Weise kann sichergestellt werden, dass die Objektgruppendaten Informationen über Objekte enthalten, die alle bestimmte Parametereigenschaften der gewünschten Parameter haben.
  • Besonders vorteilhaft ist es ferner, wenn im Schritt des Bildens ferner weitere Objektgruppendaten aus den eingelesenen Objektdaten der zumindest zwei Objekte gebildet werden, wobei das Bilden der weiteren Objektgruppendaten unter Verwendung von zumindest zwei sich von den Parametern unterscheidenden weiteren Parametern erfolgt, die aus Bilddaten des von der Kamera aufgenommenen Bildes bereitgestellt wurden und wobei im Schritt des Übertragens die weiteren Objektgruppendaten an das Scheinwerfersteuergerät übertragen werden. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass ein Teil der Verarbeitung des Kamerabildes bereits in dem Datenaufbereitungsgerät ausgeführt werden kann und die aufbereiteten Daten dann über die Datenübertragungsleitung übertragen werden. Insbesondere durch die Gruppierung der einzelnen Objekte in unterschiedliche Objektgruppen kann eine Vorklassifizierung der Objekte anhand der unterschiedlichen Parametereigenschaften erfolgen. Auf diese Weise kann eine Datenverarbeitungslast von dem Scheinwerfer-Steuergerät hin zum Datenaufbereitungsgerät erfolgen, so dass durch die Übertragung der bereits aufbereiteten Daten die Datenübertragungskapazität der Datenübertragungsleitung des Fahrzeugs effizient genutzt werden kann.
  • Die Erfindung wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
  • 1 ein Blockschaltbild eines Fahrzeugs, bei dem ein Ausführungsbeispiel der vorliegenden Erfindung verwendet wird;
  • 2 eine schematische Darstellung der adaptiven Hell-Dunkel-Grenze aus der Zeitschrift Automobil-Elektronik;
  • 3 eine Darstellung einer schematischen Anpassung der Leuchtweite von Scheinwerfern an vorausfahrende Fahrzeuge (in Bezug zu einem vertikalen Winkel) aus Fahrer-/Kamera-/Scheinwerfer-Perspektive;
  • 4 eine schematische Darstellung des blendfreien Fernlichts nach einer Darstellung von D. Grimm „Trends in Automotive lighting, new technology and its benefits for end-users", 8th International Symposium an Automotive Lighting, 2009;
  • 5A eine schematische Darstellung des blendfreien Fernlichts bei einem einzelnen Fahrzeug (in Bezug auf einen vertikalen und horizontalen Winkel) aus Fahrer-/Kamera-/Scheinwerfer-Perspektive;
  • 5B eine Darstellung eines optischen Flusses unter Verwendung von „Optischer-Fluss”-Vektoren;
  • 6A ein Kamerabild, wie es beispielsweise von einer Kamera in dem Fahrzeug aufgenommen wird;
  • 6B ein verarbeitetes Kamerabild, in dem Objekte von einem Objekterkennungsalgorithmus erkannt wurden;
  • 6C ein Bild einer Kamera, bei dem mehrere Objekte in Ausführung eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens gruppiert worden sind;
  • 7 ein Ablaufdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung; und
  • 8 ein detaillierteres Ablaufdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung samt Übertragung der generierten Objektgruppendaten an ein Scheinwerter-Steuergerät.
  • In der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • 1 zeigt ein Blockschaltbild eines Fahrzeugs 100, das ein Ausführungsbeispiel des nachfolgend beschriebenen Ansatzes zur Übertragung von Daten an ein Scheinwerfersteuergerät verwendet. Hierbei wird durch eine Kamera 110 die Fahrzeugumgebung 115 in einem Sichtwinkel 120 abgetastet und hieraus ein Kamerabild der Fahrzeugumgebung 115 generiert. Die Kamera 110 dient dabei als optischer Sensor und kann beispielsweise als sehr preisgünstige CCD- oder CMOS-Kamera ausgestaltet sein, wie sie mittlerweile breit verfügbar ist. Das von der Kamera 110 gelieferte Kamerabild wird nachfolgend in einem Datenaufbereitungsgerät 130 weiterverarbeitet. Das Datenaufbereitungsgerät 130 kann auch Teil der Kamera 110 oder als Software auf einer in 1 nicht dargestellten Prozessoreinheit der Kamera 110 ausgeführt werden. Dabei wird ein Algorithmus auf das Kamerabild angewendet, um Objekte in dem Kamerabild zu erkennen und entsprechende Parameter des Kamerabildes zu erfassen, die in Bezug zu diesen Objekten stehen. Unter einem solchen Parameter kann beispielsweise die Helligkeit oder Farbe eines Ausschnitts des Kamerabildes verstanden werden, in dem ein Objekt erkannt wurde.
  • In diesem Datenaufbereitungsgerät 130 wird nun eine Gruppierung von mehreren, das heißt zumindest zwei Objekten vorgenommen, wobei diese Gruppierung unter Verwendung von zumindest zwei unterschiedlichen Parametern erfolgt, die den beiden Objekten zugeordnet sind. Dabei erfolgt die Gruppierung derart, dass beispielsweise ein erster Parameter eines ersten Objekts mit einem ersten Parameter des zweiten Objekts verglichen wird und ein zweiter Parameter des ersten Objekt, der vom ersten Parameter unterschiedlich ist, mit einem zweiten Parameter des zweiten Objekts in Beziehung gesetzt, wobei der zweite Parameter des zweiten Objekts ebenfalls vom ersten Parameter des zweiten Objekts unterschiedlich ist. Der erste Parameter repräsentiert dabei gleiche Größen im ersten und zweiten Objekt, wobei sich auch der zweite Parameter auf gleiche Größen im ersten und zweiten Objekt bezieht. Auf diese Weise erfolgt die Gruppierung somit anhand von zwei unterschiedlichen Parametern, die für jedes der zwei gruppierten Objekte in Beziehung zueinander gesetzt werden. Beispielsweise kann als erster Parameter eine Helligkeit des ersten Objekts mit einer Helligkeit als erstem Parameter des zweiten Objekts verglichen werden und eine Geschwindigkeit und/oder Richtung als zweiter Parameter des ersten Objekts mit einer Geschwindigkeit und/oder Richtung als zweiter Parameter des zweiten Objekts verglichen werden, wobei das erste Objekte dann mit dem zweiten Objekt in eine Objektgruppe gruppiert wird, wenn sowohl die Helligkeit des ersten Objekts mit der Helligkeit des zweiten Objekts innerhalb eines Toleranzbereichs übereinstimmt als auch die Geschwindigkeit und/oder Richtung des ersten Objekts mit der Geschwindigkeit und/oder Richtung des zweiten Objekts innerhalb eines Toleranzbereichs übereinstimmt. Somit wird das erste Objekt mit dem zweiten in eine gemeinsame Objektgruppe gruppiert, wenn sowohl der erste Parameter des ersten Objekts innerhalb eines Toleranzbereichs mit dem ersten Parameter des zweiten Objekts übereinstimmt und wobei der zweite Parameter des ersten Objekts innerhalb eines Toleranzbereichs mit dem zweiten Parameter des zweiten Objekts übereinstimmt. Die auf diese Weise gruppierten Objekte werden also in einer Objektgruppe zusammengefasst, die durch eine geringere Informationsmenge beschrieben werden kann, als die beiden einzelnen Objekte. Diese Objektgruppe kann durch einen Datensatz (der nachfolgend als Objektgruppendaten bezeichnet wird) repräsentiert sein, der beispielsweise eine Information über die die Anzahl Objekte in der Objektgruppe, eine Form der Objekte in der Objektgruppe, eine Bewegungsrichtung der Objekte der Objektgruppe, eine Beschreibung und/oder Angabe zur Position und/oder Größe und/oder Form des Ausschnittes des Kamerabildes, das die Objektgruppe repräsentiert oder ähnliches sein. Weiterhin kann das „Alter” des Objektes/-gruppe im Bild berücksichtigt werden.
  • Die Daten über eine solche Objektgruppe werden nachfolgend beispielsweise über einen Datenübertragungsbus 140 wie beispielsweise den CAN-Bus, ein FlexRay, optischer Bus (z. B. MOST), drahtlose Übertragung (z. B. Bluetooth, ZigBee) an das Scheinwerfersteuergerät 150 übertragen, welches unter Verwendung dieser Objektgruppendaten die Lichtverteilung eines Lichtkegels oder eines Beleuchtungsfeldes von Scheinwerfern 160 des Fahrzeugs 100 steuert. Dabei kann der Datenübertragungsbus 140 ein bereits standardmäßig im Fahrzeug 100 verbauter Datenbus sein, der beispielsweise auch eine Signalübertragung von Aufprallsensoren 170 an ein Airbagsteuergerät 180 und/oder ein Auslösesignal von dem Airbagsteuergerät 180 an einen Airbag 190 liefert. Durch die Gruppierung von mehreren Objekten zu einer gemeinsamen Objektgruppe und der Übertragung von solchen Objektgruppendaten über den Datenübertragungsbus 140 lässt sich somit eine Reduktion der über den Datenübertragungsbus 140 zur Übertragung der Informationen zu dem aus dem Kamerabild erkannten Objekten realisieren. Durch eine solche Reduktion der Datenübertragungslast kann eine mögliche Überlastung des Datenübertragungsbusses 140 vermieden werden, wobei dennoch eine optimale Ausleuchtung der Fahrzeugumgebung 115 durch die präzise Versorgung des Scheinwerfersteuergeräts mit erforderlichen Informationen möglich wird, um eine optimale Ansteuerung der Scheinwerfer 160 mittels der Scheinwerfersteuereinheit 150 zu realisieren.
  • Weiterhin können freie Ressourcen in der Kamera verwendet werden, um Situationen (vor-) zu berechnen. Dadurch muss die Rechenleistung von Kamera und Scheinwerfersteuergerät nicht auf die Spitzenlast ausgelegt werden.
  • Ein Detektionsalgorithmus FDD (FDD = Fahrzeugdetektion bei Dunkelheit), der in der Kamera 110 selbst oder, wie in 1 in der Datenüberbereitungseinheit 130 ausgeführt wird, erkennt und klassifiziert beispielsweise bei Nacht helle Objekte und unterscheidet z. B. Fahrzeuge, Reflektoren und Straßenlaternen. Objekte, die keiner der Kategorien zugeordnet werden können, werden als „unbekannte Objekte” einsortiert oder klassifiziert. Bei den Fahrzeugen werden Frontscheinwerfer und Rücklichter unterschieden. Die Unterscheidung zwischen Frontlichtern und Rücklichtern wird beispielsweise durch den Parameter „Lichtfarbe” der erkannten Objekte durchgeführt. Die einzelnen Lichtquellen als erkannte Objekte werden, falls möglich, zu Licht-Paaren als Objektgruppe zusammengefasst. Es kann ferner zusätzlich eine Objekt-Detektion/-Klassifikation von Blinkersignal und andere Signaleinrichtungen von Fahrzeugen, leuchtender Infrastruktur (z. B. Ampeln), Fahrrädern und Fußgängern (mit Reflektoren) nützlich sein.
  • Die erkannten Objekte besitzen eine Bildposition (Detektionswinkel) sowohl in vertikaler, als auch horizontaler Richtung. Wenn ein Scheinwerferpaar erkannt wurde, kann aus dem Abstand der Scheinwerfer zueinander die Entfernung sehr grob geschätzt werden (Genauigkeit mehrere Meter). Ursache ist die Schwankung der Einbaupositionen/-abstände der Scheinwerfer.
  • Die Objekte können für einfache Fernlichtassistenten genutzt werden, die zwischen Fernlicht und Abblendlicht hin- und herschalten. Für eine einfache Umsetzung (ohne Situationserkennung) reicht hier das Erkennen des Vorhandenseins anderer Verkehrsteilnehmer (vgl. J. Rebut „A Monocular Vision Based Advanced Lighting Automation System for Driving Assistance", IEEE International Symposium an Industrial Electronics, 2009).
  • Bei erweiterten Fernlichtassistenten, wie beispielsweise der „AHC-Funktion (AHC = Adaptive High Beam Control), wird der Abstrahlwinkel des Scheinwerfers so weit angehoben, dass die Sichtweite des Fahrers erhöht wird, die anderen Verkehrsteilnehmer aber nicht geblendet werden. Dies ist in den Teilfiguren der 2, die schematische Darstellungen von AHC in unterschiedliche Szenarien einer Fahrzeugbeleuchtung bei unebener Fahrbahn und/oder vorausfahrendem Fahrzeug dargestellt. Um den Abstrahlwinkel des Scheinwerfers berechnen zu können, sollte die vertikale Position und, falls möglich, auch der Abstand zum Objekt bekannt sein. Dies ist in der 3 wiedergegeben, wobei in dieser Figur eine schematische Anpassung von Scheinwerfern an vorausfahrende Fahrzeuge (vertikaler Winkel) als Fahrer-/Kamera-/und Scheinwerfer-Perspektive dargestellt ist. Der Fernlichtassistent ist verwandt mit der dynamischen Leuchtweiten-Regulierung, bei der die Leuchtweite angepasst wird. In diesem letztgenannten Fall erfolgt jedoch eine Anpassung an eine konstante Reichweite.
  • Für den Lichtassistenten „blendfreies Fernlicht” (auch CHC = Continuous High Beam Control genannt) werden beispielsweise der rechte und linke Scheinwerfer auseinander geschwenkt, um einen Schattenbereich um die Fahrzeuge zu erzeugen. 4 zeigt eine schematische Darstellung des blendfreien Fernlichts entsprechend der Darstellung aus D. Grimm „Trends in Automotive lighting, new technology and its benefits for end-users", 8th International Symposium an Automotive Lighting, 2009, wie ein solches Auseinanderschwenken der Lichtkegel in unterschiedlichen Fahrtpositionen erfolgt, wenn das eigene Fahrzeug 400 auf ein entgegenkommendes Fahrzeug 410 zufährt. Für die Berechnung des Schattenbereichs sollten zusätzlich zur vertikalen Objektposition noch die horizontalen Koordinaten der Verkehrsteilnehmer bekannt sein, wie dies aus der schematischen Darstellung des blendfreien Fernlichts bei einem einzelnen Fahrzeug (vertikaler Winkel und horizontale Winkel) aus Fahrer-/Kamera-/Scheinwerfer-Perspektive entsprechend der 5A darstellt ist. Die Verkehrsteilnehmer werden dann gemeinsam „entblendet”.
  • Bei Pixel-Licht bzw. Matrix-Beam wird der Raum vor dem Fahrzeug in Segmente eingeteilt, die einzeln angeleuchtet werden können. Die Funktionalität ist ähnlich des blendfreien Fernlichts, wobei die Ansteuerung eine größere Flexibilität besitzt: Es braucht kein gemeinsamer Schattenbereich erzeugt werden.
  • Wenn zusätzlich zu den Objektwinkeln noch mehr Informationen zur Verfügung stehen, können daraus Situationen berechnet werden, auf die reagiert wird (z. B. Anpassung von Parametern). Eine Situationserkennung ist nötig, um moderne Assistenzsysteme zu entwickeln.
  • Je nach System-Ausprägung kann die Einstellempfehlung für die Scheinwerfer von der Kamera (bzw. dem integrierten Kamerasteuergerät) kommen oder im Scheinwerfersteuergerät bestimmt werden. Die Berechnung innerhalb der Kamera ist vorteilhaft, da hier auf alle Messwerte zentral zugegriffen werden können (vollständig alle von FDD gemessenen Objekte mit allen Zusatzinformationen, aber auch z. B. Spurinformationen).
  • Häufig findet die Berechnung jedoch im Scheinwerfer-Steuergerät 150 entsprechend der 1 statt, wenn der Scheinwerferhersteller die gesamte Ansteuerung des Scheinwerfers realisiert. Zur Ansteuerung sollten dann die von FDD gemessenen Objekte von der Kamera an das Scheinwerfer-Steuergerät in einer Objektliste übertragen werden. Dazu wird vor der Entwicklung eine Anzahl an zu übertragenden Objekten festgelegt (z. B. 8 Stück im Projekt eines bestimmten Fahrzeugherstellers), welche zyklisch über den CAN-Bus übertragen werden. Wenn die Kamera eine größere Anzahl an Objekten detektiert, muss sie entweder Objekte auslassen, oder die Objekte zusammenfassen.
  • Das Auslassen von Objekten und die Zusammenfassung von Objekten zu Gruppen haben Auswirkungen auf die Ansteuerungsmöglichkeiten des Scheinwerfer-Steuergerätes. Wenn die Gruppe nicht sinnvoll gewählt wird, oder die falschen Objekte nicht gesendet werden, kann das Scheinwerfersteuergerät nicht die optimale Entscheidung zur Scheinwerfereinstellung treffen. Es ist ebenfalls möglich, dass das Scheinwerfersteuergerät durch die fehlenden Informationen die Situation nicht richtig interpretiert.
  • Die Art der Zusammenfassung der entsprechenden Objekte hat Auswirkungen auf die Leistungsfähigkeit der gesamten Scheinwerfer-Ansteuerung. Eine gute Zusammenfassung von Objekten gewährleistet eine optimale Verfügbarkeit der Funktion.
  • Ein besonderer Aspekt der vorliegenden Erfindung betrifft die Verwendung eines FOE, d. h. eines „Field of Expansion”. Bei der Erkennung eines optischen Flusses wird berücksichtigt, wie sich die Objekte bewegen. Hier wird die Position des FOE genutzt, um z. B. nahe beim FOE liegende Fahrzeuge zusammenzufassen, da diese wahrscheinlich weit weg sind. In der 5B werden (entsprechend der Erläuterung aus http://de.wikipedia.org/wiki/Optischer_Fluss) Vektoren bezüglich eines „optischen Flusses” wiedergegeben. Länge Linien entstehen dabei durch große Bewegungen von Fixpunkten an bestimmten Objekten. Die Fluss-Linien schneiden sich hier im „Field of Expansion” (FOE) ziemlich in der Mitte des Bildes (oder scheinen dort zu entspringen). Aus diesem FOE-Punkt/-Region scheinen alle Dinge zu entstehen und bei Annäherung größer zu werden (was zum optischen Eindruck einer Expansion führt).
  • Das FOE ist nicht immer mittig. Beispielsweise verschiebt es sich bei Kurvenfahrt in Richtung der Kurve. Neue Objekte tauchen dann normalerweise nicht mehr in der Mitte des Bildes auf.
  • In dem nachfolgen noch detaillierter beschriebenen Ansatz wird erläutert, welche Kombinationen von Daten genutzt werden (können), um eine sinnvolle Gruppierung von Objekten vorzunehmen. Eine solche Gruppierung kann auch als Clustering bezeichnet werden. Die Gruppierung ist insbesondere dann nötig, um dem Scheinwerfersteuergerät alle nötigen Informationen zur Verfügung stellen zu können, auch wenn es zu viele Objekte für die zur Verfügung gestellte Bandbreite ist.
  • Weiterhin wird beschrieben, dass man Situationen an das Scheinwerfer-Steuergerät übermitteln kann und so das Scheinwerfersteuergerät von Berechnungen entlastet wird und die in der Kamera vorliegenden Informationen optimal nutzen kann.
  • Für die Übermittlung von Objektgruppen (Objektclustern) werden meist Rechtecke genutzt – es können aber auch andere geometrische Formen übertragen werden, um eine optimierte Datenrepräsentation bei gleichbleibender Bandbreite zu erreichen.
  • Um eine solche Objektgruppe bzw. ein Objekt-Cluster zu erzeugen, sollten zumindest zwei Parameter von Objekten in Beziehung zueinander gesetzt werden, um eine Gruppierung der betreffenden Objekte in eine Objektgruppe präzise vornehmen zu können. Diese Parameter sollten sich auf die gleichen Eigenschaften der beiden Objekte beziehen. Wenn die beiden Parameter von zwei Objekten innerhalb eines Toleranzbereichs übereinstimmen, sollten die beiden Objekte in einer Objektgruppe gruppiert werden. Auch können natürlich mehr als zwei Objekte in eine Objektgruppe gruppiert werden wobei dann sowohl der erste als auch der zweite Parameter für alle die in die Objektgruppe gruppierten Objekte innerhalb eines Toleranzbereichs liegen sollte.
  • Für die Gruppierung der Objekte können viele unterschiedliche Attribute oder Eigenschaften oder Parameter der erkannten Objekte bzw. Parameter des Kamerabildes zur Berechnung einer Objektgruppe herangezogen werden.
  • Für die Zusammenfassung von Objekten zu Objektgruppen wird eine Kombination von Attributen verschiedener Objekte miteinander verrechnet, um eine Gruppe (Cluster) zu bilden. Als Beispiele für die für die Objektgruppierung berücksichtigten Parameter können die folgenden Parameter genannt werden:
    • • Detektionswinkel relativ zur optischen Achse der Kamera (entspricht ungefähr der Pixelposition) – Horizontale Objektposition (Koordinaten) – Vertikale Objektposition (Koordinaten)
    • • Entfernung des Objekts von der Kamera
    • • Typ des Objekts (Fahrzeug, Straßenlaterne, Reflektor, ...),
    • • Fahrtrichtung bzw. Fahrzeugbeleuchtungstyp (Frontscheinwerfer, Rücklicht, – Entgegenkommend (Frontscheinwerfer) – Vorausfahrend (Rücklichter)
    • • Ausdehnung des Objekts (Höhe, Breite)
    • • Form des Objekts (Eckigkeit, Rundheit)
    • • Seitenverhältnis des Rechtecks, das das Objekt/-gruppe umschließt (Dieser Aspekt ist vorwiegend beim „Wachsenlassen” von Objekt-Gruppen nützlich, d. h. es existiert schon eine Gruppe und es wird überlegt, welches Objekt man noch hinzunimmt.)
    • • Helligkeit der Lichtquelle
    • • (durchschnittliche) Helligkeit des Rechtecks, das das Objekt oder Objektgruppe umschließt (gegebenenfalls auch Rechteck/geometrische Form, die Gruppe umschließt)
    • • Farbe der Lichtquelle
    • • Die Entfernung (Detektionswinkel) zum nächsten/benachbarten Objekt – Entfernung der Mittelpunkte der Objekte – Abstand zwischen den einzelnen Objekten
    • • Dauer der Detektion des Objekts („Alter” der detektierten Objekte, d. h. Dauer, wie lange vor der aktuellen Erfassung das Objekt bereits erkannt wurde)
    • • Relativgeschwindigkeit zum eigenen Fahrzeug (Skalierungsänderung, Entfernungsänderung, Positionsänderung)
    • • (geschätzte) Höhe des Objekts über Grund (→ z. B. Zusammenfassung bei Straßenlaternen)
    • • Nähe zum FOE (Field Of Expansion)
    • • Bewegungsrichtung/-stärke im Kamerabild
    • • Position auf der Straße zueinander (z. B. „alle Fahrzeuge nach dem zweiten Fahrzeug zusammenfassen”)
    • • Logisch zusammengehörige Objekte (z. B. eine Kolonne erfassen, einen Blinker mit Rückleuchten, ... zusammenführen)
    • • Straßenverlauf bei Gruppierung mit einbeziehen (Der Straßenverlauf ist keine Objekteigenschaft im engeren Sinne, sondern kann die Gruppenbildung beeinflussen. Der Straßenverlauf braucht nicht zwingend von der Kamera erkannt werden, sondern kann auch z. B. von einem Navigationsgerät ausgelesen werden).
    • • Größe eines Halos um das Lichtobjekt (wobei Halos proportional zur Entfernung des Lichtobjektes und den atmosphärischen Bedingungen wie Nebel sind)
    • • Kantensteilheit der Ränder der Lichtquellen (wobei die Kantensteilheit umgekehrt proportional zu Halo ist und der Abstrahlcharakteristik der Lichtquel le)
    • • Leuchtende Fläche (z. B. Größe der leuchtenden Fläche)
    • • Helligkeitsunterschiede innerhalb des Objekts (um z. B. Schilder zusammenzufassen)
    • • Orientierung des Objekts
    • • Anzahl von Objekten in Objektgruppe
    • • Objektdichte in Objektgruppe (Anzahl Objekte pro Fläche der Gruppe)
    • • Eigenbewegung des Fahrzeugs oder der aufnehmenden Kamera (um sich
    • z. B. an schnelle Änderungen im Bild bei hoher Geschwindigkeit/Gierrate anzupassen)
    • • Typ der Lichtquelle (z. B. LED, Hochdruckgasentladungslampe, ...)
    • • Relative/absolute Helligkeitsänderung der Lichtquelle (um beispielsweise eine Annäherungsgeschwindigkeit zu ermitteln)
    • • Frequenz der Helligkeitsänderung (um zum Beispiel getaktete Lichtquellen wie LEDs zu erkennen)
    • • Ergebnisse der Oberflächenschätzung der Kamera und/oder eines Navigationssystems (z. B. Steigung der Straße vor dem Fahrzeug)
    • • Entfernung zu Messdaten von anderen vorausschauenden Sensoren (z. B. Entfernung zu Objekten, die an Hand von Radar-Reflexen ermittelt wurden) und/oder
    • • Verhältnis zwischen Pixeln von mind. 2 unterschiedlichen spektralen Filterungen (auch: spektrale Filterung = keine Filterung) ~Lichtfarbe
  • Die oben genannten Parameter sind nur exemplarisch genannt, wobei zumindest zwei Parameter zur möglichst präzisen Gruppierung der betreffenden Objekte in eine gemeinsame Objektgruppe verwendet werden.
  • Nachfolgend werden einzelne der oben genannten Parameter näher erläutert.
  • Parameter Objektentfernung
  • Normalerweise wird die Lichtverteilung auf das Objekt/die Objekte eingestellt, die am Nächsten zum Fahrzeug stehen. Zusätzlich zur tatsächlichen Schätzung der Entfernung des Objekts können noch weitere Daten zur Abschätzung des Abstands genutzt werden.
  • Dazu gehört beispielsweise auch die Position des erkannten Objekts im (Kamera-)Bild, mit der man bei bekannter Oberfläche und Anbauhöhe der Lichtquelle die Entfernung schätzen kann. Aus der Größe des Objekts kann man ebenso eine Entfernung schätzen, da weit entfernte Objekte im Bild kleiner erscheinen als nahe Objekte (FDD nutzt unter Anderem die Breite des Scheinwerferpaars zur Entfernungsschätzung).
  • Bei atmosphärischen Einflüssen wie Feuchte in der Luft bildet sich ein Lichtschein, ein sogenannter „Halo”, um die Lichtobjekte, da das Licht an den Wassertropfen gestreut wird. Je weiter entfernt das Fahrzeug ist, desto mehr Wassertropfen sind zwischen Objekt und Kamera und desto größer wird der Halo. Wenn ein Halo vorhanden ist, sinkt auch die Kantensteilheit der Lichtquelle, d. h. die Objekte werden nur noch unscharf oder in einer geringeren Schärfe von der Kamera erkannt, als ohne Feuchte in der Luft. Lichtquellen bei Fahrzeugen haben meist eine maximal erlaubte Größe, die mit der Entfernung im Kamerabild kleiner wird. Bei Fahrzeugen, die hintereinander fahren, ist die Kenntnis der genauen Eigenschaften der hinteren Fahrzeuge für die Scheinwerferansteuerung meist zweitrangig – die relative Position der Fahrzeuge auf der Straße zueinander kann daher auch als Entfernung genutzt werden (auch bei Verdeckungseffekten, bei denen keine Entfernung wegen nur einzelnen Scheinwerfern berechnet werden kann).
  • Die Helligkeit kann zur Entfernungsschätzung genutzt werden, da sie quadratisch mit der Entfernung abnimmt (vor allem, wenn die Lichtquelle auf weniger als einen Pixel abgebildet wird und so mit dunklen Schattenbereichen gemittelt wird). Durch den Mittelwert-bildenden Charakter bei der Abbildung auf Pixel, gehen auch Helligkeitsunterschiede innerhalb der Lichtquelle verloren – je weiter entfernt die Lichtquelle ist, desto geringer fallen die Helligkeitsunterschiede innerhalb des Objekts aus.
  • Die ermittelte Eigenbewegung der Kamera kann genutzt werden, um z. B. bei hoher Geschwindigkeit weniger oder nur die weit entfernten Objekte zusammenzufassen, da man sich schneller annähert. Das „Alter” eines entgegenkommenden Objekts kann ebenfalls dazu dienen (zusammen mit anderen Parametern, z. B. Eigenbewegung, Oberflächenschätzung) auf die Entfernung zu schließen.
  • Objekte, die nahe beieinander im Bild sind, stehen möglicherweise auch in der Realität nahe beieinander und haben eine ähnliche Entfernung.
  • Parameter Objektbewegung
  • Der Parameter „Objektbewegung” hat Einfluss auf die Dynamik des Gesamtsystems und auf die Situationserkennung (z. B. entgegenkommendes Fahrzeug).
  • Die Objektbewegung kann direkt aus dem Bild bzw. durch Differentiation der Objektposition im Bild geschätzt werden. Weiterhin kann man an Hand des Fahrzeugbeleuchtungstyps auf die qualitative Geschwindigkeit/zukünftige Positionsänderung schließen. Rückleuchten, d. h. vorausfahrende Fahrzeuge haben meist eine kleine Änderung der relativen Position zur Folge, da sie normalerweise in die gleiche Richtung fahren wie das eigene Fahrzeug. Entgegenkommende Fahrzeuge haben, wenn sie nah sind (d. h. eine geringe Objektentfernung aufweisen und/oder unter einem großen Objektwinkel zur Normalen des Kamerabildes aufgenommen werden), eine hohe Dynamik (besonders beim Vorbeifahren).
  • Die Fahrtrichtung bzw. der Fahrzeugbeleuchtungstyp kann, an Hand der Lichtfarbe erkannt werden. Die Lichtfarbe kann ebenfalls zur Objekt-Gruppierung genutzt werden. So können zur Gruppenbildung beispielsweise gleiche Lichtfarben (zur Gruppenbildung für Objekte gleicher Fahrtrichtung) verwendet werden, aber auch unterschiedliche Lichtfarben (z. B. gelbes Blinkersignal zu den benachbarten Lichtquellen zuordnen). Eine Messung der Lichtfarbe kann durch Farbrekonstruktion erfolgen, bei der aus mind. zwei unterschiedlich farbigen Pixeln (beispielsweise rot und grau/farblos/nur Intensität; bei digitalen Kameras meist 3 Farben: rot, grün, blau) der Farbwert geschätzt wird. Statt eine fertig berechnete Farbe zu nutzen, können selbst die Verhältnisse/Differenzen zwischen den (Farb-)Pixeln bei der Lichtquelle ausgewertet werden.
  • Die Helligkeit einer Lichtquelle hängt quadratisch mit der Entfernung zusammen (photometrisches Entfernungsgesetz). Bei Annäherung des Objektes zur Kamera erhöht sich die Helligkeit bzw. die Größe/Fläche des Objekts. Daher kann auch beispielsweise die Helligkeitsänderung als Parameter zur Gruppenbildung genutzt werden.
  • Das „Alter” von Objekten (d. h. die Dauer des Objekts im Bild) hat unterschiedlichen Einfluss auf die voraussichtliche Dynamik des Objekts: ein „altes” Objekt kann langsam (in Bezug auf die Geschwindigkeit der Kamera) sein (beispielsweise ein vorausfahrendes Fahrzeug), aber auch schnell werden (wie beispielsweise ein entgegenkommendes Fahrzeug bei guter Sicht beim Vorbeifahren). Unterschiedliche Objektkategorien oder Objektgruppen repräsentieren beispielsweise Objekte mit unterschiedlichen Geschwindigkeiten, was mit betrachtet werden kann, so dass beispielsweise keine Eigenbewegung von Straßenlaternen, Ampeln, Reflektoren, berücksichtigt werden braucht. Die Orientierung des Objekts kann auch für die weitere Bewegung eine Rolle spielen. So können beispielsweise Objekte mit der gleichen Orientierung in eine Objektgruppe zusammengefasst werden, oder Objekte die nach der Orientierungsschätzung in die gleiche Richtung fahren werden können in eine Objektgruppe zusammengefasst werden.
  • Verminderung Fehlklassifikation
  • FDD kann die einzelnen Objekte nicht immer sinnvoll in Paare zusammenfassen. In der übergeordneten Funktionsschicht können vermeintliche Einzelobjekte wieder gruppiert werden, wenn sie ähnlich sind und/oder in den Gesamtkontext passen. In der übergeordneten Funktionsschicht kann auch auf die Messdaten anderer Umfeldsensoren (auch: andere kamerabasierte Messalgorithmen) zurückgegriffen werden, um die Messdaten in Zusammenhang zu bringen und eine verbesserte Gruppierung, als es ohne die weiteren Messgrößen möglich wäre, durchzuführen.
  • Wenn im Bild zu viele erkannt Objekte sind, die nicht alle übertragen werden können, sollten diese vielen Objekte zu einer oder mehreren Objektgruppen zusammengefasst werden, um die Datenübertragungslast über die Datenleitung zu minimieren. Dabei kann beispielsweise die Zusammenfassungs-Schwelle von einzelnen Objekten im Vergleich zu FDD gesenkt werden.
  • Die Einzelobjekte können so zusammengefasst werden, dass beispielsweise Objekte mit einer ähnlichen Form zusammengefasst werden oder von gleichen Lichtquellen (Frequenz bei LED, Lichtfarbe bläulich bei Xenon, rötlich bei Halogen).
  • Es kann Situationen geben, in denen stark reflektierende Straßenschilder als Objekte/Fahrzeuge erkannt werden. Hier kann beispielsweise die Form, das Seitenverhältnis der umschließenden Rechtecks (bzw. umschließende geometrische Form), deren Fläche und durchschnittlichen Helligkeit (und Helligkeitsänderung innerhalb der Form) ausgewertet werden, um z. B. mit anderen vermeintlich nicht blendungsrelevanten Objekten zu verschmelzen. Schilder, die bei einer großen Größe in mehrere Objekte zerfallen könnten, sowie Häufungen von Schildern im Verkehrsraum, können so zusammengefasst werden.
  • Gruppenbildung
  • Je nach Strategie kann es sinnvoll sein, möglichst viele Objekte in einer Gruppe zusammenzufassen oder mehrere Gruppen mit möglichst wenigen Objekten zu bilden (Anzahl an Objekten in Gruppe).
  • Je nach Fernlichtassistent/Ausprägung kann es sinnvoll sein, das Seitenverhältnis mit einzubeziehen. So könnte beispielsweise für eine feinere Abstufung beim blendfreien Fernlicht eine hochkant stehende Gruppierung von Objekten (d. h. eine Gruppierung von Objekten, die im Kamerabild übereinander angeordnet sind) bevorzugt werden, bei Einzel-Lichtern eine Gruppierung, die einer Fahrzeug-Geometrie entspricht (z. B. auch Scheinwerfer zusammen mit Positionsleuchten gruppieren).
  • Ergänzung zur Gruppenbildung (Clustering)
  • Zur Reduzierung der Daten braucht nicht nur ein einzelner Objekt-Cluster oder eine einzelne Objektgruppe gebildet werden. Es ist auch möglich, dass mehrere Gruppen gebildet werden (z. B. zur Reduzierung der Anzahl an Objekten in einer Gruppe).
  • Weiterhin ist nicht ausgeschlossen, dass ein Objekt in mehreren Gruppen vorhanden ist. Das ist möglich, wenn beispielsweise das Objekt sowohl zu den Gruppen (Clustern) „entgegenkommend und nah”, als auch „schnelle Bewegung nach links” gehört.
  • Die Objekte werden sinnvoll zu Gruppen zusammengefasst, wodurch auch die Parameter der Gruppen-Objekte angepasst werden sollten.
  • Es ist auch möglich spezielle Botschaften für Objekt-Gruppen vorzusehen.
  • Statt einer Liste mit Einzelobjekten (gegebenenfalls gemischt mit Gruppen) lassen sich auch ausschließlich Gruppendaten übertragen. Vorteilhaft bei der Übertragung von ausschließlich Objektgruppendaten (Clusterdaten) ist, dass eine Kennzeichnung in der Kommunikationsbotschaft eingespart werden kann, ob es sich bei den übertragenen Daten um Gruppendaten oder Einzel-Objektdaten handelt, wodurch die zu übertragende Information weiter verdichtet werden kann. Dabei sollte ein „Bounding-Box”-Objektgruppe übertragen werden, der alle Fahrzeuge umfasst (daraus können horizontale und vertikale Koordinaten für den zu entblendenden Bereich extrahiert werden). Alternativ können andere Gruppendaten übertragen werden. Es muss jedoch sichergestellt werden, dass alle Fahrzeuge von diesen Gruppen in Summe umfasst werden. In dem Sonderfall, dass keine Einzelobjekte sondern ausschließlich Gruppendaten übertragen werden können und nur ein einzelnes Objekt von der Kamera erkannt werden konnte, kann in einer „Gruppe” auch ein einzelnes Objekt vorhanden sein. Dies kann auch der Fall sein, wenn Gruppen mit spezifischen Eigenschaften übertragen werden, aber nur ein einzelnes Objekt in diese Gruppe passt (z. B. eine Gruppe „alle entgegenkommende Fahrzeuge, die näher als eine gewisse Entfernung sind” und es nur ein entgegenkommendes Fahrzeug gibt).
  • Statt Rechtecken mit Bereichen des Kamerabildes als Objektgruppe oder Objektcluster können auch Objektgruppen mit anderen geometrischen Formen für einen Bildausschnitt des Kamerabildes übertragen werden. Dazu gehören neben Rechtecken und Trapezen allgemeine „Vielecke” zur Definition von Regionen.
  • Die Regionen können aber auch als runde Formen (z. B. Kreis, Ellipse, Kurvenverlauf, Bezier-Kurve, ...) beschrieben werden.
  • Es ist vorteilhaft, wenn den Regionen ein „Schwerpunkt” (z. B. Mittelpunkt, „wichtigster Punkt”) zugewiesen wird. Der Schwerpunkt braucht nicht den tatsächlichen Schwerpunkt der geometrischen Form wiederspiegeln, sondern kann auch der thematische Schwerpunkt sein (z. B. vorderstes Fahrzeug einer Kolonne).
  • Zur Form bzw. dem Schwerpunkt können zusätzlich Bewegungsinformationen (Translation, Rotation, Skalierung/Größenänderung) zugeordnet werden, um Informationen über deren voraussichtliche Entwicklung zu geben. Dadurch können die darauf aufbauenden Algorithmen noch vorausschauender arbeiten.
  • An Stelle einer Gruppenbildung können auch Objekte, die als nicht besonders relevant gelten, ausgelassen werden (z. B. zentrales Fahrzeug einer Gruppierung).
  • Es ist vorteilhaft, wenn die Kamera die Parameter, nach denen die Gruppen gebildet werden, dynamisch an die jeweilige Situation anpassen kann, um eine optimale Informationsdichte zu erreichen.
  • Es ist möglich, dass das Scheinwerter-Steuergerät verschiedene Parametereinstellungen von der Kamera anfordert oder Situationen anfordert, die es für eine optimale Scheinwerfer-Ansteuerung benötigt. So kann die Kamera die verfügbare Rechenleistung auf die benötigten Situationen aufwenden bzw. durch eine gewollte Anpassung der Parameterzusammenstellungen eine optimale Informationsdichte der übertragenen Daten bzw. optimale Informationsübertragung erreichen. Die Zusammenstellung der Objekte und Situationen braucht nicht fest zu sein, sondern kann geändert werden. Wenn das Scheinwerfersteuergerät mehr „Intelligenz” besitzt, kann es für die dann einfacher gehaltene Kamera entscheiden, wie sie die Zusammenstellung der Objekte durchführt, so dass das Ergebnis an die eigenen Bedürfnisse der Fahrsituation angepasst wird.
  • Parameter Fahrsituationen
  • Dieser Parameter betrifft die Übertragung von erkannten Verkehrssituationen, deren Wahrscheinlichkeit (optional) und Auftretensposition im Bild (optional). Die Position bzw. der Situationsbereich kann dabei als geometrische Form angegeben werden (z. B. Rechteck, Trapez, Ellipse...), die einen Winkel-Bereich relativ zum Fahrzeug beschreibt (z. B. Objektwinkel, Pixelkoordinaten, ...), aber auch in anderen Koordinatensystemen. Ebenso kann die Position als Segment angeben werden (z. B. bei vorheriger Segmentierung des Bildes). Zusätzlich zur Position kann die (relative) Bewegungsrichtung übermittelt werden. Das gilt auch für die regulären Objekt-Gruppen.
  • Die Trennung in der Berechnung der Scheinwerferansteuerung zwischen Kamera und Scheinwerfersteuergerät braucht nicht auf der Ebene der Objekte erfolgen. Die gemessenen oder erkannten Objekten und andere Informationen (z. B. Spurinformationen) können zu verschiedenen „Situationen” (d. h. Fahrtszenarien) kombiniert werden. Diese Situationen können an das Scheinwerter-Steuergerät geschickt werden, wodurch dessen Ressourcenbedarf sinkt und die in der Kamera vorhandenen Informationen besser verwendet werden können. Die Messgrößen (Parameter) werden zu Fahrsituationen zusammengefasst und an das Scheinwerfer-Steuergerät gesendet.
  • Zusätzlich zum Typ der Fahrsituation (z. B. überholendes Fahrzeug, Kolonne entgegenkommend, S-Kurve, ...) kann auch der Bereich der Fahrsituation angegeben werden. Dies kann beispielsweise über die Angabe eines Punktes (z. B. „wichtigster” Punkt in dieser Situation, z. B. Mittelpunkt des ersten entgegenkommenden Fahrzeugs) und/oder die Angabe eines Bereiches erfolgen. Je nach Situation ist es sinnvoll eine Richtung mit anzugeben, um eine Tendenz der Bewegung der Situation zu erhalten. Eine (optionale) Wahrscheinlichkeit für eine entsprechende Fahrsituation lässt dem Scheinwerfer-Steuergerät Interpretationsspielräume und ermöglicht fließende Übergänge zwischen einzelnen Fahrsituationen.
  • Die Koordinaten der Gruppe kann der Mittelpunkt sein, aber es kann sich auch um einen repräsentativen Punkt handeln bzw. den für die Lichtfunktionen wichtigsten Punkt der Gruppe. Dies hängt vor allem mit der gewählten Geometrie der Gruppe zusammen, als auch mit der zur Verfügung stehenden Bandbreite bei der Übertragung.
  • Nachfolgend werden einige Beispiele für die Übertragung von Objektgruppendaten an das Scheinwerfer-Steuergerät darstellt. Aus den übertragenen Daten sollte das Scheinwerfersteuergerät die optimale Ansteuerung für die einzelnen Scheinwerfer des Fahrzeugs ermitteln.
  • Zunächst wird eine Beispielsituation gemäß der 6 betrachtet. In dem Kamerabild, das in der 6A dargestellt ist, sind drei hintereinander fahrende Fahrzeuge zu erkennen. Der Objektdetektionsalgorithmus FDD erkennt ein entgegenkommendes Scheinwerferpaar 610 und drei weitere Lichtquellen 620, sowie drei Reflektoren 630 in der Fahrzeugumgebung, wie es in der 6B dargestellt ist.
  • In diesem Beispiel werden zwei Objekt-Gruppen 640 (die als rechteckige Bereiche im Kamerabild klassifiziert werden) gebildet, wie es in der Darstellung aus 6C wiedergegeben ist. Das vorderste Fahrzeug (Frontscheinwerferpaar) ist ein Objekt 640a (alleine in „Gruppe”), die nachfolgenden Fahrzeuge werden in einer gemeinsamen Gruppe 640b zusammengefasst, beispielsweise auf der Basis gleicher oder sehr ähnlicher Helligkeitswerte und Geschwindigkeiten in Bezug zur Kamera. Weiterhin beschreibt die Ellipse 650 den Bereich des Kamerabildes (d. h. ein Objekt) in für die Fahrtsituation „Kolonne” mit geschätzter Richtungsänderung (Geschwindigkeit Pfeil 660) sowie beispielsweise der ähnlichen Helligkeit der Objekte in der Objektgruppe(n). Der Punkt 670 beschreibt die Situation „Vorbeifahrer” (als Daten für das Scheinwerfersteuergerät) oder es beschreibt das Objekt in einer Objektgruppe oder als Einzelobjekt, das am ehesten blendungsgefährdet ist und auf das besonders geregelt werden muss mit Bewegungsrichtung. Das Trapez 680 beschreibt die Gruppe der Reflektoren 630.
  • Ebenso könnte noch beispielsweise ein Bereich für vorausfahrende Objekte separat erzeugt werden, die am weitesten entfernt liegenden Objekte zusammengefasst werden (die z. B. unabhängig von Lichtfarbe sind) und beispielsweise ein Bereich für Straßenlaternen eingefügt werden.
  • Durch den vorliegend vorgestellten Ansatz wird es somit möglich, helle bei Nacht erkannte Objekte effizient an ein Scheinwerfersteuergerät zu senden, welches daraus eine Lichtansteuerung realisiert. Wenn viele Objekte im Bild auftauchen können durch den vorliegenden Ansatz mehrere dieser Objekte vorteilhaft zu einer Gruppe zusammengefasst werden, damit Bandbreite gespart wird und/oder alle relevanten Informationen übermittelt werden können. In dem vorliegenden Ansatz werden verschiedene Zusammenfassungen vorgestellt, damit das Scheinwerfersteuergerät daraus sinnvolle Aktionen ableiten kann.
  • Ferner zeigt die 7 ein Ablaufdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung als Verfahren 700 zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs. Die Daten wurden unter Verwendung einer Kamera aufgenommen. Das Verfahren weist einen Schritt des Einlesens 710 von Objektdaten betreffend zumindest zwei Objekte, wobei die Objektdaten Informationen über Objekte repräsentieren, die in einem von der Kamera aufgenommen Bild als Objekt klassifiziert wurden. Weiterhin umfasst das Verfahren einen Schritt des Bildens 720 von Objektgruppendaten aus den eingelesenen Objektdaten der zumindest zwei Objekte, wobei das Bilden unter Verwendung von zumindest zwei unterschiedlichen Parametern erfolgt, die aus Bilddaten des von der Kamera aufgenommenen Bildes bereitgestellt wurden. Schließlich umfasst das Verfahren 700 einen Schritt des Übertragens 730 der Objektgruppendaten als Daten über eine aktuelle Fahrzeugumgebung an das Scheinwerfersteuergerät.
  • In der 8 ist ein Ablaufdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung als Verfahren dargestellt, wobei die Vorgehensweise bei der Bildung der Objektgruppendaten bzw. der Objektgruppen detaillierter dargestellt ist. Zunächst werden Objekte 810a bis 810e aus einem Kamerabild generiert, beispielsweise unter Verwendung des Objektdetektionsalgorithmus FDD. Diese Objekte 810 lassen sich durch bestimmte Daten 815a bis 815e, die beispielsweise eine Position im und/oder eine Größe eines Bildausschnitts des Kamerabildes repräsentieren, beschreiben. Dies bedeutet, dass diese Daten 815a bis 815e, die die betreffenden Objekte 810 repräsentieren, übertragen werden und als Repräsentation dieses „Objekts” dienen. Zugleich werden bestimmte Parameter, wie sie vorstehend bereits aufgelistet wurden in Bezug zu den Objekten bestimmt und ebenfalls, beispielsweise in einem Datenrahmen, der die Objektdaten enthält, zur weiteren Verarbeitung bereitgestellt. Die Objekte 810a bis 810e werden nachfolgend in einem ersten Schritt 710 des vorstehend näher beschriebenen Verfahrens eingelesen. Dabei kann sich beispielsweise bei dem Objekt 810a und dem Objekt 810b um erkannte Scheinwerfer von entgegenkommenden Fahrzeugen handeln. Diese Objekte 810a und 810b können nun an Hand von zwei unterschiedlichen Parametern P1 und P2 untersucht werden. Beispielsweise kann der erste Parameter P1 eine Helligkeit der in dem Kamerabild erkannten Objekte 810a und 810b sein, wogegen der Parameter P2 eine Geschwindigkeit und/oder eine Richtung dieser aus dem Kamerabild erkannten Objekte repräsentiert. Wird nun in einem ersten Vergleicher 820a ermittelt, dass der Parameter P1 des ersten Objekts 810a innerhalb eines Toleranzbereichs gleich dem ersten Parameter eines zweiten Objekts 810b ist, kann dies durch das Vergleichersignal X1 einem ersten Kombinierer 830a signalisiert werden. Analog kann in einem zweiten Vergleicher 820b überprüft werden, auch der zweite Parameter P2 des ersten Objekts 810a innerhalb eines Toleranzbereichs dem zweiten Parameter P2 des zweiten Objekts 810b entspricht, was ebenfalls durch ein Vergleichersignal X2 dem ersten Kombinierer 830a signalisiert wird. Erhält der erste Kombinierer 830a über das erste und zweite Vergleichersignal X1 und X2 die Information, dass sowohl die ersten Parameter P1 als auch die zweiten Parameter P2 der beiden Objekte 810a und 810b jeweils innerhalb eines Toleranzbereichs gleich sind kann der erste Kombinierer 830a aus dem ersten Objekt 810a und den zweiten Objekt 810b eine Objektgruppe 810a/b bilden und entsprechende Objektgruppendaten 835a/b in einem Schritt des Übertragens 730 über eine Datenleitung 140 an das Scheinwerfer-Steuergerät 150 ausgeben. Es ist ferner auch möglich noch mehr Parameter bzw. Vergleicher zu verwenden wobei die Anzahl der Parameter bzw. Vergleicher beliebig groß sein kann.
  • Ferner kann es sich beispielsweise bei dem Objekt 810d und dem Objekt 810e um erkannte Rücklichter von vorausfahrenden Fahrzeugen handeln. Diese Objekte 810d und 810e, die durch die Objektdaten 815d und 815e repräsentiert sind, können nun an Hand von zwei unterschiedlichen Parametern P3 und P4 untersucht werden. Beispielsweise kann der dritten Parameter P3 eine Farbe der in dem Kamerabild erkannten Objekte 810d und 810e sein, wogegen der Parameter P4 einen Abstand dieser aus dem Kamerabild erkannten Objekte repräsentiert. Wird nun in einem dritten Vergleicher 820c ermittelt, dass der dritte Parameter P3 des dritten Objekts 810d auf innerhalb eines Toleranzbereichs gleich dem dritten Parameter eines vierten Objekts 810e ist, kann dies durch das Vergleichersignal X3 einem zweiten Kombinierer 830b signalisiert werden. Analog kann in einem vierten Vergleicher 820d überprüft werden, ob der vierte Parameter P4 des dritten Objekts 810d innerhalb eines Toleranzbereichs dem vierten Parameter P4 des vierten Objekts 810e entspricht, was ebenfalls durch ein Vergleichersignal X4 dem zweiten Kombinierer 830b signalisiert wird. Erhält der zweite Kombinierer 830b über das dritte und vierte Vergleichersignal X3 und X4 die Information, dass sowohl die dritte Parameter P3 als auch der vierte Parameter P4 der beiden Objekte 810d und 810e jeweils innerhalb eines Toleranzbereichs gleich sind, kann der zweite Kombinierer 830b aus dem dritten Objekt 810d und den vierten Objekt 810e eine Objektgruppe 810d/e bilden und entsprechende Objektgruppendaten 835d/e in dem Schritt des Übertragens 730 über eine Datenleitung 140 an das Scheinwerfer-Steuergerät 150 ausgeben.
  • Ferner kann auch ein fünftes Objekt 810c bzw. entsprechende fünfte Objektdaten 815c eingelesen werden. Im Schritt des Bildens 720 kann dann geprüft werden, ob das fünfte Objekt 810c in die erste Objektgruppe 810a/b und/oder in die zweite Objektgruppe 810d/e gruppiert werden soll. Beispielsweise kann aus den Objektdaten 815c des fünften Objekts 810 ein Wert des ersten Parameters P1 und ein Wert des zweiten Parameters P2 heraus gegriffen werden und überprüft werden, ob der Wert des ersten Parameters P1 und ein Wert des zweiten Parameters P2 des fünften Objektes 810c innerhalb der jeweiligen Toleranzbereiche mit den Werten des ersten Parameters P1 und des zweiten Parameters P2 des ersten Objekts 810a und des zweiten Objekts 810b übereinstimmt. Ist dies der Fall, gruppiert der erste Kombinierer 830a das fünfte Objekt 810c in die erste Objektgruppe 810a/b.
  • Alternativ oder zusätzlich kann auch im Schritt des Bildens 720 beispielsweise geprüft werden, ob das fünfte Objekt 810c in die zweite Objektgruppe 810d/e gruppiert werden soll. Beispielsweise kann aus den Objektdaten 815c des fünften Objekts 810 einen Wert des dritten Parameters P3 und des vierten Parameters P4 heraus gegriffen werden und überprüft werden, ob der Wert des dritten Parameters P3 innerhalb des Toleranzbereichs mit den Werten des dritten Parameters P3 des dritten Objekts 810d und des vierten Objekts 810e übereinstimmt. Stimmt sowohl der Wert des dritten Parameters P3 als auch der Wert des vierten Parameters P4 des fünften Objekts 810c innerhalb der jeweiligen Toleranzbereiche mit Werten der dritten Parameter P3 und vierten Parameter P4 des dritten Objekts und des vierten Objekts überein, gruppiert der zweite Kombinierer 830b das fünfte Objekt 810c in die zweite Objektgruppe 810d/e.
  • Wird beispielsweise durch das fünfte Objekt 815c ein oberes Begrenzungslicht eines entgegenkommenden LKWs repräsentiert, kann dies an Hand der Helligkeit (eines aktiven weißen Lichts) und der Geschwindigkeit bzw. Bewegungsrichtung erkannt werden, wobei die Helligkeit dann möglicherweise stärker von dem Helligkeitsmuster der ersten beiden Objekte 810a und 810b abweichen darf. Zumindest kann hierdurch eine Unterscheidung des fünften Objekts 810c gegenüber den Objekten 810d und 810e der zweiten Objektgruppe 810d/e getroffen werden, da die Farbe des Begrenzungslichts sich von der Farbe der Rücklichter unterscheidet. In diesem Fall werden als Objektgruppendaten der ersten Objektgruppe 810a/b zu einer erweiterten Objektgruppe 810a/b/c vergrößert wobei diese Daten der erweiterten Objektgruppe 810a/b/c beispielsweise einen wesentlich größeren Ausschnitt der von der Kamera erfassten Bildes als zur ersten Objektgruppe gehörend zugordnet, da die oberen Begrenzungsleuchten des entgegenkommenden LKWs die Abmessungen des LKWs besser charakterisieren, als wenn lediglich die beiden Frontscheinwerfer als erstes oder zweites Objekt 810a oder 810b erkannt werden.
  • Erfolgt jedoch die Gruppierung des fünften Objekts 810c in die zweite Objektgruppe 810d/e (beispielswiese wenn als fünftes Objekt eine obere Begrenzungsrückleuchte eines vorausfahrenden LKWs erkannt wurde) kann diese zweite Objektgruppe zu einer erweiterten zweiten Objektgruppe 810d/e/c vergrößert werden, in der dann weitere Daten des fünften Objektes 810c eingebettet sind.
  • Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden.
  • Ferner können erfindungsgemäße Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden.
  • Umfasst ein Ausführungsbeispiel eine „und/oder” Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so kann dies so gelesen werden, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102007041781 B4 [0003]
  • Zitierte Nicht-Patentliteratur
    • D. Grimm „Trends in Automotive lighting, new technology and its benefits for end-users”, 8th International Symposium an Automotive Lighting, 2009 [0028]
    • J. Rebut „A Monocular Vision Based Advanced Lighting Automation System for Driving Assistance”, IEEE International Symposium an Industrial Electronics, 2009 [0043]
    • D. Grimm „Trends in Automotive lighting, new technology and its benefits for end-users”, 8th International Symposium an Automotive Lighting, 2009 [0045]
    • http://de.wikipedia.org/wiki/Optischer_Fluss [0052]

Claims (13)

  1. Verfahren (700) zum Übertragen von Daten (810a/b, 810d/e) über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät (150) eines Fahrzeugs (100), wobei die Daten (640a, 640b; 810a/b, 810d/e) unter Verwendung einer Kamera (110) aufgenommen wurden und wobei das Verfahren (700) die folgenden Schritte aufweist: – Einlesen (710) von Objektdaten (815a–e) betreffend zumindest zwei Objekte (610, 620, 630; 810a810e), wobei die Objektdaten (815a–e) Informationen über Objekte (810a–e) repräsentieren, die in einem von der Kamera (110) aufgenommen Bild als Objekt klassifiziert wurden; – Bilden (720) von Objektgruppendaten (640a, 640b, 650, 660, 670, 680; 810a/b, 810d/e) aus den eingelesenen Objektdaten (815a–e) der zumindest zwei Objekte (610, 620, 630; 810a–e), wobei das Bilden (720) unter Verwendung von zumindest zwei unterschiedlichen Parametern (P1–P4) erfolgt, die aus Bilddaten des von der Kamera (110) aufgenommenen Bildes bereitgestellt wurden; und – Übertragen (730) der Objektgruppendaten (640a, 640b, 650, 660, 670, 680; 810a/b, 810d/e) als Daten über eine aktuelle Fahrzeugumgebung an das Scheinwerfersteuergerät (150).
  2. Verfahren (700) gemäß Anspruch 1, dadurch gekennzeichnet, dass im Schritt des Bildens (720) Parameter (P1–P4) verwendet werden, die eine Information in Bezug auf eine Helligkeit, Farbe und/oder eine Schärfe eines dem Objekt zugeordneten Bildbereichs des von der Kamera (110) aufgenommenen Bildes und/oder eine Information in Bezug auf eine Position, einen Abstand und/oder eine Bewegung eines der Objekte (610, 620, 630; 810a810e) in Bezug zur Kamera (110) oder in Bezug zu dem zweiten der zumindest zwei Objekte (610, 620, 630; 810a810e) und/oder eine Dauer des Vorhandenseins des Objektes in zeitlich zurückliegenden Bildern der Kamera (110) repräsentiert.
  3. Verfahren (700) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Einlesens (710) ferner weitere Objektdaten (815c) betreffend zumindest eines dritten Objektes (810c) eingelesen werden, wobei die weiteren Objektdaten (815c) Informationen über das dritte Objekt (810c) repräsentieren, das in dem von der Kamera (110) aufgenommen Bild als Objekt klassifiziert wurde und wobei im Schritt des Bildens (720) ferner die Objektgruppendaten (810a/b/c) unter Verwendung der weiteren Objektdaten (815c) gebildet wird.
  4. Verfahren (700) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Bildens (720) die Objektgruppendaten auf der Basis zumindest eines dritten von den zwei Parametern unterschiedlichen Parameters gebildet werden.
  5. Verfahren (700) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Bildens (720) Objektgruppendaten (810a/b) gebildet werden, die eine Information über eine Position, eine Form eine Bewegungsinformation, ein Alter, eine Helligkeit, eine Farbinformation und/oder eine Anzahl der Objekte und/oder eine Größe eines Bildausschnitts enthalten, in dem die zumindest zwei Objekte (810a, 810b) im Bild der Kamera (110) detektiert wurden.
  6. Verfahren (700) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Einlesens (710) ferner zweite Objektdaten (815d, 815e) betreffend zumindest zwei weitere Objekte (810d, 810e) eingelesen werden, wobei die zweiten Objektdaten (815d–e) Informationen über die zwei weiteren Objekte (810d–e) repräsentieren, die in dem von der Kamera (110) aufgenommen Bild als Objekt klassifiziert wurden, wobei im Schritt des Bildens (720) ferner zweite Objektgruppendaten (810d/e) aus den eingelesenen zweiten Objektdaten (815d–e) der zumindest zwei weiteren Objekte (810d–e) gebildet werden, wobei das Bilden (720) der zweiten Objektgruppendaten (810d/e) unter Verwendung von zumindest zwei unterschiedlichen Parametern (P3, P4) erfolgt, die aus Bilddaten des von der Kamera (110) aufgenommenen Bildes bereitgestellt wurden und wobei im Schritt des Übertragens (730) die zweiten Objektgruppendaten (810d/e) an das Scheinwerfersteuergerät (150) übertragen werden.
  7. Verfahren (700) gemäß Anspruch 6, dadurch gekennzeichnet, dass im Schritt des Einlesens (710) ferner zumindest Objektdaten eines Zusatzobjektes eingelesen werden, wobei die Objektdaten des Zusatzobjektes Informationen über die das Zusatzobjekt repräsentieren, die in dem von der Kamera aufgenommen Bild als Objekt klassifiziert wurden und wobei im Schritt des Bildens die Objektgruppendaten und die zweiten Objektgruppendaten unter gemeinsamer Verwendung der Objektdaten des Zusatzobjektes gebildet werden.
  8. Verfahren (700) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Bildens (720) Objektgruppendaten gebildet werden, die einem dem Scheinwerfersteuergerät (150) bekannten vordefinierten Szenario um das Fahrzeug, insbesondere vor dem Fahrzeug (100) entsprechen.
  9. Verfahren (700) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Übersendens (730) die Objektgruppendaten (810a/b, 810d/e) an ein Scheinwerfersteuergerät (150) gesendet werden, das von einem Datenaufbereitungsgerät (130) unabhängig und räumlich getrennt in einem eigenen Gehäuse angeordnet ist, wobei das Datenaufbereitungsgerät (130) ausgebildet ist, um die Schritte des Einlesens (710) und des Bildens (720) auszuführen, insbesondere wobei im Schritt des Übertragens (730) die Objektgruppendaten (810a/b, 810d/e) über einen Kommunikations-Bus des Fahrzeugs (100) übertragen werden.
  10. Verfahren gemäß einem der vorangegangen Ansprüche, dadurch gekennzeichnet, dass der Schritt des Bildens (720) ferner ansprechend auf ein Anforderungssignal des Scheinwerter-Steuergerätes ausgeführt wird, wobei das Anforderungssignal insbesondere eine Information über eine Wahl der Parameter für die Bildung der Objektgruppendaten und/oder über eine Situationsvorgabe aufweist.
  11. Verfahren gemäß einem der vorangegangen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Bildens (720) ferner weitere Objektgruppendaten (810d/e) aus den eingelesenen Objektdaten (815d–e) der zumindest zwei Objekte (810d–e) gebildet werden, wobei das Bilden (720) der weiteren Objektgruppendaten (810d/e) unter Verwendung von zumindest zwei sich von den Parametern unterscheidenden weiteren Parametern (P3, P4) erfolgt, die aus Bilddaten des von der Kamera (110) aufgenommenen Bildes bereitgestellt wurden und wobei im Schritt des Übertragens (730) die weiteren Objektgruppendaten (810d/e) an das Scheinwerfersteuergerät (150) übertragen werden.
  12. Steuergerät (130), insbesondere Datenaufbereitungsgerät, das Einheiten aufweist, die ausgebildet sind, um die Schritte eines Verfahrens (700) gemäß einem der Ansprüche 1 bis 11 durchzuführen.
  13. Computer-Programmprodukt mit Programmcode zur Durchführung des Verfahrens (700) nach einem der Ansprüche 1 bis 11, wenn das Programm auf einem Steuergerät (130) oder einem Datenaufbereitungsgerät ausgeführt wird.
DE102011006570A 2011-03-31 2011-03-31 Verfahren und Steuergerät zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs Pending DE102011006570A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102011006570A DE102011006570A1 (de) 2011-03-31 2011-03-31 Verfahren und Steuergerät zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs
EP12710263.0A EP2691917A1 (de) 2011-03-31 2012-03-22 Verfahren und steuergerät zum übertragen von daten über eine aktuelle fahrzeugumgebung an ein scheinwerfersteuergerät eines fahrzeugs
PCT/EP2012/055092 WO2012130719A1 (de) 2011-03-31 2012-03-22 Verfahren und steuergerät zum übertragen von daten über eine aktuelle fahrzeugumgebung an ein scheinwerfersteuergerät eines fahrzeugs
CN201280016177.XA CN103597498B (zh) 2011-03-31 2012-03-22 用于向车辆的大灯控制装置传输关于当前车辆周围环境的数据的方法和控制装置
US14/008,948 US9381852B2 (en) 2011-03-31 2012-03-22 Method and control unit for transmitting data on a current vehicle environment to a headlight control unit of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011006570A DE102011006570A1 (de) 2011-03-31 2011-03-31 Verfahren und Steuergerät zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102011006570A1 true DE102011006570A1 (de) 2012-10-04

Family

ID=45876778

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011006570A Pending DE102011006570A1 (de) 2011-03-31 2011-03-31 Verfahren und Steuergerät zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs

Country Status (5)

Country Link
US (1) US9381852B2 (de)
EP (1) EP2691917A1 (de)
CN (1) CN103597498B (de)
DE (1) DE102011006570A1 (de)
WO (1) WO2012130719A1 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013100552A1 (de) * 2013-01-21 2014-07-24 Hella Kgaa Hueck & Co. Verfahren für die Erkennung der Bewegungsrichtung eines Objekts relativ zu einem Fahrzeug
DE102014204770A1 (de) * 2014-02-06 2015-08-06 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem
DE102016211552A1 (de) * 2016-06-28 2017-12-28 Bayerische Motoren Werke Aktiengesellschaft Kraftfahrzeug
WO2018033400A1 (de) * 2016-08-15 2018-02-22 Valeo Schalter Und Sensoren Gmbh Verfahren zum erkennen einer fahrzeugbeleuchtung von einem fahrzeug in einer umgebung eines kraftfahrzeugs, steuergerät, beleuchtungsvorrichtung sowie kraftfahrzeug
FR3104675A1 (fr) * 2019-12-16 2021-06-18 Valeo Vision Procédé de contrôle d’un système d’éclairage d’un véhicule automobile
FR3104674A1 (fr) * 2019-12-16 2021-06-18 Valeo Vision Procédé de commande d’un système d’éclairage d’un véhicule automobile
DE102021205669B3 (de) 2021-06-04 2022-09-01 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs und Fahrzeug
DE102022100921A1 (de) 2022-01-17 2023-07-20 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Ansteuerung von Beleuchtungseinrichtungen eines Kraftfahrzeugs, Steuergerät für eine Beleuchtungseinrichtung eines Kraftfahrzeugs, Beleuchtungseinrichtung für ein Kraftfahrzeug und Kraftfahrzeug

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8775029B2 (en) * 2011-03-16 2014-07-08 Infineon Technologies Ag System and method for bit error rate monitoring
US9582886B2 (en) * 2013-07-08 2017-02-28 Honda Motor Co., Ltd. Object recognition device
DE102014219120A1 (de) * 2013-12-19 2015-06-25 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen einer Leuchtweitenausrichtung eines Scheinwerfers
CN106031147B (zh) * 2014-02-13 2019-04-09 索尼公司 用于使用角膜反射调整相机设置的方法和系统
DE102014203544A1 (de) * 2014-02-27 2015-08-27 Robert Bosch Gmbh Verfahren und Vorrichtung zum Analysieren einer Lichtaussendung eines Scheinwerfers eines Fahrzeugs
DE102014205180A1 (de) * 2014-03-20 2015-09-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
US11756427B1 (en) * 2014-04-15 2023-09-12 Amanda Reed Traffic signal system for congested trafficways
DE102014214649A1 (de) * 2014-07-25 2016-01-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ausrichten eines Leuchtbereichs eines Scheinwerfers eines Fahrzeugs in Abhängigkeit eines Umfelds des Fahrzeugs
KR20160020132A (ko) * 2014-08-13 2016-02-23 현대모비스 주식회사 차량의 인식 시스템
CN106166980A (zh) * 2015-05-22 2016-11-30 福特全球技术公司 用于控制前照灯的方法和装置
CN107851184B (zh) * 2015-07-28 2022-12-23 苹果公司 用于光和图像投影的系统和方法
JP2017103619A (ja) * 2015-12-02 2017-06-08 ソニー株式会社 制御装置、制御方法、およびプログラム
US10768298B2 (en) 2016-06-14 2020-09-08 Magna Electronics Inc. Vehicle sensing system with 360 degree near range sensing
FR3055946B1 (fr) 2016-09-15 2020-07-17 Valeo Vision Dispositif lumineux utilisant une source lumineuse de haute resolution
US10536646B2 (en) * 2017-07-28 2020-01-14 Panasonic Intellectual Property Corporation Of America Imaging control device and imaging control method
DE102017221465A1 (de) * 2017-11-29 2019-05-29 Robert Bosch Gmbh Verfahren und Vorrichtung zum Detektieren eines lichtaussendenden Objekts an einem Verkehrsknotenpunkt für ein Fahrzeug
KR102054926B1 (ko) * 2018-02-27 2019-12-12 주식회사 만도 Free Space 신호 기반 근거리 컷인 차량 검출 시스템 및 방법
US10369923B1 (en) * 2018-04-30 2019-08-06 Automotive Research & Testing Center Operation method of adaptive driving beam headlamp system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007041781B4 (de) 2006-09-07 2010-04-15 DENSO CORPORATION, Kariya-shi Vorrichtung und Verfahren zur Erkennung von Fahrzeugen durch Identifizierung von Lichtpunkten in aufgenommenen Bildern

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6861809B2 (en) * 1998-09-18 2005-03-01 Gentex Corporation Headlamp control to prevent glare
US7881496B2 (en) * 2004-09-30 2011-02-01 Donnelly Corporation Vision system for vehicle
US8924078B2 (en) * 2004-11-18 2014-12-30 Gentex Corporation Image acquisition and processing system for vehicle equipment control
TWI302879B (en) * 2006-05-12 2008-11-11 Univ Nat Chiao Tung Real-time nighttime vehicle detection and recognition system based on computer vision
US20080043099A1 (en) * 2006-08-10 2008-02-21 Mobileye Technologies Ltd. Symmetric filter patterns for enhanced performance of single and concurrent driver assistance applications
JP4240110B2 (ja) * 2006-10-31 2009-03-18 トヨタ自動車株式会社 車両用照明装置、車両用照明制御方法、及び車両用照明制御プログラム
JP4415996B2 (ja) * 2007-02-26 2010-02-17 株式会社日立製作所 車載用画像認識装置及び配光制御装置、並びに配光制御方法
CN201012648Y (zh) * 2007-03-08 2008-01-30 川铭精密科技股份有限公司 车辆的自动开灯装置
DE102007041784B4 (de) 2007-09-03 2010-02-25 Continental Automotive Gmbh Schaltungsanordnung zum Schalten einer induktiven Last
JP4466701B2 (ja) * 2007-09-10 2010-05-26 株式会社デンソー ライト制御装置
DE102008048309A1 (de) * 2008-09-22 2010-04-01 Volkswagen Ag Verfahren und Vorrichtung zum Detektieren von Fahrzeugen bei Dunkelheit
CN101376352B (zh) * 2008-09-24 2011-05-04 上海大学 自动适应夜间行车弯道及坡度的汽车前照灯控制方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007041781B4 (de) 2006-09-07 2010-04-15 DENSO CORPORATION, Kariya-shi Vorrichtung und Verfahren zur Erkennung von Fahrzeugen durch Identifizierung von Lichtpunkten in aufgenommenen Bildern

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
D. Grimm "Trends in Automotive lighting, new technology and its benefits for end-users", 8th International Symposium an Automotive Lighting, 2009
http://de.wikipedia.org/wiki/Optischer_Fluss
J. Rebut "A Monocular Vision Based Advanced Lighting Automation System for Driving Assistance", IEEE International Symposium an Industrial Electronics, 2009

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013100552A1 (de) * 2013-01-21 2014-07-24 Hella Kgaa Hueck & Co. Verfahren für die Erkennung der Bewegungsrichtung eines Objekts relativ zu einem Fahrzeug
DE102014204770A1 (de) * 2014-02-06 2015-08-06 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem
US9975471B2 (en) 2014-02-06 2018-05-22 Conti Temic Microelectronic Gmbh Driver assistance system
DE102016211552A1 (de) * 2016-06-28 2017-12-28 Bayerische Motoren Werke Aktiengesellschaft Kraftfahrzeug
WO2018033400A1 (de) * 2016-08-15 2018-02-22 Valeo Schalter Und Sensoren Gmbh Verfahren zum erkennen einer fahrzeugbeleuchtung von einem fahrzeug in einer umgebung eines kraftfahrzeugs, steuergerät, beleuchtungsvorrichtung sowie kraftfahrzeug
FR3104674A1 (fr) * 2019-12-16 2021-06-18 Valeo Vision Procédé de commande d’un système d’éclairage d’un véhicule automobile
FR3104675A1 (fr) * 2019-12-16 2021-06-18 Valeo Vision Procédé de contrôle d’un système d’éclairage d’un véhicule automobile
WO2021122329A1 (fr) * 2019-12-16 2021-06-24 Valeo Vision Procédé de contrôle d'un système d'éclairage d'un véhicule automobile
WO2021122071A1 (fr) * 2019-12-16 2021-06-24 Valeo Vision Procédé de commande d'un système d'éclairage d'un véhicule automobile
JP2023507355A (ja) * 2019-12-16 2023-02-22 ヴァレオ ビジョン 自動車両の照明システムを制御するための方法
JP7354450B2 (ja) 2019-12-16 2023-10-02 ヴァレオ ビジョン 自動車両の照明システムを制御するための方法
US11897383B2 (en) 2019-12-16 2024-02-13 Valeo Vision Method for controlling a motor vehicle lighting system
DE102021205669B3 (de) 2021-06-04 2022-09-01 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs und Fahrzeug
WO2022253595A1 (de) 2021-06-04 2022-12-08 Volkswagen Aktiengesellschaft Nutzung von kartendaten für die querführung durch ein fahrerassistenzsystems
DE102022100921A1 (de) 2022-01-17 2023-07-20 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Ansteuerung von Beleuchtungseinrichtungen eines Kraftfahrzeugs, Steuergerät für eine Beleuchtungseinrichtung eines Kraftfahrzeugs, Beleuchtungseinrichtung für ein Kraftfahrzeug und Kraftfahrzeug

Also Published As

Publication number Publication date
CN103597498B (zh) 2018-04-10
US9381852B2 (en) 2016-07-05
WO2012130719A1 (de) 2012-10-04
US20140219506A1 (en) 2014-08-07
CN103597498A (zh) 2014-02-19
EP2691917A1 (de) 2014-02-05

Similar Documents

Publication Publication Date Title
DE102011006570A1 (de) Verfahren und Steuergerät zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs
DE102007000420B4 (de) Fahrzeuginterne Einrichtung zum Erfassen von Fahrzeugen und Vorrichtung zum Steuern von Scheinwerfern durch Verwenden der Einrichtung
DE102014107488B4 (de) Vorrichtung zur bestimmung der umgebung
EP2501584B1 (de) Verfahren zum steuern einer scheinwerferanordnung für ein fahrzeug und scheinwerferanordnung
EP2204771B1 (de) Verfahren und Vorrichtung zum Ermitteln einer Änderung des Nickwinkels einer Kamera eines Fahrzeugs
DE112011103104B4 (de) Scheinwerfervorrichtung und dafür vorgesehenes Lichtstärke-Steuerverfahren
EP2501585B1 (de) Verfahren zum steuern einer scheinwerferanordnung für ein fahrzeug und scheinwerferanordnung
WO2012168055A2 (de) Verfahren und vorrichtung zur erkennung von objekten in einem umfeld eines fahrzeugs
DE102007034657B4 (de) Bildverarbeitungsvorrichtung
DE102009015824A1 (de) Blendfreibereich-Kartenprodukt und dieses verwendende System zur Bestimmung, ob eine Person geblendet wird
EP2501586B1 (de) Verfahren zum steuern einer scheinwerferanordnung für ein fahrzeug und scheinwerferanordnung
EP1757485A1 (de) Verfahren zur Steuerung der Leuchtweite der Scheinwerfer eines Kraftfahrzeuges
DE102009039179A1 (de) Scheinwerfersteuervorrichtung und Fahrzeugscheinwerfer mit Scheinwerfersteuervorrichtung
EP2800676A1 (de) Verfahren und steuergerät zum anpassen einer oberen scheinwerferstrahlgrenze eines scheinwerferkegels
DE102008060949A1 (de) Verfahren und Anordnung zur Ansteuerung von Fahrzeugscheinwerfern
DE102009054249A1 (de) Verfahren zum Steuern einer Scheinwerferanordnung für ein Fahrzeug und Scheinwerferanordnung
DE102010029149A1 (de) Verfahren und Steuergerät zum Plausibilisieren eines Leuchtweite-Testwerts eines Lichtkegels eines Fahrzeugscheinwerfers
WO2017102366A1 (de) System und verfahren zur objektbasierten ansteuerung eines hochauflösenden scheinwerfers für ein kraftfahrzeug
DE112017006833T5 (de) Fahrzeugbeleuchtungssystem
DE102014225517A1 (de) Verfahren und Steuergerät zum Einstellen zumindest eines Parameters einer Fahrerassistenzvorrichtung eines Fahrzeugs
EP1964717A2 (de) Verfahren und Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs abhängig vom Verlauf einer Fahrbahn
DE112012003611T5 (de) Fahrzeugscheinwerfersteuersystem
EP2166489B1 (de) Verfahren und Vorrichtung zum Detektieren von Fahrzeugen bei Dunkelheit
EP2131308B1 (de) Verfahren und Vorrichtung zum Klassifizieren eines in mindestens einem Bild einer Abbildung eines Bereichs vor einem Fahrzeug detektierten Objekts
DE102009054243A1 (de) Bauteil mit Oberflächenbeschichtung und Verfahren zur Herstellung eines solchen Bauteils

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000