DE102018212506A1 - Verfahren zum Betrieb einer Fahrfunktion eines Fahrzeugs - Google Patents

Verfahren zum Betrieb einer Fahrfunktion eines Fahrzeugs Download PDF

Info

Publication number
DE102018212506A1
DE102018212506A1 DE102018212506.6A DE102018212506A DE102018212506A1 DE 102018212506 A1 DE102018212506 A1 DE 102018212506A1 DE 102018212506 A DE102018212506 A DE 102018212506A DE 102018212506 A1 DE102018212506 A1 DE 102018212506A1
Authority
DE
Germany
Prior art keywords
vehicle
data
image data
light
roadway
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018212506.6A
Other languages
English (en)
Inventor
Florian Kohlhuber
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102018212506.6A priority Critical patent/DE102018212506A1/de
Publication of DE102018212506A1 publication Critical patent/DE102018212506A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • B60Q1/143Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/31Atmospheric conditions
    • B60Q2300/314Ambient light

Abstract

Es wird ein Verfahren (200) zum Betreiben einer Fahrfunktion eines Fahrzeugs (100) beschrieben. Das Verfahren (200) umfasst das Ermitteln (201) von Umgebungsdaten in Bezug auf Sichtverhältnisse auf eine in Fahrtrichtung vor dem Fahrzeug (100) liegenden Fahrbahn (110) und/oder auf ein in Fahrtrichtung vor dem Fahrzeug (100) angeordnetes Verkehrszeichen. Außerdem umfasst das Verfahren (200) das Betreiben (202) zumindest einer Leuchteinheit (102) des Fahrzeugs (100), die eingerichtet ist, Licht (106) auf die in Fahrtrichtung vor dem Fahrzeug (100) liegenden Fahrbahn (110) und/oder auf das in Fahrtrichtung vor dem Fahrzeug (100) angeordnete Verkehrszeichen abzustrahlen, in Abhängigkeit von den Umgebungsdaten und in Abhängigkeit von Beleuchtungs-Kenndaten, wobei die Beleuchtungs-Kenndaten für unterschiedliche Werte der Umgebungsdaten unterschiedliche Eigenschaften des von der Leuchteinheit (102) abzustrahlenden Lichtes (106) anzeigen. Des Weiteren umfasst das Verfahren (200) das Erfassen (203) von Bilddaten in Bezug auf die in Fahrtrichtung vor dem Fahrzeug (100) liegenden Fahrbahn (110) und/oder auf das in Fahrtrichtung vor dem Fahrzeug (100) angeordnete Verkehrszeichen, sowie das Betreiben (204) der Fahrfunktion auf Basis der erfassten Bilddaten.

Description

  • Die Erfindung betrifft ein Verfahren und eine entsprechende Steuereinheit zum Betrieb einer Fahrfunktion, insbesondere eines Querführungsassistenten, eines Fahrzeugs.
  • Ein Fahrzeug, insbesondere ein Straßenkraftfahrzeug, kann einen Querführungsassistenten aufweisen, der einen Fahrer des Fahrzeugs bei der Querführung des Fahrzeugs unterstützt. Beispielhafte Querführungsassistenten sind ein Spurhalteassistent, der den Fahrer beim Halten einer Fahrspur unterstützt, oder ein Spurwechselassistent, der den Fahrer beim Wechsel der Fahrspur unterstützt.
  • Zur Bereitstellung eines Querführungsassistenten weist ein Fahrzeug typischerweise ein oder mehrere Umfeldsensoren, insbesondere Kameras bzw. Bildsensoren, auf, die eingerichtet sind, Sensordaten, insbesondere Bilddaten, in Bezug auf Fahrbahnmarkierungen der von dem Fahrzeug befahrenen Fahrbahn zu erfassen. Dabei hängen die Verfügbarkeit und/oder die Zuverlässigkeit eines Querführungsassistenten typischerweise davon ab, mit welcher Güte die Fahrbahnmarkierungen durch die Bilddaten der ein oder mehreren Bildsensoren erfasst werden können.
  • Das vorliegende Dokument befasst sich mit der technischen Aufgabe, die Verfügbarkeit und/oder die Zuverlässigkeit einer Fahrfunktion, insbesondere eines Querführungsassistenten, in effizienter Weise zu erhöhen.
  • Die Aufgabe wird durch jeden der unabhängigen Ansprüche gelöst. Vorteilhafte Ausführungsformen werden u.a. in den abhängigen Ansprüchen beschrieben. Es wird darauf hingewiesen, dass zusätzliche Merkmale eines von einem unabhängigen Patentanspruch abhängigen Patentanspruchs ohne die Merkmale des unabhängigen Patentanspruchs oder nur in Kombination mit einer Teilmenge der Merkmale des unabhängigen Patentanspruchs eine eigene und von der Kombination sämtlicher Merkmale des unabhängigen Patentanspruchs unabhängige Erfindung bilden können, die zum Gegenstand eines unabhängigen Anspruchs, einer Teilungsanmeldung oder einer Nachanmeldung gemacht werden kann. Dies gilt in gleicher Weise für in der Beschreibung beschriebene technische Lehren, die eine von den Merkmalen der unabhängigen Patentansprüche unabhängige Erfindung bilden können.
  • Gemäß einem Aspekt wird ein Verfahren zum Betreiben bzw. zum Betrieb einer Fahrfunktion eines Fahrzeugs beschrieben. Die Fahrfunktion kann eingerichtet sein, eine zumindest teilweise automatisierte Längs- und/oder Querführung des Fahrzeugs durchzuführen und/oder einen Fahrer des Fahrzeugs bei der Längs- und/oder Querführung des Fahrzeugs zu unterstützen. Die Fahrfunktion kann z.B. einen Querführungsassistenten umfassen bzw. ein Querführungsassistent sein. Insbesondere kann die Fahrfunktion eingerichtet sein, den Fahrer des Fahrzeugs bei einem Spurwechsel zu unterstützen. Alternativ oder ergänzend kann die Fahrfunktion eingerichtet sein, den Fahrer des Fahrzeugs beim Halten einer Fahrspur bzw. beim Verbleib innerhalb einer Fahrspur einer Fahrbahn zu unterstützen. Alternativ oder ergänzend kann die Fahrfunktion eingerichtet sein, den Fahrer des Fahrzeugs beim Fahren mit einer (durch ein Verkehrszeichen vorgeschriebenen Fahrgeschwindigkeit) zu unterstützen.
  • Das Verfahren umfasst das Ermitteln von Umgebungsdaten in Bezug auf Sichtverhältnisse auf eine in Fahrtrichtung vor dem Fahrzeug liegende Fahrbahn und/oder auf ein in Fahrtrichtung vor dem Fahrzeug angeordnetes Verkehrszeichen. Die Umgebungsdaten können dabei eine bestimmte Situation aus einer Mehrzahl von vordefinierten Situation anzeigen bzw. identifizieren. Die unterschiedlichen Situationen können sich z.B. unterscheiden in Bezug auf: die Dichte von Nebel, die Menge an Niederschlag und/oder die Helligkeit. Dabei können die unterschiedlichen Sichtverhältnisse in Bezug auf einen Bildsensor definiert sein, der zur Erfassung von Bilddaten für die Fahrfunktion verwendet wird. Insbesondere können unterschiedliche Situationen der Sichtverhältnisse definiert sein, die bei Verwendung eines bestimmten Bildsensors zu Bilddaten mit (signifikant) unterschiedlichen Eigenschaften führen, bzw. zu Bilddaten führen, die sich wesentlich dahingehend unterscheiden, mit welcher Zuverlässigkeit und/oder Qualität Fahrbahnmarkierungen auf Basis der Bilddaten detektiert werden können.
  • Außerdem umfasst das Verfahren das Betreiben zumindest einer Leuchteinheit des Fahrzeugs in Abhängigkeit von den Umgebungsdaten bzw. in Abhängigkeit von der ermittelten Situation der Sichtverhältnisse. Die Leuchteinheit kann eingerichtet sein, Licht auf die in Fahrtrichtung vor dem Fahrzeug liegenden Fahrbahn und/oder auf das in Fahrtrichtung vor dem Fahrzeug angeordnete Verkehrszeichen abzustrahlen. Ein Fahrzeug kann mehrere Leuchteinheiten umfassen, um Licht auf die Fahrbahn und/oder auf ein Verkehrszeichen abzustrahlen. Eine Leuchteinheit kann z.B. einen Scheinwerfer und/oder ein Fernlicht und/oder ein Nebellicht umfassen.
  • Die Beleuchtung der Fahrbahn kann somit in Abhängigkeit von der vorliegenden Situation der Sichtverhältnisse angepasst werden. So kann die Güte der von einem Bildsensor erfassten Bilddaten erhöht werden. Insbesondere kann die Beleuchtung der Fahrbahn und/oder des Verkehrszeichens derart erfolgen, dass die Auswirkungen der vorliegenden Situation der Sichtverhältnisse auf die Zuverlässigkeit und/oder die Qualität der Erkennung von Fahrbahnmarkierungen und/oder von Verkehrszeichen auf Basis der Bilddaten zumindest teilweise bzw. möglichst vollständig kompensiert werden.
  • Die ein oder mehreren Leuchteinheiten des Fahrzeugs können (auch) in Abhängigkeit von Beleuchtungs-Kenndaten betrieben werden. Dabei können die Beleuchtungs-Kenndaten für unterschiedliche Werte der Umgebungsdaten bzw. für unterschiedliche Situationen der Sichtverhältnisse unterschiedliche Eigenschaften des von den ein oder mehreren Leuchteinheiten abzustrahlenden Lichtes anzeigen. Mit anderen Worten, die Beleuchtungs-Kenndaten können anzeigen, wie das von den ein oder mehreren Leuchteinheiten abzustrahlende Licht an die jeweils vorliegende Situation der Sichtverhältnisse anzupassen ist. Mit noch anderen Worten, die Beleuchtungs-Kenndaten können für eine bestimmte Situation der Sichtverhältnisse die Eigenschaften des von den ein oder mehreren Leuchteinheiten abzustrahlenden Lichtes anzeigen, durch die die Güte der von einem Bildsensor erfassten Bilddaten (z.B. für die Erkennung von Fahrbahnmarkierungen und/oder Verkehrszeichen) zumindest in einem statistischen Mittel erhöht wird.
  • Die Beleuchtungs-Kenndaten können z.B. im Vorfeld experimentell ermittelt worden sein. Des Weiteren können die Beleuchtungs-Kenndaten auf einer Speichereinheit des Fahrzeugs gespeichert sein. Somit können die Beleuchtungs-Kenndaten Erfahrungswerte dahingehend anzeigen, durch welche Form der Belichtung der Fahrbahn und/oder des Verkehrszeichens (d.h. durch welche ein oder mehreren Eigenschaften des Lichts) die Güte der erfassten Bilddaten der Fahrbahn und/oder des Verkehrszeichens erhöht, insbesondere maximiert, werden kann (bei Vorliegen einer bestimmten Situation der Sichtverhältnisse).
  • Außerdem umfasst das Verfahren das Erfassen von Bilddaten in Bezug auf die in Fahrtrichtung vor dem Fahrzeug liegenden Fahrbahn und/oder auf das in Fahrtrichtung vor dem Fahrzeug angeordnete Verkehrszeichen. Die Bilddaten können mit ein oder mehreren Bildsensoren bzw. Kameras des Fahrzeugs erfasst werden. Beispielsweise können die Bilddaten an einem bestimmten Zeitpunkt ein Bild von der Fahrbahn und/oder des Verkehrszeichens umfassen. Des Weiteren können die Bilddaten an einer Sequenz von Zeitpunkten eine entsprechende (zeitliche) Sequenz von Bildern von der Fahrbahn und/oder des Verkehrszeichens umfassen. Ein Bild kann dabei eine Matrix von N x M Bildpunkten aufweisen (z.B. mit N und/oder M gleich 100, 500, 1000 oder mehr). Aufgrund einer Ausleuchtung der Fahrbahn und/oder des Verkehrszeichens durch die ein oder mehreren Leuchteinheiten, wobei die Ausleuchtung an die vorliegende Situation der Sichtverhältnisse angepasst ist, kann die Güte der erfassten Bilddaten erhöht werden (im Vergleich zu einer Ausleuchtung der Fahrbahn und/oder des Verkehrszeichens, die nicht an die vorliegende Situation der Sichtverhältnisse angepasst ist). Insbesondere kann dabei die Güte der Bilddaten in Bezug auf die Verwendung der Bilddaten im Rahmen der Fahrfunktion (z.B. in Bezug auf die Erkennung von Fahrbahnmarkierungen und/oder von Geschwindigkeitsbegrenzungen) erhöht werden.
  • Das Verfahren umfasst ferner das Betreiben der Fahrfunktion auf Basis der erfassten Bilddaten. Insbesondere kann auf Basis der Bilddaten zumindest eine Fahrbahnmarkierung auf der Fahrbahn detektiert werden. Die Fahrfunktion kann dann in Abhängigkeit von der detektierten Fahrbahnmarkierung betrieben werden. Aufgrund der optimierten Ausleuchtung der Fahrbahn und der damit bewirkten Güte der Bilddaten können auch die Zuverlässigkeit und/oder die Verfügbarkeit der Fahrfunktion erhöht werden.
  • Die Beleuchtungs-Kenndaten können von ein oder mehreren Eigenschaften der ein oder mehreren Umfeldsensoren, insbesondere Bildsensoren, zur Erfassung der Bilddaten abhängen. Mit anderen Worten, die Beleuchtungs-Kenndaten können auf den Typ und/oder die Eigenschaften des Bildsensors zugeschnitten sein. Beispielsweise können für unterschiedliche Typen von Bildsensoren und/oder unterschiedliche Eigenschaften eines Bildsensors unterschiedliche Beleuchtungs-Kenndaten bereitgestellt werden. Die ein oder mehreren Eigenschaften des Bildsensors können dabei umfassen: die Empfindlichkeit des Bildsensors, die Dynamik des Bildsensors, die Bildpunkt-Auflösung des Bildsensors und/oder die Bildpunktgröße von Bildpunkten des Bildsensors. Durch die Verwendung von Beleuchtungs-Kenndaten, die von den ein oder mehreren Bildsensoren zur Erfassung der Bilddaten abhängen, kann die Güte der erfassten Bilddaten in Bezug auf die Verwendung der Bilddaten im Rahmen der Fahrfunktion weiter erhöht werden.
  • Alternativ oder ergänzend können die Beleuchtungs-Kenndaten von einem Bildverarbeitungs-Algorithmus abhängen, der zur Auswertung der Bilddaten, insbesondere zur Erkennung von Fahrbahnmarkierungen und/oder Geschwindigkeitsbegrenzungen, im Rahmen der Fahrfunktion verwendet wird. Insbesondere können die Beleuchtungs-Kenndaten für unterschiedliche Situationen der Sichtverhältnisse jeweils die ein oder mehreren Eigenschaften des abzustrahlenden Lichtes anzeigen, durch die die Zuverlässigkeit und/oder die Qualität des im Rahmen der Fahrfunktion verwendeten Bildverarbeitungs-Algorithmus (im statistischen Mittel) verbessert, insbesondere maximiert, werden. Durch die Verwendung von Beleuchtungs-Kenndaten, die von dem verwendeten Bildverarbeitungs-Algorithmus abhängen, können die Zuverlässigkeit und/oder die Verfügbarkeit einer Fahrfunktion weiter erhöht werden.
  • Die ein oder mehreren Eigenschaften des von einer Leuchteinheit abgestrahlten Lichtes können umfassen: eine örtliche Verteilung des Lichtes auf der Fahrbahn und/oder dem Verkehrszeichen; und/oder eine Intensität des Lichtes, insbesondere eine örtliche Verteilung der Intensität des Lichtes auf der Fahrbahn und/oder dem Verkehrszeichen; und/oder eine spektrale Zusammensetzung des Lichtes; und/oder eine Richtung und/oder Orientierung eines Leuchtkegels des Lichtes.
  • Die Umgebungsdaten, die zur Ermittlung der aktuell vorliegenden Situation der Sichtverhältnisse verwendet werden, können umfassen bzw. können basieren auf: Sensordaten eines Lichtsensors des Fahrzeugs; und/oder Sensordaten eines Regensensors des Fahrzeugs; und/oder Sensordaten einer Bildkamera bzw. eines Bildsensors des Fahrzeugs; und/oder Daten aus einer Car-to-X Nachricht, die von dem Fahrzeug empfangen wurde. So kann die aktuell vorliegende Situation der Sichtverhältnisse in präziser Weise ermittelt werden.
  • Gemäß einem weiteren Aspekt wird ein weiteres Verfahren zum Betreiben bzw. zum Betrieb einer Fahrfunktion eines Fahrzeugs beschrieben. Die in diesem Dokument beschriebenen Aspekte sind jeweils auch auf dieses Verfahren anwendbar.
  • Das Verfahren umfasst das Erfassen von Bilddaten in Bezug auf die in Fahrtrichtung vor dem Fahrzeug liegende Fahrbahn und/oder auf das in Fahrtrichtung vor dem Fahrzeug angeordnete Verkehrszeichen. Die Bilddaten können dabei mit ein oder mehreren Umfeldsensoren, insbesondere ein oder mehreren Bildsensoren, erfasst werden. Die Bilddaten können für einen bestimmten Zeitpunkt ein Bild der Fahrbahn und/oder des Verkehrszeichens anzeigen.
  • Außerdem umfasst das Verfahren das Ermitteln von Gütedaten in Bezug auf die Güte der erfassten Bilddaten für die Verwendung im Rahmen der Fahrfunktion. Insbesondere können die Gütedaten anzeigen, mit welcher Qualität und/oder Zuverlässigkeit auf Basis der erfassten Bilddaten eine Fahrbahnmarkierung der Fahrbahn und/oder der Typ eines Verkehrszeichens detektiert werden kann. Zur Ermittlung der Gütedaten kann z.B. ein Signal-zu-Rausch-Verhältnis der Bilddaten ermittelt werden. Ein relativ niedriges Signal-zu-Rausch-Verhältnis zeigt dabei eine relativ niedrige Güte an (und umgekehrt). Alternativ oder ergänzend kann zur Ermittlung der Gütedaten ein Bildverarbeitungs-Algorithmus auf die Bilddaten angewendet werden, z.B. um eine Fahrbahnmarkierung und/oder um den Typ eines Verkehrszeichens zu detektieren. Es kann dann als Gütedaten ermittelt werden, mit welcher Zuverlässigkeit und/oder mit welcher Qualität der Bildverarbeitungs-Algorithmus auf die Bilddaten angewendet werden kann (z.B. um eine Fahrbahnmarkierung und/oder um den Typ eines Verkehrszeichens zu erkennen).
  • Außerdem umfasst das Verfahren das Betreiben zumindest einer Leuchteinheit des Fahrzeugs derart, dass die durch die Gütedaten angezeigte Güte der erfassten Bilddaten für die Verwendung im Rahmen der Fahrfunktion erhöht wird. Wie oben dargelegt, ist eine Leuchteinheit eingerichtet, Licht (mit ein oder mehreren einstellbaren Eigenschaften) auf die in Fahrtrichtung vor dem Fahrzeug liegenden Fahrbahn und/oder auf das in Fahrtrichtung vor dem Fahrzeug liegende Verkehrszeichen abzustrahlen. Die Leuchteinheit kann insbesondere betrieben werden, so dass ein oder mehrere Eigenschaften des abgestrahlten Lichts derart eingestellt werden, dass die durch die Gütedaten angezeigte Güte der erfassten Bilddaten für die Verwendung im Rahmen der Fahrfunktion erhöht wird.
  • Mit anderen Worten, die ein oder mehreren Eigenschaften des von einer Leuchteinheit des Fahrzeugs abgestrahlten Lichtes zur Beleuchtung der Fahrbahn und/oder des Verkehrszeichens können angepasst, insbesondere optimiert, werden, um zu gewährleisten, dass die von einem Bildsensor erfassten Bilddaten der Fahrbahn und/oder des Verkehrszeichens einen zuverlässigen und/oder präzisen Betrieb der Fahrfunktion ermöglichen.
  • Die Einstellung der ein oder mehreren Eigenschaften des Lichtes kann im Rahmen eines iterativen Verfahrens erfolgen. Insbesondere können die Schritte des Erfassens von Bilddaten, des Ermittelns von Gütedaten und des Einstellens der ein oder mehreren Eigenschaften des Lichts wiederholt werden (z.B. an einer Sequenz von Zeitpunkten), um iterativ die durch die Gütedaten angezeigte Güte der erfassten Bilddaten für die Verwendung im Rahmen der Fahrfunktion zu erhöhen. So kann nach-und-nach die Beleuchtungssituation der Fahrbahn und/oder des Verkehrszeichens an die aktuelle Situation der Sichtverhältnisse angepasst werden, um Bilddaten mit einer hohen Güte erfassen zu können. Des Weiteren können so die ein oder mehreren Eigenschaften des von einer Leuchteinheit abgestrahlten Lichts automatisch an sich ändernde Sichtverhältnisse angepasst werden.
  • Alternativ oder ergänzend kann das Verfahren umfassen, das Bestimmen, auf Basis der Bilddaten, der Situation von Sichtverhältnissen auf der in Fahrtrichtung vor dem Fahrzeug liegenden Fahrbahn und/oder auf das in Fahrtrichtung vor dem Fahrzeug liegende Verkehrszeichen. Beispielsweise kann auf Basis der Bilddaten eine Situation aus einer Mehrzahl von unterschiedlichen, vordefinierten Situation ausgewählt werden (wie bereits oben dargelegt).
  • Die Leuchteinheit kann dann auch in Abhängigkeit von Beleuchtungs-Kenndaten betrieben werden, wobei die Beleuchtungs-Kenndaten für unterschiedliche Situationen von Sichtverhältnissen unterschiedliche Eigenschaften des von der Leuchteinheit abzustrahlenden Lichtes anzeigen. Insbesondere können auf Basis der Beleuchtungs-Kenndaten die konkreten Eigenschaften des abzustrahlenden Lichts ermittelt werden. Diese Eigenschaften des Lichts können dann ggf. als Ausgangsbasis für eine weitere iterative Optimierung bzw. Verbesserung der Eigenschaften des Lichts verwendet werden. Durch die Berücksichtigung von (im Vorfeld ermittelten) Beleuchtungs-Kenndaten kann somit die Konvergenz der Einstellung der optimierten Eigenschaften des Lichts zur Belichtung der Fahrbahn und/oder des Verkehrszeichens beschleunigt werden.
  • Das Verfahren umfasst ferner das Betreiben der Fahrfunktion auf Basis der erfassten Bilddaten. Insbesondere können auf Basis der (unter optimierten Belichtungsverhältnissen) erfassten Bilddaten ein oder mehrere Fahrbahnmarkierungen und/oder der Typ eines Verkehrszeichens für den Betrieb der Fahrfunktion detektiert werden.
  • Im Rahmen der in diesem Dokument beschriebenen Verfahren können ein oder mehrere Eigenschaften des von den ein oder mehreren Leuchteinheiten eines Fahrzeugs abgestrahlten Lichts angepasst werden, um die Zuverlässigkeit und/oder die Qualität der Erkennung von Fahrbahnmarkierungen und/oder des Typs eines Verkehrszeichens zu erhöhen. Dabei kann insbesondere die örtliche Intensitätsverteilung des abgestrahlten Lichtes derart angepasst werden, dass der Anteil des abgestrahlten Lichts, der auf die ein oder mehreren Fahrbahnmarkierungen der befahrenden Fahrbahn und/oder auf ein Verkehrszeichen trifft erhöht wird.
  • Insbesondere kann im zu diesem Zweck auf Basis der Bilddaten, die an einem ersten Zeitpunkt erfasst wurden, eine Fahrbahnmarkierung und/oder ein Verkehrszeichen detektiert werden. Die Intensitätsverteilung und/oder der Leuchtkegel des von den ein oder mehreren Leuchteinheiten abgestrahlten Lichts können dann in Abhängigkeit von der detektierten Fahrbahnmarkierung verändert werden, insbesondere um den Anteil des Lichts, der auf die Fahrbahnmarkierung und/oder auf das Verkehrszeichen trifft, erhöht wird. Es können dann an einem nachfolgenden zweiten Zeitpunkt Bilddaten in Bezug auf die Fahrbahn und/oder in Bezug auf das Verkehrszeichen mit der angepassten Intensitätsverteilung und/oder mit dem anders ausgerichteten Leuchtkegel erfasst werden.
  • Beispielsweise kann die Leuchteinheit derart betrieben werden, dass die Intensitätsverteilung des Lichtes in Abhängigkeit von den Gütedaten angepasst wird (z.B. wiederholt an einer Sequenz von Zeitpunkten).
  • Alternativ oder ergänzend kann das Verfahren umfassen, das Detektieren eines örtlichen Bereichs innerhalb der erfassten Bilddaten, in dem eine Fahrbahnmarkierung der Fahrbahn und/oder ein Verkehrszeichen wiedergegeben wird. Die Leuchteinheit kann dann derart betrieben werden, dass die Intensität des abgestrahlten Lichts an dem durch die erfassten Bilddaten angezeigten Bereich der Fahrbahn und/oder des Verkehrszeichens erhöht wird.
  • Das Erfassen von Bilddaten und das Anpassen der Intensitätsverteilung des Lichtes kann iterativ für eine Sequenz von Zeitpunkten wiederholt werden. So kann gewährleistet werden, dass Fahrbahnmarkierungen und/oder Verkehrszeichen mit hoher Zuverlässigkeit erkannt werden können.
  • Ein in diesem Dokument beschriebenes Verfahren kann umfassen, das Prädizieren eines Verlaufs der in Fahrtrichtung vor dem Fahrzeug liegenden Fahrbahn. Zu diesem Zweck kann z.B. die aktuelle Position des Fahrzeugs ermittelt werden (z.B. auf Basis von GPS Koordinaten des Fahrzeugs). Des Weiteren kann digitale Karteninformation verwendet werden, um den Verlauf der aktuell befahrenen Fahrbahn zu prädizieren. Alternativ oder ergänzend kann aus dem aktuellen Verlauf der Fahrbahn auf den vorausliegenden Verlauf der Fahrbahn geschlossen werden. Die zumindest eine Leuchteinheit des Fahrzeugs kann dann (auch) in Abhängigkeit von dem prädizierten Verlauf der Fahrbahn betrieben werden. So kann die Güte der erfassten Bilddaten in Bezug auf die Fahrbahn und/oder in Bezug auf Verkehrszeichen entlang der Fahrbahn weiter erhöht werden.
  • Gemäß einem weiteren Aspekt wird eine Steuereinheit beschrieben, die eingerichtet ist, zumindest eines der in diesem Dokument beschriebenen Verfahrens auszuführen.
  • Gemäß einem weiteren Aspekt wird ein Straßenkraftfahrzeug (insbesondere ein Personenkraftwagen oder ein Lastkraftwagen oder ein Bus oder ein Motorrad) beschrieben, das die in diesem Dokument beschriebene Steuereinheit umfasst.
  • Gemäß einem weiteren Aspekt wird ein Software (SW) Programm beschrieben. Das SW Programm kann eingerichtet werden, um auf einem Prozessor ausgeführt zu werden, und um dadurch zumindest eines der in diesem Dokument beschriebenen Verfahren auszuführen.
  • Gemäß einem weiteren Aspekt wird ein Speichermedium beschrieben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem Prozessor ausgeführt zu werden, und um dadurch zumindest eines in diesem Dokument beschriebenen Verfahren auszuführen.
  • Es ist zu beachten, dass die in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systeme sowohl alleine, als auch in Kombination mit anderen in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen verwendet werden können. Des Weiteren können jegliche Aspekte der in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen in vielfältiger Weise miteinander kombiniert werden. Insbesondere können die Merkmale der Ansprüche in vielfältiger Weise miteinander kombiniert werden.
  • Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigen
    • 1 ein beispielhaftes Fahrzeug, das auf einer Fahrbahn mit einer Fahrbahnmarkierung fährt; und
    • 2a und 2b Ablaufdiagramme von beispielhaften Verfahren zum Betrieb einer Fahrfunktion eines Fahrzeugs.
  • Wie eingangs dargelegt, befasst sich das vorliegende Dokument mit der Erhöhung der Verfügbarkeit und/oder der Zuverlässigkeit einer Fahrfunktion, insbesondere eines Querführungsassistenten, eines Fahrzeugs. Im Folgenden wird spezifisch auf die Erkennung von Fahrbahnmarkierungen eingegangen. Es sei darauf hingewiesen, dass die beschriebenen Aspekte in entsprechender Weise auf die Erkennung von (Typen von) Verkehrszeichen anzuwenden sind.
  • 1 zeigt ein Fahrzeug 100, das auf einer Fahrbahn 110 fährt. Die Fahrbahn 110 weist zumindest eine Fahrbahnmarkierung 111 (z.B. eine Leitlinie, eine Warnlinie, eine Fahrbahnbegrenzung, eine Fahrstreifenbegrenzung, eine Abfahrtslinie, etc.) auf. Die Fahrbahnmarkierungen 111 können unterschiedliche Eigenschaften (insbesondere in Bezug auf die Sichtbarkeit der Fahrbahnmarkierung 111 und/oder in Bezug auf die Reflektivität von Licht) aufweisen.
  • Das Fahrzeug 100 umfasst zumindest einen Umfeldsensor 104, insbesondere zumindest eine Bildkamera bzw. zumindest einen Bildsensor, der eingerichtet ist, Sensordaten, insbesondere Bilddaten, in Bezug auf die Fahrbahnmarkierung 111 bzw. die Fahrbahn 110 zu erfassen. Eine Steuereinheit 101 des Fahrzeugs 100 kann eingerichtet sein, ein oder mehrere Aktoren 105 des Fahrzeugs 100 in Abhängigkeit von den Sensordaten zu betreiben. Beispielsweise kann in Abhängigkeit von den Sensordaten ein Warnhinweis an einen Fahrer des Fahrzeugs 100 ausgegeben werden, wenn erkannt wird, dass sich das Fahrzeug 100 der Fahrbahnmarkierung 111 nähert oder die Fahrbahnmarkierung 111 überfährt. Alternativ oder ergänzend kann ein Querführungs-Aktor 105 (z.B. eine Lenkvorrichtung) des Fahrzeugs 100 in Abhängigkeit von den Sensordaten betrieben werden, um das Fahrzeug 100 automatisch von einer ersten Fahrspur in eine zweite Fahrspur zu führen. Der Fahrer des Fahrzeugs 100 kann somit auf Basis der Sensordaten der ein oder mehreren Umfeldsensoren 104 bei der Querführung des Fahrzeugs 100 unterstützt werden.
  • Die Steuereinheit 101 kann eingerichtet sein, insbesondere durch Anwendung eines Bildverarbeitungs-Algorithmus, auf Basis der erfassten Bilddaten die Fahrbahnmarkierung 111 zu detektieren. Dabei kann auch der Wert eines Gütemaßes (d.h. es können Gütedaten) ermittelt werden, das die Zuverlässigkeit bzw. die Qualität anzeigt, mit der die Fahrbahnmarkierung 111 detektiert werden kann. Typischerweise kann ein Querführungsassistent des Fahrzeugs 100 nur dann betrieben werden, wenn der Wert des Gütemaßes größer als ein Güte-Schwellenwert ist. Andererseits erfolgt typischerweise ein Abbruch des Querführungsassistenten (worüber der Fahrer des Fahrzeugs 100 über eine Benutzerschnittstelle des Fahrzeugs 100 informiert werden kann). Eine relativ schlechte Güte der erfassten Bilddaten führt somit zu einer verminderten Verfügbarkeit eines Querführungsassistenten.
  • Die Güte der erfassten Bilddaten kann von den Sichtverhältnissen in der direkten Umgebung des Fahrzeugs 100 abhängen. Beispielsweise können relativ dichter Nebel und/oder relativ starker Regen dazu führen, dass eine Fahrbahnmarkierung 111 nicht oder nur relativ schlecht auf Basis der Bilddaten eines Bildsensors 104 detektiert werden kann. Als Folge daraus sinken die Verfügbarkeit und/oder die Zuverlässigkeit eines Querführungsassistenten.
  • Ein Fahrzeug 100 umfasst typischerweise ein oder mehrere Leuchteinheiten 102, die eingerichtet sind, die vor dem Fahrzeug 100 liegende Fahrbahn 110 zu beleuchten. Beispielhafte Leuchteinheiten 102 sind ein Frontscheinwerfer und/oder ein Nebelscheinwerfer. Eine Leuchteinheit 102 kann eingerichtet sein, ein oder mehrere Eigenschaften des von der Leuchteinheit 102 abgestrahlten Lichts 106 zu verändern. Beispielhafte Eigenschaften sind
    • • die Richtung des abgestrahlten Lichts 106;
    • • die Intensität des abgestrahlten Lichts 106; und/oder
    • • eine spektrale Zusammensetzung des abgestrahlten Lichts 106.
  • Die Steuereinheit 101 des Fahrzeugs 100 kann eingerichtet sein, ein Leuchteinheit 102 des Fahrzeugs 100 derart zu betreiben, dass die Güte der von dem Umfeldsensor 104 erfassten Sensordaten erhöht, insbesondere maximiert, wird. So können die Zuverlässigkeit und/oder die Verfügbarkeit eines Querführungsassistenten erhöht werden.
  • Das Fahrzeug 100 kann z.B. einen Umgebungssensor 103 umfassen, der eingerichtet ist, Sensordaten in Bezug auf die Sichtverhältnisse in der Umgebung des Fahrzeugs 100 zu erfassen. Der Umgebungssensor 103 kann z.B. einen Lichtsensor und/oder einen Regensensor umfassen. Die Leuchteinheit 102 des Fahrzeugs 100 kann dann in Abhängigkeit von den Sensordaten des Umgebungssensors 103 betrieben werden. Insbesondere können ein oder mehrere Eigenschaften des abgestrahlten Lichts 106 in Abhängigkeit von den Sensordaten des Umgebungssensors 103 angepasst werden. So können die Güte der von dem Umfeldsensor 104 erfassten Bilddaten und somit die Zuverlässigkeit und/oder die Verfügbarkeit eines Querführungsassistenten erhöht werden.
  • Die Steuereinheit 101 des Fahrzeugs 100 kann eingerichtet sein, auf Beleuchtungs-Kenndaten zuzugreifen. Die Beleuchtungs-Kenndaten können im Vorfeld experimentell ermittelt worden sein. Die Beleuchtungs-Kenndaten können eine Zuordnung zwischen Sensordaten der ein oder mehreren Umgebungssensoren 103 einerseits und zu verwendenden Eigenschaften der ein oder mehreren Leuchteinheiten 102 andererseits umfassen bzw. anzeigen. Dabei können die Beleuchtungs-Kenndaten insbesondere die Eigenschaften der ein oder mehreren Leuchteinheiten 102 anzeigen, durch die bei der, durch die Sensordaten der ein oder mehreren Umgebungssensoren 103 angezeigten, Situation der Sichtverhältnisse in der Umgebung des Fahrzeugs 100 ein möglichst hoher, insbesondere ein maximal möglicher, Wert des Gütemaßes bei der Erkennung einer Fahrbahnmarkierung 111 bewirkt wird.
  • Die Steuereinheit 101 kann eingerichtet sein, aktuelle Sensordaten der ein oder mehreren Umgebungssensoren 103 zu ermitteln. Des Weiteren können auf Basis der Beleuchtungs-Kenndaten und auf Basis der aktuellen Sensordaten die optimierten Eigenschaften des von einer Leuchteinheit 102 abzustrahlenden Lichts 106 ermittelt werden. Die Leuchteinheit 102 kann dann angesteuert werden, um Licht 106 mit den ermittelten Eigenschaften abzustrahlen. So können die Güte der durch den Umfeldsensor 104 erfassten Bilddaten und somit die Zuverlässigkeit und/oder die Verfügbarkeit eines Querführungsassistenten erhöht werden.
  • Alternativ oder ergänzend kann die Steuereinheit 101 eingerichtet sein, im Rahmen einer (iterativen) Lernphase den Betrieb einer Leuchteinheit 102 des Fahrzeugs 100 an die aktuelle Situation der Sichtverhältnisse anzupassen, um die Güte der erfassten Bilddaten zu erhöhen. Zu diesem Zweck können auf Basis der erfassten Bilddaten der ein oder mehreren Umfeldsensoren 104 Gütedaten in Bezug auf die Qualität der Bilddaten ermittelt werden. Die Gütedaten können z.B. den o.g. Wert des Gütemaßes für die Zuverlässigkeit und/oder die Qualität eines B ildverarbeitungs -Algorithmu s umfassen.
  • Eine Leuchteinheit 102 des Fahrzeugs 100 kann dann in Abhängigkeit von den Gütedaten betrieben werden. Insbesondere können ein oder mehrere Eigenschaften des abgestrahlten Lichts 106 verändert werden. Es können daraufhin wiederum Bilddaten erfasst und auf Basis der erfassten Bilddaten aktualisierte Gütedaten ermittelt werden. So können in iterativer Weise ein oder mehrere Eigenschaften des abgestrahlten Lichts 106 angepasst werden, um die Qualität der erfassten Bilddaten zu verbessern, insbesondere zu optimieren.
  • Ein derartiges iteratives Lernverfahren ermöglicht es, die Güte der durch den Umfeldsensor 104 erfassten Bilddaten und somit die Zuverlässigkeit und/oder die Verfügbarkeit eines Querführungsassistenten in besonders effizienter Weise (insbesondere ggf. ohne Verwendung eines zusätzlichen Umgebungssensors 103) zu erhöhen.
  • Wie eingangs dargelegt, hängt die optische Erkennung von Fahrbahnmarkierungen 111 typischerweise von den jeweiligen Sichtverhältnissen ab (z.B. von dem aktuellen Wetter, Tag oder Nacht, etc.). Des Weiteren haben die Qualität und/oder der Typ einer Fahrbahnmarkierung 111 typischerweise einen Einfluss auf die Qualität der optischen Erkennung von Fahrbahnmarkierungen 111.
  • Durch die Anpassung des Lichts 106, das von den ein oder mehreren Leuchteinheiten 102 des Fahrzeugs 100 abgestrahlt wird (z.B. durch die Nutzung eines Fernlichtassistenten mit adaptiver Leuchtkegelsteuerung) kann ein gezieltes Anleuchten einer Fahrbahnmarkierung 111 bewirkt werden, um die Sichtqualität und die Sichtweite für die automatische Erkennung der Fahrbahnmarkierung 111 zu verbessern.
  • 2a zeigt ein Ablaufdiagramm eines beispielhaften Verfahrens 200 zum Betreiben einer Fahrfunktion eines Fahrzeugs 100. Dabei kann die Fahrfunktion eingerichtet sein, eine zumindest teilweise oder eine vollständig automatisierte Längs- und/oder Querführung des Fahrzeugs 100 durchzuführen und/oder einen Fahrer des Fahrzeugs 100 bei der Längs- und/oder Querführung des Fahrzeugs 100 zu unterstützen. Das Verfahren 200 kann durch eine Steuereinheit 101 des Fahrzeugs 100 ausgeführt werden.
  • Das Verfahren 200 umfasst das Ermitteln 201 von Umgebungsdaten in Bezug auf Sichtverhältnisse auf eine in Fahrtrichtung vor dem Fahrzeug 100 liegenden Fahrbahn 110. Die Umgebungsdaten können mit ein oder mehrere Umgebungssensoren 103 des Fahrzeugs 100 erfasst werden. Die Umgebungsdaten können dabei eine bestimmte Situation der Sichtverhältnisse beschreiben (z.B. Nebel, Niederschlag, Tageslicht, Nacht, etc.).
  • Außerdem umfasst das Verfahren 200 das Betreiben 202 zumindest einer Leuchteinheit 102 des Fahrzeugs 100, wobei die Leuchteinheit 102 eingerichtet ist, Licht 106 auf die in Fahrtrichtung vor dem Fahrzeug 100 liegenden Fahrbahn 110 abzustrahlen. Die Leuchteinheit 102 kann in Abhängigkeit von den Umgebungsdaten und in Abhängigkeit von Beleuchtungs-Kenndaten betrieben werden.
  • Die Beleuchtungs-Kenndaten können im Vorfeld z.B. im Rahmen einer Vielzahl von Messungen ermittelt und auf einer Speichereinheit des Fahrzeugs 100 gespeichert worden sind. Die Beleuchtungs-Kenndaten können für unterschiedliche Werte der Umgebungsdaten bzw. für unterschiedliche Situationen der Sichtverhältnisse unterschiedliche Eigenschaften bzw. unterschiedliche Parameterwerte von ein oder mehreren Eigenschaften des von der Leuchteinheit 102 abzustrahlenden Lichtes 106 anzeigen. Es kann somit eine (an die aktuelle Situation der Sichtverhältnisse angepasste) Beleuchtung der Fahrbahn erfolgen.
  • Außerdem umfasst das Verfahren 200 das Erfassen 203 von Bilddaten in Bezug auf die in Fahrtrichtung vor dem Fahrzeug 100 liegenden Fahrbahn 110. Aufgrund der Tatsache, dass die Fahrbahn durch das Licht der zumindest einen Leuchteinheit 102 spezifisch ausgeleuchtet wird, kann die Güte der erfassten Bilddaten erhöht werden (im Vergleich zu einer Ausleuchtung, die nicht an die Situation der Sichtverhältnisse angepasst ist).
  • Die Bilddaten können anhand von ein oder mehreren Umfeldsensoren 104 (insbesondere anhand von ein oder mehreren Kameras) erfasst werden. Die Beleuchtungs-Kenndaten können dabei von den ein oder mehreren Umfeldsensoren 104 abhängen, die zur Erfassung der Bilddaten verwendet werden. Insbesondere können die Beleuchtungs-Kenndaten von ein oder mehreren Eigenschaften einer Bildkamera bzw. eines Bildsensors abhängen, die zur Erfassung der Bilddaten verwendet werden. Beispielhafte Eigenschaften sind: Empfindlichkeit der Bildkamera, Dynamik der Bildkamera, optische Auflösung der Kamera, Bildpunktgröße der einzelnen Bildpunkte der Kamera, etc.
  • Außerdem umfasst das Verfahren 200 das Betreiben 204 der Fahrfunktion auf Basis der erfassten Bilddaten. Insbesondere können auf Basis der Bilddaten ein oder mehrere Fahrbahnmarkierungen 111 detektiert werden. Die Fahrfunktion (insbesondere ein Querführungsassistent) kann dann auf Basis der ein oder mehreren detektierten Fahrbahnmarkierungen 111 betrieben werden.
  • 2b zeigt ein weiteres Verfahren 210 zum Betreiben einer Fahrfunktion eines Fahrzeugs 100. Das Verfahren 210 kann durch eine Steuereinheit 101 des Fahrzeugs 100 ausgeführt werden. Die in Bezug auf das Verfahren 200 beschriebenen Aspekt sind auch auf das Verfahren 210 anwendbar (oder umgekehrt).
  • Das Verfahren 210 umfasst das Erfassen 211 von Bilddaten in Bezug auf eine in Fahrtrichtung vor dem Fahrzeug 100 liegende Fahrbahn 110. Außerdem umfasst das Verfahren 210 das Ermitteln 212 von Gütedaten in Bezug auf eine Güte der erfassten Bilddaten für die Verwendung im Rahmen der Fahrfunktion. Die Gütedaten können dabei anzeigen, wie gut sich die erfassten Bilddaten für den Betrieb der Fahrfunktion eignen. Insbesondere können die Gütedaten anzeigen, mit welcher Zuverlässigkeit und/oder Qualität auf Basis der erfassten Bilddaten eine Fahrbahnmarkierung 111 detektiert werden kann.
  • Außerdem umfasst das Verfahren 210 das Betreiben 213 zumindest einer Leuchteinheit 102 des Fahrzeugs 100 in Abhängigkeit von den Gütedaten. Dabei ist die Leuchteinheit eingerichtet, Licht 106 auf die in Fahrtrichtung vor dem Fahrzeug 100 liegenden Fahrbahn 110 abzustrahlen. Durch eine Änderung von ein oder mehreren Eigenschaften des abgestrahlten Lichts 106 können Eigenschaften der erfassten Bilddaten verändert werden (da sich die Ausleuchtung der durch die Bildkamera 104 erfassten Fahrbahn 110 verändert). Die Leuchteinheit 102 kann dabei derart betrieben werden, dass die durch die Gütedaten angezeigte Güte der erfassten Bilddaten für die Verwendung im Rahmen der Fahrfunktion erhöht wird. Zu diesem Zweck kann das Verfahren 210 iterativ wiederholt werden, um nach-und-nach die Güte der erfassten Bilddaten zu erhöhen.
  • Außerdem umfasst das Verfahren 210 das Betreiben 214 der Fahrfunktion auf Basis der erfassten Bilddaten.
  • Durch die in diesem Dokument beschriebenen Maßnahmen kann die automatische Erkennung der Fahrbahnmarkierungen 111 verbessert werden. Als Folge daraus kann die Verfügbarkeit der (automatischen) Querführung eines Fahrzeugs 100, insbesondere bei Dunkelheit oder schlechten Witterungsbedingungen, gesteigert werden.
  • Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur das Prinzip der vorgeschlagenen Verfahren, Vorrichtungen und Systeme veranschaulichen sollen.

Claims (15)

  1. Verfahren (200) zum Betreiben einer Fahrfunktion eines Fahrzeugs (100); wobei die Fahrfunktion eingerichtet ist, eine zumindest teilweise automatisierte Längs- und/oder Querführung des Fahrzeugs (100) durchzuführen und/oder einen Fahrer des Fahrzeugs (100) bei der Längs- und/oder Querführung des Fahrzeugs (100) zu unterstützen; wobei das Verfahren (200) umfasst, - Ermitteln (201) von Umgebungsdaten in Bezug auf Sichtverhältnisse auf eine in Fahrtrichtung vor dem Fahrzeug (100) liegende Fahrbahn (110) und/oder auf ein in Fahrtrichtung vor dem Fahrzeug (100) angeordnetes Verkehrszeichen; - Betreiben (202) zumindest einer Leuchteinheit (102) des Fahrzeugs (100), die eingerichtet ist, Licht (106) auf die in Fahrtrichtung vor dem Fahrzeug (100) liegende Fahrbahn (110) und/oder auf das in Fahrtrichtung vor dem Fahrzeug (100) angeordnete Verkehrszeichen abzustrahlen, in Abhängigkeit von den Umgebungsdaten und in Abhängigkeit von Beleuchtungs-Kenndaten; wobei die Beleuchtungs-Kenndaten für unterschiedliche Werte der Umgebungsdaten unterschiedliche Eigenschaften des von der Leuchteinheit (102) abzustrahlenden Lichtes (106) anzeigen; - Erfassen (203) von Bilddaten in Bezug auf die in Fahrtrichtung vor dem Fahrzeug (100) liegende Fahrbahn (110) und/oder auf das in Fahrtrichtung vor dem Fahrzeug (100) angeordnete Verkehrszeichen; und - Betreiben (204) der Fahrfunktion auf Basis der erfassten Bilddaten.
  2. Verfahren (200) gemäß Anspruch 1, wobei - ein bestimmter Wert der Umgebungsdaten eine bestimmte Situation der Sichtverhältnisse anzeigt, und wobei die Beleuchtungs-Kenndaten für die bestimmte Situation die Eigenschaften des von der Leuchteinheit (102) abzustrahlenden Lichtes (106) anzeigen, durch die eine Güte der erfassten Bilddaten für die Verwendung im Rahmen der Fahrfunktion bei Vorliegen der bestimmten Situation der Sichtverhältnisse zumindest in einem statistischen Mittel erhöht wird; und/oder - die Beleuchtungs-Kenndaten auf einer Speichereinheit des Fahrzeugs (100) gespeichert sind; und/oder - die Beleuchtungs-Kenndaten im Vorfeld experimentell ermittelt wurden.
  3. Verfahren (200) gemäß einem der vorhergehenden Ansprüche, wobei - die Beleuchtungs-Kenndaten von ein oder mehreren Eigenschaften eines Umfeldsensors (104), insbesondere eines Bildsensors, zur Erfassung der Bilddaten abhängen; und - die ein oder mehreren Eigenschaften des Umfeldsensors (104) insbesondere umfassen, - eine Empfindlichkeit des Umfeldsensors (104); - eine Dynamik des Umfeldsensors (104); - eine Bildpunkt-Auflösung des Umfeldsensors (104); und/oder - eine Bildpunktgröße von Bildpunkten des Umfeldsensors (104) .
  4. Verfahren (200) gemäß einem der vorhergehenden Ansprüche, wobei die Eigenschaften des Lichtes (106) ein oder mehrere umfassen, von - eine örtliche Verteilung des Lichtes (106) auf der Fahrbahn (110) und/oder auf dem Verkehrszeichen; und/oder - eine Intensität des Lichtes (106), insbesondere eine örtliche Verteilung der Intensität des Lichtes (106) auf der Fahrbahn (110) und/oder auf dem Verkehrszeichen; und/oder - eine spektrale Zusammensetzung des Lichtes (106); und/oder - eine Richtung und/oder Orientierung eines Leuchtkegels des Lichtes (106).
  5. Verfahren (200) gemäß einem der vorhergehenden Ansprüche, wobei die Umgebungsdaten umfassen, - Sensordaten eines Lichtsensors (103) des Fahrzeugs (100); und/oder - Sensordaten eines Regensensors (103) des Fahrzeugs (100); und/oder - Sensordaten einer Bildkamera (104) des Fahrzeugs (100); und/oder - Daten aus einer Car-to-X Nachricht, die von dem Fahrzeug (100) empfangen wurde.
  6. Verfahren (210) zum Betreiben einer Fahrfunktion eines Fahrzeugs (100); wobei die Fahrfunktion eingerichtet ist, eine zumindest teilweise automatisierte Längs- und/oder Querführung des Fahrzeugs (100) durchzuführen und/oder einen Fahrer des Fahrzeugs (100) bei der Längs- und/oder Querführung des Fahrzeugs (100) zu unterstützen; wobei das Verfahren (210) umfasst, - Erfassen (211) von Bilddaten in Bezug auf eine in Fahrtrichtung vor dem Fahrzeug (100) liegende Fahrbahn (110) und/oder auf ein in Fahrtrichtung vor dem Fahrzeug (100) angeordnetes Verkehrszeichen; - Ermitteln (212) von Gütedaten in Bezug auf eine Güte der erfassten Bilddaten für die Verwendung im Rahmen der Fahrfunktion; - Betreiben (213) zumindest einer Leuchteinheit (102) des Fahrzeugs (100), die eingerichtet ist, Licht (106) auf die in Fahrtrichtung vor dem Fahrzeug (100) liegenden Fahrbahn (110) und/oder auf das in Fahrtrichtung vor dem Fahrzeug (100) angeordnete Verkehrszeichen abzustrahlen, derart, dass die durch die Gütedaten angezeigte Güte der erfassten Bilddaten für die Verwendung im Rahmen der Fahrfunktion erhöht wird; und - Betreiben (214) der Fahrfunktion auf Basis der erfassten Bilddaten.
  7. Verfahren (210) gemäß Anspruch 6, wobei die Leuchteinheit (102) betrieben wird, so dass ein oder mehrere Eigenschaften des abgestrahlten Lichts (106) derart eingestellt werden, dass die durch die Gütedaten angezeigte Güte der erfassten Bilddaten für die Verwendung im Rahmen der Fahrfunktion erhöht wird.
  8. Verfahren (210) gemäß Anspruch 7, wobei das Verfahren (210) umfasst, Wiederholen des Erfassens (211) von Bilddaten, des Ermittelns (212) von Gütedaten und des Einstellens der ein oder mehreren Eigenschaften des Lichts (106), um iterativ die durch die Gütedaten angezeigte Güte der erfassten Bilddaten für die Verwendung im Rahmen der Fahrfunktion zu erhöhen.
  9. Verfahren (210) gemäß einem der Ansprüche 6 bis 8, wobei die Gütedaten anzeigen, mit welcher Qualität und/oder Zuverlässigkeit auf Basis der erfassten Bilddaten eine Fahrbahnmarkierung (111) der Fahrbahn (110) und/oder ein Typ des Verkehrszeichens detektiert werden kann.
  10. Verfahren (210) gemäß einem der Ansprüche 6 bis 9, wobei - das Verfahren (210) umfasst, Bestimmen, auf Basis der Bilddaten, einer Situation von Sichtverhältnissen auf der in Fahrtrichtung vor dem Fahrzeug (100) liegenden Fahrbahn (110) und/oder auf dem in Fahrtrichtung vor dem Fahrzeug (100) liegenden Verkehrszeichen; und - die Leuchteinheit (102) auch in Abhängigkeit von Beleuchtungs-Kenndaten betrieben wird; wobei die Beleuchtungs-Kenndaten für unterschiedliche Situationen von Sichtverhältnissen unterschiedliche Eigenschaften des von der Leuchteinheit (102) abzustrahlenden Lichtes (106) anzeigen.
  11. Verfahren (210) gemäß einem der Ansprüche 6 bis 9, wobei die Leuchteinheit (102) derart betrieben wird, dass eine Intensitätsverteilung des Lichtes (106) in Abhängigkeit von den Gütedaten angepasst wird.
  12. Verfahren (210) gemäß einem der Ansprüche 6 bis 11, wobei das Verfahren (210) umfasst, - Detektieren eines Bereichs innerhalb der erfassten Bilddaten, in dem eine Fahrbahnmarkierung (111) der Fahrbahn (110) und/oder das Verkehrszeichen wiedergegeben wird; und - Betreiben der Leuchteinheit (102) derart, dass eine Intensität des abgestrahlten Lichts (102) an dem durch die erfassten Bilddaten angezeigten Bereich der Fahrbahn (110) und/oder des Verkehrszeichens erhöht wird.
  13. Verfahren (200, 210) gemäß einem der vorhergehenden Ansprüche, wobei - das Verfahren (200, 210) umfasst, Detektieren zumindest einer Fahrbahnmarkierung (111) auf Basis der erfassten Bilddaten; und - die Fahrfunktion in Abhängigkeit von der detektierten Fahrbahnmarkierung (111) betrieben wird.
  14. Verfahren (200, 210) gemäß einem der vorhergehenden Ansprüche, wobei - die Fahrfunktion einen Querführungsassistenten umfasst; und/oder - die Fahrfunktion eingerichtet ist, den Fahrer des Fahrzeugs (110) bei einem Spurwechsel zu unterstützen; und/oder - die Fahrfunktion eingerichtet ist, den Fahrer des Fahrzeugs (110) beim Halten einer Fahrspur der Fahrbahn (110) zu unterstützen.
  15. Verfahren (200, 210) gemäß einem der vorhergehenden Ansprüche, wobei - das Verfahren (200, 210) umfasst, Prädizieren eines Verlaufs der in Fahrtrichtung vor dem Fahrzeug (100) liegenden Fahrbahn (110); und - die zumindest eine Leuchteinheit (102) des Fahrzeugs (100) in Abhängigkeit von dem prädizierten Verlauf der Fahrbahn (110) betrieben wird.
DE102018212506.6A 2018-07-26 2018-07-26 Verfahren zum Betrieb einer Fahrfunktion eines Fahrzeugs Pending DE102018212506A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018212506.6A DE102018212506A1 (de) 2018-07-26 2018-07-26 Verfahren zum Betrieb einer Fahrfunktion eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018212506.6A DE102018212506A1 (de) 2018-07-26 2018-07-26 Verfahren zum Betrieb einer Fahrfunktion eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102018212506A1 true DE102018212506A1 (de) 2020-01-30

Family

ID=69148799

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018212506.6A Pending DE102018212506A1 (de) 2018-07-26 2018-07-26 Verfahren zum Betrieb einer Fahrfunktion eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102018212506A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3960541A1 (de) * 2020-08-28 2022-03-02 Zenuity AB Objekterkennung in der fahrzeugumgebung in lichtarmen bedingungen
EP4169772A1 (de) * 2021-10-19 2023-04-26 Volkswagen Ag Verfahren und vorrichtung zum steuern einer nebellichtanlage
DE102022114449A1 (de) 2022-06-08 2023-12-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zum einstellen eines betriebszustands eines fahrassistenzsystems
EP4297534A1 (de) * 2022-06-22 2023-12-27 Volkswagen Aktiengesellschaft Verfahren und steuervorrichtung zur automatischen adaption einer lichtfunktion der beleuchtungseinrichtung eines fahrzeugs

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008001551A1 (de) * 2008-05-05 2009-11-12 Robert Bosch Gmbh Vorrichtung und Verfahren zum automatischen Einstellen der Leuchtdichte eines von einer Beleuchtungseinrichtung eines Fahrzeuges ausgesandten Lichtbündels in Abhängigkeit von der Sichtweite
US20140071702A1 (en) * 2011-03-02 2014-03-13 Petko Faber Method and control unit for influencing a lighting scene ahead of a vehicle
DE102014009421A1 (de) * 2014-06-25 2015-12-31 Brose Fahrzeugteile Gmbh & Co. Kommanditgesellschaft, Hallstadt Verfahren zum Betrieb einer Kamera eines Kraftfahrzeugs und Kraftfahrzeug mit einer Kamera
DE102015009875A1 (de) * 2015-07-29 2016-03-24 Daimler Ag Verfahren für ein autonomes Fahren eines Fahrzeuges
DE102016009507A1 (de) * 2016-08-04 2018-02-08 Daimler Ag Erkennung von Lichtsignalen
DE102016014708A1 (de) * 2016-12-09 2018-06-14 Daimler Ag Verfahren zur Steuerung der Frontlichtverteilung eines Fahrzeuges
US20180186278A1 (en) * 2016-08-30 2018-07-05 Faraday&Future Inc. Smart beam lights for driving and environment assistance
DE102017207932A1 (de) * 2017-05-10 2018-11-15 Audi Ag Verfahren zum Betreiben einer Beleuchtungseinrichtung eines Kraftfahrzeugs sowie Kraftfahrzeug
DE102018111265A1 (de) * 2017-05-16 2018-11-22 GM Global Technology Operations LLC Fahrzeugumgebungs-abbildungssysteme und -verfahren

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008001551A1 (de) * 2008-05-05 2009-11-12 Robert Bosch Gmbh Vorrichtung und Verfahren zum automatischen Einstellen der Leuchtdichte eines von einer Beleuchtungseinrichtung eines Fahrzeuges ausgesandten Lichtbündels in Abhängigkeit von der Sichtweite
US20140071702A1 (en) * 2011-03-02 2014-03-13 Petko Faber Method and control unit for influencing a lighting scene ahead of a vehicle
DE102014009421A1 (de) * 2014-06-25 2015-12-31 Brose Fahrzeugteile Gmbh & Co. Kommanditgesellschaft, Hallstadt Verfahren zum Betrieb einer Kamera eines Kraftfahrzeugs und Kraftfahrzeug mit einer Kamera
DE102015009875A1 (de) * 2015-07-29 2016-03-24 Daimler Ag Verfahren für ein autonomes Fahren eines Fahrzeuges
DE102016009507A1 (de) * 2016-08-04 2018-02-08 Daimler Ag Erkennung von Lichtsignalen
US20180186278A1 (en) * 2016-08-30 2018-07-05 Faraday&Future Inc. Smart beam lights for driving and environment assistance
DE102016014708A1 (de) * 2016-12-09 2018-06-14 Daimler Ag Verfahren zur Steuerung der Frontlichtverteilung eines Fahrzeuges
DE102017207932A1 (de) * 2017-05-10 2018-11-15 Audi Ag Verfahren zum Betreiben einer Beleuchtungseinrichtung eines Kraftfahrzeugs sowie Kraftfahrzeug
DE102018111265A1 (de) * 2017-05-16 2018-11-22 GM Global Technology Operations LLC Fahrzeugumgebungs-abbildungssysteme und -verfahren

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3960541A1 (de) * 2020-08-28 2022-03-02 Zenuity AB Objekterkennung in der fahrzeugumgebung in lichtarmen bedingungen
US11595587B2 (en) 2020-08-28 2023-02-28 Zenuity Ab Vehicle surroundings object detection in low light conditions
EP4169772A1 (de) * 2021-10-19 2023-04-26 Volkswagen Ag Verfahren und vorrichtung zum steuern einer nebellichtanlage
DE102022114449A1 (de) 2022-06-08 2023-12-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zum einstellen eines betriebszustands eines fahrassistenzsystems
EP4297534A1 (de) * 2022-06-22 2023-12-27 Volkswagen Aktiengesellschaft Verfahren und steuervorrichtung zur automatischen adaption einer lichtfunktion der beleuchtungseinrichtung eines fahrzeugs

Similar Documents

Publication Publication Date Title
DE102007000420B4 (de) Fahrzeuginterne Einrichtung zum Erfassen von Fahrzeugen und Vorrichtung zum Steuern von Scheinwerfern durch Verwenden der Einrichtung
DE102018212506A1 (de) Verfahren zum Betrieb einer Fahrfunktion eines Fahrzeugs
EP2057583B1 (de) Verfahren zur automatischen fernlichtsteuerung
EP2062198B1 (de) Erkennung von fahrzeuglichtern mit einer kamera
DE102011077038A1 (de) Verfahren und Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs
DE102009048849A1 (de) Fahrzeugerfassungseinrichtung, Fahrzeugerfassungsprogramm und Lichtregelungseinrichtung
DE102007030825A1 (de) Sichtbestimmungsvorrichtung für ein Fahrzeug
DE102009025545A1 (de) Verfahren und Vorrichtung zum Erkennen von Bremslichtsystemen
EP2748032B1 (de) Verfahren und vorrichtung zur ansteuerung eines scheinwerfers eines fahrzeugs
DE102006055904A1 (de) Erkennung und Kategorisierung von Lichtpunkten mit einer Kamera in einer Fahrzeugumgebung
DE102016212187A1 (de) Verfahren und Vorrichtung zum Betreiben einer eine Signalquelle umfassenden Verkehrsinfrastruktureinheit
EP3329462A1 (de) Verfahren zum identifizieren eines objekts in einem umgebungsbereich eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
DE102007021576A1 (de) Verfahren und Vorrichtung zum Bestimmen der Position eines Verkehrszeichens
WO2018014917A1 (de) Kameravorrichtung zur aufnahme eines umgebungsbereichs eines eigenen fahrzeugs sowie verfahren zur bereitstellung einer fahrerassistenzfunktion
DE102017217072B4 (de) Verfahren zum Erkennen eines Witterungsverhältnisses in einer Umgebung eines Kraftfahrzeugs sowie Steuervorrichtung und Kraftfahrzeug
EP2166489B1 (de) Verfahren und Vorrichtung zum Detektieren von Fahrzeugen bei Dunkelheit
EP2562685B1 (de) Verfahren und Vorrichtung zur Klassifizierung eines sich in einem Vorfeld eines Fahrzeugs befindlichen Lichtobjekts
EP2229770A1 (de) Verfahren und vorrichtung zur bilderfassung für kraftfahrzeuge
DE102013022050A1 (de) Verfahren zum Verfolgen eines Zielfahrzeugs, insbesondere eines Motorrads, mittels eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102019134539A1 (de) Verfahren und Vorrichtung zur Ermittlung der Sichtweite einer Kamera
DE102012110377A1 (de) Verfahren zur adaptivenHell-Dunkel-Grenze-Erkennung
EP2131308A1 (de) Verfahren und Vorrichtung zum Klassifizieren eines in mindestens einem Bild einer Abbildung eines Bereichs vor einem Fahrzeug detektierten Objekts
EP2103984B1 (de) Verfahren und Vorrichtung zum Verarbeiten von Bilddaten
DE102020124709A1 (de) Systeme und verfahren zur erkennung von flackern und streifenbildung von leds
DE102006043433B4 (de) Verfahren zur bildgestützten Bestimmung der Fahrtrichtung von Fahrzeugen

Legal Events

Date Code Title Description
R083 Amendment of/additions to inventor(s)
R163 Identified publications notified