DE102010018994A1 - Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, Fahrerassistenzsystem und Fahrzeug - Google Patents

Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, Fahrerassistenzsystem und Fahrzeug Download PDF

Info

Publication number
DE102010018994A1
DE102010018994A1 DE102010018994A DE102010018994A DE102010018994A1 DE 102010018994 A1 DE102010018994 A1 DE 102010018994A1 DE 102010018994 A DE102010018994 A DE 102010018994A DE 102010018994 A DE102010018994 A DE 102010018994A DE 102010018994 A1 DE102010018994 A1 DE 102010018994A1
Authority
DE
Germany
Prior art keywords
map
driver assistance
assistance system
vehicle
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102010018994A
Other languages
English (en)
Inventor
Vsevolod Vovkushevsky
Tobias Geiger
Nicolas Jecker
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102010018994A priority Critical patent/DE102010018994A1/de
Priority to PCT/EP2011/056196 priority patent/WO2011138164A1/de
Publication of DE102010018994A1 publication Critical patent/DE102010018994A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben eines Fahrerassistenzsystems (1) eines Fahrzeugs (9), wobei Informationen (16, 17) über eine Umgebung des Fahrzeugs (9) durch zumindest einen Sensor (3a bis 3y) des Fahrerassistenzsystems (1) erfasst und aus diesen Informationen (16, 17) Sensordaten (4a bis 4y) bereitgestellt werden, aus den Sensordaten (4a bis 4y) eine digitale Umgebungskarte (5) berechnet wird und auf Grundlage der Umgebungskarte (5) eine Funktionalität (2a bis 2x) durch das Fahrerassistenzsystem (1) in dem Fahrzeug (9) bereitgestellt wird, durch welche ein Fahrer beim Führen des Fahrzeugs (9) unterstützt wird. Die Umgebungskarte (5) wird für zumindest zwei verschiedene Funktionalitäten (2a bis 2x) des Fahrerassistenzsystems (1) in einem gemeinsamen Format berechnet, und auf Grundlage der gemeinsamen Umgebungskarte (5) werden die zumindest zwei Funktionalitäten (2a bis 2x) durch das Fahrerassistenzsystem (1) bereitgestellt.

Description

  • Die Erfindung betrifft ein Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs. Es werden Informationen über eine Umgebung des Fahrzeugs durch zumindest einen Sensor des Fahrerassistenzsystems erfasst. Aus diesen Informationen werden Sensordaten bereitgestellt. Aus den Sensordaten wird eine digitale Umgebungskarte – also eine digitale Karte der Umgebung – berechnet und auf Grundlage der Umgebungskarte wird eine Funktionalität durch das Fahrerassistenzsystem in dem Fahrzeug bereitgestellt, durch welche ein Fahrer beim Führen des Fahrzeugs unterstützt wird. Die Erfindung bezieht sich außerdem auf ein Fahrerassistenzsystem, welches zum Durchführen eines solchen Verfahrens ausgebildet ist, wie auch auf ein Fahrzeug mit einem solchen Fahrerassistenzsystem.
  • Es ist Stand der Technik, aus Sensordaten eines Sensors eine digitale Umgebungskarte zu erzeugen. Eine solche Umgebungskarte wird durch Kartendaten gebildet; sie stellt im Wesentlichen eine Datenbank dar. Die Kartendaten beinhalten Informationen über in der Umgebung des Fahrzeugs befindliche Objekte, nämlich insbesondere die Position der Objekte bezüglich des Fahrzeugs und dergleichen. Das Bereitstellen einer solchen Umgebungskarte, auf deren Grundlage eine Funktionalität zur Fahrerunterstützung bereitgestellt wird, ist beispielsweise aus der Druckschrift EP 0 650 866 B1 bekannt. Im Gegenstand dieser Druckschrift wird ein Fahrer eines Fahrzeugs beim Ausparken aus einer Parklücke unterstützt. Umgebungssensoren des Fahrzeugs erfassen Objekte, die sich in der Umgebung befinden. Es werden insbesondere Abstände zwischen dem Fahrzeug und in der Umgebung befindlichen Hindernissen gemessen, nämlich in Fahrtrichtung des Fahrzeugs. Aus den Messwerten für die Abstände wird eine lokale Umgebungskarte gebildet. Auf Grundlage der Umgebungskarte wird eine Fahrstrategie für den Vorgang des Ausparkens festgelegt. Es können dem Fahrer beispielsweise Fahrtrichtungspfeile angezeigt werden, nach denen er sich richten kann. Also wird auf Grundlage der Umgebungskarte eine Funktionalität in dem Fahrzeug bereitgestellt – nämlich die Funktionalität des Unterstützens des Fahrers beim Durchführen von Parkvorgängen.
  • Aus der Druckschrift EP 1 309 882 B1 ist ein Fahrerassistenzsystem bekannt, welches eine Vielzahl von Sensoren aufweist. Die Sensoren erfassen jeweils einen unterschiedlichen Bereich der Umgebung. Die Sensoren können außerdem Objekte verfolgen, die sich in den jeweiligen Erfassungsbereichen befinden. Die Sensoren können auch Informationen miteinander austauschen: Ein Sensor, welcher in seinem Erfassungsbereich ein bestimmtes Objekt verfolgt, kann Informationen über die jeweils augenblickliche Position des Objektes an einen weiteren Sensor weiterleiten, wenn das Objekt aus dem Erfassungsbereich austritt und in den Erfassungsbereich des weiteren Sensors gelangt.
  • Also kann im Stand der Technik eine digitale Umgebungskarte berechnet werden, die eine Basis für die Bereitstellung einer spezifischen Applikation (Funktionalität) durch das Fahrerassistenzsystem darstellt. Dabei wird die Umgebungskarte in der Regel durch ein spezifisches Steuergerät implementiert, welches dann auch die Applikation in dem Fahrzeug bereitstellt. Nach dem Bereitstellen der Funktionalität wird die Umgebungskarte gelöscht, und es wird eine neue Umgebungskarte dann berechnet, wenn die Funktionalität durch das Steuergerät wieder bereitgestellt werden soll, nämlich beispielsweise wenn der Fahrer wieder beim Einparken unterstützt werden soll.
  • Es ist Aufgabe der Erfindung, eine Lösung aufzuzeigen, wie bei dem Verfahren der eingangs genannten Gattung eine gegenüber dem Stand der Technik verbesserte Ausnutzung der vorhandenen Sensorressourcen erzielt werden kann.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen gemäß Patentanspruch 1, wie auch durch ein Fahrerassistenzsystem mit den Merkmalen gemäß Patentanspruch 11 sowie durch ein Fahrzeug mit den Merkmalen gemäß Patentanspruch 12 gelöst. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche und der Beschreibung.
  • Bei einem erfindungsgemäßen Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs werden Informationen über eine Umgebung des Fahrzeugs durch zumindest einen Sensor des Fahrerassistenzsystems erfasst. Aus diesen Informationen werden Sensordaten bereitgestellt. Aus den Sensordaten wird eine digitale Umgebungskarte berechnet, und auf Grundlage der Umgebungskarte wird eine Funktionalität durch das Fahrerassistenzsystem in dem Fahrzeug bereitgestellt, durch welche ein Fahrer beim Führen des Fahrzeugs unterstützt wird. Die Umgebungskarte wird für zumindest zwei verschiedene Funktionalitäten des Fahrerassistenzsystems in einem gemeinsamen Format berechnet, und auf Grundlage der gemeinsamen Umgebungskarte werden die zumindest zwei Funktionalitäten durch das Fahrerassistenzsystem bereitgestellt.
  • Also wird erfindungsgemäß eine gemeinsame digitale Umgebungskarte berechnet, und zwar unabhängig von den jeweiligen Funktionalitäten des Fahrerassistenzsystems. Mit anderen Worten wird die Umgebungskarte funktionsunabhängig implementiert, d. h. unabhängig davon, ob und welche Funktionalitäten bzw. Applikationen des Fahrerassistenzsystems augenblicklich bereitgestellt werden sollen. Es steht somit für die zumindest zwei Funktionalitäten eine gemeinsame Umgebungskarte zur Verfügung; es müssen für die zumindest zwei Funktionalitäten keine separaten Umgebungskarten implementiert werden. Das Fahrerassistenzsystem kommt somit für die zumindest zwei Funktionalitäten mit nur einer einzigen Umgebungskarte aus, so dass die vorhandenen Sensorressourcen optimal ausgenutzt werden.
  • Auf diesem Weg gelingt es außerdem, den Datenverarbeitungsaufwand bzw. den Rechenaufwand bei der Bereitstellung der Applikationen durch das Fahrerassistenzsystem auf ein Minimum zu reduzieren. Eine gemeinsame Umgebungskarte hat darüber hinaus den Vorteil, dass – wenn Sensordaten einer Vielzahl von Sensoren für die Berechnung der Umgebungskarte herangezogen werden – quasi für jede Fahrerassistenzfunktionalität auf die gesamte Menge der Kartendaten zugegriffen werden kann, und zwar unabhängig davon, woher die Kartendaten kommen und wie sie entstanden sind.
  • Vorzugsweise ist die Umgebungskarte zeitlich unabhängig von den zumindest zwei Funktionalitäten des Fahrerassistenzsystems. Dies bedeutet, dass die Umgebungskarte zeitlich unabhängig von der Zeit und der Notwenigkeit der Bereitstellung der Funktionalität berechnet wird. Die Umgebungskarte wird in dem Fahrerassistenzsystem bevorzugt kontinuierlich berechnet und an die jeweils augenblickliche Umgebung des Fahrzeugs angepasst. Z. B. kann dies so aussehen, dass die Umgebungskarte durch Kartendaten gebildet wird, die Informationen über einen vorgegebenen Umgebungsbereich um das Fahrzeug herum beinhalten. Bewegt sich das Fahrzeug, so können diejenigen Kartendaten gelöscht werden, die Informationen über diejenigen Bereiche der Umgebung beinhalten, die über den vorgegebenen Umgebungsbereich hinausgehen. Gleichzeitig können neue Kartendaten berechnet werden, so dass die Umgebungskarte für den vorbestimmten Umgebungsbereich vervollständigt wird. Ganz allgemein wird die Umgebungskarte also bei dieser Ausführungsform für einen vorbestimmten Umgebungsbereich bezüglich des Fahrzeugs kontinuierlich angepasst.
  • Insbesondere wird die Umgebungskarte gemeinsam für zwei verschiedene Steuergeräte des Fahrerassistenzsystems berechnet, die jeweils eine Funktionalität zur Fahrerunterstützung auf Grundlage der gemeinsamen Umgebungskarte bereitstellen. Es kann auch vorgesehen sein, dass ein Steuergerät zumindest zwei Funktionalitäten zur Fahrerunterstützung bereitstellen kann, nämlich auf Grundlage der gemeinsamen Umgebungskarte.
  • Die digitale Umgebungskarte kann gemeinsam für zumindest zwei Funktionalitäten, bevorzugt für zumindest drei Funktionalitäten, noch bevorzugter für zumindest vier Funktionalitäten, noch bevorzugter für zumindest fünf Funktionalitäten des Fahrerassistenzsystems implementiert werden. Auf Grundlage der gemeinsamen Umgebungskarte können also zumindest zwei Funktionalitäten, insbesondere zumindest drei Funktionalitäten, bevorzugt zumindest vier Funktionalitäten, noch bevorzugter zumindest fünf Funktionalitäten durch das Fahrerassistenzsystem bereitgestellt werden.
  • Unter einer Funktionalität wird vorliegend eine Applikation bzw. eine Funktion des Fahrerassistenzsystems verstanden, welche den Fahrer beim Führen des Fahrzeugs unterstützt. Das Fahrerassistenzsystem kann auf Grundlage der Umgebungskarte vorzugsweise zumindest zwei der folgenden Funktionalitäten bereitstellen:
    • – die Funktionalität des Unterstützens des Fahrers beim Durchführen von Parkvorgängen und/oder
    • – die Funktionalität des Warnens des Fahrers beim Unterschreiten eines vorgegebenen Abstandswertes zu einem Objekt und/oder
    • – die Funktionalität des Warnens des Fahrers bei einem ungewollten Verlassen einer Spur und/oder
    • – die Funktionalität des Haltens des Fahrzeugs auf einer vorgegebenen Spur und/oder
    • – die Funktionalität des Anzeigens von in der Umgebung befindlichen Objekten auf einer Anzeigeeinrichtung und/oder
    • – die Funktionalität des Haltens eines vorgegebenen Abstands zu einem vorausfahrenden Fahrzeug und/oder
    • – die Funktionalität des Warnens des Fahrers beim Vorhandensein eines Objekts im Bereich eines Totwinkels und/oder
    • – die Funktionalität des automatischen Einschaltens des Fernlichts und/oder des Abblendlichts und/oder
    • – die Funktionalität der Veränderung einer räumlichen Verteilung des Fernlichts und/oder des Abblendlichts und/oder
    • – die Funktionalität der Erkennung von Verkehrsschildern und/oder
    • – die Funktionalität des Eingreifens in eine Komponente des Fahrzeugs, insbesondere in eine Bremseinrichtung des Fahrzeugs.
  • Also wird die digitale Umgebungskarte in einem für alle Funktionalitäten gemeinsamen Format bereitgestellt. Unter dem Begriff „Format” wird hier eine Spezifikation der Verarbeitung und der Speicherung von Daten verstanden, die festlegt, wie Daten der Umgebungskarte programmtechnisch gelesen, gespeichert und/oder verarbeitet werden können.
  • Es werden vorzugsweise Sensordaten zumindest zweier verschiedener Sensoren des Fahrerassistenzsystems, insbesondere Sensordaten aller im Fahrzeug vorhandener Umgebungssensoren, zur Bildung der Umgebungskarte verarbeitet. Es wird somit möglich, eine Umgebungskarte zu erzeugen, welche eine Vielzahl von Informationen über die Umgebung des Fahrzeugs beinhaltet. Und zwar kann eine solche Umgebungskarte gebildet werden, auf deren Grundlage eine Vielzahl von Funktionalitäten durch das Fahrerassistenzsystem bereitgestellt werden kann. Zur Bildung der Umgebungskarte können beispielsweise Sensordaten zumindest einer Kamera und/oder zumindest eines Ultraschallsensors und/oder Sensordaten zumindest eines Radargerätes und/oder Sensordaten zumindest eines optischen Abstandssensors – z. B. eines LED-Sensors – verarbeitet werden. Auf diesem Weg gelingt es, eine höchst genaue und eine hohe Informationsdichte aufweisende Umgebungskarte bereitzustellen.
  • Es erweist sich als besonders vorteilhaft, wenn die Umgebungskarte in zumindest zwei verschiedene Darstellungsebenen bzw. Abstraktionsebenen unterteilt wird, die sich in einem Abstraktionsgrad der Darstellung der Umgebung voneinander unterscheiden. Dies bedeutet, dass Kartendaten – welche die Umgebungskarte bilden – in zumindest zwei verschiedene Darstellungsebenen unterteilt werden. Es gibt bei dieser Ausführungsform also erste Kartendaten, durch welche eine erste Darstellungsebene gebildet wird, wie auch zweite Kartendaten, durch welche eine zweite Darstellungsebene gebildet wird. Diese Ausführungsform hat den Vorteil, dass zur Bereitstellung der Funktionalitäten auf unterschiedliche Abstraktionsebenen der Darstellung der Umgebung zugegriffen werden kann, je nachdem, welcher Abstraktionsgrad für die jeweilige Funktionalität am besten geeignet ist. Somit kann der Rechenaufwand bei der Bereitstellung der Funktionalitäten noch weiter reduziert werden; das Fahrerassistenzsystem kann beispielsweise für unterschiedliche Funktionalitäten auf jeweils unterschiedliche Darstellungsebenen der Umgebungskarte zugreifen. Man würde zum Beispiel beim Unterstützen des Fahrers beim Durchführen von Parkvorgängen Kartendaten einer solchen Darstellungsebene verwenden, die Informationen über die Art und die relative Position der in der Umgebung befindlichen Objekte bezüglich des Fahrzeugs beinhalten. Für die Funktionalität des Warnens des Fahrers beim Unterschreiten eines vorbestimmten kritischen Abstandswertes zu einem Objekt können hingegen Kartendaten aus einer solchen Darstellungsebene herangezogen werden, die Informationen über die relative Position einzelner Punkte eines Objekts bezüglich des Fahrzeugs umfassen. Die Festlegung von unterschiedlichen Darstellungsebenen mit jeweils unterschiedlichen Abstraktionsgraden der Darstellung der Umgebung hat somit den wesentlichen Vorteil, dass zur Bereitstellung der Funktionalitäten die Sensordaten nicht von Neuem verarbeitet werden müssen, sondern bedarfsgerecht auf unterschiedliche Kartendaten eines solchen Abstraktionsgrads zugegriffen werden kann, welcher für den geringsten Aufwand hinsichtlich der Datenverarbeitung sorgt. Es wird hierdurch außerdem die Datenverarbeitungskette zwischen der Erzeugung der Sensordaten und der Bereitstellung der einzelnen Funktionalitäten logisch aufgeteilt, sodass die Erfassung der Umgebung von der Applikationslogik funktionell getrennt wird. Außerdem ist bei dieser Ausführungsform die Fusion bzw. die Zusammenfassung der aus unterschiedlichen Quellen stammenden Daten an mehreren unterschiedlichen Stellen der Verarbeitungskette – nämlich in zumindest zwei verschiedenen Darstellungsebenen – möglich.
  • In einer Ausführungsform können für das Bereitstellen der zumindest zwei Funktionalitäten Kartendaten bedarfsabhängig aus zumindest zwei Darstellungsebenen, insbesondere aus allen Darstellungsebenen, abgerufen werden. Zur Bereitstellung einer jeden Funktionalität kann somit das Fahrerassistenzsystem bedarfsabhängig Kartendaten aus zumindest zwei Darstellungsebenen – insbesondere aus allen vorhandenen Darstellungsebenen – abrufen. Dies kann zum Beispiel so aussehen, dass das Fahrerassistenzsystem beim Bereitstellen einer ersten Funktionalität auf Kartendaten einer ersten Darstellungsebene und beim Bereitstellen einer zweiten Funktionalität auf Kartendaten einer zweiten Darstellungsebene zugreift. Es kann auch vorgesehen sein, dass das Fahrerassistenzsystem beim Bereitstellen einer einzigen Funktionalität Kartendaten aus zumindest zwei Darstellungsebenen verwendet. Die einzelnen Darstellungsebenen der Umgebungskarte können also durch das Fahrerassistenzsystem zusammen oder getrennt je nach Bedarf verwendet werden. Das Fahrerassistenzsystem kann bei der Bereitstellung einer bestimmten Funktionalität auf diejenige Darstellungsebene der Umgebungskarte zugreifen, die bei dieser speziellen Funktionalität für den geringsten Datenverarbeitungsaufwand sorgt.
  • Eine der Darstellungsebenen kann durch Kartendaten gebildet werden, die Informationen über die relative Position einzelner Punkte und/oder Konturen erfasster Objekte bezüglich des Fahrzeugs beinhalten. Eine solche Darstellungsebene weist also einen relativ geringen Abstraktionsgrad auf; sie beinhaltet lediglich Informationen über einzelne erfasste Punkte und/oder Konturen von in der Umgebung befindlichen Objekten. Diese Darstellungsebene erweist sich beispielsweise für diejenige Applikation als besonders vorteilhaft, bei welcher der Fahrer durch das Fahrerassistenzsystem vor kritischen Abständen gewarnt wird. Auf diese Darstellungsebene würde man auch bei einer solchen Applikation zugreifen, bei welcher der Fahrer beim Halten der Spur unterstützt wird bzw. beim Verlassen der Spur gewarnt wird. Gerade bei solchen Funktionalitäten sorgt diese Darstellungsebene für einen geringen Datenverarbeitungsaufwand.
  • Eine der Darstellungsebenen kann hingegen durch Kartendaten gebildet werden, die einen höheren Abstraktionsgrad aufweisen. Eine solche Darstellungsebene kann derartige Informationen beinhalten, welche durch Zusammenfassen einzelner Punkte und/oder einzelner Konturen zu Objekten abstrahiert werden. Eine solche Darstellungsebene beinhaltet also Informationen über die Art bzw. die Form von in der Umgebung befindlichen Objekten, wie auch über die relative Position der Objekte bezüglich des Fahrzeugs. In dieser Darstellungsebene sind die in der Umgebung befindlichen Objekte also eindeutig bezeichnet; es kann sich hier um Fahrzeuge, Bordsteine, Straßenmarkierungen, Verkehrsschilder, Bäume, Fußgänger, Wände oder dergleichen handeln. Eine solche Darstellungsebene ermöglicht beispielsweise die Berechnung von Parkbahnen für Parkassistenzfunktionen mit höchster Genauigkeit. Außerdem sorgt eine solche Darstellungsebene beispielsweise für eine genaue Darstellung der Umgebung auf einer Anzeigeeinrichtung des Fahrzeugs. Auf Grundlage von Kartendaten aus dieser Darstellungsebene können nämlich Bilder erzeugt und dem Fahrer angezeigt werden, welche die Umgebung des Fahrzeugs darstellen.
  • Wie bereits ausgeführt, können zur Bildung der Umgebungskarte Sensordaten unterschiedlichster Sensoren des Fahrerassistenzsystems verarbeitet werden. In einer Ausführungsform werden aus Sensordaten zumindest zweier Sensoren des Fahrerassistenzsystems – insbesondere aus Sensordaten eines jeden im Fahrzeug vorhandenen Umgebungssensors – jeweils Kartendaten für zumindest zwei Darstellungsebenen berechnet. Insbesondere werden daraus Kartendaten für eine jede Darstellungsebene berechnet. Dies bedeutet, dass Sensordaten zumindest zweier Sensoren zu Kartendaten zumindest zweier Darstellungsebenen verarbeitet werden. Die Fusion der Informationen unterschiedlicher Sensoren kann dabei in unterschiedlichen Darstellungsebenen stattfinden. Zum Beispiel können aus Sensordaten aller Sensoren Kartendaten für eine erste Darstellungsebene berechnet werden, so dass die Fusion der Sensordaten quasi in der ersten Darstellungsebene erfolgt. Aus den Kartendaten der ersten Darstellungsebene können dann weitere Kartendaten berechnet werden, nämlich für weitere Darstellungsebenen. Es kann auch vorgesehen sein, dass aus Sensordaten aller Sensoren jeweils Kartendaten quasi parallel für alle Darstellungsebenen berechnet werden.
  • Hinsichtlich der Anordnung beziehungsweise des Ortes der Implementierung der digitalen Umgebungskarte sind verschiedene Ausführungsformen vorgesehen:
    Die Umgebungskarte kann in einem Speicher eines Steuergeräts des Fahrerassistenzsystems bereitgestellt werden, durch welches zumindest eine Funktionalität bereitgestellt wird. Zumindest ein weiteres Steuergerät, durch welches eine weitere Funktionalität bereitgestellt wird, kann dann bedarfsabhängig auf den Speicher zugreifen, um Kartendaten der Umgebungskarte zur Bereitstellung der zugeordneten Funktionalität auszulesen und/oder aus eigenen Sensordaten gebildete neue Kartendaten für die Umgebungskarte bereitzustellen. Bei dieser Ausführungsform ist die Umgebungskarte also in einem Steuergerät des Fahrerassistenzsystems bereitgestellt, während auch andere Steuergeräte auf die Umgebungskarte zugreifen und selbige verarbeiten beziehungsweise verwalten können. Diese Ausführungsform hat den Vorteil, dass bereits vorhandene Komponenten des Fahrerassistenzsystems für die Bereitstellung der gemeinsamen Umgebungskarte verwendet werden können, und das Fahrerassistenzsystem kommt insbesondere ohne eine zusätzliche Rechen- und/oder Speichereinrichtung aus. Es können also bei dieser Ausführungsform Komponenten, wie auch Geld gespart werden.
  • Es kann auch vorgesehen sein, dass jeweils eine Umgebungskarte in jeweiligen Speichern zumindest zweier Steuergeräte des Fahrerassistenzsystems bereitgestellt wird und die Umgebungskarten aneinander angeglichen werden. Bei dieser Ausführungsform wird also jeweils eine Umgebungskarte in unterschiedlichen Steuergeräten implementiert, und die vorhandenen Umgebungskarten werden quasi synchronisiert. Dies kann beispielsweise so aussehen, dass jedes Steuergerät seine eigene Umgebungskarte verwaltet und die jeweils anderen Umgebungskarten angeglichen werden. Jedes Steuergerät greift dann auf seine eigene Umgebungskarte zu. Alternativ kann auch die Umgebungskarte eines vorbestimmten Steuergeräts durch alle Steuergeräte verwaltet werden, und die jeweils anderen Umgebungskarten können dann angeglichen werden. Die Steuergeräte können miteinander beispielsweise über einen Kommunikationsbus in dem Fahrzeug kommunizieren. Diese Ausführungsform hat den Vorteil, dass die Umgebungskarte in allen Steuergeräten vorhanden ist, so dass die Steuergeräte sehr schnell auf ihre eigenen Umgebungskarten zugreifen und somit die jeweiligen Funktionalitäten rasch bereitstellen können. Insbesondere wird die Bereitstellung der Funktionalitäten nicht durch die Laufzeit der Signale im Kommunikationsbus verzögert.
  • Ergänzend oder alternativ kann die Umgebungskarte auch in einer für zumindest zwei Steuergeräte des Fahrerassistenzsystems gemeinsamen Speichereinrichtung bereitgestellt werden. Dann können die zumindest zwei Steuergeräte bedarfsabhängig auf die Speichereinrichtung zugreifen, um Kartendaten der Umgebungskarte zur Bereitstellung der zugeordneten Funktionalität auszulesen und/oder aus eigenen Sensordaten gebildete neue Kartendaten für die Umgebungskarte bereitzustellen. Diese Ausführungsform hat wiederum den Vorteil, dass die Steuergeräte von der Umgebungskarte „entlastet” werden können; die Umgebungskarte wird nämlich auf der gemeinsamen Speichereinrichtung verwaltet – der auch eine Recheneinrichtung zugeordnet werden kann.
  • In einer Ausführungsform kommuniziert das Fahrerassistenzsystem mit Fahrerassistenzsystemen anderer Fahrzeuge. Das Fahrerassistenzsystem kann beispielsweise Sensordaten anderer Fahrzeuge empfangen und auch diese empfangenen Sensordaten für die Berechnung der Umgebungskarte heranziehen. Somit kann die Informationsdichte der gemeinsamen Umgebungskarte weiter verbessert werden.
  • Ein erfindungsgemäßes Fahrerassistenzsystem für ein Fahrzeug umfasst zumindest einen Sensor zum Erfassen von Informationen über eine Umgebung des Fahrzeugs und zum Bereitstellen von Sensordaten aus den erfassten Informationen. Das Fahrerassistenzsystem kann aus den Sensordaten eine digitale Umgebungskarte berechnen und auf Grundlage der Umgebungskarte eine Funktionalität zur Fahrerunterstützung bereitstellen. Das Fahrerassistenzsystem ist dazu ausgelegt, für zumindest zwei verschiedene Funktionalitäten des Fahrerassistenzsystems die Umgebungskarte in einem gemeinsamen Format zu berechnen und auf Grundlage der gemeinsamen Umgebungskarte die zumindest zwei Funktionalitäten bereitzustellen.
  • Ein erfindungsgemäßes Fahrzeug, insbesondere Kraftwagen, umfasst ein erfindungsgemäßes Fahrerassistenzsystem.
  • Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für das erfindungsgemäße Fahrerassistenzsystem und das erfindungsgemäße Fahrzeug.
  • Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Alle vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder auch in Alleinstellung verwendbar.
  • Die Erfindung wird nun anhand einzelner bevorzugter Ausführungsbeispiele näher erläutert, wie auch unter Bezugnahme auf die beigefügten Zeichnungen.
  • Es zeigen:
  • 1 in schematischer und höchst abstrakter Darstellung ein Fahrerassistenzsystem gemäß einer Ausführungsform der Erfindung, wobei ein Verfahren gemäß einer Ausführungsform der Erfindung näher erläutert wird;
  • 2 bis 6 in schematischer Darstellung jeweils eine Draufsicht auf eine Verkehrssituation, wobei der Inhalt von Kartendaten unterschiedlicher Darstellungsebenen, wie auch die Verarbeitung von Sensordaten zu Kartendaten sowie die Bereitstellung einer Funktionalität anhand der Kartendaten näher erläutert werden;
  • 7 in schematischer Darstellung eine Draufsicht auf eine Verkehrssituation, wobei Vorteile des Fahrerassistenzsystems näher erläutert werden; und
  • 8 in schematischer Darstellung einen Aufbau eines Fahrerassistenzsystems gemäß einer Ausführungsform der Erfindung.
  • In 1 ist in höchst abstrakter Darstellung ein Fahrerassistenzsystem 1 dargestellt, wie es beispielsweise in einem Personenkraftwagen eingesetzt wird. In 1 sind dabei schematische Funktionsblöcke dargestellt, die das Fahrerassistenzsystem 1 lediglich funktionell beschreiben. Einzelne Funktionsblöcke können beispielsweise in verschiedenen Komponenten des Fahrerassistenzsystems 1 verwirklicht werden, nämlich beispielsweise in Steuergeräten, Sensoren, Recheneinrichtungen, Speichereinrichtungen und dergleichen.
  • Durch das Fahrerassistenzsystem 1 wird eine Vielzahl von Funktionalitäten in dem Fahrzeug bereitgestellt, durch welche ein Fahrer beim Führen des Fahrzeugs unterstützt wird. Und zwar werden durch das Fahrerassistenzsystem 1 Funktionalitäten 2a bis 2x bereitgestellt. Diese Funktionalitäten können beispielsweise folgende sein:
    • – die Funktionalität des Unterstützens des Fahrers beim Durchführen von Parkvorgängen und/oder
    • – die Funktionalität des Warnens des Fahrers beim Unterschreiten eines vorgegebenen Abstandswertes zu einem Objekt und/oder
    • – die Funktionalität des Warnens des Fahrers bei einem ungewollten Verlassen einer Spur und/oder
    • – die Funktionalität des Haltens des Fahrzeugs auf einer vorgegebenen Spur und/oder
    • – die Funktionalität des Anzeigens von in der Umgebung befindlichen Objekten auf einer Anzeigeeinrichtung und/oder
    • – die Funktionalität des Haltens eines vorgegebenen Abstands zu einem vorausfahrenden Fahrzeug und/oder
    • – die Funktionalität des Warnens des Fahrers beim Vorhandensein eines Objekts im Bereich eines Totwinkels und/oder
    • – die Funktionalität des automatischen Einschaltens des Fernlichts und/oder des Abblendlichts und/oder
    • – die Funktionalität der Veränderung einer räumlichen Verteilung des Fernlichts und/oder des Abblendlichts und/oder
    • – die Funktionalität der Erkennung von Verkehrsschildern und/oder
    • – die Funktionalität des Eingreifens in eine Komponente des Fahrzeugs, insbesondere in eine Bremseinrichtung des Fahrzeugs.
  • Die Funktionalitäten 2a bis 2x werden beispielsweise jeweils durch ein Steuergerät des Fahrerassistenzsystems 1 bereitgestellt. Solche Steuergeräte können beispielsweise jeweils einen digitalen Signalprozessor und/oder einen Mikrocontroller und/oder einen Speicher umfassen.
  • Das Fahrerassistenzsystem 1 beinhaltet außerdem eine Vielzahl von Sensoren 3a bis 3y, die jeweils Informationen über eine Umgebung des Fahrzeugs erfassen. Die Sensoren 3a bis 3y können beispielsweise jeweils einem Steuergerät zugeordnet sein oder sie können separate Komponenten sein. Die Sensoren 3a bis 3y können beispielsweise folgende Komponenten beinhalten: zumindest einen Ultraschallsensor und/oder zumindest einen optischen Abstandssensor und/oder zumindest eine Kamera und/oder zumindest ein Radargerät. Also erfassen die Sensoren 3a bis 3y Informationen über die Umgebung. Aus den erfassten Informationen werden jeweils Sensordaten 4a bis 4y erzeugt. Die Verarbeitung der erfassten Informationen erfolgt also sensorspezifisch; die Informationen bzw. erfasste Rohdaten werden für jeden Sensor 3a bis 3y separat verarbeitet, und die jeweiligen Sensordaten 4a bis 4y werden sensorspezifisch erzeugt. Bei der Erzeugung der Sensordaten 4a bis 4y werden die jeweiligen Informationen spezifisch verarbeitet – es wird beispielsweise das Verfahren der Triangulation und/oder eine sensorspezifische Filterung der Informationen angewandt. Die jeweiligen Informationen werden also derart aufbereitet, dass die daraus erzeugten Sensordaten 4a bis 4y bereits abstrahierte Informationen über die Umgebung beinhalten. Und zwar beinhalten die Sensordaten 4a bis 4y Informationen über einzelne Merkmale von in der Umgebung befindlichen Objekten, nämlich beispielsweise über die Position von einzelnen Punkten und/oder einzelnen Konturen erfasster Objekte – dies kann beispielsweise aus der Triangulation von Ultraschallrohdaten berechnet werden – und/oder Informationen über Bodenprojektionen von Kanten, die beispielsweise in einem Bild einer Kamera erkannt wurden.
  • In dem Fahrerassistenzsystem 1 wird für alle Funktionalitäten 2a bis 2x eine gemeinsame digitale Umgebungskarte 5 berechnet. Die Umgebungskarte 5 wird auf Basis der Sensordaten 4a bis 4y bereitgestellt. Sie wird in einem für alle Funktionalitäten 2a bis 2x beziehungsweise alle Steuergeräte und alle Sensoren 4a bis 4y gemeinsamen Format erzeugt. Dies bedeutet, dass alle Steuergeräte beziehungsweise Funktionalitäten 2a bis 2x auf Kartendaten der Umgebungskarte 5 zugreifen können und alle Steuergeräte und/oder alle Sensoren 3a bis 3y die Umgebungskarte 5 verwalten, also bearbeiten können.
  • Die digitale Umgebungskarte 5 wird durch Kartendaten gebildet, die Informationen über die Umgebung des Fahrzeugs beinhalten. Die Umgebungskarte 5 wird im Ausführungsbeispiel in zwei verschiedene Darstellungsebenen unterteilt, nämlich eine erste Darstellungsebene 6 und eine zweite Darstellungsebene 7. Die Darstellungsebenen 6, 7 weisen jeweils einen anderen Abstraktionsgrad der Darstellung der Umgebung auf. Und zwar weist die zweite Darstellungsebene 7 einen höheren Abstraktionsgrad als die erste Darstellungsebene 6 auf. Die Darstellungsebenen 6, 7 werden jeweils durch Kartendaten gebildet. Mit anderen Worten werden die die Umgebungskarte 5 bildenden Kartendaten in zwei Gruppen unterteilt; eine Gruppe bildet die erste Darstellungsebene 6, während die zweite Gruppe die zweite Darstellungsebene 7 bildet.
  • Wie aus 1 hervorgeht, kann das Fahrerassistenzsystem 1 zur Bereitstellung der Funktionalitäten 2a bis 2x auf beide Abstraktionsebenen beziehungsweise Darstellungsebenen 6, 7 zugreifen, nämlich abhängig davon, welche der Darstellungsebenen 6, 7 bei der jeweiligen Funktionalität 2a bis 2x für den geringsten Datenverarbeitungs- bzw. Rechenaufwand sorgt. Beispielsweise werden die Funktionalitäten 2a, 2d und 2x – wie in 1 dargestellt ist – auf Grundlage der zweiten Abstraktionsebene 7 bereitgestellt, während die Funktionalitäten 2b und 2e auf Grundlage der ersten Darstellungsebene 6 bereitgestellt werden. Die Funktionalität 2c wird auf Grundlage beider Darstellungsebenen 6, 7 bereitgestellt.
  • Die Umgebungskarte 5 wird aus den Sensordaten 4a bis 4y erzeugt. Die Sensordaten 4a bis 4y werden zunächst zusammengefasst, und es wird die erste Darstellungsebene 6 gebildet. Die erste Darstellungsebene 6 wird durch Kartendaten gebildet, die aus den Sensordaten 4a bis 4y entstanden sind. Die erste Darstellungsebene 6 wird durch solche Kartendaten gebildet, welche Informationen über elementare Merkmale der in der Umgebung befindlichen Objekte beinhalten. Dazu zählen beispielsweise Informationen über die relative Position einzelner Punkte und/oder Schnittpunkte und/oder Tangentenpunkte erfasster Objekte. Diese Informationen werden beispielsweise – wie bereits ausgeführt – anhand des Verfahrens der Triangulation von Ultraschallmessungen erzeugt. Die Kartendaten der ersten Darstellungsebene 6 können auch Informationen über die relative Position einzelner Konturen beziehungsweise Kanten erfasster Objekte beinhalten. Es werden also Sensordaten 4a bis 4y aller Sensoren 3a bis 3y zusammengefasst, und die genannten Merkmale der erfassten Objekte werden gruppiert, zusammengeführt und weiterverarbeitet. Die Dichte dieser Merkmale im Raum kann variiert werden, so dass beispielsweise diejenigen Bereiche, die für die Bereitstellung einer bestimmten Funktionalität 2a bis 2x besonders interessant sind, mit einer höheren Auflösung dargestellt werden. Die Kartendaten der ersten Darstellungsebene 6 können außerdem weitere Informationen beinhalten, nämlich beispielsweise Informationen über den Ursprung der jeweiligen Daten – also aus welchem Sensor 4a bis 4y die Daten stammen – und/oder Informationen über die wahrscheinliche Art des erfassten Objekts – zum Beispiel „wahrscheinlich flach”, „wahrscheinlich massiv”, „wahrscheinlich freier Raum” und dergleichen.
  • Die Kartendaten der ersten Darstellungsebene 6 werden zu Kartendaten verarbeitet, durch welche die zweite Darstellungsebene 7 gebildet wird. Ergänzend oder alternativ können auch unmittelbar die Sensordaten 4a bis 4y zur Bildung der zweiten Darstellungsebene 7 herangezogen werden, wie dies in 1 mit dem gestrichelten Pfeil dargestellt ist. Die zweite Darstellungsebene 7 beinhaltet dabei Kartendaten, die wesentlich abstraktere Informationen über die Objekte umfassen. Und zwar sind dies Informationen über die relative Position und/oder die Abmessungen und/oder die Höhe und/oder die Farbe und/oder den Typ beziehungsweise die Art und/oder über die relative Geschwindigkeit bezüglich des Fahrzeugs und/oder über eine Bewegungsrichtung bezüglich des Fahrzeugs. Die in der zweiten Darstellungsebene 7 der Umgebungskarte 5 dargestellten Objekte werden somit quasi realitätstreu wiedergegeben.
  • Bezug nehmend nun auf die 2 bis 6 wird eine Straßensituation beschrieben, anhand derer der Inhalt der einzelnen Darstellungsebenen 6, 7 der Umgebungskarte 5 näher erläutert wird. 2 zeigt dabei eine Draufsicht auf eine reale Straßensituation. Auf einem Parkplatz 8 befindet sich ein Fahrzeug 9 – nämlich ein Personenkraftwagen –, welches das Fahrerassistenzsystem 1 gemäß 1 aufweist. Das Fahrzeug 9 bewegt sich von einem Startpunkt 10 in Pfeilrichtung 11 hin zu der in 2 dargestellten Position. Links des Fahrzeugs 9 befindet sich eine Wand 12, die ein Hindernis darstellt. Auf der rechten Seite wiederum befindet sich eine Parklücke 13, die durch zwei Markierungslinien 14, 15 begrenzt ist. Die in 2 gezeigte Situation ist ein reales Szenario.
  • Während der Bewegung des Fahrzeugs 9 erfasst ein an der linken Seitenflanke angeordneter Ultraschallsensor Informationen über die Umgebung links des Fahrzeugs 9, während ein an der rechten Seitenflanke angeordneter weiterer Ultraschallsensor die Umgebung rechts des Fahrzeugs 9 erfasst. Rohdaten 16, 17 der Ultraschallsensoren – die Rohdaten 16, 17 stellen die erfassten Informationen dar – sind in 3 schematisch abgebildet. Aus den Rohdaten 16, 17 erzeugen die Sensoren Sensordaten, nämlich anhand einer Triangulation, Filterung und dergleichen. Die Sensordaten werden zusammengefasst, und aus den Sensordaten werden Kartendaten 18, 19 für die erste Darstellungsebene 6 gebildet (4). Wie aus 4 hervorgeht, beinhalten die Kartendaten 18, 19 der ersten Darstellungsebene 6 Informationen über einzelne Punkte 20 der Wand 12, wie auch über eine Kontur 21 der Wand 12. Diese Kartendaten beinhalten außerdem Freiraumpunkte 22. Die Freiraumpunkte 22 liefern die Information, dass sich kein Objekt rechts des Fahrzeugs 9 befindet.
  • Während der Fahrt erfasst auch eine Kamera des Fahrerassistenzsystems 1 Informationen über die Umgebung und erzeugt Sensordaten – nämlich Bilddaten. Auch diese Bilddaten werden zur Bildung der ersten Darstellungsebene 6 herangezogen – auch aus diesen Bilddaten werden Kartendaten (in 4 nicht dargestellt) für die erste Darstellungsebene 6 berechnet.
  • Aus den Kartendaten 18, 19 der ersten Darstellungsebene 6 werden dann Kartendaten 23 für die zweite Darstellungsebene 7 berechnet. Diese Kartendaten 23 beinhalten nun Informationen über tatsächliche Objekte, nämlich über die Wand 12, wie auch über die Markierungslinien 14, 15 (aus den Bilddaten der Kamera). In der zweiten Darstellungsebene 7 ist also die Wand 12 eindeutig bestimmt; ihre relative Position bezüglich des Fahrzeugs 9, wie auch ihre räumlichen Abmessungen und Eigenschaften sind bekannt. Auch die Markierungslinien 14, 15 sind in der zweiten Darstellungsebene 7 eindeutig gekennzeichnet; ihre jeweiligen Positionen bezüglich des Fahrzeugs 9 sind bekannt. Auch die Parklücke 13 ist in der zweiten Darstellungsebene 7 eindeutig bezeichnet.
  • Nun steht die Umgebungskarte 5 einschließlich der ersten und der zweiten Darstellungsebene 6, 7 für alle Funktionalitäten 2a bis 2x zur Verfügung. Auf die in 5 gezeigten Informationen über die Wand 12 und die Markierungslinien 14, 15, wie auch über die Parklücke 13, greift nun ein Steuergerät zu, durch welches die Funktionalität der Unterstützung des Fahrers beim Durchführen von Parkvorgängen bereitgestellt wird. Dieses Steuergerät legt – wie in 6 dargestellt ist – einen Bereich 24 um das Fahrzeug 9 herum fest, wie auch eine Parkbahn 25. Das Steuergerät kann nun beispielsweise auf die Lenkung des Fahrzeugs 9 eingreifen, um das Fahrzeug 9 in die Parklücke 13 einzuparken, nämlich entlang der berechneten Parkbahn 25.
  • In 7 ist ein weiteres Straßenszenario dargestellt. Dargestellt ist das Fahrzeug 9, welches entlang einer berechneten Parkbahn 25 in eine Parklücke 13 eingeparkt wird. Die Parklücke 13 ist durch zwei Fahrzeuge 26, 27 begrenzt. In 7 sind einzelne Punkte der Fahrzeuge 26, 27 dargestellt, wie sie in der ersten Darstellungsebene 6 der Umgebungskarte 5 abgebildet sind. Es sind Punkte 28 dargestellt, die von einem Ultraschallsensor während einer Vorbeifahrt des Fahrzeugs 9 entlang der Parklücke 13 in Pfeilrichtung 29 erfasst wurden. Im Stand der Technik werden zur Vermessung der Parklücke 13 lediglich die Punkte 28 herangezogen. In 7 sind außerdem weitere Punkte 30 dargestellt, die durch einen weiteren Sensor – dieser ist beispielsweise im Heckbereich des Fahrzeugs 9 angeordnet – erfasst wurden. Dieser Sensor hat im Stand der Technik lediglich die Funktion der Warnung des Fahrers beim Unterschreiten eines vorbestimmten Abstandswertes zu einem Objekt. Alle Punkte 28, 30 sind nun in der ersten Darstellungsebene 6 der Umgebungskarte 5 zusammengefasst, und auch die zweite Darstellungsebene 7 baut auf diesen Informationen auf. Das Fahrerassistenzsystem 1 kann somit auf alle Informationen der Umgebungskarte 5 beim Durchführen des Parkvorgangs zugreifen, und nicht wie im Stand der Technik etwa nur auf die Informationen über die Punkte 28. Es stehen somit für alle Funktionalitäten 2a bis 2x Informationen aller Sensoren 3a bis 3y zur Verfügung.
  • In 8 ist ein möglicher Aufbau des Fahrerassistenzsystems 1 in dem Fahrzeug 9 dargestellt. Das Fahrerassistenzsystem 1 kann beispielsweise folgende Sensoren 3a bis 3y beinhalten: eine Kamera 3a, die einen Bereich vor dem Fahrzeug 9 erfassen kann, vier weitere Kameras 3b, 3c, 3d, 3e, die an der äußeren Oberfläche des Fahrzeugs 9 angeordnet sind, nämlich die Kamera 3b an einem vorderen Stoßfänger, die Kamera 3c an einem hinteren Stoßfänger, die Kamera 3d an der linken Seitenflanke – sie kann auch in den linken Außenspiegel integriert sein – und die Kamera 3e an der rechten Seitenflanke – sie kann auch in den rechten Außenspiegel integriert sein –, zwei Ultraschallsensoren 3f, 3g, nämlich einen Ultraschallsensor 3f an der linken Seitenflanke und einen Ultraschallsensor 3g an der rechten Seitenflanke, sowie zwei Radargeräte 3h, 3i, die jeweils in einem Eckbereich des hinteren Stoßfängers angeordnet sind. Die Anzahl sowie die Anordnung der Sensoren sind in 8 lediglich beispielhaft dargestellt; es können auch weitere Sensoren vorgesehen sein oder die vorhandenen Sensoren können an jeweils anderen Stellen des Fahrzeugs 9 angeordnet sein.
  • Das Fahrerassistenzsystem 1 umfasst außerdem Steuergeräte, die die genannten Funktionalitäten 2a bis 2x bereitstellen. Und zwar beinhaltet das Fahrerassistenzsystem 1 ein Steuergerät 31, welches zum Unterstützen des Fahrers beim Durchführen von Parkvorgängen ausgebildet ist, ein Steuergerät 32, welches den Fahrer beim Vorhandensein von Objekten im Bereich des Totwinkels warnen kann, ein Steuergerät 33, welches verschiedene Bilder von der Umgebung des Fahrzeugs 9 auf einer Anzeigeeinrichtung anzeigen kann, wie auch ein Steuergerät 34, welches zum Warnen des Fahrers beim Verlassen einer Spur und/oder zum Halten des Fahrzeugs 9 auf einer Spur ausgebildet ist. Die Funktionalitäten sowie die Anzahl der Steuergeräte 31 bis 34 sind ebenfalls lediglich schematisch dargestellt. Die Steuergeräte 31 bis 34 kommunizieren miteinander über einen Kommunikationsbus 35.
  • In dem Steuergerät 34 befindet sich ein Speicher 36, in welchem die Umgebungskarte 5 bereitgestellt wird. Und zwar können alle Steuergeräte 31 bis 34 auf den Speicher 36 zugreifen, um dort neue Kartendaten abzulegen und die vorhandenen Kartendaten zur Bereitstellung der jeweiligen Funktionalitäten auszulesen. Die Verwaltung der Umgebungskarte 5 erfolgt also durch alle Steuergeräte 31 bis 34. Die genannten Kartendaten können über den Kommunikationsbus 35 übertragen werden.
  • Ergänzend oder alternativ kann an den Kommunikationsbus 35 auch eine separate und gemeinsame Speichereinrichtung 37 angeschlossen sein, in welcher die Umgebungskarte 5 bereitgestellt wird. Auch bei dieser Ausführungsform können alle Steuergeräte 31 bis 34 die gemeinsame Umgebungskarte 5 verwalten, nämlich neue Kartendaten ablegen und bereits vorhandene Kartendaten auslesen.
  • In einer noch weiteren Ausführungsform kann jeweils eine Umgebungskarte 5 in allen Steuergeräten 31 bis 34 bereitgestellt sein; die Umgebungskarten 5 können dann aneinander angeglichen bzw. synchronisiert werden.
  • Insgesamt wird also ein Fahrerassistenzsystem 1 bereitgestellt, bei welchem eine Umgebungskarte 5 funktionsunabhängig implementiert wird. Sie kann die Informationen über die Fahrzeugumgebung sammeln, speichern und verwalten, unabhängig davon, ob und welche Assistenzfunktionen aktiv sind. Die Informationen werden in einem gemeinsamen Format gespeichert, welches im gesamten Fahrerassistenzsystem 1 bekannt ist. Jede Assistenzfunktion kann neue Informationen in der Umgebungskarte 5 ablegen, sobald sie verfügbar sind. Gleichzeitig kann jede Assistenzfunktion auf die gesamte Menge der Kartendaten in der Umgebungskarte 5 zugreifen, nämlich unabhängig davon, woher diese kommen und wie sie entstanden sind. Es werden für die Darstellung bzw. Verarbeitung von Informationen über die Umgebung unterschiedliche Abstraktionsebenen definiert, nämlich beispielsweise zwei Darstellungsebenen 6, 7. Dadurch wird die Datenverarbeitungskette zwischen der Sensorik und den Assistenzfunktionalitäten logisch aufgeteilt, sodass die Umwelterfassung von der Applikationslogik getrennt wird. Des Weiteren wird dadurch die Datenfusion der aus unterschiedlichen Quellen stammenden Messwerte an mehreren unterschiedlichen Stellen der Verarbeitungskette möglich. Während der Verarbeitung durchlaufen die erfassten Daten eine Abstraktionsebene 6, 7 nach der anderen. In jeder Ebene werden die entsprechenden Algorithmen ausgeführt, die den Informationsgehalt der Daten verbessern bzw. diese zu neuen abstrakteren Daten konvertieren. Auf diese Art und Weise entstehen im Fahrerassistenzsystem 1 mehrere Abbildungen der Fahrzeugumgebung, beispielsweise vermutete Konturen von Hindernissen einerseits und Objektbeschreibungen, die aus den Konturen erkannt wurden, andererseits. Diese Abbildungen können zusammen oder getrennt – je nach Bedarf – verwendet werden, nämlich für die Bereitstellung der jeweiligen Fahrerassistenzfunktionalitäten. Es werden also sämtliche Informationen allen Assistenzfunktionen zugänglich gemacht. So kann zum Beispiel die Funktion des Seitenschutzes die Daten, die zuvor bei einem Ausparkvorgang gesammelt wurden, verwenden, um den Fahrer vor einer möglichen Kollision nach dem Abschalten des Ausparkassistenten zu warnen, wenn der Fahrer das Lenkrad zu stark einschlägt. Genauso kann die Parklückenvermessung bessere Genauigkeiten liefern, wenn sie zusätzlich Informationen vom Seitenschutz während eines Einparkvorgangs erhalten kann. Die vorgeschlagene Sensorfusion ermöglicht eine kontinuierliche Erfassung der Fahrzeugumgebung unabhängig davon, welche Assistenzfunktionen aktiv sind und welche Sensoren verwendet werden. Mit der vorgeschlagenen Lösung kann die Karte sogar aufgebaut werden, wenn einzelne Funktionen auf unterschiedlichen, kooperierenden Fahrzeugen ausgeführt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 0650866 B1 [0002]
    • EP 1309882 B1 [0003]

Claims (12)

  1. Verfahren zum Betreiben eines Fahrerassistenzsystems (1) eines Fahrzeugs (9), wobei Informationen (16, 17) über eine Umgebung des Fahrzeugs (9) durch zumindest einen Sensor (3a bis 3y) des Fahrerassistenzsystems (1) erfasst und aus diesen Informationen (16, 17) Sensordaten (4a bis 4y) bereitgestellt werden, aus den Sensordaten (4a bis 4y) eine digitale Umgebungskarte (5) berechnet wird und auf Grundlage der Umgebungskarte (5) eine Funktionalität (2a bis 2x) durch das Fahrerassistenzsystem (1) in dem Fahrzeug (9) bereitgestellt wird, durch welche ein Fahrer beim Führen des Fahrzeugs (9) unterstützt wird, dadurch gekennzeichnet, dass für zumindest zwei verschiedene Funktionalitäten (2a bis 2x) des Fahrerassistenzsystems (1) die Umgebungskarte (5) in einem gemeinsamen Format berechnet wird und auf Grundlage der gemeinsamen Umgebungskarte (5) die zumindest zwei Funktionalitäten (2a bis 2x) durch das Fahrerassistenzsystem (1) bereitgestellt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Bildung der Umgebungskarte (5) Sensordaten (4a bis 4y) zumindest zweier verschiedener Sensoren (3a bis 3y) des Fahrerassistenzsystems (1), insbesondere Sensordaten (4a bis 4y) aller im Fahrzeug (9) vorhandener Umgebungssensoren (4a bis 4y), verarbeitet werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Umgebungskarte (5) bildende Kartendaten (18, 19, 23) in zumindest zwei verschiedene Darstellungsebenen (6, 7) unterteilt werden, die sich in einem Abstraktionsgrad der Darstellung der Umgebung voneinander unterscheiden.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass für das Bereitstellen der zumindest zwei Funktionalitäten (2a bis 2x) Kartendaten (18, 19, 23) bedarfsabhängig aus zumindest zwei Darstellungsebenen (6, 7), insbesondere aus allen Darstellungsebenen (6, 7), abgerufen werden.
  5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass eine der Darstellungsebenen (6, 7) durch Kartendaten (18, 19) gebildet wird, die Informationen (16, 17) über die relative Position einzelner Punkte (20, 28, 30) und/oder Konturen (21) erfasster Objekte (12, 14, 15, 26, 27) bezüglich des Fahrzeugs (9) beinhalten.
  6. Verfahren nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass eine der Darstellungsebenen (6, 7) durch Kartendaten (18, 19) gebildet wird, die derartige Informationen (16, 17) beinhalten, welche durch Zusammenfassen einzelner Punkte (20, 28, 30) und/oder einzelner Konturen (21) zu Objekten (12, 14, 15, 26, 27) abstrahiert werden.
  7. Verfahren nach einem der Ansprüche 3 bis 6, dadurch gekennzeichnet, dass aus Sensordaten (4a bis 4y) zumindest zweier Sensoren (3a bis 3y) des Fahrerassistenzsystems (1), insbesondere aus Sensordaten (4a bis 4y) eines jeden im Fahrzeug (9) vorhandenen Umgebungssensors (3a, 3y), jeweils Kartendaten für zumindest zwei der Darstellungsebenen (6, 7), insbesondere Kartendaten (18, 19) für eine jede Darstellungsebene (6, 7), berechnet werden.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Umgebungskarte (5) in einem Speicher (36) eines Steuergerätes (31 bis 34) des Fahrerassistenzsystems (1) bereitgestellt wird, durch welches zumindest eine Funktionalität (2a bis 2x) bereitgestellt wird, und zumindest ein weiteres Steuergerät (31 bis 34), durch welches eine weitere Funktionalität (2a bis 2x) bereitgestellt wird, bedarfsabhängig auf den Speicher (36) zugreift, um Kartendaten (18, 19) der Umgebungskarte (5) zur Bereitstellung der zugeordneten Funktionalität (2a bis 2x) auszulesen und/oder aus eigenen Sensordaten (4a bis 4y) gebildete neue Kartendaten (18, 19) für die Umgebungskarte (5) bereitzustellen.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass jeweils eine Umgebungskarte (5) in jeweiligen Speichern zumindest zweier Steuergeräte (31 bis 34) des Fahrerassistenzsystems (1) bereitgestellt wird und die Umgebungskarten (5) aneinander angeglichen werden.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Umgebungskarte (5) in einer für zumindest zwei Steuergeräte (31 bis 34) des Fahrerassistenzsystems (1) gemeinsamen Speichereinrichtung (37) bereitgestellt wird und die zumindest zwei Steuergeräte (31 bis 34) bedarfsabhängig auf die Speichereinrichtung (37) zugreifen, um Kartendaten (18, 19) der Umgebungskarte (5) zur Bereitstellung der zugeordneten Funktionalität (2a bis 2x) auszulesen und/oder aus eigenen Sensordaten (4a bis 4y) gebildete neue Kartendaten (18, 19) für die Umgebungskarte (5) bereitzustellen.
  11. Fahrerassistenzsystem (1) für ein Fahrzeug (9), mit zumindest einem Sensor (3a bis 3y) zum Erfassen von Informationen (16, 17) über eine Umgebung des Fahrzeugs (9) und zum Bereitstellen von Sensordaten (4a bis 4y) aus den erfassten Informationen (16, 17), wobei das Fahrerassistenzsystem (1) dazu ausgelegt ist, aus den Sensordaten (4a bis 4y) eine digitale Umgebungskarte (5) zu berechnen und auf Grundlage der Umgebungskarte (5) eine Funktionalität (2a bis 2x) zur Fahrerunterstützung bereitzustellen, dadurch gekennzeichnet, dass das Fahrerassistenzsystem (1) dazu ausgelegt ist, für zumindest zwei verschiedene Funktionalitäten (2a bis 2x) des Fahrerassistenzsystems (1) die Umgebungskarte (5) in einem gemeinsamen Format zu berechnen und auf Grundlage der gemeinsamen Umgebungskarte (5) die zumindest zwei Funktionalitäten (2a bis 2x) bereitzustellen.
  12. Fahrzeug (9), insbesondere Kraftwagen, mit einem Fahrerassistenzsystem (1) nach Anspruch 11.
DE102010018994A 2010-05-03 2010-05-03 Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, Fahrerassistenzsystem und Fahrzeug Withdrawn DE102010018994A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102010018994A DE102010018994A1 (de) 2010-05-03 2010-05-03 Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, Fahrerassistenzsystem und Fahrzeug
PCT/EP2011/056196 WO2011138164A1 (de) 2010-05-03 2011-04-19 Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, fahrerassistenzsystem und fahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010018994A DE102010018994A1 (de) 2010-05-03 2010-05-03 Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, Fahrerassistenzsystem und Fahrzeug

Publications (1)

Publication Number Publication Date
DE102010018994A1 true DE102010018994A1 (de) 2011-11-03

Family

ID=44291714

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010018994A Withdrawn DE102010018994A1 (de) 2010-05-03 2010-05-03 Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, Fahrerassistenzsystem und Fahrzeug

Country Status (2)

Country Link
DE (1) DE102010018994A1 (de)
WO (1) WO2011138164A1 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014177447A3 (de) * 2013-04-30 2015-04-02 Bayerische Motoren Werke Aktiengesellschaft Bereitstellen einer effizienten umfeldkarte für ein fahrzeug
DE102014111126A1 (de) 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen einer Umgebungskarte eines Umgebungsbereichs eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102014117783A1 (de) 2014-12-03 2016-06-09 Valeo Schalter Und Sensoren Gmbh Verfahren zum Unterstützen eins Fahrers eines Kraftfahrzeugs beim Einparken, Fahrerassistenzsystem und Kraftfahrzeug
EP3076377A1 (de) * 2015-03-31 2016-10-05 Valeo Schalter und Sensoren GmbH Verfahren zum bereitstellen von freirauminformationen in einem umgebungsbereich eines kraftfahrzeugs als sensor-rohdaten an einer kommunikationsschnittstelle, sensoreinrichtung, verarbeitungseinrichung und kraftfahrzeug
WO2016156377A1 (de) * 2015-03-31 2016-10-06 Valeo Schalter Und Sensoren Gmbh Verfahren zum bereitstellen von höheninformationen eines objekts in einem umgebungsbereich eines kraftfahrzeugs an einer kommunikationsschnittstelle, sensoreinrichtung, verarbeitungseinrichtung und kraftfahrzeug
DE102015115012A1 (de) 2015-09-08 2017-03-09 Connaught Electronics Ltd. Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102015016704A1 (de) 2015-12-22 2017-06-22 Audi Ag Verfahren zum Übertragen von Kommunikationsdaten zwischen einer Vielzahl von Fahrzeugkomponenten eines Kraftfahrzeugs
WO2017162245A1 (de) * 2016-03-21 2017-09-28 Conti Temic Microelectronic Gmbh Vorrichtung und verfahren zur eigenbewegungsschätzung für ein kraftfahrzeug
DE102019213223A1 (de) * 2019-09-02 2021-03-04 Volkswagen Aktiengesellschaft Kollisionsvermeidung bei Annäherung eines Fahrzeugs an eine Anhängerdeichsel

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7298491B2 (ja) * 2020-01-27 2023-06-27 トヨタ自動車株式会社 表示制御装置、表示制御方法及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0650866B1 (de) 1993-09-29 1997-05-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ausparken eines Fahrzeuges
DE19741631A1 (de) * 1997-09-20 1999-03-25 Volkswagen Ag Verfahren und Vorrichtung zur Vermeidung und/oder Minimierung von Konfliktsituationen im Straßenverkehr
DE19845568A1 (de) * 1998-04-23 1999-10-28 Volkswagen Ag Vorrichtung zur Objekterfassung für Kraftfahrzeuge
EP1309882B1 (de) 2000-08-16 2004-12-08 Raytheon Company System zur erfassung von naheliegenden objekten
DE102005026386A1 (de) * 2005-06-02 2006-12-07 Volkswagen Ag Verfahren und Vorrichtung zum Bestimmen von Freiflächen in der Umgebung eines Fahrzeugs
EP1775552A2 (de) * 2005-10-14 2007-04-18 Robert Bosch Gmbh Elektronischer Horizont für Fahrerassistenzsysteme

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006044434A1 (de) * 2006-09-21 2008-03-27 Robert Bosch Gmbh Fahrerassistenzsystem
DE102007002197A1 (de) * 2007-01-16 2008-07-17 Siemens Ag Gemeinsamer Kontroller für verschiedene Fahrerassistenzsysteme
EP2107503A1 (de) * 2008-03-31 2009-10-07 Harman Becker Automotive Systems GmbH Verfahren und Vorrichtung zur Erzeugung eines Umgebungsmodells für Fahrzeuge in Echtzeit

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0650866B1 (de) 1993-09-29 1997-05-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ausparken eines Fahrzeuges
DE19741631A1 (de) * 1997-09-20 1999-03-25 Volkswagen Ag Verfahren und Vorrichtung zur Vermeidung und/oder Minimierung von Konfliktsituationen im Straßenverkehr
DE19845568A1 (de) * 1998-04-23 1999-10-28 Volkswagen Ag Vorrichtung zur Objekterfassung für Kraftfahrzeuge
EP1309882B1 (de) 2000-08-16 2004-12-08 Raytheon Company System zur erfassung von naheliegenden objekten
DE102005026386A1 (de) * 2005-06-02 2006-12-07 Volkswagen Ag Verfahren und Vorrichtung zum Bestimmen von Freiflächen in der Umgebung eines Fahrzeugs
EP1775552A2 (de) * 2005-10-14 2007-04-18 Robert Bosch Gmbh Elektronischer Horizont für Fahrerassistenzsysteme

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9792819B2 (en) 2013-04-30 2017-10-17 Bayerische Motoren Werke Aktiengesellschaft Provision of an efficient environmental map for a vehicle
WO2014177447A3 (de) * 2013-04-30 2015-04-02 Bayerische Motoren Werke Aktiengesellschaft Bereitstellen einer effizienten umfeldkarte für ein fahrzeug
DE102014111126A1 (de) 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen einer Umgebungskarte eines Umgebungsbereichs eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
WO2016020357A1 (de) 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum erzeugen einer umgebungskarte eines umgebungsbereichs eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
US10338601B2 (en) 2014-08-05 2019-07-02 Valeo Schalter Und Sensoren Gmbh Method for generating a surroundings map of a surrounding area of a motor vehicle, driver assistance system and motor vehicle
DE102014117783A1 (de) 2014-12-03 2016-06-09 Valeo Schalter Und Sensoren Gmbh Verfahren zum Unterstützen eins Fahrers eines Kraftfahrzeugs beim Einparken, Fahrerassistenzsystem und Kraftfahrzeug
EP3076377A1 (de) * 2015-03-31 2016-10-05 Valeo Schalter und Sensoren GmbH Verfahren zum bereitstellen von freirauminformationen in einem umgebungsbereich eines kraftfahrzeugs als sensor-rohdaten an einer kommunikationsschnittstelle, sensoreinrichtung, verarbeitungseinrichung und kraftfahrzeug
WO2016156377A1 (de) * 2015-03-31 2016-10-06 Valeo Schalter Und Sensoren Gmbh Verfahren zum bereitstellen von höheninformationen eines objekts in einem umgebungsbereich eines kraftfahrzeugs an einer kommunikationsschnittstelle, sensoreinrichtung, verarbeitungseinrichtung und kraftfahrzeug
US10354524B2 (en) 2015-03-31 2019-07-16 Valeo Schalter Und Sensoren Gmbh Method for providing height information for an object in a surrounding area of a motor vehicle on a communication interface sensor device, processing device and motor vehicle
DE102015115012A1 (de) 2015-09-08 2017-03-09 Connaught Electronics Ltd. Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
WO2017108184A1 (de) 2015-12-22 2017-06-29 Audi Ag Verfahren zum übertragen von kommunikationsdaten zwischen einer vielzahl von fahrzeugkomponenten eines kraftfahrzeugs
DE102015016704A1 (de) 2015-12-22 2017-06-22 Audi Ag Verfahren zum Übertragen von Kommunikationsdaten zwischen einer Vielzahl von Fahrzeugkomponenten eines Kraftfahrzeugs
US10560281B2 (en) 2015-12-22 2020-02-11 Audi Ag Method for transmitting communication data between a multiplicity of vehicle components of a motor vehicle
WO2017162245A1 (de) * 2016-03-21 2017-09-28 Conti Temic Microelectronic Gmbh Vorrichtung und verfahren zur eigenbewegungsschätzung für ein kraftfahrzeug
DE102019213223A1 (de) * 2019-09-02 2021-03-04 Volkswagen Aktiengesellschaft Kollisionsvermeidung bei Annäherung eines Fahrzeugs an eine Anhängerdeichsel

Also Published As

Publication number Publication date
WO2011138164A1 (de) 2011-11-10

Similar Documents

Publication Publication Date Title
DE102010018994A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, Fahrerassistenzsystem und Fahrzeug
DE102009005566B4 (de) Verfahren und Vorrichtung zur Erstellung einer Umfeldkarte eines Kraftfahrzeugs
DE60122963T2 (de) Navigationsvorrichtung
EP2805183B1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
EP2991874B1 (de) Bereitstellen einer effizienten umfeldkarte für ein fahrzeug
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
DE102008003662A1 (de) Verfahren und Vorrichtung zum Anzeigen der Umgebung eines Fahrzeugs
DE102010051206A1 (de) Verfahren zum Erzeugen eines Bilds einer Fahrzeugumgebung und Abbildungsvorrichtung
DE102010052304A1 (de) Verfahren und Vorrichtung zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Ausparken aus einer Parklücke und Kraftfahrzeug
DE10354209A1 (de) System und Verfahren zum Verbessern der Fahrzeugfahrer-Fahrunterstützung eines Kraftfahrzeugs
DE102013205882A1 (de) Verfahren und Vorrichtung zum Führen eines Fahrzeugs im Umfeld eines Objekts
WO2013029722A2 (de) Verfahren zur umgebungsrepräsentation
DE10336986A1 (de) Verfahren zum Vermeiden von Kollisionen eines Fahrzeugs
DE102005018408A1 (de) Verfahren und Vorrichtung zur Auswertung von Abstandsmessdaten eines Abstandsmesssystems eines Kraftfahrzeugs
DE102009046726A1 (de) Auswahl einer Parklücke aus mehreren erkannten Parklücken
DE102018118463A1 (de) Überwachungseinrichtung
DE102016202594A1 (de) Verfahren und Vorrichtung zum Interpretieren einer Fahrzeugumgebung eines Fahrzeugs sowie Fahrzeug
WO2015173005A1 (de) Umfeldkarte für fahrflächen mit beliebigem höhenverlauf
DE102008025773A1 (de) Verfahren zur Schätzung eines Orts- und Bewegungszustands eines beobachteten Objekts
DE102018216790A1 (de) Verfahren zur Bewertung einer Auswirkung eines Objektes im Umfeld eines Fortbewegungsmittels auf ein Fahrmanöver des Fortbewegungsmittels
DE102017126452A1 (de) Fahrzeugsteuersystem
EP2801076B1 (de) Tiefenbildberechnung mit einer monokamera durch eine definierte trajektorie
WO2012163631A1 (de) Verfahren zum bestimmen einer nickbewegung einer in einem fahrzeug verbauten kamera und verfahren zur steuerung einer lichtaussendung zumindest eines frontscheinwerfers eines fahrzeugs
DE102005036782A1 (de) Verfahren zum Betrieb eines Bildauswertesystems zur Entfernungsmessung an einem Fahrzeug
EP2603403B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung in einem kraftfahrzeug, fahrerassistenzsystem und kraftfahrzeug

Legal Events

Date Code Title Description
R005 Application deemed withdrawn due to failure to request examination