-
Die Erfindung betrifft ein Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs. Es werden Informationen über eine Umgebung des Fahrzeugs durch zumindest einen Sensor des Fahrerassistenzsystems erfasst. Aus diesen Informationen werden Sensordaten bereitgestellt. Aus den Sensordaten wird eine digitale Umgebungskarte – also eine digitale Karte der Umgebung – berechnet und auf Grundlage der Umgebungskarte wird eine Funktionalität durch das Fahrerassistenzsystem in dem Fahrzeug bereitgestellt, durch welche ein Fahrer beim Führen des Fahrzeugs unterstützt wird. Die Erfindung bezieht sich außerdem auf ein Fahrerassistenzsystem, welches zum Durchführen eines solchen Verfahrens ausgebildet ist, wie auch auf ein Fahrzeug mit einem solchen Fahrerassistenzsystem.
-
Es ist Stand der Technik, aus Sensordaten eines Sensors eine digitale Umgebungskarte zu erzeugen. Eine solche Umgebungskarte wird durch Kartendaten gebildet; sie stellt im Wesentlichen eine Datenbank dar. Die Kartendaten beinhalten Informationen über in der Umgebung des Fahrzeugs befindliche Objekte, nämlich insbesondere die Position der Objekte bezüglich des Fahrzeugs und dergleichen. Das Bereitstellen einer solchen Umgebungskarte, auf deren Grundlage eine Funktionalität zur Fahrerunterstützung bereitgestellt wird, ist beispielsweise aus der Druckschrift
EP 0 650 866 B1 bekannt. Im Gegenstand dieser Druckschrift wird ein Fahrer eines Fahrzeugs beim Ausparken aus einer Parklücke unterstützt. Umgebungssensoren des Fahrzeugs erfassen Objekte, die sich in der Umgebung befinden. Es werden insbesondere Abstände zwischen dem Fahrzeug und in der Umgebung befindlichen Hindernissen gemessen, nämlich in Fahrtrichtung des Fahrzeugs. Aus den Messwerten für die Abstände wird eine lokale Umgebungskarte gebildet. Auf Grundlage der Umgebungskarte wird eine Fahrstrategie für den Vorgang des Ausparkens festgelegt. Es können dem Fahrer beispielsweise Fahrtrichtungspfeile angezeigt werden, nach denen er sich richten kann. Also wird auf Grundlage der Umgebungskarte eine Funktionalität in dem Fahrzeug bereitgestellt – nämlich die Funktionalität des Unterstützens des Fahrers beim Durchführen von Parkvorgängen.
-
Aus der Druckschrift
EP 1 309 882 B1 ist ein Fahrerassistenzsystem bekannt, welches eine Vielzahl von Sensoren aufweist. Die Sensoren erfassen jeweils einen unterschiedlichen Bereich der Umgebung. Die Sensoren können außerdem Objekte verfolgen, die sich in den jeweiligen Erfassungsbereichen befinden. Die Sensoren können auch Informationen miteinander austauschen: Ein Sensor, welcher in seinem Erfassungsbereich ein bestimmtes Objekt verfolgt, kann Informationen über die jeweils augenblickliche Position des Objektes an einen weiteren Sensor weiterleiten, wenn das Objekt aus dem Erfassungsbereich austritt und in den Erfassungsbereich des weiteren Sensors gelangt.
-
Also kann im Stand der Technik eine digitale Umgebungskarte berechnet werden, die eine Basis für die Bereitstellung einer spezifischen Applikation (Funktionalität) durch das Fahrerassistenzsystem darstellt. Dabei wird die Umgebungskarte in der Regel durch ein spezifisches Steuergerät implementiert, welches dann auch die Applikation in dem Fahrzeug bereitstellt. Nach dem Bereitstellen der Funktionalität wird die Umgebungskarte gelöscht, und es wird eine neue Umgebungskarte dann berechnet, wenn die Funktionalität durch das Steuergerät wieder bereitgestellt werden soll, nämlich beispielsweise wenn der Fahrer wieder beim Einparken unterstützt werden soll.
-
Es ist Aufgabe der Erfindung, eine Lösung aufzuzeigen, wie bei dem Verfahren der eingangs genannten Gattung eine gegenüber dem Stand der Technik verbesserte Ausnutzung der vorhandenen Sensorressourcen erzielt werden kann.
-
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen gemäß Patentanspruch 1, wie auch durch ein Fahrerassistenzsystem mit den Merkmalen gemäß Patentanspruch 11 sowie durch ein Fahrzeug mit den Merkmalen gemäß Patentanspruch 12 gelöst. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche und der Beschreibung.
-
Bei einem erfindungsgemäßen Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs werden Informationen über eine Umgebung des Fahrzeugs durch zumindest einen Sensor des Fahrerassistenzsystems erfasst. Aus diesen Informationen werden Sensordaten bereitgestellt. Aus den Sensordaten wird eine digitale Umgebungskarte berechnet, und auf Grundlage der Umgebungskarte wird eine Funktionalität durch das Fahrerassistenzsystem in dem Fahrzeug bereitgestellt, durch welche ein Fahrer beim Führen des Fahrzeugs unterstützt wird. Die Umgebungskarte wird für zumindest zwei verschiedene Funktionalitäten des Fahrerassistenzsystems in einem gemeinsamen Format berechnet, und auf Grundlage der gemeinsamen Umgebungskarte werden die zumindest zwei Funktionalitäten durch das Fahrerassistenzsystem bereitgestellt.
-
Also wird erfindungsgemäß eine gemeinsame digitale Umgebungskarte berechnet, und zwar unabhängig von den jeweiligen Funktionalitäten des Fahrerassistenzsystems. Mit anderen Worten wird die Umgebungskarte funktionsunabhängig implementiert, d. h. unabhängig davon, ob und welche Funktionalitäten bzw. Applikationen des Fahrerassistenzsystems augenblicklich bereitgestellt werden sollen. Es steht somit für die zumindest zwei Funktionalitäten eine gemeinsame Umgebungskarte zur Verfügung; es müssen für die zumindest zwei Funktionalitäten keine separaten Umgebungskarten implementiert werden. Das Fahrerassistenzsystem kommt somit für die zumindest zwei Funktionalitäten mit nur einer einzigen Umgebungskarte aus, so dass die vorhandenen Sensorressourcen optimal ausgenutzt werden.
-
Auf diesem Weg gelingt es außerdem, den Datenverarbeitungsaufwand bzw. den Rechenaufwand bei der Bereitstellung der Applikationen durch das Fahrerassistenzsystem auf ein Minimum zu reduzieren. Eine gemeinsame Umgebungskarte hat darüber hinaus den Vorteil, dass – wenn Sensordaten einer Vielzahl von Sensoren für die Berechnung der Umgebungskarte herangezogen werden – quasi für jede Fahrerassistenzfunktionalität auf die gesamte Menge der Kartendaten zugegriffen werden kann, und zwar unabhängig davon, woher die Kartendaten kommen und wie sie entstanden sind.
-
Vorzugsweise ist die Umgebungskarte zeitlich unabhängig von den zumindest zwei Funktionalitäten des Fahrerassistenzsystems. Dies bedeutet, dass die Umgebungskarte zeitlich unabhängig von der Zeit und der Notwenigkeit der Bereitstellung der Funktionalität berechnet wird. Die Umgebungskarte wird in dem Fahrerassistenzsystem bevorzugt kontinuierlich berechnet und an die jeweils augenblickliche Umgebung des Fahrzeugs angepasst. Z. B. kann dies so aussehen, dass die Umgebungskarte durch Kartendaten gebildet wird, die Informationen über einen vorgegebenen Umgebungsbereich um das Fahrzeug herum beinhalten. Bewegt sich das Fahrzeug, so können diejenigen Kartendaten gelöscht werden, die Informationen über diejenigen Bereiche der Umgebung beinhalten, die über den vorgegebenen Umgebungsbereich hinausgehen. Gleichzeitig können neue Kartendaten berechnet werden, so dass die Umgebungskarte für den vorbestimmten Umgebungsbereich vervollständigt wird. Ganz allgemein wird die Umgebungskarte also bei dieser Ausführungsform für einen vorbestimmten Umgebungsbereich bezüglich des Fahrzeugs kontinuierlich angepasst.
-
Insbesondere wird die Umgebungskarte gemeinsam für zwei verschiedene Steuergeräte des Fahrerassistenzsystems berechnet, die jeweils eine Funktionalität zur Fahrerunterstützung auf Grundlage der gemeinsamen Umgebungskarte bereitstellen. Es kann auch vorgesehen sein, dass ein Steuergerät zumindest zwei Funktionalitäten zur Fahrerunterstützung bereitstellen kann, nämlich auf Grundlage der gemeinsamen Umgebungskarte.
-
Die digitale Umgebungskarte kann gemeinsam für zumindest zwei Funktionalitäten, bevorzugt für zumindest drei Funktionalitäten, noch bevorzugter für zumindest vier Funktionalitäten, noch bevorzugter für zumindest fünf Funktionalitäten des Fahrerassistenzsystems implementiert werden. Auf Grundlage der gemeinsamen Umgebungskarte können also zumindest zwei Funktionalitäten, insbesondere zumindest drei Funktionalitäten, bevorzugt zumindest vier Funktionalitäten, noch bevorzugter zumindest fünf Funktionalitäten durch das Fahrerassistenzsystem bereitgestellt werden.
-
Unter einer Funktionalität wird vorliegend eine Applikation bzw. eine Funktion des Fahrerassistenzsystems verstanden, welche den Fahrer beim Führen des Fahrzeugs unterstützt. Das Fahrerassistenzsystem kann auf Grundlage der Umgebungskarte vorzugsweise zumindest zwei der folgenden Funktionalitäten bereitstellen:
- – die Funktionalität des Unterstützens des Fahrers beim Durchführen von Parkvorgängen und/oder
- – die Funktionalität des Warnens des Fahrers beim Unterschreiten eines vorgegebenen Abstandswertes zu einem Objekt und/oder
- – die Funktionalität des Warnens des Fahrers bei einem ungewollten Verlassen einer Spur und/oder
- – die Funktionalität des Haltens des Fahrzeugs auf einer vorgegebenen Spur und/oder
- – die Funktionalität des Anzeigens von in der Umgebung befindlichen Objekten auf einer Anzeigeeinrichtung und/oder
- – die Funktionalität des Haltens eines vorgegebenen Abstands zu einem vorausfahrenden Fahrzeug und/oder
- – die Funktionalität des Warnens des Fahrers beim Vorhandensein eines Objekts im Bereich eines Totwinkels und/oder
- – die Funktionalität des automatischen Einschaltens des Fernlichts und/oder des Abblendlichts und/oder
- – die Funktionalität der Veränderung einer räumlichen Verteilung des Fernlichts und/oder des Abblendlichts und/oder
- – die Funktionalität der Erkennung von Verkehrsschildern und/oder
- – die Funktionalität des Eingreifens in eine Komponente des Fahrzeugs, insbesondere in eine Bremseinrichtung des Fahrzeugs.
-
Also wird die digitale Umgebungskarte in einem für alle Funktionalitäten gemeinsamen Format bereitgestellt. Unter dem Begriff „Format” wird hier eine Spezifikation der Verarbeitung und der Speicherung von Daten verstanden, die festlegt, wie Daten der Umgebungskarte programmtechnisch gelesen, gespeichert und/oder verarbeitet werden können.
-
Es werden vorzugsweise Sensordaten zumindest zweier verschiedener Sensoren des Fahrerassistenzsystems, insbesondere Sensordaten aller im Fahrzeug vorhandener Umgebungssensoren, zur Bildung der Umgebungskarte verarbeitet. Es wird somit möglich, eine Umgebungskarte zu erzeugen, welche eine Vielzahl von Informationen über die Umgebung des Fahrzeugs beinhaltet. Und zwar kann eine solche Umgebungskarte gebildet werden, auf deren Grundlage eine Vielzahl von Funktionalitäten durch das Fahrerassistenzsystem bereitgestellt werden kann. Zur Bildung der Umgebungskarte können beispielsweise Sensordaten zumindest einer Kamera und/oder zumindest eines Ultraschallsensors und/oder Sensordaten zumindest eines Radargerätes und/oder Sensordaten zumindest eines optischen Abstandssensors – z. B. eines LED-Sensors – verarbeitet werden. Auf diesem Weg gelingt es, eine höchst genaue und eine hohe Informationsdichte aufweisende Umgebungskarte bereitzustellen.
-
Es erweist sich als besonders vorteilhaft, wenn die Umgebungskarte in zumindest zwei verschiedene Darstellungsebenen bzw. Abstraktionsebenen unterteilt wird, die sich in einem Abstraktionsgrad der Darstellung der Umgebung voneinander unterscheiden. Dies bedeutet, dass Kartendaten – welche die Umgebungskarte bilden – in zumindest zwei verschiedene Darstellungsebenen unterteilt werden. Es gibt bei dieser Ausführungsform also erste Kartendaten, durch welche eine erste Darstellungsebene gebildet wird, wie auch zweite Kartendaten, durch welche eine zweite Darstellungsebene gebildet wird. Diese Ausführungsform hat den Vorteil, dass zur Bereitstellung der Funktionalitäten auf unterschiedliche Abstraktionsebenen der Darstellung der Umgebung zugegriffen werden kann, je nachdem, welcher Abstraktionsgrad für die jeweilige Funktionalität am besten geeignet ist. Somit kann der Rechenaufwand bei der Bereitstellung der Funktionalitäten noch weiter reduziert werden; das Fahrerassistenzsystem kann beispielsweise für unterschiedliche Funktionalitäten auf jeweils unterschiedliche Darstellungsebenen der Umgebungskarte zugreifen. Man würde zum Beispiel beim Unterstützen des Fahrers beim Durchführen von Parkvorgängen Kartendaten einer solchen Darstellungsebene verwenden, die Informationen über die Art und die relative Position der in der Umgebung befindlichen Objekte bezüglich des Fahrzeugs beinhalten. Für die Funktionalität des Warnens des Fahrers beim Unterschreiten eines vorbestimmten kritischen Abstandswertes zu einem Objekt können hingegen Kartendaten aus einer solchen Darstellungsebene herangezogen werden, die Informationen über die relative Position einzelner Punkte eines Objekts bezüglich des Fahrzeugs umfassen. Die Festlegung von unterschiedlichen Darstellungsebenen mit jeweils unterschiedlichen Abstraktionsgraden der Darstellung der Umgebung hat somit den wesentlichen Vorteil, dass zur Bereitstellung der Funktionalitäten die Sensordaten nicht von Neuem verarbeitet werden müssen, sondern bedarfsgerecht auf unterschiedliche Kartendaten eines solchen Abstraktionsgrads zugegriffen werden kann, welcher für den geringsten Aufwand hinsichtlich der Datenverarbeitung sorgt. Es wird hierdurch außerdem die Datenverarbeitungskette zwischen der Erzeugung der Sensordaten und der Bereitstellung der einzelnen Funktionalitäten logisch aufgeteilt, sodass die Erfassung der Umgebung von der Applikationslogik funktionell getrennt wird. Außerdem ist bei dieser Ausführungsform die Fusion bzw. die Zusammenfassung der aus unterschiedlichen Quellen stammenden Daten an mehreren unterschiedlichen Stellen der Verarbeitungskette – nämlich in zumindest zwei verschiedenen Darstellungsebenen – möglich.
-
In einer Ausführungsform können für das Bereitstellen der zumindest zwei Funktionalitäten Kartendaten bedarfsabhängig aus zumindest zwei Darstellungsebenen, insbesondere aus allen Darstellungsebenen, abgerufen werden. Zur Bereitstellung einer jeden Funktionalität kann somit das Fahrerassistenzsystem bedarfsabhängig Kartendaten aus zumindest zwei Darstellungsebenen – insbesondere aus allen vorhandenen Darstellungsebenen – abrufen. Dies kann zum Beispiel so aussehen, dass das Fahrerassistenzsystem beim Bereitstellen einer ersten Funktionalität auf Kartendaten einer ersten Darstellungsebene und beim Bereitstellen einer zweiten Funktionalität auf Kartendaten einer zweiten Darstellungsebene zugreift. Es kann auch vorgesehen sein, dass das Fahrerassistenzsystem beim Bereitstellen einer einzigen Funktionalität Kartendaten aus zumindest zwei Darstellungsebenen verwendet. Die einzelnen Darstellungsebenen der Umgebungskarte können also durch das Fahrerassistenzsystem zusammen oder getrennt je nach Bedarf verwendet werden. Das Fahrerassistenzsystem kann bei der Bereitstellung einer bestimmten Funktionalität auf diejenige Darstellungsebene der Umgebungskarte zugreifen, die bei dieser speziellen Funktionalität für den geringsten Datenverarbeitungsaufwand sorgt.
-
Eine der Darstellungsebenen kann durch Kartendaten gebildet werden, die Informationen über die relative Position einzelner Punkte und/oder Konturen erfasster Objekte bezüglich des Fahrzeugs beinhalten. Eine solche Darstellungsebene weist also einen relativ geringen Abstraktionsgrad auf; sie beinhaltet lediglich Informationen über einzelne erfasste Punkte und/oder Konturen von in der Umgebung befindlichen Objekten. Diese Darstellungsebene erweist sich beispielsweise für diejenige Applikation als besonders vorteilhaft, bei welcher der Fahrer durch das Fahrerassistenzsystem vor kritischen Abständen gewarnt wird. Auf diese Darstellungsebene würde man auch bei einer solchen Applikation zugreifen, bei welcher der Fahrer beim Halten der Spur unterstützt wird bzw. beim Verlassen der Spur gewarnt wird. Gerade bei solchen Funktionalitäten sorgt diese Darstellungsebene für einen geringen Datenverarbeitungsaufwand.
-
Eine der Darstellungsebenen kann hingegen durch Kartendaten gebildet werden, die einen höheren Abstraktionsgrad aufweisen. Eine solche Darstellungsebene kann derartige Informationen beinhalten, welche durch Zusammenfassen einzelner Punkte und/oder einzelner Konturen zu Objekten abstrahiert werden. Eine solche Darstellungsebene beinhaltet also Informationen über die Art bzw. die Form von in der Umgebung befindlichen Objekten, wie auch über die relative Position der Objekte bezüglich des Fahrzeugs. In dieser Darstellungsebene sind die in der Umgebung befindlichen Objekte also eindeutig bezeichnet; es kann sich hier um Fahrzeuge, Bordsteine, Straßenmarkierungen, Verkehrsschilder, Bäume, Fußgänger, Wände oder dergleichen handeln. Eine solche Darstellungsebene ermöglicht beispielsweise die Berechnung von Parkbahnen für Parkassistenzfunktionen mit höchster Genauigkeit. Außerdem sorgt eine solche Darstellungsebene beispielsweise für eine genaue Darstellung der Umgebung auf einer Anzeigeeinrichtung des Fahrzeugs. Auf Grundlage von Kartendaten aus dieser Darstellungsebene können nämlich Bilder erzeugt und dem Fahrer angezeigt werden, welche die Umgebung des Fahrzeugs darstellen.
-
Wie bereits ausgeführt, können zur Bildung der Umgebungskarte Sensordaten unterschiedlichster Sensoren des Fahrerassistenzsystems verarbeitet werden. In einer Ausführungsform werden aus Sensordaten zumindest zweier Sensoren des Fahrerassistenzsystems – insbesondere aus Sensordaten eines jeden im Fahrzeug vorhandenen Umgebungssensors – jeweils Kartendaten für zumindest zwei Darstellungsebenen berechnet. Insbesondere werden daraus Kartendaten für eine jede Darstellungsebene berechnet. Dies bedeutet, dass Sensordaten zumindest zweier Sensoren zu Kartendaten zumindest zweier Darstellungsebenen verarbeitet werden. Die Fusion der Informationen unterschiedlicher Sensoren kann dabei in unterschiedlichen Darstellungsebenen stattfinden. Zum Beispiel können aus Sensordaten aller Sensoren Kartendaten für eine erste Darstellungsebene berechnet werden, so dass die Fusion der Sensordaten quasi in der ersten Darstellungsebene erfolgt. Aus den Kartendaten der ersten Darstellungsebene können dann weitere Kartendaten berechnet werden, nämlich für weitere Darstellungsebenen. Es kann auch vorgesehen sein, dass aus Sensordaten aller Sensoren jeweils Kartendaten quasi parallel für alle Darstellungsebenen berechnet werden.
-
Hinsichtlich der Anordnung beziehungsweise des Ortes der Implementierung der digitalen Umgebungskarte sind verschiedene Ausführungsformen vorgesehen:
Die Umgebungskarte kann in einem Speicher eines Steuergeräts des Fahrerassistenzsystems bereitgestellt werden, durch welches zumindest eine Funktionalität bereitgestellt wird. Zumindest ein weiteres Steuergerät, durch welches eine weitere Funktionalität bereitgestellt wird, kann dann bedarfsabhängig auf den Speicher zugreifen, um Kartendaten der Umgebungskarte zur Bereitstellung der zugeordneten Funktionalität auszulesen und/oder aus eigenen Sensordaten gebildete neue Kartendaten für die Umgebungskarte bereitzustellen. Bei dieser Ausführungsform ist die Umgebungskarte also in einem Steuergerät des Fahrerassistenzsystems bereitgestellt, während auch andere Steuergeräte auf die Umgebungskarte zugreifen und selbige verarbeiten beziehungsweise verwalten können. Diese Ausführungsform hat den Vorteil, dass bereits vorhandene Komponenten des Fahrerassistenzsystems für die Bereitstellung der gemeinsamen Umgebungskarte verwendet werden können, und das Fahrerassistenzsystem kommt insbesondere ohne eine zusätzliche Rechen- und/oder Speichereinrichtung aus. Es können also bei dieser Ausführungsform Komponenten, wie auch Geld gespart werden.
-
Es kann auch vorgesehen sein, dass jeweils eine Umgebungskarte in jeweiligen Speichern zumindest zweier Steuergeräte des Fahrerassistenzsystems bereitgestellt wird und die Umgebungskarten aneinander angeglichen werden. Bei dieser Ausführungsform wird also jeweils eine Umgebungskarte in unterschiedlichen Steuergeräten implementiert, und die vorhandenen Umgebungskarten werden quasi synchronisiert. Dies kann beispielsweise so aussehen, dass jedes Steuergerät seine eigene Umgebungskarte verwaltet und die jeweils anderen Umgebungskarten angeglichen werden. Jedes Steuergerät greift dann auf seine eigene Umgebungskarte zu. Alternativ kann auch die Umgebungskarte eines vorbestimmten Steuergeräts durch alle Steuergeräte verwaltet werden, und die jeweils anderen Umgebungskarten können dann angeglichen werden. Die Steuergeräte können miteinander beispielsweise über einen Kommunikationsbus in dem Fahrzeug kommunizieren. Diese Ausführungsform hat den Vorteil, dass die Umgebungskarte in allen Steuergeräten vorhanden ist, so dass die Steuergeräte sehr schnell auf ihre eigenen Umgebungskarten zugreifen und somit die jeweiligen Funktionalitäten rasch bereitstellen können. Insbesondere wird die Bereitstellung der Funktionalitäten nicht durch die Laufzeit der Signale im Kommunikationsbus verzögert.
-
Ergänzend oder alternativ kann die Umgebungskarte auch in einer für zumindest zwei Steuergeräte des Fahrerassistenzsystems gemeinsamen Speichereinrichtung bereitgestellt werden. Dann können die zumindest zwei Steuergeräte bedarfsabhängig auf die Speichereinrichtung zugreifen, um Kartendaten der Umgebungskarte zur Bereitstellung der zugeordneten Funktionalität auszulesen und/oder aus eigenen Sensordaten gebildete neue Kartendaten für die Umgebungskarte bereitzustellen. Diese Ausführungsform hat wiederum den Vorteil, dass die Steuergeräte von der Umgebungskarte „entlastet” werden können; die Umgebungskarte wird nämlich auf der gemeinsamen Speichereinrichtung verwaltet – der auch eine Recheneinrichtung zugeordnet werden kann.
-
In einer Ausführungsform kommuniziert das Fahrerassistenzsystem mit Fahrerassistenzsystemen anderer Fahrzeuge. Das Fahrerassistenzsystem kann beispielsweise Sensordaten anderer Fahrzeuge empfangen und auch diese empfangenen Sensordaten für die Berechnung der Umgebungskarte heranziehen. Somit kann die Informationsdichte der gemeinsamen Umgebungskarte weiter verbessert werden.
-
Ein erfindungsgemäßes Fahrerassistenzsystem für ein Fahrzeug umfasst zumindest einen Sensor zum Erfassen von Informationen über eine Umgebung des Fahrzeugs und zum Bereitstellen von Sensordaten aus den erfassten Informationen. Das Fahrerassistenzsystem kann aus den Sensordaten eine digitale Umgebungskarte berechnen und auf Grundlage der Umgebungskarte eine Funktionalität zur Fahrerunterstützung bereitstellen. Das Fahrerassistenzsystem ist dazu ausgelegt, für zumindest zwei verschiedene Funktionalitäten des Fahrerassistenzsystems die Umgebungskarte in einem gemeinsamen Format zu berechnen und auf Grundlage der gemeinsamen Umgebungskarte die zumindest zwei Funktionalitäten bereitzustellen.
-
Ein erfindungsgemäßes Fahrzeug, insbesondere Kraftwagen, umfasst ein erfindungsgemäßes Fahrerassistenzsystem.
-
Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für das erfindungsgemäße Fahrerassistenzsystem und das erfindungsgemäße Fahrzeug.
-
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Alle vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder auch in Alleinstellung verwendbar.
-
Die Erfindung wird nun anhand einzelner bevorzugter Ausführungsbeispiele näher erläutert, wie auch unter Bezugnahme auf die beigefügten Zeichnungen.
-
Es zeigen:
-
1 in schematischer und höchst abstrakter Darstellung ein Fahrerassistenzsystem gemäß einer Ausführungsform der Erfindung, wobei ein Verfahren gemäß einer Ausführungsform der Erfindung näher erläutert wird;
-
2 bis 6 in schematischer Darstellung jeweils eine Draufsicht auf eine Verkehrssituation, wobei der Inhalt von Kartendaten unterschiedlicher Darstellungsebenen, wie auch die Verarbeitung von Sensordaten zu Kartendaten sowie die Bereitstellung einer Funktionalität anhand der Kartendaten näher erläutert werden;
-
7 in schematischer Darstellung eine Draufsicht auf eine Verkehrssituation, wobei Vorteile des Fahrerassistenzsystems näher erläutert werden; und
-
8 in schematischer Darstellung einen Aufbau eines Fahrerassistenzsystems gemäß einer Ausführungsform der Erfindung.
-
In 1 ist in höchst abstrakter Darstellung ein Fahrerassistenzsystem 1 dargestellt, wie es beispielsweise in einem Personenkraftwagen eingesetzt wird. In 1 sind dabei schematische Funktionsblöcke dargestellt, die das Fahrerassistenzsystem 1 lediglich funktionell beschreiben. Einzelne Funktionsblöcke können beispielsweise in verschiedenen Komponenten des Fahrerassistenzsystems 1 verwirklicht werden, nämlich beispielsweise in Steuergeräten, Sensoren, Recheneinrichtungen, Speichereinrichtungen und dergleichen.
-
Durch das Fahrerassistenzsystem 1 wird eine Vielzahl von Funktionalitäten in dem Fahrzeug bereitgestellt, durch welche ein Fahrer beim Führen des Fahrzeugs unterstützt wird. Und zwar werden durch das Fahrerassistenzsystem 1 Funktionalitäten 2a bis 2x bereitgestellt. Diese Funktionalitäten können beispielsweise folgende sein:
- – die Funktionalität des Unterstützens des Fahrers beim Durchführen von Parkvorgängen und/oder
- – die Funktionalität des Warnens des Fahrers beim Unterschreiten eines vorgegebenen Abstandswertes zu einem Objekt und/oder
- – die Funktionalität des Warnens des Fahrers bei einem ungewollten Verlassen einer Spur und/oder
- – die Funktionalität des Haltens des Fahrzeugs auf einer vorgegebenen Spur und/oder
- – die Funktionalität des Anzeigens von in der Umgebung befindlichen Objekten auf einer Anzeigeeinrichtung und/oder
- – die Funktionalität des Haltens eines vorgegebenen Abstands zu einem vorausfahrenden Fahrzeug und/oder
- – die Funktionalität des Warnens des Fahrers beim Vorhandensein eines Objekts im Bereich eines Totwinkels und/oder
- – die Funktionalität des automatischen Einschaltens des Fernlichts und/oder des Abblendlichts und/oder
- – die Funktionalität der Veränderung einer räumlichen Verteilung des Fernlichts und/oder des Abblendlichts und/oder
- – die Funktionalität der Erkennung von Verkehrsschildern und/oder
- – die Funktionalität des Eingreifens in eine Komponente des Fahrzeugs, insbesondere in eine Bremseinrichtung des Fahrzeugs.
-
Die Funktionalitäten 2a bis 2x werden beispielsweise jeweils durch ein Steuergerät des Fahrerassistenzsystems 1 bereitgestellt. Solche Steuergeräte können beispielsweise jeweils einen digitalen Signalprozessor und/oder einen Mikrocontroller und/oder einen Speicher umfassen.
-
Das Fahrerassistenzsystem 1 beinhaltet außerdem eine Vielzahl von Sensoren 3a bis 3y, die jeweils Informationen über eine Umgebung des Fahrzeugs erfassen. Die Sensoren 3a bis 3y können beispielsweise jeweils einem Steuergerät zugeordnet sein oder sie können separate Komponenten sein. Die Sensoren 3a bis 3y können beispielsweise folgende Komponenten beinhalten: zumindest einen Ultraschallsensor und/oder zumindest einen optischen Abstandssensor und/oder zumindest eine Kamera und/oder zumindest ein Radargerät. Also erfassen die Sensoren 3a bis 3y Informationen über die Umgebung. Aus den erfassten Informationen werden jeweils Sensordaten 4a bis 4y erzeugt. Die Verarbeitung der erfassten Informationen erfolgt also sensorspezifisch; die Informationen bzw. erfasste Rohdaten werden für jeden Sensor 3a bis 3y separat verarbeitet, und die jeweiligen Sensordaten 4a bis 4y werden sensorspezifisch erzeugt. Bei der Erzeugung der Sensordaten 4a bis 4y werden die jeweiligen Informationen spezifisch verarbeitet – es wird beispielsweise das Verfahren der Triangulation und/oder eine sensorspezifische Filterung der Informationen angewandt. Die jeweiligen Informationen werden also derart aufbereitet, dass die daraus erzeugten Sensordaten 4a bis 4y bereits abstrahierte Informationen über die Umgebung beinhalten. Und zwar beinhalten die Sensordaten 4a bis 4y Informationen über einzelne Merkmale von in der Umgebung befindlichen Objekten, nämlich beispielsweise über die Position von einzelnen Punkten und/oder einzelnen Konturen erfasster Objekte – dies kann beispielsweise aus der Triangulation von Ultraschallrohdaten berechnet werden – und/oder Informationen über Bodenprojektionen von Kanten, die beispielsweise in einem Bild einer Kamera erkannt wurden.
-
In dem Fahrerassistenzsystem 1 wird für alle Funktionalitäten 2a bis 2x eine gemeinsame digitale Umgebungskarte 5 berechnet. Die Umgebungskarte 5 wird auf Basis der Sensordaten 4a bis 4y bereitgestellt. Sie wird in einem für alle Funktionalitäten 2a bis 2x beziehungsweise alle Steuergeräte und alle Sensoren 4a bis 4y gemeinsamen Format erzeugt. Dies bedeutet, dass alle Steuergeräte beziehungsweise Funktionalitäten 2a bis 2x auf Kartendaten der Umgebungskarte 5 zugreifen können und alle Steuergeräte und/oder alle Sensoren 3a bis 3y die Umgebungskarte 5 verwalten, also bearbeiten können.
-
Die digitale Umgebungskarte 5 wird durch Kartendaten gebildet, die Informationen über die Umgebung des Fahrzeugs beinhalten. Die Umgebungskarte 5 wird im Ausführungsbeispiel in zwei verschiedene Darstellungsebenen unterteilt, nämlich eine erste Darstellungsebene 6 und eine zweite Darstellungsebene 7. Die Darstellungsebenen 6, 7 weisen jeweils einen anderen Abstraktionsgrad der Darstellung der Umgebung auf. Und zwar weist die zweite Darstellungsebene 7 einen höheren Abstraktionsgrad als die erste Darstellungsebene 6 auf. Die Darstellungsebenen 6, 7 werden jeweils durch Kartendaten gebildet. Mit anderen Worten werden die die Umgebungskarte 5 bildenden Kartendaten in zwei Gruppen unterteilt; eine Gruppe bildet die erste Darstellungsebene 6, während die zweite Gruppe die zweite Darstellungsebene 7 bildet.
-
Wie aus 1 hervorgeht, kann das Fahrerassistenzsystem 1 zur Bereitstellung der Funktionalitäten 2a bis 2x auf beide Abstraktionsebenen beziehungsweise Darstellungsebenen 6, 7 zugreifen, nämlich abhängig davon, welche der Darstellungsebenen 6, 7 bei der jeweiligen Funktionalität 2a bis 2x für den geringsten Datenverarbeitungs- bzw. Rechenaufwand sorgt. Beispielsweise werden die Funktionalitäten 2a, 2d und 2x – wie in 1 dargestellt ist – auf Grundlage der zweiten Abstraktionsebene 7 bereitgestellt, während die Funktionalitäten 2b und 2e auf Grundlage der ersten Darstellungsebene 6 bereitgestellt werden. Die Funktionalität 2c wird auf Grundlage beider Darstellungsebenen 6, 7 bereitgestellt.
-
Die Umgebungskarte 5 wird aus den Sensordaten 4a bis 4y erzeugt. Die Sensordaten 4a bis 4y werden zunächst zusammengefasst, und es wird die erste Darstellungsebene 6 gebildet. Die erste Darstellungsebene 6 wird durch Kartendaten gebildet, die aus den Sensordaten 4a bis 4y entstanden sind. Die erste Darstellungsebene 6 wird durch solche Kartendaten gebildet, welche Informationen über elementare Merkmale der in der Umgebung befindlichen Objekte beinhalten. Dazu zählen beispielsweise Informationen über die relative Position einzelner Punkte und/oder Schnittpunkte und/oder Tangentenpunkte erfasster Objekte. Diese Informationen werden beispielsweise – wie bereits ausgeführt – anhand des Verfahrens der Triangulation von Ultraschallmessungen erzeugt. Die Kartendaten der ersten Darstellungsebene 6 können auch Informationen über die relative Position einzelner Konturen beziehungsweise Kanten erfasster Objekte beinhalten. Es werden also Sensordaten 4a bis 4y aller Sensoren 3a bis 3y zusammengefasst, und die genannten Merkmale der erfassten Objekte werden gruppiert, zusammengeführt und weiterverarbeitet. Die Dichte dieser Merkmale im Raum kann variiert werden, so dass beispielsweise diejenigen Bereiche, die für die Bereitstellung einer bestimmten Funktionalität 2a bis 2x besonders interessant sind, mit einer höheren Auflösung dargestellt werden. Die Kartendaten der ersten Darstellungsebene 6 können außerdem weitere Informationen beinhalten, nämlich beispielsweise Informationen über den Ursprung der jeweiligen Daten – also aus welchem Sensor 4a bis 4y die Daten stammen – und/oder Informationen über die wahrscheinliche Art des erfassten Objekts – zum Beispiel „wahrscheinlich flach”, „wahrscheinlich massiv”, „wahrscheinlich freier Raum” und dergleichen.
-
Die Kartendaten der ersten Darstellungsebene 6 werden zu Kartendaten verarbeitet, durch welche die zweite Darstellungsebene 7 gebildet wird. Ergänzend oder alternativ können auch unmittelbar die Sensordaten 4a bis 4y zur Bildung der zweiten Darstellungsebene 7 herangezogen werden, wie dies in 1 mit dem gestrichelten Pfeil dargestellt ist. Die zweite Darstellungsebene 7 beinhaltet dabei Kartendaten, die wesentlich abstraktere Informationen über die Objekte umfassen. Und zwar sind dies Informationen über die relative Position und/oder die Abmessungen und/oder die Höhe und/oder die Farbe und/oder den Typ beziehungsweise die Art und/oder über die relative Geschwindigkeit bezüglich des Fahrzeugs und/oder über eine Bewegungsrichtung bezüglich des Fahrzeugs. Die in der zweiten Darstellungsebene 7 der Umgebungskarte 5 dargestellten Objekte werden somit quasi realitätstreu wiedergegeben.
-
Bezug nehmend nun auf die 2 bis 6 wird eine Straßensituation beschrieben, anhand derer der Inhalt der einzelnen Darstellungsebenen 6, 7 der Umgebungskarte 5 näher erläutert wird. 2 zeigt dabei eine Draufsicht auf eine reale Straßensituation. Auf einem Parkplatz 8 befindet sich ein Fahrzeug 9 – nämlich ein Personenkraftwagen –, welches das Fahrerassistenzsystem 1 gemäß 1 aufweist. Das Fahrzeug 9 bewegt sich von einem Startpunkt 10 in Pfeilrichtung 11 hin zu der in 2 dargestellten Position. Links des Fahrzeugs 9 befindet sich eine Wand 12, die ein Hindernis darstellt. Auf der rechten Seite wiederum befindet sich eine Parklücke 13, die durch zwei Markierungslinien 14, 15 begrenzt ist. Die in 2 gezeigte Situation ist ein reales Szenario.
-
Während der Bewegung des Fahrzeugs 9 erfasst ein an der linken Seitenflanke angeordneter Ultraschallsensor Informationen über die Umgebung links des Fahrzeugs 9, während ein an der rechten Seitenflanke angeordneter weiterer Ultraschallsensor die Umgebung rechts des Fahrzeugs 9 erfasst. Rohdaten 16, 17 der Ultraschallsensoren – die Rohdaten 16, 17 stellen die erfassten Informationen dar – sind in 3 schematisch abgebildet. Aus den Rohdaten 16, 17 erzeugen die Sensoren Sensordaten, nämlich anhand einer Triangulation, Filterung und dergleichen. Die Sensordaten werden zusammengefasst, und aus den Sensordaten werden Kartendaten 18, 19 für die erste Darstellungsebene 6 gebildet (4). Wie aus 4 hervorgeht, beinhalten die Kartendaten 18, 19 der ersten Darstellungsebene 6 Informationen über einzelne Punkte 20 der Wand 12, wie auch über eine Kontur 21 der Wand 12. Diese Kartendaten beinhalten außerdem Freiraumpunkte 22. Die Freiraumpunkte 22 liefern die Information, dass sich kein Objekt rechts des Fahrzeugs 9 befindet.
-
Während der Fahrt erfasst auch eine Kamera des Fahrerassistenzsystems 1 Informationen über die Umgebung und erzeugt Sensordaten – nämlich Bilddaten. Auch diese Bilddaten werden zur Bildung der ersten Darstellungsebene 6 herangezogen – auch aus diesen Bilddaten werden Kartendaten (in 4 nicht dargestellt) für die erste Darstellungsebene 6 berechnet.
-
Aus den Kartendaten 18, 19 der ersten Darstellungsebene 6 werden dann Kartendaten 23 für die zweite Darstellungsebene 7 berechnet. Diese Kartendaten 23 beinhalten nun Informationen über tatsächliche Objekte, nämlich über die Wand 12, wie auch über die Markierungslinien 14, 15 (aus den Bilddaten der Kamera). In der zweiten Darstellungsebene 7 ist also die Wand 12 eindeutig bestimmt; ihre relative Position bezüglich des Fahrzeugs 9, wie auch ihre räumlichen Abmessungen und Eigenschaften sind bekannt. Auch die Markierungslinien 14, 15 sind in der zweiten Darstellungsebene 7 eindeutig gekennzeichnet; ihre jeweiligen Positionen bezüglich des Fahrzeugs 9 sind bekannt. Auch die Parklücke 13 ist in der zweiten Darstellungsebene 7 eindeutig bezeichnet.
-
Nun steht die Umgebungskarte 5 einschließlich der ersten und der zweiten Darstellungsebene 6, 7 für alle Funktionalitäten 2a bis 2x zur Verfügung. Auf die in 5 gezeigten Informationen über die Wand 12 und die Markierungslinien 14, 15, wie auch über die Parklücke 13, greift nun ein Steuergerät zu, durch welches die Funktionalität der Unterstützung des Fahrers beim Durchführen von Parkvorgängen bereitgestellt wird. Dieses Steuergerät legt – wie in 6 dargestellt ist – einen Bereich 24 um das Fahrzeug 9 herum fest, wie auch eine Parkbahn 25. Das Steuergerät kann nun beispielsweise auf die Lenkung des Fahrzeugs 9 eingreifen, um das Fahrzeug 9 in die Parklücke 13 einzuparken, nämlich entlang der berechneten Parkbahn 25.
-
In 7 ist ein weiteres Straßenszenario dargestellt. Dargestellt ist das Fahrzeug 9, welches entlang einer berechneten Parkbahn 25 in eine Parklücke 13 eingeparkt wird. Die Parklücke 13 ist durch zwei Fahrzeuge 26, 27 begrenzt. In 7 sind einzelne Punkte der Fahrzeuge 26, 27 dargestellt, wie sie in der ersten Darstellungsebene 6 der Umgebungskarte 5 abgebildet sind. Es sind Punkte 28 dargestellt, die von einem Ultraschallsensor während einer Vorbeifahrt des Fahrzeugs 9 entlang der Parklücke 13 in Pfeilrichtung 29 erfasst wurden. Im Stand der Technik werden zur Vermessung der Parklücke 13 lediglich die Punkte 28 herangezogen. In 7 sind außerdem weitere Punkte 30 dargestellt, die durch einen weiteren Sensor – dieser ist beispielsweise im Heckbereich des Fahrzeugs 9 angeordnet – erfasst wurden. Dieser Sensor hat im Stand der Technik lediglich die Funktion der Warnung des Fahrers beim Unterschreiten eines vorbestimmten Abstandswertes zu einem Objekt. Alle Punkte 28, 30 sind nun in der ersten Darstellungsebene 6 der Umgebungskarte 5 zusammengefasst, und auch die zweite Darstellungsebene 7 baut auf diesen Informationen auf. Das Fahrerassistenzsystem 1 kann somit auf alle Informationen der Umgebungskarte 5 beim Durchführen des Parkvorgangs zugreifen, und nicht wie im Stand der Technik etwa nur auf die Informationen über die Punkte 28. Es stehen somit für alle Funktionalitäten 2a bis 2x Informationen aller Sensoren 3a bis 3y zur Verfügung.
-
In 8 ist ein möglicher Aufbau des Fahrerassistenzsystems 1 in dem Fahrzeug 9 dargestellt. Das Fahrerassistenzsystem 1 kann beispielsweise folgende Sensoren 3a bis 3y beinhalten: eine Kamera 3a, die einen Bereich vor dem Fahrzeug 9 erfassen kann, vier weitere Kameras 3b, 3c, 3d, 3e, die an der äußeren Oberfläche des Fahrzeugs 9 angeordnet sind, nämlich die Kamera 3b an einem vorderen Stoßfänger, die Kamera 3c an einem hinteren Stoßfänger, die Kamera 3d an der linken Seitenflanke – sie kann auch in den linken Außenspiegel integriert sein – und die Kamera 3e an der rechten Seitenflanke – sie kann auch in den rechten Außenspiegel integriert sein –, zwei Ultraschallsensoren 3f, 3g, nämlich einen Ultraschallsensor 3f an der linken Seitenflanke und einen Ultraschallsensor 3g an der rechten Seitenflanke, sowie zwei Radargeräte 3h, 3i, die jeweils in einem Eckbereich des hinteren Stoßfängers angeordnet sind. Die Anzahl sowie die Anordnung der Sensoren sind in 8 lediglich beispielhaft dargestellt; es können auch weitere Sensoren vorgesehen sein oder die vorhandenen Sensoren können an jeweils anderen Stellen des Fahrzeugs 9 angeordnet sein.
-
Das Fahrerassistenzsystem 1 umfasst außerdem Steuergeräte, die die genannten Funktionalitäten 2a bis 2x bereitstellen. Und zwar beinhaltet das Fahrerassistenzsystem 1 ein Steuergerät 31, welches zum Unterstützen des Fahrers beim Durchführen von Parkvorgängen ausgebildet ist, ein Steuergerät 32, welches den Fahrer beim Vorhandensein von Objekten im Bereich des Totwinkels warnen kann, ein Steuergerät 33, welches verschiedene Bilder von der Umgebung des Fahrzeugs 9 auf einer Anzeigeeinrichtung anzeigen kann, wie auch ein Steuergerät 34, welches zum Warnen des Fahrers beim Verlassen einer Spur und/oder zum Halten des Fahrzeugs 9 auf einer Spur ausgebildet ist. Die Funktionalitäten sowie die Anzahl der Steuergeräte 31 bis 34 sind ebenfalls lediglich schematisch dargestellt. Die Steuergeräte 31 bis 34 kommunizieren miteinander über einen Kommunikationsbus 35.
-
In dem Steuergerät 34 befindet sich ein Speicher 36, in welchem die Umgebungskarte 5 bereitgestellt wird. Und zwar können alle Steuergeräte 31 bis 34 auf den Speicher 36 zugreifen, um dort neue Kartendaten abzulegen und die vorhandenen Kartendaten zur Bereitstellung der jeweiligen Funktionalitäten auszulesen. Die Verwaltung der Umgebungskarte 5 erfolgt also durch alle Steuergeräte 31 bis 34. Die genannten Kartendaten können über den Kommunikationsbus 35 übertragen werden.
-
Ergänzend oder alternativ kann an den Kommunikationsbus 35 auch eine separate und gemeinsame Speichereinrichtung 37 angeschlossen sein, in welcher die Umgebungskarte 5 bereitgestellt wird. Auch bei dieser Ausführungsform können alle Steuergeräte 31 bis 34 die gemeinsame Umgebungskarte 5 verwalten, nämlich neue Kartendaten ablegen und bereits vorhandene Kartendaten auslesen.
-
In einer noch weiteren Ausführungsform kann jeweils eine Umgebungskarte 5 in allen Steuergeräten 31 bis 34 bereitgestellt sein; die Umgebungskarten 5 können dann aneinander angeglichen bzw. synchronisiert werden.
-
Insgesamt wird also ein Fahrerassistenzsystem 1 bereitgestellt, bei welchem eine Umgebungskarte 5 funktionsunabhängig implementiert wird. Sie kann die Informationen über die Fahrzeugumgebung sammeln, speichern und verwalten, unabhängig davon, ob und welche Assistenzfunktionen aktiv sind. Die Informationen werden in einem gemeinsamen Format gespeichert, welches im gesamten Fahrerassistenzsystem 1 bekannt ist. Jede Assistenzfunktion kann neue Informationen in der Umgebungskarte 5 ablegen, sobald sie verfügbar sind. Gleichzeitig kann jede Assistenzfunktion auf die gesamte Menge der Kartendaten in der Umgebungskarte 5 zugreifen, nämlich unabhängig davon, woher diese kommen und wie sie entstanden sind. Es werden für die Darstellung bzw. Verarbeitung von Informationen über die Umgebung unterschiedliche Abstraktionsebenen definiert, nämlich beispielsweise zwei Darstellungsebenen 6, 7. Dadurch wird die Datenverarbeitungskette zwischen der Sensorik und den Assistenzfunktionalitäten logisch aufgeteilt, sodass die Umwelterfassung von der Applikationslogik getrennt wird. Des Weiteren wird dadurch die Datenfusion der aus unterschiedlichen Quellen stammenden Messwerte an mehreren unterschiedlichen Stellen der Verarbeitungskette möglich. Während der Verarbeitung durchlaufen die erfassten Daten eine Abstraktionsebene 6, 7 nach der anderen. In jeder Ebene werden die entsprechenden Algorithmen ausgeführt, die den Informationsgehalt der Daten verbessern bzw. diese zu neuen abstrakteren Daten konvertieren. Auf diese Art und Weise entstehen im Fahrerassistenzsystem 1 mehrere Abbildungen der Fahrzeugumgebung, beispielsweise vermutete Konturen von Hindernissen einerseits und Objektbeschreibungen, die aus den Konturen erkannt wurden, andererseits. Diese Abbildungen können zusammen oder getrennt – je nach Bedarf – verwendet werden, nämlich für die Bereitstellung der jeweiligen Fahrerassistenzfunktionalitäten. Es werden also sämtliche Informationen allen Assistenzfunktionen zugänglich gemacht. So kann zum Beispiel die Funktion des Seitenschutzes die Daten, die zuvor bei einem Ausparkvorgang gesammelt wurden, verwenden, um den Fahrer vor einer möglichen Kollision nach dem Abschalten des Ausparkassistenten zu warnen, wenn der Fahrer das Lenkrad zu stark einschlägt. Genauso kann die Parklückenvermessung bessere Genauigkeiten liefern, wenn sie zusätzlich Informationen vom Seitenschutz während eines Einparkvorgangs erhalten kann. Die vorgeschlagene Sensorfusion ermöglicht eine kontinuierliche Erfassung der Fahrzeugumgebung unabhängig davon, welche Assistenzfunktionen aktiv sind und welche Sensoren verwendet werden. Mit der vorgeschlagenen Lösung kann die Karte sogar aufgebaut werden, wenn einzelne Funktionen auf unterschiedlichen, kooperierenden Fahrzeugen ausgeführt werden.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- EP 0650866 B1 [0002]
- EP 1309882 B1 [0003]