DE102014225804A1 - Unterstützung beim Führen eines Fahrzeugs - Google Patents

Unterstützung beim Führen eines Fahrzeugs Download PDF

Info

Publication number
DE102014225804A1
DE102014225804A1 DE102014225804.9A DE102014225804A DE102014225804A1 DE 102014225804 A1 DE102014225804 A1 DE 102014225804A1 DE 102014225804 A DE102014225804 A DE 102014225804A DE 102014225804 A1 DE102014225804 A1 DE 102014225804A1
Authority
DE
Germany
Prior art keywords
vehicle
information
ego
data
ego vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014225804.9A
Other languages
English (en)
Inventor
Michael Heimrath
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102014225804.9A priority Critical patent/DE102014225804A1/de
Priority to PCT/EP2015/077459 priority patent/WO2016096330A1/de
Publication of DE102014225804A1 publication Critical patent/DE102014225804A1/de
Priority to US15/594,837 priority patent/US10295360B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3691Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

Zur Unterstützung des Führens eines Ego-Fahrzeugs (1) werden folgende Schritte durchgeführt: – Erfassen von Informationen aus der Umgebung des Ego-Fahrzeugs (1), – Verarbeitung der erfassten Informationen derart, dass erkannt wird, ob sich in der Umgebung des Ego-Fahrzeugs (1) ein benachbartes Fahrzeug (2) befindet und wenn ein benachbartes Fahrzeug (2) erkannt wird, weiterhin Erfassen und/oder Verarbeiten von Informationen zu dem benachbarten Fahrzeug (2) zur Zuordnung mindestens eines typischen Attributs zu dem benachbarten Fahrzeug (2), und – in Abhängigkeit des mindestens einen typischen Attributs des benachbarten Fahrzeugs Bereitstellen von Steuerinformationen zum Führen des Ego-Fahrzeugs (1).

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Unterstützung beim Führen eines Fahrzeugs sowie ein entsprechend ausgestattetes Fahrzeug und ein entsprechendes Computerprogramm.
  • Beim Führen eines Fahrzeugs ist es von wesentlicher Bedeutung, die Umgebung zu beobachten. Zu diesem Zweck sind so genannte Fahrerassistenzsysteme entwickelt worden, die sensorisch den Raum um das Fahrzeug erfassen und einem Fahrzeugführer entsprechende Meldungen ausgeben und/oder ganz oder teilweise in die Fahrzeugsteuerung eingreifen. Beispielsweise kann mittels eines Radarsystems der Abstand des Fahrzeugs zu einem vorausfahrenden Fahrzeug ermittelt werden und in einem Auffahrwarner bei Unterschreiten eines vorgegebenen Mindestabstands eine Warnung an den Fahrzeugführer ausgegeben werden und/oder eine automatische Bremsung eingeleitet werden. In dem Dokument DE 10 2012 210 145 A1 ist ein so genanntes Automatic Cruise Control (ACC) System beschrieben, bei dem der Abstand zu einem Objekt, insbesondere zu einem vorausfahrenden Fahrzeug mittels eines Umfeldsensors wie z.B. einem Radar oder Lidar gemessen und automatisch geregelt wird. Weiterhin ist darin beschrieben, ein entsprechendes Objekt gezielt auszuwählen und das Objekt entlang eines Fahrwegs mittels automatischer Steuerung einer Querführung und einer Längsführung des Fahrzeugs zu verfolgen.
  • In der DE 10 2011 005 844 A1 sind ein Verfahren und ein Steuersystem zum vollautomatischen Führen eines Fahrzeugs hinsichtlich dessen Längs- und Querführung beschrieben, die jeweils mittels eines Entscheidungsbaums gesteuert werden. Dabei wird eine Querbewegung des Fahrzeugs mittels eines ersten Entscheidungsbaums verarbeitet, der die Zustände Spur halten, Spurwechsel nach links und Spurwechsel nach rechts aufweist. Weiterhin wird eine Längsbewegung des Fahrzeugs mittels eines zweiten Entscheidungsbaums verarbeitet, der die Zustände Regeln der Geschwindigkeit auf eine Sollgeschwindigkeit und Regeln des Abstands auf einen Sollabstand oder Sicherheitsabstand aufweist. Der erste Entscheidungsbaum und der zweite Entscheidungsbaum werden abhängig von einer mittels mindestens eines Sensors ermittelten Umgebungsbedingung des Fahrzeugs von einem Ereignisgenerator angesteuert. Abhängig von mindestens einem Zustand des ersten Entscheidungsbaums oder des zweiten Entscheidungsbaums wird mindestens ein Aktor des Fahrzeugs angesteuert. In der DE 10 2011 083 677 A1 sind ein Verfahren und ein System beschrieben, mit denen der voraussichtliche Fahrweg bzw. die Trajektorie eines Fahrzeugs (sog. Ego-Fahrzeugs) anhand verschiedener Daten und einer Verkehrssimulation prognostiziert wird, wobei unter anderem Daten von anderen Fahrzeugen verwendet werden.
  • In der US 2013/0338914 A1 sind ebenfalls ein Verfahren und ein System beschrieben, bei denen zur Bestimmung des Risikos einer Fahrsituation und insbesondere zur vollständig oder teilweisen automatischen Steuerung eines Fahrzeugs (Ego-Fahrzeugs) vom Umfeld des Ego-Fahrzeugs Daten erfasst und verarbeitet werden, beispielsweise zur geografischen Lage des Fahrzeugs, zu den Straßenbedingungen, zu den Wetterbedingungen oder zu einer aktuellen Geschwindigkeitsbegrenzung. Auch Daten zu dem Ego-Fahrzeug wie z.B. zu dessen Modell, Alter, Service-Historie, bekannte Defekte, Reifenalter und/oder Reifenprofil können dabei erfasst und verarbeitet werden. Weiterhin können Daten zu einem Führer des Ego-Fahrzeugs erfasst und verarbeitet werden, beispielsweise Daten zu dessen fahrerischen Können. Weiterhin können entsprechende Daten zu Fahrzeugen und deren Fahrzeugführern erfasst und verarbeitet werden, die sich im Umfeld des Ego-Fahrzeugs befinden. Zur Bestimmung des von solchen Fahrzeugen und Fahrzeugführern ausgehenden Risikos kann insbesondere vorgesehen sein, risikobestimmende Daten von einer Fahrzeug- bzw. Personendatenbank abzurufen und zu verwenden, beispielsweise auch Daten zu Alter, Geschlecht oder Gesundheitszustand der jeweiligen Fahrzeugführer. Auch Daten zu deren Konsum von Alkohol, Tabak oder Medikamenten oder zu früheren, insbesondere bußgeldbehafteten Auffälligkeiten in deren Fahrverhalten wie z.B. durch Geschwindigkeitsübertretungen, Unfälle, Überfahrens roter Ampeln oder durch Trunkenheit am Steuer können dabei abgerufen und verwendet werden. Die jeweiligen Daten und Bewertungen können dabei in jeweils klassifizierter Weise bereitgestellt bzw. verarbeitet werden.
  • In der EP 2 320 384 A1 ist ein Verfahren zur Kennzeichenerkennung von Fahrzeugen beschrieben, bei dem mittels einer optoelektronischen Kamera Fahrzeuge aufgenommen, aus den Bildern Textdaten zu deren jeweiligen Kennzeichen mittels einer Optischen Texterkennung (Optical Charakter Recognition, OCR) gebildet werden und dann mittels einer Datenbank die Zuordnung zu dort hinterlegten Fahrzeug-Kennzeichendaten erfolgt. Auf Basis solcher Systeme können beispielsweise an Autobahn-Mautstationen Fahrzeuge erkannt werden, für die bereits im Voraus Maut bezahlt wurde und dem entsprechend für das Fahrzeug automatisch eine Durchfahrtsschranke an der Mautstation geöffnet werden.
  • Die Inhalte der oben genannten Veröffentlichungen werden hiermit durch Bezugnahme in die vorliegende Beschreibung aufgenommen.
  • Es ist Aufgabe der Erfindung, das Führen eines Ego-Fahrzeugs dahingehend zu unterstützen, dass Gefahren in der Umgebung des Ego-Fahrzeugs möglichst gut erkannt werden.
  • Diese Aufgabe wird durch die in den unabhängigen Ansprüchen angegebene Erfindung gelöst. Vorteilhafte Ausführungsformen der Erfindung sind in den abhängigen Ansprüchen angegeben.
  • Erfindungsgemäß ist zur Unterstützung des Führens eines Ego-Fahrzeugs vorgesehen, dass
    • – Informationen aus der Umgebung des Ego-Fahrzeugs erfasst werden,
    • – die erfassten Informationen derart verarbeitet werden, dass erkannt wird, ob sich in der Umgebung des Ego-Fahrzeugs ein benachbartes Fahrzeug befindet und, wenn ein benachbartes Fahrzeug erkannt wird, weiterhin Informationen zu dem benachbarten Fahrzeug erfasst und/oder verarbeitet werden zur Zuordnung mindestens eines typischen Attributs zu dem benachbarten Fahrzeug, und dass
    • – in Abhängigkeit des mindestens einen typischen Attributs des benachbarten Fahrzeugs Steuerinformationen zum Führen des Ego-Fahrzeugs bereitgestellt werden.
  • Die Erfindung beruht auf der Erkenntnis, dass es für den Fahrzeugführer eines Ego-Fahrzeugs möglich ist, aus der Art eines in seiner Umgebung befindlichen, insbesondere vor ihm fahrenden Fahrzeugs Schlüsse darauf zu ziehen, wie sich das Fahrzeug im Straßenverkehr verhält und insbesondere, welche Gefahren von dem Fahrzeug ausgehen, welche Fahrweise von dessen Fahrzeugführer zu erwarten ist.
  • Mit der Erfindung wurde insbesondere erkannt, dass anhand von Daten die zu einem sich in der Umgebung des Ego-Fahrzeugs befindlichen Fahrzeugs erfasst werden, künftige Fahrsituationen genauer im Voraus berechnet bzw. simuliert werden können und insbesondere mögliche Gefahrensituationen frühzeitig erkannt bzw. bereits einer aktuellen Fahrsituation zugeordnet werden können. Dies ist insbesondere für Fahrzeuge von besonderem Vorteil, die einen hohen Automatisierungsgrad aufweisen und insbesondere für solche, die mittels entsprechender Steuersysteme vollautomatisch längs- und/oder quergeführt werden. Solche Systeme können insbesondere als Komponenten in hoch automatisiert fahrenden (HAF) Systemen vorgesehen sein, welche wiederum weitere Systemkomponenten wie funkbasierte Kommunikationssysteme für eine sog. Car-to-Car-Kommunikation zwischen Fahrzeugen und/oder für eine Kommunikation mit fahrzeugunabhängigen Computern, sog. Backend-Servern, aufweisen.
  • Mit der Erfindung kann das Führen eines Ego-Fahrzeugs insbesondere dahingehend unterstützt werden, dass von Fahrzeugen in der Umgebung des Ego-Fahrzeugs ausgehende Gefahren gut erkannt werden. Mit der Erfindung kann weiterhin vorteilhaft für einen Fahrzeugführer des Ego-Fahrzeugs eine ihn assistierende Funktion z.B. in Form einer grafischen Anzeige geschaffen werden, mit der er seine individuelle Einschätzung der Verkehrssituation und insbesondere für die zu erwartende Fahrweise von Fahrzeugen in seinem Umfeld mit den sensorisch und datentechnisch erfassten und verarbeiteten Informationen abgleichen und für seine Fahrzeugführung berücksichtigen kann. Die Erfindung kann auch für hoch automatisiert fahrende Fahrzeuge vorteilhaft eingesetzt werden.
  • Mit der Erfindung ist ein Rückschluss auf das zu erwartende Verhalten anderer Verkehrsteilnehmer im Umfeld des Ego-Fahrzeugs möglich. Dadurch kann zum Führen des Ego-Fahrzeugs vorteilhaft eine bessere Planung bzw. Vorausschau erfolgen. Dies ist insbesondere beim hochautomatisierten Steuern von Fahrzeugen sehr vorteilhaft. Damit kann auch die Sicherheit sowohl bei manuell als auch bei ganz oder teilweise automatisch gesteuerten Fahrzeugen erhöht werden, sowohl für das Ego-Fahrzeug und dessen Insassen als auch für andere Verkehrsteilnehmer. Die Erfindung ist auch dann einsetzbar, wenn das vorausfahrende Fahrzeug ganz oder teilweise automatisch gesteuert ist.
  • Die Umgebung des Fahrzeugs ist ein vorgegebener Bereich, der um das Fahrzeug liegt. Er muss nicht zwangsläufig ein zusammenhängender Bereich sein und er muss nicht zwangsläufig alle Richtungen um das Fahrzeug umfassen. Als Umgebung des Fahrzeugs kann insbesondere ein zusammenhängender, 2- oder 3-dimensionaler räumlicher Bereich angesehen werden. Er kann um das Fahrzeug innerhalb der maximalen Reichweite eines bzw. mehrerer Sensor-Systeme liegen, das bzw. die Daten zum Durchführen von einem oder mehreren, insbesondere von allen, erfindungsgemäßen Schritten erzeugen. Der Umgebungsbereich kann der räumliche Bereich sein, für den solche Daten ausgewertet und/oder verwendet werden. Ein entsprechendes Sensor-System kann beispielsweise elektronische, optische und/oder funktechnische Sensoren und/oder Komponenten umfassen wie z.B. eine CCD-Kamera, eine Infrarot-Kamera, ein Radarsystem, einen Ultraschallsensor, ein Mobilfunksystem, ein Wireless Local Area Network (WLAN) System usw.
  • Als typisches Attribut können einem Fahrzeug, insbesondere entsprechend Informationen, die zu dem Fahrzeughalter und/oder zu einem das Fahrzeug mutmaßlich führenden Fahrzeugführer, erfasst wurden, beispielsweise mindestens eines der folgenden Attribute zugeordnet werden:
    • – Fahrsicherheit, insbesondere auf Basis von Informationen zu dem Fahrzeughalter und/oder mutmaßlichen Fahrzeugführer,
    • – Fahrweise, insbesondere auf Basis von Informationen zu dem Fahrzeughalter und/oder mutmaßlichen Fahrzeugführer,
    • – Zustand des Fahrzeugs.
  • Den jeweiligen Attributen können zusätzlich Werte stufenweise zugewiesen werden, beispielsweise zur Fahrsicherheit Werte in den drei Stufen hoch/normal/gering, zur Fahrweise Werte in den Stufen vorsichtig/normal/sportlich, zum Zustand des Fahrzeugs z.B. Werte in vier Stufen gut/mittel/schlecht/nicht verkehrssicher oder Werte in zwei Stufen unfallbeschädigt/unfallfrei usw. Als Informationen zu dem benachbarten Fahrzeug können auch dessen Herstellerbezeichnung, Typbezeichnung, Alter, Bauform, äußerer Zustand, amtliches Kennzeichen usw. erfasst und/oder verarbeitet werden.
  • Mittels der bereitgestellten Steuerinformationen zum Führen des Ego-Fahrzeugs kann beispielsweise eine dem zugeordneten Attribut entsprechende Information an einer Mensch-Maschine-Schnittstelle (Human Machine Interface, HMI) des Fahrzeugs dargestellt werden. Beispielsweise kann an einer Anzeigeeinrichtung für den Führer des Ego-Fahrzeugs eine Information „Achtung-sportlicher Fahrer fährt hinter Ihnen“ ausgegeben werden. Dabei können auch ein entsprechendes Symbol und/oder eine akustische Information beispielsweise in Form einer Ansage oder eines Warntons ausgegeben werden.
  • In einem vorteilhaften Ausführungsbeispiel der Erfindung werden zum Bereitstellen der Steuerinformationen dem benachbarten Fahrzeug anhand der in der Umgebung des Ego-Fahrzeugs erfassten Informationen Attribute aus einer Menge an vorgegebenen Attributen zugeordnet. Dazu kann in dem Ego-Fahrzeug und/oder in einem mit dem Ego-Fahrzeug datentechnisch verbundenen externen Computer, z.B. einem Backend-Server, eine entsprechende Datenbank vorgesehen sein.
  • In einem weiteren, vorteilhaften Ausführungsbeispiel der Erfindung werden mittels zumindest eines Teils der erfassten Informationen zu dem benachbarten Fahrzeug Daten mit weiteren Informationen zu dem benachbarten Fahrzeug von einer fahrzeugexternen Datenquelle in das Ego-Fahrzeug geladen und zum Führen des Ego-Fahrzeugs bereitgestellt und insbesondere dazu verwendet. Als fahrzeugexterne Quelle kann beispielsweise ein Backend-Server oder ein Computer eines sozialen Netzwerks vorgesehen sein oder ein in dem benachbarten Fahrzeug stationär oder mobil vorgesehener Computer, insbesondere ein in dem benachbarten Fahrzeug vorgesehenes Mobilfunk- bzw. Smartphone-Gerät oder Tablet-PC.
  • Mittels der bereitgestellten Steuerinformationen zum Führen des Ego-Fahrzeugs kann auch ein System zum ganz oder teilweise automatischen Führen des Ego-Fahrzeugs angesteuert werden, insbesondere ein System zur automatischen Längs- und/oder Querführung des Ego-Fahrzeugs und insbesondere zum hoch automatisierten Führen des Ego-Fahrzeugs.
  • Um dem benachbarten Fahrzeug ein Attribut zuzuordnen, können auch Informationen zum Fahrzeugführer und/oder Fahrzeughalter des jeweiligen, im Umfeld des Ego-Fahrzeugs befindlichen Fahrzeugs erfasst und/oder verarbeitet werden. Die zu dem benachbarten Fahrzeug erfassten Informationen und/oder weitere Informationen können insbesondere das amtliche Kennzeichen des benachbarten Fahrzeugs und/oder Daten zum Alter, zum Geschlecht oder zur Identität des dieses Fahrzeug führenden Fahrzeugführers umfassen, wobei diese Informationen zumindest teilweise mittels eines fahrzeugunabhängigen Computers erfasst und/oder bereit gestellt werden können. Die Daten können auch historische Informationen beinhalten, z.B. zu früheren Gefahrensituationen des benachbarten Fahrzeugs und/oder Fahrzeugführers wie beispielsweise zu Unfällen oder zu Verkehrsordnungswidrigkeiten.
  • Im Rahmen der Erfindung wird auch ein entsprechendes, elektronisches System zur Unterstützung des Führens eines Ego-Fahrzeugs angegeben, das Mittel aufweist, mit denen die hier beschriebenen Funktionen und insbesondere Verfahrensschritte ausführbar sind. Weiterhin ist ein Fahrzeug angeben, dass ein entsprechendes elektronisches System aufweist sowie ein Computerprogramm, das beim Laden und Ausführen auf einem Computer ein entsprechendes Verfahren bewirkt.
  • Im Folgenden werden weitere Ausführungsbeispiele der Erfindung anhand von Figuren näher erläutert. Es zeigen:
  • 1 eine Fahrzeug-Infrastruktur und
  • 2 ein Ablaufdiagramm.
  • In der in 1 dargestellten Fahrzeug-Infrastruktur folgt ein erstes, so genanntes Ego-Fahrzeug (E-FZG) 1 mit einer Geschwindigkeit A einem vorausfahrenden Fahrzeug (B-FZG) 2, das sich mit Geschwindigkeit B bewegt. Die beiden Fahrzeuge 1 bzw. 2 weisen jeweils eine Mobilfunk-Schnittstelle einer so genannten Telematik-Einheit (TE) 7 bzw. 17 auf, mit denen jeweils eine Mobilfunkverbindung zu einer stationären Mobilfunk-Infrastruktur 9 herstellbar sind. Diese umfasst beispielsweise Komponenten wie Basisstationen von Mobilfunk-Netzwerkbetreibern und eine Verbindung zum Internet 19. Über diese Verbindung kann wiederum eine Verbindung zu einem Backend-Server (BE) 10 hergestellt werden, der speziell zum Bereitstellen von Daten für Fahrzeuge bzw. Fahrzeugflotten eingerichtet ist. Es kann auch eine Verbindung zu einem sozialen Netzwerk (SN) 15 wie z.B. Facebook hergestellt werden und/oder zu sonstigen Datenbanken (DB) 16, beispielsweise von Behörden wie Zulassungsstellen oder einem Zentralregister für Verkehrssünder usw. Über die Mobilfunk-Infrastruktur 9 können Daten von den daran angeschlossenen Computern bzw. Datenbanken 10, 15, 16 usw. in die Fahrzeuge 1, 2 geladen werden.
  • In den Fahrzeugen 1 bzw. 2 sind die Telematik-Einheiten 7 bzw. 17 jeweils mit einer fahrzeuginternen Steuerung (ST) 3 bzw. 13 elektrisch und datentechnisch verbunden. Selbstverständlich umfassen die Fahrzeuge 1 bzw. 2 jeweils eine Vielzahl weiterer elektrischer Komponenten wie Steuerungen, Sensoren und Aktoren, die in der 1 nicht gezeigt sind. Zum Ego-Fahrzeug 1 sind jedoch beispielhaft als weitere Komponenten eine Kamera-Einheit (KA) 4, eine Steuerung zur automatischen Abstandsregelung (AC bzw. ACC) 5, ein Aktor (AK) 6, beispielsweise zum Durchführen von automatischen Lenkbewegungen, zum Bremsen oder zum Ansteuern des Antriebs, und eine zentrale Anzeigeeinrichtung (HU, Head Unit) 8 gezeigt, über die einen Fahrzeugführer assistierende Informationen, beispielsweise zum vorausfahrenden Fahrzeug 2, zu dessen Halter und/oder aktuellen Fahrer ausgebbar sind. Die Informationen können insbesondere einem typischen Attribut entsprechen, das dem vorausfahrenden Fahrzeug 2 zugeordnet ist. Auch ein Navigationssystem, das eine z.B. auf dem GPS-System beruhende Positionsbestimmungseinheit und eine Kartendatenbank enthält, kann in dem Fahrzeug 1 bzw. 2 vorgesehen sein, ein Multimediasystem zur Ausgabe von Toninformation und/oder ein Auffahrwarner. Insbesondere das Ego-Fahrzeug 1 kann für einen vollautomatischen, d.h. hochautomatisierten Fahrbetrieb eingerichtet sein, wobei zu den genannten assistierenden Informationen entsprechende Informationen zur Steuerung des Fahrzeugs 1 verwendet werden.
  • In der in 1 gezeigten Fahrsituation erfasst das Kamera-System 4 des Ego-Fahrzeugs 1 optische Bilder in einem vorbestimmten Bereich der Umgebung des Ego-Fahrzeugs 1, beispielsweise nur im Frontbereich 18, im Front- und Heckbereich oder rund um das Ego-Fahrzeug 1 in einem horizontalen Erfassungswinkel von 60 Grad und/oder bis zu einer Entfernung von 100 Metern. Diese Daten sind rein beispielhaft und können innerhalb eines Fahrzeugs verändert werden, insbesondere automatisch fahrsituationsabhängig, geschwindigkeitsabhängig, wetterabhängig usw.
  • Im Frontbereich 18 wird mittels des Kamera-Systems 14 das vorausfahrende Fahrzeug 2 erkannt. Von diesen Fahrzeug 2 werden insbesondere das linke bzw. rechte Rücklicht (RL) 11 bzw. 12 und das amtliche Kennzeichen 14 erfasst und die entsprechenden Bilddaten verarbeitet. Dabei werden beispielsweise die Form und die Position der Rücklichter 11, 12 erfasst. Weiterhin wird das Kennzeichen 14 datentechnisch extrahiert und mittels automatischer Zeichenerkennung, z.B. per OCR, in einen entsprechenden computerlesbaren Zeichen-Code umgewandelt. Auch aus den Bilddaten der Rücklichter werden per Bildverarbeitung abgeleitete Daten erzeugt, wobei z.B. typische schematische Strukturen, Konturen, Zeichen und/oder Farben beispielsweise mittels Filtern, Bildvergleichen und/oder OCR extrahiert werden. Die so erhaltenen Daten können im Ego-Fahrzeug 1 anhand einer dort gespeicherten Datenbank mit Referenzdaten verglichen werden, anhand denen den Rücklichtern 11, 12 z.B. ein Fahrzeughersteller, ein Fahrzeugtyp und/oder ein Fahrzeugbaujahr zuordenbar ist. Falls in dem Ego-Fahrzeug 1 keine entsprechende lokale Datenbank verfügbar ist und/oder im Ego-Fahrzeug 1 keine Zuordnung möglich ist, z.B., weil die Datenbank zu Fahrzeugtypen des Fahrzeugs 2 keine Daten enthält, dann können die von dem Kamerasystem 4 aufgenommenen Bilddaten und/oder die davon abgeleiteten Daten über die Telematik-Einheit 7 und die Mobilfunk-Infrastruktur 9 beispielsweise in den Backend-Server 10 übertragen und dort weiter verarbeitet werden um die jeweiligen Fahrzeugdaten zu dem Fahrzeug 2 zu ermitteln.
  • Wenn die Daten des amtlichen Kennzeichens 14 ermittelt werden können, so kann über die Telematik-Einheit 7, die Mobilfunk-Infrastruktur 9 und das Internet 19 beispielsweise von einer Datenbank 16 einer Zulassungsstelle abgerufen werden, wer der Halter des vorausfahrenden Fahrzeugs 2 ist und beispielsweise welcher Altersklasse dieser entspricht, beispielsweise in vier Stufen bzw. Altersklassen von 18 bis 25 Jahren, von 26 bis 30 Jahren, von 31 bis 60 Jahren und von über 60 Jahren. Diese Information kann dann in das Ego-Fahrzeug 1 übertragen werden, dort in der zentralen Anzeigeeinrichtung 8 angezeigt und/oder dazu verwendet werden um die Steuerung 3 für einen teilweise oder voll automatischen Fahrbetrieb zu konditionieren. Beispielsweise kann vorgesehen werden, einen Mindestabstandswert leicht zu erhöhen, wenn die Halter Fahranfänger (bis 25 Jahre) und über 60-Jährige sind, um diese nicht in ein subjektives Gefühl einer Bedrängnis zu bringen, wenn sie das Fahrzeug 2 führen. Auch das Wechseln der Spur beim Überholen des vorausfahrenden Fahrzeugs 2 kann entsprechend angepasst werden, beispielsweise durch längeres Abwarten bis zum Spurwechsel oder durch Vorgabe eines größeren Mindestwerts für eine freie Überholzone.
  • Folgende Informationen können von einem im Umfeld des Ego-Fahrzeugs 1 befindlichen Fahrzeug 2 beispielsweise erfasst bzw. bereit gestellt werden und zur Anzeige bzw. Steuerung in dem Ego-Fahrzeug 1 verwendet werden:
    • – Fahrzeughersteller,
    • – Fahrzeugmodell,
    • – Fahrzeugbaujahr,
    • – Fahrzeugmotorisierung,
    • – Fahrzeugfarbe,
    • – Designmerkmale des Fahrzeugs, wie z.B. Fahrzeugart (Limousine, Touring, Coupé, Cabrio, Transporter, LKW, Bus, Motorrad), Form und Position der Rücklichter, Art der Scheibentönung, etwaige Spoiler und Aufbauten usw.,
    • – Fahrzeugschäden, insbesondere Unfallschäden,
    • – Reifendaten, insbes. Alter, Hersteller, Art, Profil und/oder Schadens-Zustand von einem oder mehreren Reifen,
    • – Kilometerstand,
    • – Zulassungsregion (insbes. nach Kategorie Land oder Stadt),
    • – Aktueller Fahrstil, z.B. im Bezug auf die aktuellen Verkehrsbedingungen langsam oder schnell, unsicher oder sicher,
    • – Geschlecht und Aussehen des Fahrzeugführers, wobei insbesondere, wenn das Fahrzeug hinter dem Ego-Fahrzeug fährt, mittels einer Kamera und Bildverarbeitung eine Geschichtserkennung durchgeführt werden kann,
    • – Ein Profil des Fahrzeugführers und/oder Halters, das beispielsweise Geburtsort, Geburtsdatum bzw. Geburtsjahr, Anzahl bisher besessener Fahrzeuge, Gesamtfahrleistung z.B. pro Jahr oder bis dato, Gesundheitsdaten, Daten zu Konsum von Alkohol, Tabak oder Drogen, Daten zu Verkehrsordnungswidrigkeiten und/oder Straftaten, Daten sozialer Netzwerke wie z.B. zum Einkaufsverhalten (insbesondere fahrzeugspezifisch wie z.B. zu Tuning-Kits oder auch zu Sportlichkeit bezüglich Kleidung), zu Interessen, zu Hobbys oder Vorlieben usw.
  • Anhand der Zuordnung der erfassten Daten zu den Referenzdaten können dem voraus fahrenden Fahrzeug 2 dann ein oder mehrere typische Attribute zugeordnet werden, beispielsweise hinsichtlich
    • – Fahrsicherheit des mutmaßlich aktuellen Fahrers,
    • – Fahrweise vorsichtig oder sportlich des mutmaßlich aktuellen Fahrers, und/oder
    • – Zustand des Fahrzeugs.
  • Die Zuordnung des mindestens einen typischen Attributs erfolgt in einem entsprechenden Zuordnungs-System. Dieses kann z.B. ganz oder teilweise in dem Kamera-System 4 integriert sein und/oder in einer sonstigen Steuereinheit des Ego-Fahrzeugs 1, insbesondere in der Steuerung 9. Es kann auch ganz oder teilweise in einem oder mehreren der fahrzeugexternen Computer 10, 15, 16 vorgesehen sein. Das Zuordnungs-System kann an sich bekannte Komponenten eines Computers aufweisen, insbesondere einen Mikroprozessor und ein Computerprogramm, das in einem Speicher gespeichert und auf dem Mikroprozessor abgearbeitet wird.
  • Zur Auswertung und/oder Bereitstellung von Informationen bzw. entsprechenden Daten und/oder zur Erstellung eines entsprechenden Profils für ein Fahrzeug, dessen Fahrzeughalter und/oder dessen mutmaßlichen Fahrzeugführer können Daten aus verschiedensten Datenquellen verwendet werden und so genannte „Big Data“ Ressourcen genutzt werden, die systemübergreifend eine Vielzahl von Daten erfassen, sammeln und korrelieren können.
  • Obwohl in 1 zu dem Ego-Fahrzeug 1 nur ein vorausfahrendes Fahrzeug 2 gezeigt ist, ist klar, dass weitere, sich in der Umgebung des Ego-Fahrzeugs 1 befindliche Fahrzeuge entsprechend sensorisch erfasst und Informationen zu diesen Fahrzeugen, deren Haltern und/oder Fahrern erfasst und/oder bereit gestellt werden können und im Ego-Fahrzeug 1 als Assistenz für dessen Fahrern und/oder für einen teilweisen oder vollautomatischen Fahrbetrieb verwendet werden können. Insbesondere können ein oder mehrere Fahrzeuge, die vor dem Ego-Fahrzeug 1, ein oder mehrere Fahrzeuge, die hinter dem Ego-Fahrzeug 1 und/oder ein oder mehrere Fahrzeuge, die sich seitlich neben dem Ego-Fahrzeug 1 befinden, erfasst und Informationen zu diesen Fahrzeugen, deren Haltern und/oder Fahrern erfasst und/oder bereit gestellt werden.
  • Zum Gewinnen von Informationen zu einem in der Umgebung des Ego-Fahrzeugs 1 befindlichen Fahrzeug können weitere sensorische und/oder datentechnische Einrichtungen benutzt werden, beispielsweise zur direkten drahtlosen Kommunikation zwischen den Fahrzeugen (sog. Car-to-Car Communication), wobei entsprechende Daten aus einem elektronischen Speicher des in der Umgebung befindlichen Fahrzeugs ausgelesen und mittels einer Funkverbindung (Mobilfunk und/oder WLAN usw.) in einen Speicher des Ego-Fahrzeugs 1 übertragen werden können.
  • In 2 ist ein vereinfachtes Ablaufdiagramm mit Verfahrensschritten dargestellt, die zumindest teilweise bereits weiter oben sowie im Zusammenhang mit der 1 beschrieben wurden. In einem Schritt S1 werden Informationen bzw. Daten zu Fahrzeugen erfasst, die sich in der Umgebung eines Ego-Fahrzeugs befinden. Die Erfassung kann beispielsweise mittels einer oder mehrerer optischer und/oder IR-Kameras, Radarsystemen, Ultraschall-Abstandssensoren usw. erfolgen. Insbesondere mittels einer im Heck des Ego-Fahrzeugs vorgesehenen, nach hinten ausgerichteten optischen und/oder IR-Kamera können auch eines oder mehrere Bilder des Fahrers eines dem Ego-Fahrzeug folgenden Fahrzeugs erfasst werden.
  • Im Schritt S2 werden die erfassten Daten verarbeitet und dabei analysiert, ob ein benachbartes Fahrzeug in der Umgebung des Ego-Fahrzeugs erkannt wurde. Falls kein benachbartes Fahrzeug erkannt wurde, wird zum Schritt S1 zurück gekehrt. Andernfalls werden im Schritt S3 Merkmale zu dem erkannten benachbarten Fahrzeug erfasst wie z.B. dessen Hersteller, Bauart, Typ, Motorisierung usw. Dies kann anhand vorgegebener Kriterien und entsprechender Algorithmen erfolgen.
  • Dabei können zu bestimmten Fahrzeugpunkten das Aussehen und/oder vorbestimmte Merkmale, so genannte Feature-Punkte, untersucht werden. Dabei können weiterhin Informationen von an dem Fahrzeug vorgesehenen und erfassten Kennzeichnungen wie z.B. ein Hersteller-Logo oder eine Fahrzeugbezeichnung verwendet werden. Dabei können insbesondere in dem Ego-Fahrzeug in einer lokalen Datenbank verfügbare Informationen zu einer Vielzahl von Fahrzeugherstellern und Fahrzeugtypen verwendet werden. Im Schritt S4 wird überprüft, ob für eine Auswertung erfasster Informationen des benachbarten Fahrzeugs und/oder zur Bereitstellung weiterer Informationen eine Verbindung zu einer externen Datenquelle wie z.B. einem Backend-Server zur Verfügung steht. Gegebenenfalls werden im Schritt S5 entsprechende Daten zwischen der Datenquelle und dem Ego-Fahrzeug übertragen. Andernfalls wird direkt zu Schritt S6 über gegangen.
  • Im Schritt S5 werden zunächst Daten vom Ego-Fahrzeug in die externe Datenquelle geladen. Die externe Datenquelle kann dann wahlweise Daten bereits stellen oder auch Daten verarbeiten und ein Attribut zuweisen (Schritt S6). Es können gezielt vorgegebene Datenquellen ausgewählt werden und/oder vorgegeben werden, welche Daten abzurufen sind, beispielsweise, dass von dem Halter des voraus fahrenden, anhand seines amtlichen Kennzeichens identifizierten Fahrzeugs sein Geburtsjahr und das Jahr seines Führerscheinerwerbs angefordert wird, sowie eine Angabe, ob zu ihm in einem amtlichen Verkehrssünder-Register ein Eintrag besteht. Zur Erkennung eines Fahrzeugführers, insbesondere des Fahrzeugführers eines dem Ego-Fahrzeug folgenden Fahrzeugs kann eine entsprechende Datenbank mit Personenbildern aufgerufen werden. Beispielsweise kann mittels eines Vergleichs der in einem sozialen Netzwerk gespeicherten Personenbilder mit dem bzw. den im Ego-Fahrzeug aufgenommenen Bildern eine Person als mutmaßlicher Fahrzeugführer, beispielsweise des nachfolgenden Fahrzeugs, identifiziert werden und ggf. weitere Informationen aus dem Profil der identifizierten Person wie beispielsweise deren Alter und Interessen abgerufen werden. Auf dieser Basis kann ein entsprechendes Profil vorgegebener Daten zu dem Fahrzeugführer erstellt werden.
  • Im Schritt S6 wird in einer ersten Fallkonstellation dem voraus fahrenden Fahrzeug anhand der zuvor ermittelten Daten zu dem voraus fahrenden Fahrzeug, Fahrzeughalter und/oder mutmaßlichen Fahrzeugführer mindestens ein typisches Attribut zugeordnet, beispielsweise hinsichtlich einer sportlichen oder vorsichtigen Fahrweise. Dabei können insbesondere in dem Ego-Fahrzeug in einer lokalen Datenbank verfügbare Informationen zu einer Vielzahl von Fahrzeugherstellern und Fahrzeugtypen verwendet werden, wenn die Zuweisung des bzw. der typischen Attribute im Ego-Fahrzeug erfolgt. Die Zuordnung des bzw. der typischen Attribute kann in einer zweiten Fallkonstellation auch in der externen Datenquelle bzw. in einem externen Computer stattfinden, wobei diese Datenquelle bzw. dieser Computer dann unter anderem eine Datenbank mit entsprechenden Informationen zu einer Vielzahl von Fahrzeugherstellern und Fahrzeugtypen aufweist. Im Schritt S5 werden in dieser zweiten Konstellation lediglich die Merkmals-Daten aus Schritt S4 in die externe Datenquelle bzw. den externen Computer geladen und im Schritt S6 werden dann nach der Zuweisung des mindestens einen typischen Attributs die jeweiligen Daten in das Ego-Fahrzeug übertragen.
  • Anhand des im Schritt S6 zugeordneten Attributs bzw. der zugeordneten Attribute kann im Ego-Fahrzeug eine entsprechende Steuerung erfolgen, beispielsweise eine Anzeige der Profildaten und/oder Attribute erfolgen und/oder in einem hoch automatisiert fahrenden Fahrzeug die Fahrstrategie und/oder Trajektorie so gesteuert bzw. beeinflusst werden, dass sie an das in der Umgebung des Ego-Fahrzeugs erkannte Fahrzeugs, insbesondere an den Fahrstil von dessen Fahrzeugführer, angepasst wird. Anhand der Attribute können auch einzelne Systemkomponenten eines Fahrzeugs angesteuert werden, beispielsweise ein ACC oder ein Auffahrwarner, so dass diese schneller und besser reagieren können.
  • Das Fahrzeug kann insbesondere ein Kraftfahrzeug sein. Die jeweiligen Sensoren und Aktoren können im Übrigen in an sich bekannter Weise betrieben werden zum ganz oder teilweise automatischen Führen eines Fahrzeugs, insbesondere für ein hoch automatisiertes Fahren. Zu diesem Zweck werden an dieser Stelle nochmals die eingangs genannten Veröffentlichungen in Bezug genommen.
  • Auf Basis des amtlichen Kennzeichens kann erkannt werden, welche Farbe das erfasste Fahrzeug hat. Mit Kenntnis der Farbe kann dann die Empfindlichkeit und/der Kontrast einer optischen Kamera und/oder einer IR-Kamera eingestellt, insbesondere dynamisch angepasst, werden. Dadurch können weitere Details eines Fahrzeugs noch besser aufgenommen werden.
  • Die beschriebenen Geräte und Systemkomponenten werden insbesondere mit Computerprogrammen gesteuert und können dazu weitere, an sich bekannte Elemente von Computern und digitalen Steuerungseinrichtungen wie einen Mikroprozessor, flüchtige und nicht flüchtige Speicher, Schnittstellen usw. aufweisen. Die Erfindung kann deshalb auch ganz oder teilweise in Form eines Computerprogrammprodukts realisiert werden, das beim Laden und Ausführen auf einem Computer einen erfindungsgemäßen Ablauf ganz oder teilweise bewirkt. Es kann beispielsweise in Form eines Datenträgers wie einer CD/DVD bereit gestellt werden oder auch in Form einer oder mehrerer Dateien auf einem Server, von dem das Computerprogramm herunter ladbar ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102012210145 A1 [0002]
    • DE 102011005844 A1 [0003]
    • DE 102011083677 A1 [0003]
    • US 2013/0338914 A1 [0004]
    • EP 2320384 A1 [0005]

Claims (12)

  1. Verfahren zur Unterstützung des Führens eines Ego-Fahrzeugs (1) umfassend folgende Schritte: – Erfassen von Informationen aus der Umgebung des Ego-Fahrzeugs (1), – Verarbeitung der erfassten Informationen derart, dass erkannt wird, ob sich in der Umgebung des Ego-Fahrzeugs (1) ein benachbartes Fahrzeug (2) befindet und wenn ein benachbartes Fahrzeug (2) erkannt wird, weiterhin Erfassen und/oder Verarbeiten von Informationen zu dem benachbarten Fahrzeug (2) zur Zuordnung mindestens eines typischen Attributs zu dem benachbarten Fahrzeug (2), und – in Abhängigkeit des mindestens einen typischen Attributs des benachbarten Fahrzeugs Bereitstellen von Steuerinformationen zum Führen des Ego-Fahrzeugs (1).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zum Bereitstellen der Steuerinformationen dem benachbarten Fahrzeug (2) anhand der in der Umgebung des Ego-Fahrzeugs (1) erfassten Informationen Attribute aus einer Menge an vorgegebenen Attributen zugeordnet werden.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Menge an vorgegebenen Attributen zumindest eines der folgenden Attribute umfasst: – Fahrsicherheit, – Fahrweise, – Zustand des Fahrzeugs.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mittels zumindest eines Teils der erfassten Informationen zu dem benachbarten Fahrzeug (2) Daten mit weiteren Informationen zu dem benachbarten Fahrzeug (2) von einer fahrzeugexternen Datenquelle in das Ego-Fahrzeug (1) geladen werden und zum Führen des Ego-Fahrzeugs (1) bereitgestellt werden.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Daten zu den weiteren Informationen verarbeitet werden und zur Zuordnung des mindestens einen typischen Attributs zu dem benachbarten Fahrzeug (2) verwendet werden.
  6. Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass die Daten mit den weiteren Informationen zu dem benachbarten Fahrzeug (2) von einem fahrzeugexternen Computer (10, 15, 16), insbesondere von einem Backend-Server (10), einem Server eines sozialen Netzwerks (15) und/oder von einer Datenbank (16) bereitgestellt werden.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Daten mit den weiteren Informationen mittels einer Funkverbindung (9) von dem fahrzeugexternen Computer (10, 15, 16) in das Ego-Fahrzeug (1) geladen werden und zum Führen des Ego-Fahrzeugs (1) verwendet werden.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zum Erfassen der Informationen aus der Umgebung ein Sensorsystem verwendet wird, das eine optische Kamera (4), eine Infrarot-Kamera, ein Radarsystem, ein Ultraschallsystem, ein Mobilfunksystem (7) und/oder ein WLAN-System umfasst.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Führen des Ego-Fahrzeugs (1) ganz oder teilweise automatisch, insbesondere hoch automatisiert, erfolgt.
  10. Elektronisches System zur Unterstützung des Führens eines Ego-Fahrzeugs (1), eingerichtet zum Ausführen folgender Schritte: – Erfassen von Informationen aus der Umgebung des Ego-Fahrzeugs (1), – Verarbeitung der erfassten Informationen derart, dass erkannt wird, ob sich in der Umgebung des Ego-Fahrzeugs (1) ein benachbartes Fahrzeug (2) befindet und wenn ein benachbartes Fahrzeug (2) erkannt wird, weiterhin Erfassen und/oder Verarbeiten von Informationen zu dem benachbarten Fahrzeug (2) zur Zuordnung mindestens eines typischen Attributs zu dem benachbarten Fahrzeug (2) und – Bereitstellen von Steuerinformationen zum Führen des Ego-Fahrzeugs (1) in Abhängigkeit des mindestens einen typischen Attributs des benachbarten Fahrzeugs (2).
  11. Fahrzeug umfassend ein System nach Anspruch 9.
  12. Computerprogramm, das beim Laden und Ausführen auf einem Computer ein Verfahren nach einem der Ansprüche 1 bis 9 bewirkt.
DE102014225804.9A 2014-12-15 2014-12-15 Unterstützung beim Führen eines Fahrzeugs Pending DE102014225804A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102014225804.9A DE102014225804A1 (de) 2014-12-15 2014-12-15 Unterstützung beim Führen eines Fahrzeugs
PCT/EP2015/077459 WO2016096330A1 (de) 2014-12-15 2015-11-24 Unterstützung beim führen eines fahrzeugs
US15/594,837 US10295360B2 (en) 2014-12-15 2017-05-15 Assistance when driving a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014225804.9A DE102014225804A1 (de) 2014-12-15 2014-12-15 Unterstützung beim Führen eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102014225804A1 true DE102014225804A1 (de) 2016-06-16

Family

ID=54703965

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014225804.9A Pending DE102014225804A1 (de) 2014-12-15 2014-12-15 Unterstützung beim Führen eines Fahrzeugs

Country Status (3)

Country Link
US (1) US10295360B2 (de)
DE (1) DE102014225804A1 (de)
WO (1) WO2016096330A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017217603B3 (de) 2017-10-04 2019-03-21 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Assistenzsystems für ein Kraftfahrzeug und Kraftfahrzeug
WO2020094279A1 (de) * 2018-11-06 2020-05-14 Robert Bosch Gmbh Prädiktion eines voraussichtlichen fahrverhaltens
DE102019206142A1 (de) * 2019-04-30 2020-11-05 Zf Friedrichshafen Ag Kennzeichenerfassungsvorrichtung, Kennzeichenerfassungsverfahren und Kraftfahrzeug
DE102020100125B3 (de) * 2020-01-07 2021-02-04 Audi Aktiengesellschaft Verfahren und Vorrichtung zum Vorbereiten eines Kraftfahrzeugs auf ein Fahrverhalten eines Fremdfahrzeugs
DE102019217282A1 (de) * 2019-11-08 2021-05-12 Volkswagen Aktiengesellschaft Verfahren zur Prädiktion des Fahrverhaltens anderer Verkehrsteilnehmer
DE102021203482A1 (de) 2021-04-08 2022-10-13 Volkswagen Aktiengesellschaft Verfahren und optisches Ausgabesystem für ein Fahrzeug zur optischen Ausgabe eines Merkmals eines in einem Fahrzeugumfeld befindlichen zu erfassenden Fahrzeugs

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017004949T5 (de) * 2016-09-30 2019-06-19 Honda Motor Co., Ltd. Informationsbeschaffungsvorrichtung und beweglicher Körper
DE102017218222A1 (de) * 2017-10-12 2019-04-18 Continental Automotive Gmbh Bestimmung der Position eines späteren Haltepunktes eines Fahrzeugs
JP7025926B2 (ja) * 2017-12-28 2022-02-25 株式会社小糸製作所 車両用表示システム
GB2572373B (en) * 2018-03-28 2020-12-02 Auto Records Ltd Method and system for determining advanced driver assistance systems (ADAS) features
GB201910858D0 (en) * 2019-07-30 2019-09-11 Blackberry Ltd Processing data for driving automation system
US20210300438A1 (en) * 2020-03-30 2021-09-30 Lyft, Inc. Systems and methods for capturing passively-advertised attribute information
US20230351774A1 (en) * 2022-04-28 2023-11-02 Toyota Research Institute, Inc. Vehicle taillight recognition based on a velocity estimation

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009039774A1 (de) * 2009-09-02 2011-03-03 Audi Ag Verfahren zur Steuerung eines Kraftfahrzeugs und Kraftfahrzeug
EP2320384A1 (de) 2009-09-18 2011-05-11 Kapsch TrafficCom AG Verfahren zur Kennzeichenerkennung und Mautkategorisierung von Fahrzeugen
DE102011005844A1 (de) 2011-03-21 2012-09-27 Bayerische Motoren Werke Aktiengesellschaft Automatische Steuerung eines Fahrzeugs
DE102012210145A1 (de) 2011-06-17 2012-12-20 Robert Bosch Gmbh Verfahren und Vorrichtung zur Unterstützung eines Fahrers bei einer Spurführung eines Fahrzeugs auf einer Fahrbahn
DE102011083677A1 (de) 2011-09-29 2013-04-04 Bayerische Motoren Werke Aktiengesellschaft Prognose einer Verkehrssituation für ein Fahrzeug
US20130338914A1 (en) 2012-06-14 2013-12-19 Wavemarket Inc. System and method for notifying vehicle driver of localized driving conditions
DE102012023630A1 (de) * 2012-12-03 2014-06-05 Volkswagen Aktiengesellschaft Verfahren zur Information eines Fahrzeugführers hinsichtlich eines von einem auf Umgebungsdaten basierten Fahrerassistenzsystems eines Fahrzeugs ausgeführten automatischen Fahrmanövers

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007132768A (ja) * 2005-11-10 2007-05-31 Hitachi Ltd 通信機能を有する車載レーダー装置
JP4169065B2 (ja) * 2006-02-13 2008-10-22 株式会社デンソー 車両制御装置
US8352112B2 (en) * 2009-04-06 2013-01-08 GM Global Technology Operations LLC Autonomous vehicle management
DE102012214979A1 (de) * 2012-08-23 2014-02-27 Robert Bosch Gmbh Spurwahlassistent zur Optimierung des Verkehrsflusses (Verkehrsflussassistent)
DE102012022563B4 (de) * 2012-11-17 2024-07-18 Volkswagen Aktiengesellschaft Verfahren und System zum Erfassen und Verarbeiten von Fahrzeug-relevanten Informationen
CA2907452A1 (en) * 2013-03-15 2014-09-18 Peloton Technology Inc. Vehicle platooning systems and methods
US9940834B1 (en) * 2016-01-22 2018-04-10 State Farm Mutual Automobile Insurance Company Autonomous vehicle application

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009039774A1 (de) * 2009-09-02 2011-03-03 Audi Ag Verfahren zur Steuerung eines Kraftfahrzeugs und Kraftfahrzeug
EP2320384A1 (de) 2009-09-18 2011-05-11 Kapsch TrafficCom AG Verfahren zur Kennzeichenerkennung und Mautkategorisierung von Fahrzeugen
DE102011005844A1 (de) 2011-03-21 2012-09-27 Bayerische Motoren Werke Aktiengesellschaft Automatische Steuerung eines Fahrzeugs
DE102012210145A1 (de) 2011-06-17 2012-12-20 Robert Bosch Gmbh Verfahren und Vorrichtung zur Unterstützung eines Fahrers bei einer Spurführung eines Fahrzeugs auf einer Fahrbahn
DE102011083677A1 (de) 2011-09-29 2013-04-04 Bayerische Motoren Werke Aktiengesellschaft Prognose einer Verkehrssituation für ein Fahrzeug
US20130338914A1 (en) 2012-06-14 2013-12-19 Wavemarket Inc. System and method for notifying vehicle driver of localized driving conditions
DE102012023630A1 (de) * 2012-12-03 2014-06-05 Volkswagen Aktiengesellschaft Verfahren zur Information eines Fahrzeugführers hinsichtlich eines von einem auf Umgebungsdaten basierten Fahrerassistenzsystems eines Fahrzeugs ausgeführten automatischen Fahrmanövers

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017217603B3 (de) 2017-10-04 2019-03-21 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Assistenzsystems für ein Kraftfahrzeug und Kraftfahrzeug
WO2019068412A1 (de) 2017-10-04 2019-04-11 Volkswagen Aktiengesellschaft Verfahren zum betreiben eines assistenzsystems für ein kraftfahrzeug und kraftfahrzeug
WO2020094279A1 (de) * 2018-11-06 2020-05-14 Robert Bosch Gmbh Prädiktion eines voraussichtlichen fahrverhaltens
CN112955361A (zh) * 2018-11-06 2021-06-11 罗伯特·博世有限公司 对预期行驶行为的预测
DE102019206142A1 (de) * 2019-04-30 2020-11-05 Zf Friedrichshafen Ag Kennzeichenerfassungsvorrichtung, Kennzeichenerfassungsverfahren und Kraftfahrzeug
DE102019217282A1 (de) * 2019-11-08 2021-05-12 Volkswagen Aktiengesellschaft Verfahren zur Prädiktion des Fahrverhaltens anderer Verkehrsteilnehmer
DE102020100125B3 (de) * 2020-01-07 2021-02-04 Audi Aktiengesellschaft Verfahren und Vorrichtung zum Vorbereiten eines Kraftfahrzeugs auf ein Fahrverhalten eines Fremdfahrzeugs
DE102021203482A1 (de) 2021-04-08 2022-10-13 Volkswagen Aktiengesellschaft Verfahren und optisches Ausgabesystem für ein Fahrzeug zur optischen Ausgabe eines Merkmals eines in einem Fahrzeugumfeld befindlichen zu erfassenden Fahrzeugs

Also Published As

Publication number Publication date
US10295360B2 (en) 2019-05-21
WO2016096330A1 (de) 2016-06-23
US20170248441A1 (en) 2017-08-31

Similar Documents

Publication Publication Date Title
DE102014225804A1 (de) Unterstützung beim Führen eines Fahrzeugs
DE102018122459B4 (de) Fahrzeugsystem, entferntes fahrzeugassistenzsystem und comuterimplementiertes verfahren zum bereitstellen von fernunterstützung
DE102019127229A1 (de) System und verfahren zum bestimmen einer vertrautheit eines fahrzeugdatensatzes
DE102013210941A1 (de) Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
DE102012022563B4 (de) Verfahren und System zum Erfassen und Verarbeiten von Fahrzeug-relevanten Informationen
DE102018129101A1 (de) Aktiver verkehrsteilnehmer
DE102017221191A1 (de) Verfahren zur Anzeige des Verlaufs einer Sicherheitszone vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102011081614A1 (de) Verfahren und Vorrichtung zur Analysierung eines von einem Fahrzeug zu befahrenden Streckenabschnitts
DE102015015277A1 (de) Technik zum automatisierten Anhalten eines Fahrzeugs in einem Zielbereich
DE102013224171A1 (de) Verfahren und Steuer- und Erfassungseinrichtung zur Erkennung einer Einfahrt eines Kraftfahrzeugs in einen Fahrstreifen einer Straße entgegen einer Fahrrichtung
DE102015223656A1 (de) Fahrerassistenzsystem und -Verfahren zur Fahrspurempfehlung
DE102017211387A1 (de) System und Verfahren zum automatisierten Manövrieren eines Ego-Fahrzeugs
DE102019215657A1 (de) Fahrzeugsteuerungsstystem und -verfahren
WO2018023143A1 (de) Verfahren und vorrichtung zum messen eines abstands zwischen einem ersten fahrzeug und einem zweiten, dem ersten fahrzeug unmittelbar vorausfahrenden, fahrzeug
DE102020102955A1 (de) Verfahren zur priorisierung der übertragung von erfassten objekten für die kooperative sensorteilung
DE102019114595A1 (de) Intelligente fahrzeugnavigationssysteme, verfahren und steuerlogik zum ableiten von strassenabschnittgeschwindigkeitsgrenzwerten
DE102019114626B4 (de) Kraftfahrzeug mit einem System zur Hardware-Überprüfung in einem Kraftfahrzeug
DE102017122543A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Überholen eines Objektes sowie Fahrerassistenzsystem
WO2019120709A1 (de) Verfahren und steuereinheit zur steuerung einer funktion eines zumindest teilweise automatisiert fahrenden fahrzeugs
DE102012213485A1 (de) Verfahren und Vorrichtung zum Überprüfen einer in einem Fahrempfehlungsspeicher gespeicherten Fahrempfehlungsinformation für Fahrzeuge sowie Verfahren und Vorrichtung zum Bereitstellen einer Fahrempfehlungsnachricht
DE102019129737A1 (de) Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs
DE102015216927B4 (de) Verfahren und Vorrichtung zur automatischen Dokumentation von Verkehrsverstößen
DE102021213180A1 (de) Verfahren zur automatischen Steuerung wenigstens einer Fahrzeugfunktion eines Fahrzeugs und Benachrichtigungssystem für ein Fahrzeug
DE102020110496A1 (de) Verfahren und System zur Bestimmung eines Fahrerprofils eines Fahrers eines Fahrzeugs
DE102019209877A1 (de) Überholassistent

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed