DE102013004271A1 - Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs - Google Patents

Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs Download PDF

Info

Publication number
DE102013004271A1
DE102013004271A1 DE201310004271 DE102013004271A DE102013004271A1 DE 102013004271 A1 DE102013004271 A1 DE 102013004271A1 DE 201310004271 DE201310004271 DE 201310004271 DE 102013004271 A DE102013004271 A DE 102013004271A DE 102013004271 A1 DE102013004271 A1 DE 102013004271A1
Authority
DE
Germany
Prior art keywords
vehicle
driver
environment information
unit
autonomous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201310004271
Other languages
English (en)
Inventor
Carsten Knöppel
Fridtjof Stein
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE201310004271 priority Critical patent/DE102013004271A1/de
Publication of DE102013004271A1 publication Critical patent/DE102013004271A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0965Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages responding to signals from another vehicle, e.g. emergency vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound

Abstract

Die Erfindung betrifft ein Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs (2), wobei optische und akustische Umgebungsinformationen erfasst und klassifiziert werden. Erfindungsgemäß wird in Abhängigkeit von Klassifikationsergebnissen (K1 bis Kn) zumindest ein Fahrzeugparameter variabel eingestellt, wobei der Fahrzeugparameter eine autonome oder teilautonome Fahrzeuglängssteuerung und/oder eine autonome oder teilautonome Fahrzeugquersteuerung und/oder situationsabhängig an den Fahrer ausgegebene Fahrhinweise betrifft. Die Erfindung betrifft weiterhin eine Vorrichtung (1) zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs (2) mit zumindest einer optischen Erfassungseinheit (3.1) zur Erfassung optischer Umgebungsinformationen, zumindest einer akustischen Erfassungseinheit (3.2) zur Erfassung akustischer Umgebungsinformationen und zumindest einer Auswerteeinheit (4) zur Klassifikation der optischen und akustischen Umgebungsinformationen. Erfindungsgemäß ist die Auswerteeinheit (4) mit zumindest einer Fahrerassistenzvorrichtung (5) gekoppelt, mittels welcher in Abhängigkeit von Klassifikationsergebnissen (K1 bis Kn) zumindest ein Fahrzeugparameter, welcher eine autonome oder teilautonome Fahrzeuglängssteuerung und/oder eine autonome oder teilautonome Fahrzeugquersteuerung und/oder situationsabhängig an den Fahrer ausgegebene Fahrhinweise betrifft, variabel einstellbar ist.

Description

  • Die Erfindung betrifft ein Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs, wobei optische und akustische Umgebungsinformationen erfasst und klassifiziert werden.
  • Die Erfindung betrifft weiterhin eine Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs mit zumindest einer optischen Erfassungseinheit zur Erfassung optischer Umgebungsinformationen, zumindest einer akustischen Erfassungseinheit zur Erfassung akustischer Umgebungsinformationen und zumindest einer Auswerteeinheit zur Klassifikation der optischen und akustischen Umgebungsinformationen.
  • Aus der DE 10 2010 022 165 A1 sind ein Verfahren und eine Vorrichtung zur Erfassung eines von einem Einsatzfahrzeug ausgehenden akustischen Sondersignals für ein Fahrzeug bekannt, wobei ein Fahrzeugumfeld optisch und akustisch erfasst wird. Ein erfasstes akustisches und optisches Signal wird klassifiziert und mit den hinterlegten Mustern akustischer Sondersignale von Einsatzfahrzeugen und hinterlegten Farbspektren verglichen, und in Abhängigkeit des erkannten Sondersignals wird ein Warnsignal an den Fahrzeugführer ausgegeben. Die Vorrichtung umfasst eine akustische Erfassungseinheit und optische Erfassungseinheit zur akustischen bzw. optischen Erfassung eines Fahrzeugumfeldes, wobei die Erfassungseinheiten mit einer Auswerteeinheit gekoppelt sind. Mittels der Auswerteeinheit sind die optischen Signale klassifizierbar. In Abhängigkeit des erkannten Sondersignals ist mittels einer Ausgabeeinheit ein Warnsignal an den Fahrzeugführer ausgebbar.
  • Der Erfindung liegt die Aufgabe zugrunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs und eine verbesserte Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs anzugeben.
  • Hinsichtlich des Verfahrens wird die Aufgabe erfindungsgemäß durch die im Anspruch 1 angegebenen Merkmale und hinsichtlich der Vorrichtung durch die im Anspruch 5 angegebenen Merkmale gelöst.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • In dem Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs werden optische und akustische Umgebungsinformationen erfasst und klassifiziert.
  • Erfindungsgemäß wird in Abhängigkeit von Klassifikationsergebnissen zumindest ein Fahrzeugparameter variabel eingestellt, wobei der Fahrzeugparameter eine autonome oder teilautonome Fahrzeuglängssteuerung und/oder eine autonome oder teilautonome Fahrzeugquersteuerung und/oder situationsabhängig an den Fahrer ausgegebene Fahrhinweise betrifft.
  • Das erfindungsgemäße Verfahren ermöglicht in besonders vorteilhafter Weise durch Kombination der Klassifikation optischer und akustischer Umgebungsinformationen sowie der Einstellung des zumindest einen Fahrzeugparameters in Abhängigkeit der Klassifikationsergebnisse einen zuverlässigen Betrieb von Fahrerassistenzvorrichtungen zur Unterstützung des Fahrers beim Führen des Fahrzeugs durch autonome oder teilautonome Fahrzeuglängssteuerung und Fahrzeugquersteuerung und durch Ausgabe von situationsabhängigen Fahrhinweise an den Fahrer.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
  • Dabei zeigen:
  • 1 schematisch ein Blockschaltbild einer erfindungsgemäßen Vorrichtung und
  • 2 schematisch eine Verkehrssituation mit zwei Fahrzeugen.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • In 1 ist ein mögliches Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung 1 zur Unterstützung eines Fahrers beim Führen eines in 2 näher dargestellten Fahrzeugs 2 dargestellt.
  • Im Straßenverkehr existieren verschiedene Verkehrsituationen V, in welchen durch gesetzliche Vorschriften, wie beispielsweise in Deutschland die Straßenverkehrsordnung (kurz: StVO), geregelt ist, in welcher ein Fahrzeug zu führen ist. Eine solche beispielhafte Verkehrssituation V ist in 2 näher dargestellt.
  • Diese Vorschriften sind auch bei einer so genannten teilautonomen oder autonomen Steuerung des Fahrzeugs 2 einzuhalten.
  • Hierzu ist es erforderlich, dass mittels der Vorrichtung 1 sensorische Fähigkeiten des Fahrers nachgebildet werden. Zu diesem Zweck umfasst die Vorrichtung 1 eine Sensorik 3 mit mehreren Erfassungseinheiten 3.1 bis 3.3.
  • Diese Erfassungseinheiten 3.1 bis 3.3 umfassen zumindest eine optische Erfassungseinheit 3.1 zur Erfassung optischer Umgebungsinformationen. Die optische Erfassungseinheit 3.1 ist beispielsweise als Mono-Kamera, Stereokamera, Lidarsensor, Radarsensor, Ultraschallsensor oder anderer optischer Sensor ausgebildet. Erfassungsbereiche der optischen Erfassungseinheit 3.1 sind in Längsausdehnung des Fahrzeugs 2 vor, hinter und/oder seitlich neben diesem ausgebildet.
  • Weiterhin umfassen die Erfassungseinheiten 3.1 bis 3.3 zumindest eine akustische Erfassungseinheit 3.2 zur Erfassung akustischer Umgebungsinformationen, wobei die akustische Erfassungseinheit 3.2 insbesondere als ein an einer Außenseite des Fahrzeugs 2 angeordnetes Mikrofon ausgebildet ist.
  • Ferner umfassen die Erfassungseinheiten 3.1 bis 3.3 zumindest eine Erfassungseinheit 3.3, welche in nicht näher dargestellter Weise Bestandteil einer sattelitengestützten Navigationsvorrichtung des Fahrzeugs 2 ist und zum Empfang von weiteren Umgebungsinformationen in Form von Positionsdaten vorgesehen ist. Bei der Erfassungseinheit 3.3 handelt es sich beispielsweise um einen so genannten GPS-Empfänger.
  • Zur Auswertung und Klassifikation der erfassten Umgebungsinformationen sind zumindest die optische Erfassungseinheit 3.1 und die akustische Erfassungseinheit 3.2 mit einer Auswerteeinheit 4 gekoppelt. Die Auswerteeinheit 4 umfasst im dargestellten Ausführungsbeispiel acht Funktionseinheiten 4.1 bis 4.8 zur Erkennung verschiedener Objekte und Situationen aus den erfassten Umgebungsinformationen.
  • Eine erste Funktionseinheit 4.1 ist dabei zur Fußgängererkennung, eine zweite Funktionseinheit 4.2 zur Straßenerkennung, eine dritte Funktionseinheit 4.3 zur Fahrzeugerkennung, eine vierte Funktionseinheit 4.4 zur Verkehrszeichenerkennung, eine fünfte Funktionseinheit 4.5 zur Ampelerkennung und eine sechste Funktionseinheit 4.6 zur Lichtsignalerkennung vorgesehen. Diesen Funktionseinheiten 4.1 bis 4.6 werden die mittels der optischen Erfassungseinheit 3.1 erfassten optischen Umgebungsinformationen zugeführt und diese werden klassifiziert. Das heißt, aus den optischen Umgebungsinformationen werden in der Umgebung des Fahrzeugs 2 befindliche Objekte detektiert und hinsichtlich ihrer Art klassifiziert.
  • Weiterhin ist eine siebte Funktionseinheit 4.7 als Warnsirenenerkennung und eine achte Funktionseinheit 4.8 als Pfeiftonerkennung ausgebildet, wobei diesen Funktionseinheiten 4.7, 4.8 die mittels der akustischen Erfassungseinheit 3.2 erfassten akustischen Umgebungsinformationen zugeführt werden. Auch die akustischen Umgebungsinformationen werden mittels der Funktionseinheiten 4.7, 4.8 hinsichtlich ihrer Art klassifiziert.
  • Zur Ermittlung und Klassifikation einer aktuellen Verkehrssituation V anhand der klassifizierten optischen und akustischen Umgebungsinformationen werden diese in der dargestellten Weise innerhalb der Auswerteeinheit 4 verschiedenen Klassifikationseinheiten 4.9 bis 4.13 zugeführt, welche anhand einer oder mehrerer klassifizierter Umgebungsinformationen eine jeweilige Verkehrssituation V klassifiziert, d. h. erkennt. Mittels der Funktionseinheiten 4.1 bis 4.8 ermittelte Klassifizierungsergebnisse K1 bis Kn werden einer Fahrerassistenzvorrichtung 5 zugeführt, welche eine autonome oder teilautonome Fahrzeuglängssteuerung und Fahrzeugquersteuerung durchführt. Alternativ oder zusätzlich werden mittels der Fahrerassistenzvorrichtung 5 situationsabhängig in Abhängigkeit der ermittelten Klassifizierungsergebnisse K1 bis Kn an den Fahrer des Fahrzeugs 2 Fahrhinweise optisch, haptisch und/oder akustisch ausgegeben.
  • Eine erste Klassifikationseinheit 4.9 ist dabei im dargestellten Ausführungsbeispiel als Personendetektor ausgebildet. Dieser umfasst eine Einheit 4.9.1 zur Bewegungsanalyse und eine weitere Einheit 4.9.2 zur Detektion von mobilen Verkehrsleitgeräten, welche die Personen mit sich führen. Hierzu werden der ersten Klassifikationseinheit 4.9 die mittels der ersten, als Fußgängererkennung ausgebildeten Funktionseinheit 4.1 klassifizierten Umgebungsinformationen zugeführt. Mittels der optischen Erfassungseinheit 3.1, beispielsweise einer Stereokamera, werden die Umgebungsinformationen optisch erfasst, wobei mittels der Fußgängererkennung in der Umgebung vorhandene und als Personen ausgebildete Objekte klassifiziert werden. Klassifiziert die Fußgängererkennung eine Person beispielsweise als Polizeibeamten, wird der detektierte Polizeibeamte getrackt und dessen Armbewegungen werden entsprechend der gesetzlichen Vorschriften, beispielsweise der StVO, interpretiert und die Fahrerassistenzvorrichtung 5 steuert das Fahrzeug 2 in der Art, dass die Vorschriften befolgt werden. Wenn sich ein Fahrer im Fahrzeug befindet, kann an diesen die Fahrverantwortung zumindest teilweise übergeben werden. Ist dies nicht Fall, erfolgt die Steuerung des Fahrzeugs 2 autonom.
  • Die erste Klassifikationseinheit 4.9 ist zu diesem Zweck derart ausgebildet, dass mittels der Einheit 4.9.1 zur Bewegungsanalyse und der weiteren Einheit 4.9.2 zur Detektion von mobilen Verkehrsleitgeräten Polizeibeamte und deren Bewegungen und mobile Verkehrsleitgeräte, wie beispielsweise eine Winkelkelle, ein Verkehrsstab oder Leuchtsignale, als entsprechende Regelungshinweise erkannt werden, so dass mittels der Fahrerassistenzvorrichtung 5 eine korrekte Steuerung des Fahrzeugs 2 erfolgen kann. Analog zu einem Polizeibeamten sind auch weitere Personengruppen und deren Verkehrsleitgeräte, wie beispielsweise Bahnbedienstete und deren Verkehrsleitgeräte, mittels der ersten Klassifikationseinheit 4.9 detektierbar und klassifizierbar.
  • Eine zweite Klassifikationseinheit 4.10 ist als Bahnübergangsdetektor ausgebildet. Dieser umfasst eine Einheit 4.10.1 zur Detektion von auf einen Bahnübergang hinweisenden Verkehrszeichen, wie beispielsweise Andreaskreuze und Lichtzeichen, sowie eine weitere Einheit 4.10.2 zur Detektion von Schienenfahrzeugen. Hierzu werden der zweiten Klassifikationseinheit 4.10 die mittels der ersten, als Fußgängererkennung ausgebildeten Funktionseinheit 4.1, der vierten, als Verkehrszeichenerkennung ausgebildeten Funktionseinheit 4.4, der fünften, als Ampelerkennung ausgebildeten Funktionseinheit 4.5 und der sechsten, als Lichtsignalerkennung ausgebildeten Funktionseinheit 4.6 klassifizierten optischen Umgebungsinformationen zugeführt. Auch werden der zweiten Klassifikationseinheit 4.10 die mittels der achten, als Pfeiftonerkennung ausgebildeten Funktionseinheit 4.8 klassifizierten akustischen Umgebungsinformationen zugeführt.
  • Mittels der optischen Erfassungseinheit 3.1, beispielsweise einer Stereokamera, werden die Umgebungsinformationen optisch erfasst, wobei mittels der Verkehrszeichenerkennung geschlossene oder geöffnete Schranken oder Schlagbäume sowie die auf den Bahnübergang hinweisende Verkehrszeichen erkannt werden. Die Verkehrszeichenerkennung ist insbesondere dahingehend erweitert, dass sie eine Pfeilform an auf den Bahnübergang hinweisenden Verkehrszeichen erkennt und daraus eine erlaubte Fahrtrichtung ableitet. Hat ein am Bahnübergang befindliches rotes Blinklicht oder ein rotes Lichtzeichen die Form eines Pfeils, muss nur derjenige warten, wer in der Richtung des Pfeils fahren will. Weiterhin werden anhand der Ampelerkennung und Lichtzeichenerkennung insbesondere grüne, gelbe und rote Lichtzeichen und mittels der Pfeiftonerkennung von dem Schienenfahrzeug abgegebene Warnsignale sowie beim Schließen der Schranken bzw. Schlagbäume abgegebene Glockensignale erkannt. Die zweite Klassifikationseinheit 4.10 wertet alle die ihr zugeführten klassifizierten optischen und akustischen Umgebungsdaten aus und ermittelt daraus die aktuelle Verkehrssituation. In Abhängigkeit der diese Verkehrssituation V beschreibenden Klassifikationsergebnisse K1 bis Kn steuert die Fahrerassistenzvorrichtung 5 das Fahrzeug 2. Insbesondere wird eine Fahrzeuggeschwindigkeit nach der Detektion eines Bahnübergangs stark reduziert.
  • Eine dritte Klassifikationseinheit 4.11 ist als Gefahrdetektor ausgebildet. Dieser umfasst eine Einheit 4.11.1 zur Detektion von Warnlichtzeichen, beispielsweise Blau- und Gelblicht, sowie eine weitere Einheit 4.11.2 zur Detektion von Inkonsistenzen. Hierzu werden der dritten Klassifikationseinheit 4.11 die mittels der ersten, als Fußgängererkennung ausgebildeten Funktionseinheit 4.1, der zweiten, als Straßenerkennung ausgebildeten Funktionseinheit 4.2, der dritten, als Fahrzeugerkennung ausgebildeten Funktionseinheit 4.3 und der sechsten, als Lichtsignalerkennung ausgebildeten Funktionseinheit 4.6 klassifizierten optischen Umgebungsinformationen zugeführt.
  • Wird beispielsweise ein gelbes Blinklicht detektiert, wird mittels der dritten Klassifikationseinheit 4.11 auf eine in der Umgebung befindliche Gefahr geschlossen und anhand der weiteren Umgebungsinformationen werden die Klassifikationsergebnisse K1 bis Kn ermittelt. Bei Vorhandensein eines Fahrers, kann die Fahrverantwortung an diesen übergeben werden, ansonsten wird das Fahrzeug 2 autonom mittels der Fahrerassistenzvorrichtung 5 entsprechend defensiv und sicher in Abhängigkeit der jeweiligen Situation, beispielsweise durch Verringerung einer Fahrzeuggeschwindigkeit, Aktivieren einer fahrzeugeigenen Warnblinklichtfunktion oder durch Stoppen des Fahrzeugs 2, geführt.
  • Auch bei der Detektion von Blaulicht wird mittels der dritten Klassifikationseinheit 4.11 auf eine in der Umgebung befindliche Gefahr geschlossen und anhand der weiteren Umgebungsinformationen werden die Klassifikationsergebnisse K1 bis Kn ermittelt. Häufig sind schon Rettungsfahrzeuge an einem Unfallort. Deshalb ist auch Blaulicht ein Indiz für Gefahr. Bei anderen Farbgebungen von Warnleuchten, beispielsweise Rotlicht, ist die dritte Klassifikationseinheit 4.11 entsprechend durch abweichende Parametrierungen gekennzeichnet. Analog zur Steuerung des Fahrzeugs 2 bei Gelblicht kann bei Vorhandensein eines Fahrers die Fahrverantwortung an diesen übergeben werden. Ansonsten wird das Fahrzeug 2 autonom mittels der Fahrerassistenzvorrichtung entsprechend defensiv und sicher in Abhängigkeit der jeweiligen Situation, beispielsweise durch Verringerung einer Fahrzeuggeschwindigkeit, Aktivieren einer fahrzeugeigenen Warnblinklichtfunktion oder durch Stoppen des Fahrzeugs 2, geführt.
  • Wird mittels der Einheit 4.11.2 zur Detektion von Inkonsistenzen eine Inkonsistenz bezüglich einer aktuellen Verkehrssituation V oder eines Fahrszenarios ermittelt, ist dies ebenfalls ein Indiz für eine Gefahr. Wird beispielsweise innerhalb einer Verkehrssituation V ein Objekt erfasst, aus welchem eine Gefahr resultiert, wie z. B. ein Fußgänger auf einer Autobahn, wird mittels der Fahrerassistenzvorrichtung 5 die teilautonome oder autonome Steuerung des Fahrzeugs 2 derart durchgeführt, dass die Gefahr minimiert wird. Insbesondere erfolgt die Ausgabe einer Warnung an den Fahrer des Fahrzeugs 2, die Warnung anderer Verkehrsteilnehmer durch Aktivierung der fahrzeugeigenen Warnblinklichtfunktion sowie eine defensive Steuerung des Fahrzeugs 2, insbesondere durch Ausweichmanöver, Verringerung der Fahrzeuggeschwindigkeit oder durch Stoppen des Fahrzeugs 2. Weiterhin kann auch bei Erfassung von Inkonsistenzen zwischen den optischen und akustischen Umgebungsinformationen, insbesondere bei von dem Klassifikationsergebnis der optischen Umgebungsinformationen abweichendem Klassifikationsergebnis der akustischen Umgebungsinformation, eine Warnung an den Fahrer ausgegeben werden.
  • Eine vierte Klassifikationseinheit 4.12 ist dazu ausgebildet, Verkehrssituationen V zu erkennen und zu klassifizieren, in welchen es erforderlich ist, eine so genannte Rettungsgasse zwischen mehreren Fahrspuren zu bilden, um Einsatzfahrzeugen eine Durchfahrt zwischen wartenden Fahrzeugen zu ermöglichen. Die vierte Klassifikationseinheit 4.12 umfasst eine Einheit 4.12.1 zur Detektion von Warnlichtzeichen, beispielsweise Blau- und Gelblicht, sowie eine weitere Einheit 4.12.2 zur Detektion von Einsatzfahrzeugen, beispielsweise Rettungsfahrzeugen. Die Einheit 4.12.1 zur Detektion von Warnlichtzeichen ist dabei entsprechend der Einheit 4.11.1 zur Detektion von Warnlichtzeichen des Gefahrdetektors ausgebildet. Das heißt, die Erfassung und Verarbeitung von Gelblicht, Blaulicht und anderen Warnlichtern erfolgt entsprechend. Der vierten Klassifikationseinheit 4.12 werden die mittels der ersten, als Fußgängererkennung ausgebildeten Funktionseinheit 4.1, der zweiten, als Straßenerkennung ausgebildeten Funktionseinheit 4.2, der dritten, als Fahrzeugerkennung ausgebildeten Funktionseinheit 4.3 und der sechsten, als Lichtsignalerkennung ausgebildeten Funktionseinheit 4.6 klassifizierten optischen Umgebungsinformationen zugeführt. Auch werden der vierten Klassifikationseinheit 4.12 die mittels der siebten, als Warnsirenenerkennung ausgebildeten Funktionseinheit 4.7 klassifizierten akustischen Umgebungsinformationen zugeführt.
  • Bei einer Fahrt des Fahrzeugs 2 mit geringer Geschwindigkeit, beispielsweise auf einer Autobahn, wird das Fahrzeug 2 mittels der Fahrerassistenzvorrichtung 5 derart automatisch längs- und quergesteuert, dass eine Gasse für Einsatzfahrzeuge gebildet wird.
  • Bei stehendem Fahrzeug 2 und der Erfassung eines von hinten herannahenden Einsatzfahrzeugs mit Warnbeleuchtung, beispielsweise Gelblicht oder Blaulicht, wird das Fahrzeug 2 mittels der Fahrerassistenzvorrichtung 5 derart längs- und quergesteuert, dass dieses ausweicht, beispielsweise auf einen neben der Fahrbahn befindlichen Standstreifen. Weiterhin erfolgt die automatische Längs- und Quersteuerung in der Art, dass das Fahrzeug 2 in der ausgewichenen Position wartet, bis das entsprechende Einsatzfahrzeug das Fahrzeug 2 passiert hat. Innerhalb geschlossener Ortschaften erfolgt das Ausweichen beispielsweise auf einen Gehweg, wenn dies erforderlich ist, um die Rettungsgasse zu bilden. Hierfür werden mittels der Fußgängererkennung Fußgänger, Radfahrer, Rollstuhlfahrer, Kinderwägen und andere Verkehrsteilnehmer auf dem Gehweg erkannt und berücksichtigt, um Gefährdungen dieser zu vermeiden. Außerhalb geschlossener Ortschaften, wo kein Gehweg oder Standstreifen vorhanden ist, wird das Fahrzeug 2 derart gesteuert, dass ein sicheres Ausweichen möglich ist. Hierzu werden neben der Fahrbahn befindliche Gräben, Fahrbahnbegrenzungen, wie z. B. Leitpfosten, Baken, Leitplanken u. ä. mittels der Straßenerkennung erkannt und klassifiziert, so dass ein für das Fahrzeug 2 selbst und andere Verkehrsteilnehmer sicheres Ausweichen möglich ist und das Fahrzeugs 2 nach der der Gassenbildung ohne Beschädigungen weiterfahren kann.
  • Eine fünfte Klassifikationseinheit 4.13 ist zur Detektion blockierter Straßenkreuzungen vorgesehen. Die fünfte Klassifikationseinheit 4.13 umfasst eine Einheit 4.13.1 zur Detektion von vorausfahrenden Verkehrsteilnehmern sowie eine weitere Einheit 4.13.2 zur Detektion von Straßenkreuzungen. Hierzu werden der fünften Klassifikationseinheit 4.13 die mittels der dritten, als Fahrzeugerkennung ausgebildeten Funktionseinheit 4.3 klassifizierten optischen Umgebungsinformationen und die mittels der dritten Erfassungseinheit 3.3 erfassten und Positionsdaten umfassenden Umgebungsinformationen zugeführt.
  • Mittels der Fahrzeugerkennung werden dabei vor dem Fahrzeug 2 befindliche Verkehrsteilnehmer erkannt. Wird mittels der Einheiten 4.13.1, 4.13.2 festgestellt, dass an einer Straßenkreuzung der Vorausfahrende nicht weiterfährt, wird ein Sollabstand mittels der Fahrerassistenzvorrichtung 5 derart eingestellt, dass das teilautonom oder autonom geführte Fahrzeug 2 nicht in die Straßenkreuzung einfährt.
  • In nicht näher dargestellter Weise umfasst die Auswerteeinheit 4 eine sechste Klassifikationseinheit, welche zur Klassifikation von Verkehrssituationen V vorgesehen ist, in welchen ein Überfahren einer roten Ampel erforderlich ist.
  • Hierzu werden mittels der Erfassungseinheiten 3.1 bis 3.3 die Umgebungsinformationen erfasst und mittels einer oder mehrerer der Funktionseinheiten 4.1 bis 4.8 derart ausgewertet und klassifiziert, dass mittels der Ampelerkennung festgestellt werden kann, ob sich das Fahrzeug 2 an einer roten Ampel befindet. Nähert sich ein Einsatzfahrzeug, beispielsweise ein Rettungsfahrzeug, dem Fahrzeug 2 von hinten, wird das Fahrzeug 2 mittels der Fahrerassistenzvorrichtung 5 derart gesteuert, dass dieses die rote Ampel überfährt, um eine freie Fahrgasse für das Einsatzfahrzeug zu schaffen. Hierzu wird die Fahrgasse für das Passieren der Einsatzfahrzeuge aus dem Rückraum vermessen. Steht das Fahrzeug 2 vor einer roten Ampel und ist eine Breite der Fahrgasse zu gering, wird mit geringer Geschwindigkeit bei roter Ampel gefahren, bis die Fahrgasse eine ausreichende Breite aufweist.
  • Weiterhin werden mittels der Fußgängererkennung und Fahrzeugerkennung im Bereich der Straßenkreuzung befindliche Personen und andere Verkehrsteilnehmer erfasst, um mittels der Fahrerassistenzvorrichtung 5 mögliche Kollisionen zu vermeiden und gegebenenfalls eine Bremsung bis zum Stillstand einzuleiten. Die Eigengeschwindigkeit des Fahrzeugs 2 wird dabei so gewählt, dass ein so genanntes Durchdrücken im Verkehr möglich ist. Unter dem Durchdrücken wird dabei verstanden, dass so dicht auf den Vordermann aufgefahren wird, bis dieser weiterfährt.
  • 2 zeigt eine Verkehrssituation V mit dem Fahrzeug 2 und einem weiteren, dem Fahrzeug 2 vorausfahrenden Fahrzeug 6. Bei dem weiteren Fahrzeug 6 handelt es sich um ein Räum- und Streufahrzeug zum Beräumen verschneiter Fahrbahnen und zum Aufbringen von Streusalz auf eine Fahrbahnoberfläche.
  • Da das ausgeworfene Streusalz zu Beschädigungen am nachfolgenden Fahrzeug 2 führen kann, ist es erforderlich dass ein ausreichender Abstand zwischen den Fahrzeugen 2, 6 eingestellt wird.
  • Hierzu wird mittels der der dritten, als Fahrzeugerkennung ausgebildeten Funktionseinheit 4.3 erkannt, dass das als Räum- und Streufahrzeug ausgebildete Fahrzeug 6 dem Fahrzeug 2 vorausfährt. Zur Einstellung des ausreichenden Abstands sind die optische Erfassungseinheit 3.1, beispielsweise eine Stereokamera, und die Auswerteeinheit 4 derart ausgebildet, dass eine durch den Auswurf des Streusalzes erzeugte Streusalzwolke SW nicht zur Erkennung von so genannten Phantomobjekten führt.
  • Bei der Erfassung eines als Räum- und Streufahrzeug ausgebildeten Fahrzeugs 6 wird das Fahrzeug 2 mittels der Fahrerassistenzvorrichtung 5 derart gesteuert, dass ein Überholen eines vorausfahrenden Räum- und Streufahrzeugs vermieden wird. Bei auf einer Gegenfahrspur entgegenkommenden Räum- und Streufahrzeugen wird die Eigengeschwindigkeit des Fahrzeugs 2 angepasst, insbesondere reduziert.
  • Weiterhin sind die optische Erfassungseinheit 3.1 und die Auswerteeinheit 4 derart ausgebildet, dass ein durch auf einer Gegenfahrspur entgegenkommendes Räumfahrzeug auf die eigene Fahrspur beförderter ”Schneewall” oder ”Schneenebel” nicht als Objekt erkannt wird, so dass eine allein aufgrund des ”Schnellwalls” oder ”Schneenebels” durchgeführte Notbremsung verhindert wird. Das gleiche gilt auch für die Streusalzwolke SW.
  • Bezugszeichenliste
  • 1
    Vorrichtung
    2
    Fahrzeug
    3
    Sensorik
    3.1 bis 3.3
    Erfassungseinheit
    4
    Auswerteeinheit
    4.1 bis 4.8
    Funktionseinheit
    4.9
    Klassifikationseinheit
    4.9.1
    Einheit
    4.9.2
    Einheit
    4.10
    Klassifikationseinheit
    4.10.1
    Einheit
    4.10.2
    Einheit
    4.11
    Klassifikationseinheit
    4.11.1
    Einheit
    4.11.2
    Einheit
    4.12
    Klassifikationseinheit
    4.12.1
    Einheit
    4.12.2
    Einheit
    4.13
    Klassifikationseinheit
    4.13.1
    Einheit
    4.13.2
    Einheit
    5
    Fahrerassistenzvorrichtung
    6
    Fahrzeug
    K1 bis Kn
    Klassifikationsergebnis
    SW
    Salzwolke
    V
    Verkehrssituation
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102010022165 A1 [0003]

Claims (5)

  1. Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs (2), wobei optische und akustische Umgebungsinformationen erfasst und klassifiziert werden, dadurch gekennzeichnet, dass in Abhängigkeit von Klassifikationsergebnissen (K1 bis Kn) zumindest ein Fahrzeugparameter variabel eingestellt wird, wobei der Fahrzeugparameter eine autonome oder teilautonome Fahrzeuglängssteuerung und/oder eine autonome oder teilautonome Fahrzeugquersteuerung und/oder situationsabhängig an den Fahrer ausgegebene Fahrhinweise betrifft.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass bei vom Klassifikationsergebnis (K1 bis Kn) der optischen Umgebungsinformationen abweichendem Klassifikationsergebnis (K1 bis Kn) der akustischen Umgebungsinformation Warnung an den Fahrer ausgegeben wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass in Abhängigkeit der Klassifikationsergebnisse (K1 bis Kn) zusätzlich zumindest ein, eine Fahrzeugbeleuchtung und/oder eine Fahrerwarneinrichtung betreffender Fahrzeugparameter variabel eingestellt wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass weitere Umgebungsinformationen mittels einer sattelitengestützten Navigationsvorrichtung erfasst und klassifiziert werden, wobei die weiteren Umgebungsinformationen betreffende Klassifikationsergebnisse (K1 bis Kn) zusätzlich zur variablen Einstellung des zumindest einen Fahrzeugparameters verwendet werden.
  5. Vorrichtung (1) zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs (2) mit zumindest einer optischen Erfassungseinheit (3.1) zur Erfassung optischer Umgebungsinformationen, zumindest einer akustischen Erfassungseinheit (3.2) zur Erfassung akustischer Umgebungsinformationen und zumindest einer Auswerteeinheit (4) zur Klassifikation der optischen und akustischen Umgebungsinformationen, dadurch gekennzeichnet, dass die Auswerteeinheit (4) mit zumindest einer Fahrerassistenzvorrichtung (5) gekoppelt ist, mittels welcher in Abhängigkeit von Klassifikationsergebnissen (K1 bis Kn) zumindest ein Fahrzeugparameter, welcher eine autonome oder teilautonome Fahrzeuglängssteuerung und/oder eine autonome oder teilautonome Fahrzeugquersteuerung und/oder situationsabhängig an den Fahrer ausgegebene Fahrhinweise betrifft, variabel einstellbar ist.
DE201310004271 2013-03-13 2013-03-13 Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs Withdrawn DE102013004271A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201310004271 DE102013004271A1 (de) 2013-03-13 2013-03-13 Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201310004271 DE102013004271A1 (de) 2013-03-13 2013-03-13 Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102013004271A1 true DE102013004271A1 (de) 2013-09-19

Family

ID=49044063

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201310004271 Withdrawn DE102013004271A1 (de) 2013-03-13 2013-03-13 Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102013004271A1 (de)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013220307A1 (de) * 2013-10-08 2015-04-09 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zur Unterstützung des Fahrers eines Kraftfahrzeugs bei der Bildung von Rettungsgassen
WO2015039654A3 (de) * 2013-09-23 2015-07-02 Conti Temic Microelectronic Gmbh Verfahren zur erkennung eines verkehrspolizisten durch ein fahrerassistenzsystem eines kraftfahrzeugs sowie ein fahrerassistenzsystem
DE102014207666A1 (de) * 2014-04-23 2015-10-29 Bayerische Motoren Werke Aktiengesellschaft Autonomes Fahren bei einer Gefahrensituation
US9428194B2 (en) 2014-12-11 2016-08-30 Toyota Motor Engineering & Manufacturing North America, Inc. Splash condition detection for vehicles
DE102015004605A1 (de) 2015-04-08 2016-10-13 Audi Ag Verfahren zum Betrieb eines Steuersystems einer Mobileinheit und Mobileinheit
DE102015209671A1 (de) * 2015-05-27 2016-12-01 Robert Bosch Gmbh Fahrerassistenzsystem zur Überquerung eines Bahnübergangs
WO2017115666A1 (en) * 2015-12-31 2017-07-06 Sony Corporation Method and system for adaptive detection and application of horn for an autonomous vehicle
CN107650914A (zh) * 2017-09-29 2018-02-02 上海汽车集团股份有限公司 先进驾驶辅助系统的车辆接口测试方法
DE102016221574A1 (de) * 2016-11-03 2018-05-03 Bayerische Motoren Werke Aktiengesellschaft Fahrzeugsystem und Verfahren zur automatisierten Durchführung eines Spurwechselmanövers mit einer Funktionalität zur Feststellung der Freigabe eines temporären Seitenstreifens
DE102016223494A1 (de) * 2016-11-25 2018-05-30 Bayerische Motoren Werke Aktiengesellschaft System für Kraftfahrzeuge zur Fahrunterstützung
CN110116731A (zh) * 2018-02-05 2019-08-13 通用汽车环球科技运作有限责任公司 传感器间学习
WO2019162405A1 (de) * 2018-02-23 2019-08-29 Audi Ag Verfahren zum betrieb eines vollautomatisch geführten kraftfahrzeugs und kraftfahrzeug
DE102018109711A1 (de) * 2018-04-23 2019-10-24 Valeo Schalter Und Sensoren Gmbh Verfahren zum automatisierten Steuern eines Kraftfahrzeugs mittels eines Fahrunterstützungssystems bei Anwesenheit eines anderen Fahrzeugs
DE102018214420A1 (de) * 2018-08-27 2020-02-27 Zf Friedrichshafen Ag Fahrerassistenzsystem
WO2020144339A1 (de) * 2019-01-11 2020-07-16 Robert Bosch Gmbh Verfahren zum automatisierten steuern eines fahrzeugs und steuergerät
FR3099904A1 (fr) * 2019-08-16 2021-02-19 Aptiv Technologies Limited Procédé de gestion d’un véhicule à moteur équipé d’un système avancé d’aide à la conduite
DE102019213818A1 (de) * 2019-09-11 2021-03-11 Zf Friedrichshafen Ag Detektieren von akustischen Betriebsmitteln eines Bahnübergangs
US11027747B2 (en) 2018-05-15 2021-06-08 International Business Machines Corporation Vehicle content based symbiosis for vehicle occupants
EP3876143A1 (de) * 2020-03-02 2021-09-08 ZKW Group GmbH System zur überwachung der umgebung eines kraftfahrzeuges
US11127297B2 (en) * 2017-07-17 2021-09-21 Veoneer Us, Inc. Traffic environment adaptive thresholds
US11244564B2 (en) 2017-01-26 2022-02-08 Magna Electronics Inc. Vehicle acoustic-based emergency vehicle detection
WO2022073777A1 (de) * 2020-10-07 2022-04-14 Valeo Schalter Und Sensoren Gmbh Verfahren zum betreiben eines fahrerassistenzsystems, computerprogrammprodukt, fahrerassistenzsystem und fahrzeug
US20220197300A1 (en) * 2020-12-22 2022-06-23 Waymo Llc Sensor for Flashing Light Detection
US11600076B2 (en) 2016-01-23 2023-03-07 Audi Ag Detection of a hazardous situation in road traffic
US11866063B2 (en) 2020-01-10 2024-01-09 Magna Electronics Inc. Communication system and method
DE102022210288A1 (de) 2022-09-28 2024-03-28 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Ermittlung eines Regelungszustandes einer Ampel

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010022165A1 (de) 2010-05-20 2011-01-05 Daimler Ag Verfahren und Vorrichtung zur Erfassung zumindest eines von einem Einsatzfahrzeug ausgehenden akustischen Sondersignals für ein Fahrzeug

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010022165A1 (de) 2010-05-20 2011-01-05 Daimler Ag Verfahren und Vorrichtung zur Erfassung zumindest eines von einem Einsatzfahrzeug ausgehenden akustischen Sondersignals für ein Fahrzeug

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015039654A3 (de) * 2013-09-23 2015-07-02 Conti Temic Microelectronic Gmbh Verfahren zur erkennung eines verkehrspolizisten durch ein fahrerassistenzsystem eines kraftfahrzeugs sowie ein fahrerassistenzsystem
DE102013220307A1 (de) * 2013-10-08 2015-04-09 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zur Unterstützung des Fahrers eines Kraftfahrzeugs bei der Bildung von Rettungsgassen
DE102014207666A1 (de) * 2014-04-23 2015-10-29 Bayerische Motoren Werke Aktiengesellschaft Autonomes Fahren bei einer Gefahrensituation
US9428194B2 (en) 2014-12-11 2016-08-30 Toyota Motor Engineering & Manufacturing North America, Inc. Splash condition detection for vehicles
DE102015004605A1 (de) 2015-04-08 2016-10-13 Audi Ag Verfahren zum Betrieb eines Steuersystems einer Mobileinheit und Mobileinheit
DE102015004605B4 (de) * 2015-04-08 2021-01-14 Audi Ag Verfahren zum Betrieb eines Steuersystems einer Mobileinheit und Mobileinheit
DE102015209671A1 (de) * 2015-05-27 2016-12-01 Robert Bosch Gmbh Fahrerassistenzsystem zur Überquerung eines Bahnübergangs
DE102015209671B4 (de) * 2015-05-27 2016-12-08 Robert Bosch Gmbh Fahrerassistenzsystem zur Überquerung eines Bahnübergangs
JP2019506324A (ja) * 2015-12-31 2019-03-07 ソニー株式会社 自動運転車のためのホーンの適応検出および適用のための方法およびシステム
WO2017115666A1 (en) * 2015-12-31 2017-07-06 Sony Corporation Method and system for adaptive detection and application of horn for an autonomous vehicle
US11600076B2 (en) 2016-01-23 2023-03-07 Audi Ag Detection of a hazardous situation in road traffic
DE102016221574A1 (de) * 2016-11-03 2018-05-03 Bayerische Motoren Werke Aktiengesellschaft Fahrzeugsystem und Verfahren zur automatisierten Durchführung eines Spurwechselmanövers mit einer Funktionalität zur Feststellung der Freigabe eines temporären Seitenstreifens
DE102016223494A1 (de) * 2016-11-25 2018-05-30 Bayerische Motoren Werke Aktiengesellschaft System für Kraftfahrzeuge zur Fahrunterstützung
US11244564B2 (en) 2017-01-26 2022-02-08 Magna Electronics Inc. Vehicle acoustic-based emergency vehicle detection
US11127297B2 (en) * 2017-07-17 2021-09-21 Veoneer Us, Inc. Traffic environment adaptive thresholds
CN107650914B (zh) * 2017-09-29 2020-05-12 上海汽车集团股份有限公司 先进驾驶辅助系统的车辆接口测试方法
CN107650914A (zh) * 2017-09-29 2018-02-02 上海汽车集团股份有限公司 先进驾驶辅助系统的车辆接口测试方法
CN110116731A (zh) * 2018-02-05 2019-08-13 通用汽车环球科技运作有限责任公司 传感器间学习
WO2019162405A1 (de) * 2018-02-23 2019-08-29 Audi Ag Verfahren zum betrieb eines vollautomatisch geführten kraftfahrzeugs und kraftfahrzeug
DE102018109711A1 (de) * 2018-04-23 2019-10-24 Valeo Schalter Und Sensoren Gmbh Verfahren zum automatisierten Steuern eines Kraftfahrzeugs mittels eines Fahrunterstützungssystems bei Anwesenheit eines anderen Fahrzeugs
US11027747B2 (en) 2018-05-15 2021-06-08 International Business Machines Corporation Vehicle content based symbiosis for vehicle occupants
WO2020043403A1 (de) 2018-08-27 2020-03-05 Zf Friedrichshafen Ag Fahrerassistenzsystem
DE102018214420A1 (de) * 2018-08-27 2020-02-27 Zf Friedrichshafen Ag Fahrerassistenzsystem
WO2020144339A1 (de) * 2019-01-11 2020-07-16 Robert Bosch Gmbh Verfahren zum automatisierten steuern eines fahrzeugs und steuergerät
FR3099904A1 (fr) * 2019-08-16 2021-02-19 Aptiv Technologies Limited Procédé de gestion d’un véhicule à moteur équipé d’un système avancé d’aide à la conduite
DE102019213818A1 (de) * 2019-09-11 2021-03-11 Zf Friedrichshafen Ag Detektieren von akustischen Betriebsmitteln eines Bahnübergangs
US11866063B2 (en) 2020-01-10 2024-01-09 Magna Electronics Inc. Communication system and method
EP3876143A1 (de) * 2020-03-02 2021-09-08 ZKW Group GmbH System zur überwachung der umgebung eines kraftfahrzeuges
WO2021175814A1 (de) * 2020-03-02 2021-09-10 Zkw Group Gmbh System zur überwachung der umgebung eines kraftfahrzeuges
WO2022073777A1 (de) * 2020-10-07 2022-04-14 Valeo Schalter Und Sensoren Gmbh Verfahren zum betreiben eines fahrerassistenzsystems, computerprogrammprodukt, fahrerassistenzsystem und fahrzeug
US20220197300A1 (en) * 2020-12-22 2022-06-23 Waymo Llc Sensor for Flashing Light Detection
US11899468B2 (en) * 2020-12-22 2024-02-13 Waymo Llc Sensor for flashing light detection
DE102022210288A1 (de) 2022-09-28 2024-03-28 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Ermittlung eines Regelungszustandes einer Ampel

Similar Documents

Publication Publication Date Title
DE102013004271A1 (de) Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs
EP3160813B1 (de) Verfahren zur erstellung eines umfeldmodells eines fahrzeugs
EP1904340B1 (de) Verfahren und vorrichtung zur fahrerunterstützung
EP2562039B1 (de) Verfahren und Vorrichtung zum Ändern einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
DE102012200950B3 (de) Verfahren und Vorrichtung zur Erkennung einer Sondersituation im Straßenverkehr
EP2540596B1 (de) Verfahren und Vorrichtung zum teilautomatischen Fahren eines Kraftfahrzeugs
DE102014002116B4 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems für Überholvorgänge und Kraftfahrzeug
DE102016002230B4 (de) Verfahren zum Betrieb eines Kraftfahrzeugs und Kraftfahrzeug
DE102014223744A1 (de) Assistenzsystem zur Detektion von in der Umgebung eines Fahrzeuges auftretenden Fahrhindernissen
DE102011003881A1 (de) Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs
DE102017212607A1 (de) Verfahren und Vorrichtung zur umgebungsbasierten Adaption von Fahrerassistenzsystem-Funktionen
DE102018201896B4 (de) Ermitteln des Fahrens eines Fahrzeugs auf einer Auffahrt
DE102009021284A1 (de) Kraftfahrzeug mit einem Umgebungssensor und Verfahren zum Betreiben des Umgebungssensors
DE102014214090A1 (de) Verfahren zur Erkennung von Verkehrssituationen
DE102019215657A1 (de) Fahrzeugsteuerungsstystem und -verfahren
DE102015200059A1 (de) Fahrer-Intentions-Vorhersage-Vorrichtung und Verfahren und Fahrzeug umfassend solch eine Vorrichtung
DE102012206903A1 (de) Verfahren für ein Assistenzsystem eines Fahrzeugs
WO2009097883A1 (de) Verfahren zum betrieb einer bildaufnahmevorrichtung und eine bildaufnahmevorrichtung
DE102017103862A1 (de) System für eine Verkehrsfläche und Verfahren mit einem System für eine Verkehrsfläche
DE102007001117A1 (de) Verfahren für die Steuerung eines Fahrerassistenzsystems
DE102005008266A1 (de) Dynamische Routenplanung unter Beachtung von Objekten im Seitenraum von Fahrzeugen
DE102018207719A1 (de) Vorrichtung und Verfahren zum Betreiben eines automatisierten Fahrzeugs
DE102018209653A1 (de) Bildung einer Gasse für ein sich annäherndes Einsatzfahrzeug
DE102014013218A1 (de) Fahrerassistenzsystem für einen Kraftwagen sowie Verfahren zum Betreiben eines solchen Fahrerassistenzsystems
DE102011014455A1 (de) Verfahren und Vorrichtung zum Betrieb eines Fahrzeuges mit einer Beleuchtungsvorrichtung

Legal Events

Date Code Title Description
R230 Request for early publication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee