DE102018218137B4 - System, Verfahren und Computerprogrammprodukt zur Erzeugung eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges - Google Patents

System, Verfahren und Computerprogrammprodukt zur Erzeugung eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges Download PDF

Info

Publication number
DE102018218137B4
DE102018218137B4 DE102018218137.3A DE102018218137A DE102018218137B4 DE 102018218137 B4 DE102018218137 B4 DE 102018218137B4 DE 102018218137 A DE102018218137 A DE 102018218137A DE 102018218137 B4 DE102018218137 B4 DE 102018218137B4
Authority
DE
Germany
Prior art keywords
vehicle
driver
emergency
host vehicle
context
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018218137.3A
Other languages
English (en)
Other versions
DE102018218137A1 (de
Inventor
Andrea Loi
Florian Ade
Julian Fieres
Anja Petrich
Lucas Hanson
Debora Lovison
Thomas Keutgens
Jens Kotte
Thomas Boettcher
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102018218137.3A priority Critical patent/DE102018218137B4/de
Priority to EP19769444.1A priority patent/EP3871208A1/de
Priority to PCT/EP2019/074467 priority patent/WO2020083564A1/de
Publication of DE102018218137A1 publication Critical patent/DE102018218137A1/de
Application granted granted Critical
Publication of DE102018218137B4 publication Critical patent/DE102018218137B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0965Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages responding to signals from another vehicle, e.g. emergency vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Traffic Control Systems (AREA)

Abstract

System zur Erzeugung eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug (1) für einen Fahrzeugführer eines Egofahrzeuges (2) umfassend• wenigstens zwei Akustiksensoren (10,12), um Signaltöne des Einsatzfahrzeuges (1) zu erfassen, wobei die Akustiksensoren (10,12) derart an dem Egofahrzeug (2) anordenbar sind, dass eine Richtung, aus der die Signaltöne eintreffen, relativ zu dem Egofahrzeug (2) erfassbar ist,• wenigstens einen Bildgebungssensor (14, 16), um eine Anzahl von Fahrbahnen (3), eine Fahrbahnbreite (b) und die Straßenklasse der Fahrbahn (3), auf der das Egofahrzeug (2) und/oder das Einsatzfahrzeug (1) fahren und/oder das Einsatzfahrzeug (1) zu erfassen,• wenigstens einen weiteren Umfelderfassungssensor (18), um das Umfeld des Egofahrzeuges (2) zu erfassen,• eine erste Schnittstelle (11) zu einem Positionsbestimmungssystem, um die Position des Egofahrzeuges (2) zu erhalten,• eine zweite Schnittstelle (13), um in Abhängigkeit der Position des Egofahrzeuges (2) Kartendaten, Verkehrsdaten und/oder Wetterdaten zu erhalten,• eine Beobachtungseinrichtung (15), um einen Zustand des Fahrzeugführers zu erfassen, wobei die Beobachtungseinrichtung (15) eine 3D Kamera, die anhand von 3D-Informationen als Zustand des Fahrzeugführers dessen Aufmerksamkeits- und/oder Müdigkeitslevel erfasst,• eine Auswerteeinrichtung (20), die ausgeführt ist, in Abhängigkeit dieser erfassten und erhaltenen Informationen den Kontext abhängigen Hinweis auf das Einsatzfahrzeug (1) für den Fahrzeugführer in Form eines Signals zu erzeugen, und• eine Mensch-Maschinen-Benutzungsschnittstelle (22), um dieses Signal dem Fahrzeugführer auszugeben.

Description

  • Die Erfindung bezieht sich auf ein System nach Anspruch zur Erzeugung eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges. Ferner bezieht sich die Erfindung auf ein Verfahren nach Anspruch 2 zur Erzeugung eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges. Außerdem bezieht sich die Erfindung auf ein Computerprogrammprodukt nach Anspruch 6 zur Erzeugung eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges.
  • Die DE 43 23 145 A1 offenbart eine Vorrichtung zur Verbesserung der Wahrnehmung der von Einsatzfahrzeugen ausgehenden akustischen und/oder optischen Sondersignale in einem Kraftfahrzeug. Weiterer Stand der Technik ist beispielsweise in DE 10 2004 045 690 A1 offenbart.
  • Das Erhalten, Erfassen und Verarbeiten von Informationen über die Präsenz eines nähernden Einsatzfahrzeuges und die Richtung, aus der das Einsatzfahrzeug sich einem Egofahrzeug nähert, verlangen dem Fahrzeugführer des Egofahrzeuges einen komplexen Informationsverarbeitungsprozess ab. Zusätzlich muss der Fahrzeugführer ein Bewusstsein für den jeweiligen Gesamtkontext haben, um mit einem korrekten Fahrverhalten auf das sich nähernde Einsatzfahrzeug reagieren zu können. Das Fahrverhalten hängt von dem Kontext ab, zum Beispiel der Straßenklasse, der Verkehrsbedingungen und der aktuellen Fahrbahn des Egofahrzeuges und/oder Einsatzfahrzeuges ab. Daher ist der Fahrzeugführer in der Regel überfordert, sein Fahrverhalten korrekt an die Situation eines sich nähernden Einsatzfahrzeuges anzupassen. Ergebnis sind Unfälle des Fahrzeugführers und/oder Verkehrsstaus.
  • Hier setzt die Erfindung an. Der Erfindung hat die Aufgabe zu Grunde gelegen, die Wahrnehmung von Einsatzfahrzeugen Kontext abhängig zu verbessern.
  • Gelöst wird die Aufgabe durch ein System zur Erzeugung eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges mit den Merkmalen des Anspruchs 1. Ferner wird die Aufgabe gelöst durch ein Verfahren zur Erzeugung eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges mit den Merkmalen des Anspruchs 2. Außerdem wird die Aufgabe gelöst durch ein Computerprogrammprodukt zur Erzeugung eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges mit den Merkmalen des Anspruch 6.
  • Weiterbildungen und vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.
  • Das erfindungsgemäße System ist ausgeführt, einen Kontext abhängigen Hinweis auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges zu erzeugen. Das System umfasst wenigstens zwei Akustiksensoren. Die Akustiksensoren erfassen Signaltöne des Einsatzfahrzeuges. Die Akustiksensoren sind derart an dem Egofahrzeug anordenbar, dass eine Richtung, aus der die Signaltöne eintreffen, relativ zu dem Egofahrzeug erfassbar ist. Ferner umfasst das System wenigstens einen Bildgebungssensor. Der Bildgebungssensor erfasst eine Anzahl von Fahrbahnen, eine Fahrbahnbreite und die Straßenklasse der Fahrbahn, auf der das Egofahrzeug und/oder das Einsatzfahrzeug fahren und/oder das Einsatzfahrzeug. Außerdem umfasst das System einen weiteren Umfelderfassungssensor. Der Umfelderfassungssensor erfasst das Umfeld des Egofahrzeuges. Des Weiteren umfasst das System eine erste Schnittstelle zu einem Positionsbestimmungssystem. Über die erste Schnittstelle wird die die Position des Egofahrzeuges erhalten. Zusätzlich umfasst das System eine zweite Schnittstelle. Über die zweite Schnittstelle werden in Abhängigkeit der Position des Egofahrzeuges Kartendaten, Verkehrsdaten und/oder Wetterdaten erhalten. Das System umfasst auch eine Beobachtungseinrichtung. Die Beobachtungseinrichtung erfasst einen Zustand des Fahrzeugführers. Das System umfasst weiter eine Auswerteeinrichtung. Die Auswerteeinrichtung ist ausgeführt, in Abhängigkeit dieser erfassten und erhaltenen Informationen den Kontext abhängigen Hinweis auf das Einsatzfahrzeug für den Fahrzeugführer in Form eines Signals zu erzeugen. Das System umfasst weiter eine Mensch-Maschinen-Benutzungsschnittstelle. Die Mensch-Maschinen-Schnittstelle gibt dieses Signal dem Fahrzeugführer aus.
  • Einsatzfahrzeuge sind für Noteinsätze speziell ausgerüstete Fahrzeuge zu Lande, zu Wasser oder in der Luft. Einsatzfahrzeuge sind länderspezifisch mit Rundumlicht und Folgetonhorn gekennzeichnet. Beispielsweise sind ein blaues Rundumlicht und ein „ta-tü-ta-ta“ Folgeton Kennzeichen eines Rettungseinsatzfahrzeuges. Zusätzlich zu dem Rundumlicht können Einsatzfahrzeuge Blinklichter mit Hauptabstrahlrichtung in und entgegen der Fahrtrichtung aufweisen.
  • Das Egofahrzeug ist das Fahrzeug, das von dem Fahrzeugführer gefahren wird. Bevorzugt ist das Egofahrzeug ein Straßenfahrzeug.
  • Ein Akustiksensor ist ein Sensor, der zur Schallaufnahme verwendet wird. Der Akustiksensor wandelt Schall, insbesondere Schallwechseldrücke, in elektrische Signale um. Beispielsweise ist ein Mikrofon ein Akustiksensor. Mit wenigstens zwei Akustiksensoren, die räumlich voneinander getrennt sind, ist durch Analyse der detektierten Signale eine Richtung der Schallquelle relativ zu den Akustiksensoren bestimmbar. Vorzugsweise ist bei Verwendung des erfindungsgemäßen Systems ein erster der wenigstens zwei Akustiksensoren in Fahrtrichtung in einem vorderen Bereich des Egofahrzeuges angeordnet. Ein zweiter der wenigstens zwei Akustiksensoren ist in Fahrtrichtung in einem hinteren Bereich des Egofahrzeuges angeordnet. Mit einer derartigen Anordnung ist feststellbar, ob sich das Einsatzfahrzeug relativ zu dem Egofahrzeug von vorne oder von hinten nähert. Die an das Egofahrzeug anordenbare Mikrofone sind Mikrofone, die für automobile Anwendungen geeignet sind, das heißt insbesondere entsprechend witterungsbeständig, funktionssicher, und Wind und Spritzwasser resistent sind. Vorzugweise weisen diese Mikrofone Filter und/oder Verstärker auf, um für Signaltöne von Einsatzfahrzeugen besonders sensitiv zu sein.
  • Ein Bildgebungssensor wandelt Licht in elektrische Signale um zur Erzeugung eines Bildes. Dem Bildgebungssensor kann ein optisches System umfassend eine Linse und/oder eine Blende vorausgeschaltet sein. Beispielsweise ist eine Kamera ein Bildgebungssensor.
  • Straßenklasse beschreibt die Klassifizierung einer Straße beispielsweise hinsichtlich Fahrbahnbreite und/oder Nutzungsbeschränkungen. Beispielsweise lassen sich Straßen in Autobahn, Landstraße und Gemeindestraße klassifizieren. Landstraßen können eine geringe Fahrbahnbreite aufweisen. Mit dem Bildgebungssensor wird also erkannt, ob eine Fahrbahn eine Autobahn, eine Landstraße oder eine Gemeindestraße ist. Abhängig von der erkannten Straßenklasse unterstützt das System den Fahrzeugführer. Beispielsweise ist der Kontext eines herannahenden Einsatzfahrzeuges auf einer Autobahn verschieden von dem Kontext eines herannahenden Einsatzfahrzeuges auf einer Landstraße. Nähert sich das Einsatzfahrzeug relativ zu dem Egofahrzeug von hinten, hat der Fahrzeugführer bei Autobahn und Landstraße den Weg für das Einsatzfahrzeug frei zu räumen, beispielsweise durch Fahren an den rechten Fahrbahnrand. Wenn sich aber das Einsatzfahrzeug relativ zu dem Egofahrzeug von vorne nähert, befindet sich im Kontext der Autobahn das Einsatzfahrzeug relativ zu dem Egofahrzeug auf einer anderen Fahrspur, die von der Fahrspur des Egofahrzeuges getrennt ist. Signaltöne des Einsatzfahrzeuges verlangen dann keine Reaktion des Fahrzeugführers des Egofahrzeuges. Auf Landstraßen sind die Fahrbahnen meist nicht getrennt voneinander und die Fahrbahnbreiten sind gewöhnlich schmäler als die von Autobahnen. Signaltöne des Einsatzfahrzeuges verlangen dann eine entsprechende Reaktion des Fahrzeugführers des Egofahrzeuges.
  • Vorzugsweise ist der Bildgebungssensor ausgeführt, Verkehrszeichen, insbesondere Verkehrsschilder und/oder Verkehrslichter, wie zum Beispiel Ampellichter, zu erkennen. Ein Aspekt der Erfindung besteht darin, dass die Auswerteeinrichtung aus diesen erkannten Verkehrszeichen lokale Verkehrsregeln ableiten kann. Das System ist also nicht länderspezifisch, sondern kann länderübergreifend verwendet werden.
  • Das Umfeld eines Egofahrzeuges bezeichnet einen Raum um das Egofahrzeug, dessen Objekte auf das Egofahrzeug einwirken können. Das Egofahrzeug erfasst sein Umfeld mittels Umfelderfassungssensoren, neben Akustiksensoren und Kamera zum Beispiel Radar-, Lidar-, Infrarot-und/oder Ultraschallsensoren. Durch die Erfassung des Umfeldes wird eine kritische Fahrzeugführung vermieden. Zum Beispiel wird mit der Erfassung des rückwärtigen Bereichs des Egofahrzeuges eine Fahrzeugführung auf eine Fahrbahn, auf der sich ein weiteres Fahrzeug relativ zu dem Egofahrzeug von hinten nähert, vermieden.
  • Eine Schnittstelle ist eine Bauteil zwischen wenigstens zwei Funktionseinheiten, an der ein Austausch von logischen Größen, z.B. Daten oder physikalischen Größen, z.B. elektrischen Signalen, erfolgt, entweder nur unidirektional oder bidirektional. Der Austausch kann analog oder digital erfolgen. Der Austausch kann drahtlos oder drahtgebunden erfolgen. Eine Schnittstelle kann zwischen Software und Software, Hardware und Hardware sowie Software und Hardware und Hardware und Software bestehen.
  • Ein Positionsbestimmungssystem ist ein Satellitennavigationssystem, zum Beispiel NAVSTAR GPS, GLONASS, Galileo oder Beidou.
  • Die zweite Schnittstelle ist insbesondere eine Schnittstelle zu einem Onlinedienstleistungsanbieter, zum Beispiel einer Cloud, die Informationen über Wetter, lokale Verkehrsregeln, Geschwindigkeitsbeschränkungen, Verkehrsstaus, auftretende Hindernisse und/oder Unfälle bereitstellt. Alternativ ist die zweite Schnittstelle in Form eines Steuergeräts, im Englischen als electric control unit, abgekürzt ECU, bezeichnet, für Fahrzeug-zu-Fahrzeug-Kommunikation, im Englischen als vehicle-to-vehicle- communication, abgekürzt V2V, bezeichnet, und/oder Fahrzeug-zu-Infrastruktur-Kommunikation, im Englischen als vehicle-to-everything-communication, abgekürzt V2X, bezeichnet, realisiert.
  • Eine Beobachtungseinrichtung ist erfindungsgemäß eine 3D-Kamera, zum Beispiel eine Time-of-Flight-Kamera, die den Innenraum des Egofahrzeuges erfasst, insbesondere den Fahrzeugführer. Anhand von 3D-Informationen, beispielsweise Pose und/oder Mimik, wird als ein Zustand des Fahrzeugführers dessen Aufmerksamkeits- und/oder Müdigkeitslevel erfasst.
  • Eine Auswerteeinrichtung ist eine Vorrichtung, die eingehende Informationen verarbeitet und ein aus dieser Verarbeitung resultierendes Ergebnis ausgibt. Insbesondere ist eine elektronische Schaltung, wie zum Beispiel eine zentrale Prozessoreinheit oder ein Grafikprozessor, eine Auswerteinrichtung. Die Auswerteeinrichtung ist vorzugsweise als ein System-on-a-Chip realisiert, das heißt alle oder zumindest ein großer Teil der Funktionen sind auf einem Chip integriert. Der Chip umfasst beispielsweise einen Mehrkernprozessor. Bei einem Mehrkernprozessor sind mehrere Kerne auf einem einzigen Chip, das heißt einem Halbleiterbauelement, angeordnet sind. Mehrkernprozessoren erreichen eine höhere Rechenleistung und sind kostengünstiger in einem Chip zu implementieren im Vergleich zu Mehrprozessorsystemen, bei denen jeder einzelne Kern in einem Prozessorsockel angeordnet ist und die einzelnen Prozessorsockel auf einer Hauptplatine angeordnet sind. Der Mehrkernprozessor umfasst mehrere zentralen Verarbeitungsprozessoren, im Englischen als Central Processing Unit, abgekürzt CPU, bezeichnet. Der Chip umfasst auch mehrere Grafikprozessoren, im Englischen als Graphic Processing Unit, abgekürzt GPU, bezeichnet. Grafikprozessoren besitzen eine spezielle Mikroarchitektur zum parallelen Prozessieren von Abläufen. Insbesondere umfasst ein Grafikprozessor wenigstens eine Prozesseinheit, die speziell zum Ausführen von Tensor-und/oder Matrixmultiplikationen ausgeführt ist. Tensor- und/oder Matrixmultiplikationen sind die zentralen Rechenoperationen für das Deep Learning, das heißt künstliche neuronale Netzwerke mit mehreren Zwischenschichten. Die Auswerteeinrichtung umfasst vorzugsweise auch Hardware Beschleuniger für künstliche Intelligenz insbesondere sogenannte Deep Learning Accelerators. Damit ist die Auswerteeinrichtung insgesamt für Deep Learning optimiert und skalierbar, das heißt die Auswerteeinrichtung kann für verschiedene SAE-Level angepasst werden. Automatisiert betreibbare Fahrzeuge können nach Level der Norm SAEJ3016 eingeteilt werden. Ein reines Assistenzsystem assistiert dem Fahrer bei der Durchführung einer Fahraufgabe. Dies entspricht SAE-Level 1. SAE-Level 5 ist dadurch definiert, dass die durchgängige Ausführung aller Aspekte der dynamischen Fahraufgabe durch ein automatisiertes Fahrsystem unter allen Fahr- und Umweltbedingungen, die von einem menschlichen Fahrer bewältigt werden können, ausgeführt wird. Höhere Automatisierungsstufen erfordern nämlich mehr Rechenleistung als niedrigere Automatisierungsstufen. Die Erfindung ist insbesondere für SAE Level 3, 4 und 5 vorgesehen. Insbesondere in einer Übergangszeit zum hochautomatisiertem Fahren wird die Erfindung auf SAE Level 3 und 4 eingesetzt, um daran anschließend auf SAE Level 5 verwendet zu werden. SAE Level 5 entspricht dem vollautomatisierten oder autonomen Fahren.
  • Vorteilhaferweise ist die Auswerteeinrichtung ausgeführt, in Abhängigkeit der erfassten und erhaltenen Rohdaten den Kontext abhängigen Hinweis auf das Einsatzfahrzeug für den Fahrzeugführer mit Mitteln der künstlichen Intelligenz erzeugen. Künstliche Intelligenz ist ein Oberbegriff für die Automatisierung intelligenten Verhaltens. Beispielsweise lernt ein intelligenter Algorithmus, zweckgerichtet auf neue Informationen zu reagieren. Ein intelligenter Algorithmus ist zum Beispiel ein künstliches neuronales Netzwerk, im Englischen als Artificial Neural Network bezeichnet. Ein künstliches neuronales Netzwerk ist ein Algorithmus, der auf einer elektronischen Schaltung ausgeführt wird und am Vorbild des neuronalen Netzwerks des menschlichen Gehirns programmiert ist.
  • Die Auswerteeinrichtung ist erfindungsgemäß ausgeführt, die erfassten und erhaltenen Informationen zu fusionieren. Fusion umfasst Methoden, um Daten aus unterschiedlichen Quellen zu verknüpfen, mit dem Ziel, neues und präziseres Wissen über die Daten und damit verbundene Ereignisse zu gewinnen.
  • Eine Mensch-Maschinen-Benutzungsschnittstelle, im Englischen als humanmachine-interface, abgekürzt HMI, bezeichnet, ist eine Schnittstelle, über die ein Mensch mit einer Maschine in Kontakt tritt. Beispielsweise ist ein Touchscreen eines Infotainmentsystems eines Fahrzeuges ein HMI. Die Ausgabe der HMI kann ein optisches, akustisches und/oder taktiles Signal sein, mit dem der Fahrzeugführer Kontext abhängig auf die Präsenz eines Einsatzfahrzeuges hingewiesen wird. Dieses Signal kann auch als eine Handlungs-/Verhaltensanweisung bereitgestellt werden, zum Beispiel als akustische Aufforderung an den Fahrzeugführer, abzubremsen und das Egofahrzeug an den rechten Fahrbahnrand zu manövrieren. Das Signal kann auch direkt als ein Fahrzeugsteuerungsbefehl Aktoren für Längs-und/oder Querregelung des Egofahrzeuges bereitgestellt werden, um ein autonomes Fahren zu ermöglichen.
  • Mit dem erfindungsgemäßen System wird der jeweilige Verkehrskontext mittels verschiedensten Informationsquellen für den Fahrzeugführer umfassend dargestellt. Die Informationsquellen sind Akustiksensoren, Bildgebungssensoren, weitere Umfelderfassungssensoren, Positionsbestimmungssysteme, Kartendaten, Verkehrsdaten und Wetterdaten in Kombination. Diese Gesamtwissen der jeweiligen Verkehrssituation wird genutzt, um dem Fahrzeugführer verbesserte Warnhinweise und Handlungs-/Verhaltensanweisungen zu geben, abhängig von der jeweiligen Verkehrssituation. Erfindungsgemäß wird die Präsenz des Einsatzfahrzeuges mittels den Akustiksensoren und/oder dem Bildgebungssensor erfasst. Diese Erfassung wird in den Gesamtkontext gesetzt, den das System aus einer Kombination der aus den verschiedenen Quellen erhaltenen Informationen bestimmt. Durch diese Kombination werden vorteilhafterweise logische Zusammenhänge zwischen den einzelnen Informationen erkannt. Durch diese Kombination werden die einzelnen Informationen vorteilhafterweise gegenseitig überprüft und plausibilisiert und dadurch eine Qualität des erhaltenen Kontextes verbessert. Insbesondere ist die Auswerteeinrichtung ausgeführt, aus jeden einzelnen Informationen jeweilige spezifische Merkmale zu generieren. Zum Beispiel wird aus dem mit dem Bildgebungssensor erfassten Bild des Einsatzfahrzeuges das Merkmal generiert, dass ein Einsatzfahrzeug vorhanden ist. Aus einer Aufnahme eines Fahrzeuges eines Radars als Beispiel eines Umfelderfassungssensors wird das Merkmal generiert, dass das Fahrzeug sich dem Egofahrzeug nähert. Die Auswerteeinrichtung bestimmt eine Kreuzrelation dieser Merkmale, nämlich dass sich ein Einsatzfahrzeug dem Egofahrzeug nähert. Mit dieser Kreuzrelation, insbesondere mit mehreren Merkmalen, wird ein Szenenverständnis erhalten. Dadurch kann der Hinweis an den Fahrzeugführer des Egofahrzeuges verbessert an den jeweiligen Kontext angepasst werden.
  • Ein weiterer Aspekt der Erfindung ist, dass das System ausgeführt ist, den Kontext abhängigen Hinweis auf das Einsatzfahrzeug in Form eines Fahrzeugsteuerungsbefehls einer Fahrzeugsteuerungseinrichtung zu übergeben. Eine Fahrzeugsteuerungseinrichtung ist ausgeführt, die Längs- und/oder Quersteuerung eines Fahrzeuges, beispielsweise mittels Regelkreisen, zu regeln. Damit kann das Fahrzeug in Abhängigkeit dieses Hinweises autonom, ohne menschlichen Fahrer, in Reaktion auf die Präsenz eines Einsatzfahrzeuges gesteuert werden.
  • Mit dem erfindungsgemäßen Verfahren wird ein Kontext abhängiger Hinweis auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges erzeugt. Das Verfahren umfasst die Verfahrensschritte:
    • • Erfassen von Signaltönen des Einsatzfahrzeuges und Bestimmen der Richtung, aus der die Signaltöne eintreffen, relativ zu dem Egofahrzeug,
    • • Erfassen einer Anzahl von Fahrbahnen, einer Fahrbahnbreite und der Straßenklasse der Fahrbahn, auf der das Egofahrzeug und/oder das Einsatzfahrzeug fahren,
    • • Erfassen des Einsatzfahrzeuges,
    • • Erfassen des Umfeldes des Egofahrzeuges,
    • • Erhalten einer Position des Egofahrzeuges,
    • • Erhalten von Kartendaten, Verkehrsdaten und/oder Wetterdaten in Abhängigkeit der Position des Egofahrzeuges,
    • • Erfassen eines Zustandes des Fahrzeugführers,
    • • Erzeugen des Kontexts abhängigen Hinweises auf das Einsatzfahrzeug für den Fahrzeugführer in Form eines Signals in Abhängigkeit der erfassten und erhaltenen Informationen, und
    • • Ausgeben dieses Signals an den Fahrzeugführer.
  • Erfindungsgemäß wird zur Durchführung des Verfahrens das erfindungsgemäße System verwendet.
  • In einer bevorzugten Ausgestaltung der Erfindung fusioniert Auswerteeinrichtung die Erfassung Signaltöne des Einsatzfahrzeuges mittels der Akustiksensoren mit der Erfassung des Einsatzfahrzeuges mittels des Bildgebungssensors. Durch diese Fusion wird die Genauigkeit der Detektion, der Erfassung und der Erkennung des Einsatzfahrzeuges als ein Einsatzfahrzeug verbessert. Ferner wird durch die Akustiksensoren die Redundanz der Erfassung des Einsatzfahrzeuges erhöht. Insbesondere wird mittels der Fusion der Signaltöne des Einsatzfahrzeuges mit beispielsweise den Bildern einer Kamera das Einsatzfahrzeug auch dann als ein Einsatzfahrzeug erkannt, wenn die Kamera nur teilweise funktioniert, beispielsweise wegen schlechter Sicht bei dichtem Schneefall. Damit sind auch die Sollfunktionen der Sensoren hinreichend gesichert, im Englischen safety of the intended functionality genannt.
  • Die voran genannte Fusion wird vorzugsweise von der Auswerteeinrichtung mit der Erfassung der Anzahl von Fahrbahnen, der Fahrbahnbreite und der Straßenklasse der Fahrbahn mittels des Bildgebungssensors, der Erfassung des Umfeldes des Egofahrzeuges mittels des Umfelderfassungssensors und der erhaltenen Kartendaten, Verkehrsdaten und/oder Wetterdaten fusioniert. Durch diese Fusion wird der Verkehrskontext genauer erfasst.
  • In einer besonders vorteilhaften Ausgestaltung der Erfindung fusioniert die Auswerteeinrichtung die nächstvoran genannte Fusion mit der Erfassung des Zustandes des Fahrzeugführers mittels der Beobachtungseinrichtung. Durch diese Fusion wird die Ausgabe des Verkehrskontextes an den Fahrzeugführer an dessen Zustand angepasst. Bei relativ geringer Aufmerksamkeit des Fahrzeugführers erfolgt die Ausgabe des Hinweises mittels der HMI beispielsweise lauter.
  • Das erfindungsgemäße Computerprogrammprodukt ist ausgeführt, einen Kontext abhängigen Hinweis auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges zu erzeugen. Hierzu wird das Computerprogramm in einen Speicher eines Computers des Egofahrzeuges geladen. Das Computerprogrammprodukt umfasst Softwarecodeabschnitte, mit denen ein erfindungsgemäßes Verfahren ausführbar ist, wenn das Computerprogrammprodukt auf dem Computer läuft.
  • Ein Programm gehört zur Software eines Daten verarbeitenden Systems, zum Beispiel einer Auswerteeinrichtung oder einem Computer. Software ist ein Sammelbegriff für Programme und zugehörigen Daten. Das Komplement zu Software ist Hardware. Hardware bezeichnet die mechanische und elektronische Ausrichtung eines Daten verarbeitenden Systems. Ein Computer ist eine Auswerteeinrichtung. Die Messeinrichtung ist beispielsweise als ein Computer ausgeführt.
  • Computerprogrammprodukte umfassen in der Regel eine Folge von Befehlen, durch die die Hardware bei geladenem Programm veranlasst wird, ein bestimmtes Verfahren durchzuführen, das zu einem bestimmten Ergebnis führt. Wenn das betreffende Programm auf einem Computer zum Einsatz kommt, ruft das Computerprogrammprodukt einen technischen Effekt hervor, nämlich das Erzeugen eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges.
  • Die Erfindung wird in den nachfolgenden Figuren anhand von Ausführungsbeispielen ausführlich beschrieben. Es zeigen:
    • 1 ein Ausführungsbeispiel einer erfindungsgemäßen Auswerteeinrichtung, integriert in ein Ausführungsbeispiel Straßenfahrzeug, und
    • 2 ein Ausführungsbeispiel eines erfindungsgemäßen Trainingssystems,
  • In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder funktionsähnliche Bezugsteile.
  • 1 zeigt eine Landstraße mit zwei Fahrbahnen 3. Die Fahrbahnen 3 sind optisch durch Fahrbahnstreifen getrennt, sonst sind keine Hindernisse zwischen den Fahrbahnen 3 vorhanden. Das heißt, ein Fahrzeug auf einer Fahrbahn 3 kann auf die andere Fahrbahn 3 wechseln. Eine Fahrbahnbreite b hat im Wesentlichen die Ausmaße einer Breite eines Egofahrzeuges 2. Das heißt, die Fahrbahnbreite b ist relativ schmal; zwischen dem Fahrzeug und dem Fahrbahnrand ist wenig Platz vorhanden. Ein Fahrzeugführer des Egofahrzeuges 2 muss dementsprechend auf die Präsenz eines Einsatzfahrzeuges 1 reagieren.
  • Das Egofahrzeug 2 weist an seiner Frontstoßstange einen Akustiksensor 10 auf. An seiner Heckstoßstange weist das Egofahrzeug 2 einen Akustiksensor 12 auf. Der Akustiksensor 10 ist ein Mikrofon, das Geräusche, insbesondere Signaltöne des Einsatzfahrzeuges 1, in Fahrtrichtung des Egofahrzeuges 2 von vorne erfasst. Der Akustiksensor 12 ist ein Mikrofon, das Geräusche, insbesondere Signaltöne des Einsatzfahrzeuges 1, in Fahrtrichtung des Egofahrzeuges 2 von hinten erfasst. Ferner weist das Egofahrzeug 2 an seiner Frontstoßstange einen Bildgebungssensor 14 auf. An seiner Heckstoßstange weist das Egofahrzeug 2 einen Bildgebungssensor 16 auf. Der Bildgebungssensor 14 ist eine Kamera, die optische Aufnahmen von Objekten, insbesondere von Einsatzfahrzeugen 1, in Fahrtrichtung des Egofahrzeuges 2 von vorne erfasst. Der Bildgebungssensor 16 ist eine Kamera, die optische Aufnahmen von Objekten, insbesondere von Einsatzfahrzeugen 1, in Fahrtrichtung des Egofahrzeuges 2 von hinten erfasst. Außerdem weist das Egofahrzeug 2 an seiner Frontstoßstange einen Umfelderfassungssensor 18 auf. Der Umfelderfassungssensor 18 ist beispielsweise ein Radar.
  • Das Egofahrzeug 2 weist außerdem eine Beobachtungseinrichtung 15 auf. Die Beobachtungseinrichtung 15 ist in einem Innenraum des Egofahrzeuges 2 angeordnet. Die Beobachtungseinrichtung 15 ist beispielsweise eine Time-Of-Flight-Kamera, die den Zustand des Fahrzeugführers des Egofahrzeuges 2 erfasst.
  • Die Daten der Akustiksensoren 10, 12, der Bildgebungssensoren 14, 16, des Umfelderfassungssensors 18 und der Beobachtungseinrichtung 15 werden von einer Auswerteeinrichtung 20 eingelesen, um ein Szenenverständnis, das heißt einen Gesamtkontext der erhaltenen Informationen, zu erhalten. Die Auswerteeinrichtung 20 weist eine erste Schnittstelle 11 auf. Die erste Schnittstelle 11 ist beispielsweise eine Schnittstelle zu einem GPS-System des Egofahrzeuges 2. Über die erste Schnittstelle 11 wird also die Position des Egofahrzeuges 2 bestimmt. Ferner weist die Auswerteeinrichtung 20 eine zweite Schnittstelle 13 auf. Die zweite Schnittstelle 13 ist beispielsweise eine WLAN-Schnittstelle zu einem Online-Dienstleistungsanbieter. Der Online-Dienstleistungsanbieter stellt beispielsweise Karten- und Wetterdaten bereit. In Abhängigkeit der erhaltenen Position des GPS-Systems erhält die Auswerteeinrichtung 20 über die zweite Schnittstelle 13 über Kartendaten weitere Informationen über das lokale Umfeld des Egofahrzeuges 2, zum Beispiel auf welcher Straßenklasse sich das Egofahrzeug 2 bewegt. Außerdem erhält die Auswerteeinrichtung 20 lokale Wetterdaten, beispielsweise auch über den Zustand der Fahrbahn 3, auf der das Egofahrzeug 2 und das Einsatzfahrzeug 1 fahren. Für eine sichere Reaktion und dementsprechend für einen Hinweis auf eine sichere Reaktion des Fahrzeugführers des Egofahrzeuges auf die Präsenz des Einsatzfahrzeuges 1 ist es bedeutend, ob die Fahrbahn 3 trocken, nass oder vereist ist.
  • Die Auswerteeinrichtung 20 bestimmt den Gesamtkontext der jeweiligen Fahrsituation und leitet daraus einen Hinweis ab, wie in 2 beispielsweise gezeigt ist. Der Hinweis auf die Präsenz des Einsatzfahrzeuges 1 und eine entsprechende Fahranweisung wird dem Fahrzeugführer über eine Mensch-Maschinen-Benutzungsschnittstelle 22 zur Verfügung gestellt. Die Mensch-Maschinen-Benutzungsschnittstelle 22 ist beispielsweise eine optische Anzeige.
  • Zur Erzeugung des Kontext abhängigen Hinweises auf das Einsatzfahrzeug 1 werden in einem ersten Verfahrensschritt V1 mittels der Akustiksensoren 10, 12 Signaltöne des Einsatzfahrzeuges 1 erfasst und die Richtung bestimmt, aus der die Signaltöne bei dem Egofahrzeug 2 eintreffen. In einem zweiten Verfahrensschritt V2 werden mittels der Bildgebungssensoren 14, 16 die Anzahl der Fahrbahnen 3 bestimmt. Außerdem wird die Fahrbahnbreite b und die Straßenklasse der Fahrbahn 3, auf der das Egofahrzeug 2 fährt, bestimmt. In einem dritten Verfahrensschritt V3 wird das Einsatzfahrzeuges 1 mittels der Bildgebungssensoren 14, 16 erfasst. Die Auswerteeinrichtung 20 fusioniert in einer ersten Fusion das Ergebnis des ersten Verfahrensschrittes V1 mit dem Ergebnis des dritten Verfahrensschrittes V3, um eine bessere Erfassung des Einsatzfahrzeuges 1 zu erhalten. In einem vierten Verfahrensschritt V4 liest die Auswerteeinrichtung 20 die Daten des Umfelderfassungssensors 18 zur Erfassung des Umfeldes des Egofahrzeugs 2 ein. In einem fünften Verfahrensschritt V5 werden über die erste Schnittstelle 11 Positionsdaten des Egofahrzeuges 2 erhalten. In Abhängigkeit der Position des Egofahrzeuges 2 erhält die Auswerteeinrichtung 20 in einem sechsten Verfahrensschritt V6 Kartendaten, Verkehrsdaten und/oder Wetterdaten. In einer zweiten Fusion fusioniert die Auswerteeinrichtung 20 die Ergebnisse der Verfahrensschritte V2, V3 und V6. Durch diese Fusion wird die Erfassung des Einsatzfahrzeuges 1 in den Verkehrskontext eingebunden. Mittels der ersten Fusion und der zweiten Fusion wird insbesondere das Ergebnis des dritten Verfahrensschrittes plausibilisiert. Das Ergebnis der ersten Fusion fusioniert die Auswerteeinrichtung 20 mit dem Ergebnis der zweiten Fusion in einer dritten Fusion. Mittels der dritten Fusion kann ein Kontext abhängiger Hinweis für den Fahrzeugführer vorbereitet werden. In einem siebten Verfahrensschritt V7 wird der Zustand des Fahrzeugführers mittels der Beobachtungseinrichtung 15 erfasst. Die Auswerteeinrichtung 20 fusioniert das Ergebnis des siebten Verfahrensschrittes V7 mit dem Ergebnis der dritten Fusion in einer vierten Fusion, um den Hinweis an den Fahrzeugführer zusätzlich von dem Zustand des Fahrzeugführers abhängig zu machen. In einem achten Verfahrensschritt V8 erzeugt die Auswerteeinrichtung ausgehend von dem Ergebnis der vierten Fusion den Kontext abhängigen Hinweises auf das Einsatzfahrzeug 1 für den Fahrzeugführer in Form eines Signals. In einem neunten Verfahrensschritt V9 wird das Signal mittels der Mensch-Maschinen-Benutzungsschnittstelle 22 dem Fahrzeugführer visuell, akustisch und/oder taktil ausgegeben.
  • Bezugszeichenliste
  • 1
    Einsatzfahrzeug
    2
    Egofahrzeug
    3
    Fahrbahn
    10
    Akustiksensor
    11
    erste Schnittstelle
    12
    Akustiksensor
    13
    zweite Schnittstelle
    14
    Bildgebungssensor
    15
    Beobachtungseinrichtung
    16
    Bildgebungssensor
    18
    Umfelderfassungssensor
    20
    Auswerteeinrichtung
    22
    Mensch-Maschinen-Benutzungsschnittstelle
    b
    Fahrbahnbreite
    V1-V9
    Verfahrensschritte

Claims (6)

  1. System zur Erzeugung eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug (1) für einen Fahrzeugführer eines Egofahrzeuges (2) umfassend • wenigstens zwei Akustiksensoren (10,12), um Signaltöne des Einsatzfahrzeuges (1) zu erfassen, wobei die Akustiksensoren (10,12) derart an dem Egofahrzeug (2) anordenbar sind, dass eine Richtung, aus der die Signaltöne eintreffen, relativ zu dem Egofahrzeug (2) erfassbar ist, • wenigstens einen Bildgebungssensor (14, 16), um eine Anzahl von Fahrbahnen (3), eine Fahrbahnbreite (b) und die Straßenklasse der Fahrbahn (3), auf der das Egofahrzeug (2) und/oder das Einsatzfahrzeug (1) fahren und/oder das Einsatzfahrzeug (1) zu erfassen, • wenigstens einen weiteren Umfelderfassungssensor (18), um das Umfeld des Egofahrzeuges (2) zu erfassen, • eine erste Schnittstelle (11) zu einem Positionsbestimmungssystem, um die Position des Egofahrzeuges (2) zu erhalten, • eine zweite Schnittstelle (13), um in Abhängigkeit der Position des Egofahrzeuges (2) Kartendaten, Verkehrsdaten und/oder Wetterdaten zu erhalten, • eine Beobachtungseinrichtung (15), um einen Zustand des Fahrzeugführers zu erfassen, wobei die Beobachtungseinrichtung (15) eine 3D Kamera, die anhand von 3D-Informationen als Zustand des Fahrzeugführers dessen Aufmerksamkeits- und/oder Müdigkeitslevel erfasst, • eine Auswerteeinrichtung (20), die ausgeführt ist, in Abhängigkeit dieser erfassten und erhaltenen Informationen den Kontext abhängigen Hinweis auf das Einsatzfahrzeug (1) für den Fahrzeugführer in Form eines Signals zu erzeugen, und • eine Mensch-Maschinen-Benutzungsschnittstelle (22), um dieses Signal dem Fahrzeugführer auszugeben.
  2. Verfahren zur Erzeugung eines Kontexts abhängigen Hinweises auf ein Einsatzfahrzeug (1) für einen Fahrzeugführer eines Egofahrzeuges (2) umfassend die Verfahrensschritte • Erfassen von Signaltönen des Einsatzfahrzeuges (1) und Bestimmen der Richtung, aus der die Signaltöne eintreffen, relativ zu dem Egofahrzeug (2) (V1), • Erfassen einer Anzahl von Fahrbahnen (3), einer Fahrbahnbreite (b) und der Straßenklasse der Fahrbahn (3), auf der das Egofahrzeug (2) und/oder das Einsatzfahrzeug (1) fahren (V2), • Erfassen des Einsatzfahrzeuges (1) (V3), • Erfassen des Umfeldes des Egofahrzeuges (2) (V4), • Erhalten einer Position des Egofahrzeuges (2) (V5), • Erhalten von Kartendaten, Verkehrsdaten und/oder Wetterdaten in Abhängigkeit der Position des Egofahrzeuges (2) (V6), • Erfassen eines Zustandes des Fahrzeugführers (V7), • Erzeugen des Kontexts abhängigen Hinweises auf das Einsatzfahrzeug (1) für den Fahrzeugführer in Form eines Signals in Abhängigkeit der erfassten und erhaltenen Informationen (V8), und Ausgeben dieses Signals an den Fahrzeugführer (V9),wobei zur Durchführung des Verfahrens das System nach Anspruch 1 verwendet wird.
  3. Verfahren nach Anspruch 2, wobei die Auswerteeinrichtung (20) die Erfassung Signaltöne des Einsatzfahrzeuges (1) mittels der Akustiksensoren (10, 12) mit der Erfassung des Einsatzfahrzeuges (1) mittels des Bildgebungssensors (14, 16) fusioniert.
  4. Verfahren nach Anspruch 3, wobei die Auswerteeinrichtung (20) die Fusion nach Anspruch 3 mit der Erfassung der Anzahl von Fahrbahnen (3), der Fahrbahnbreite (b) und der Straßenklasse der Fahrbahn (3) mittels des Bildgebungssensors (14, 16), der Erfassung des Umfeldes des Egofahrzeuges (2) mittels des Umfelderfassungssensors (18) und der erhaltenen Kartendaten, Verkehrsdaten und/oder Wetterdaten fusioniert.
  5. Verfahren nach Anspruch 4, wobei die Auswerteeinrichtung (20) die Fusion nach Anspruch 5 mit der Erfassung des Zustandes des Fahrzeugführers mittels der Beobachtungseinrichtung (15) fusioniert.
  6. Computerprogrammprodukt zur Erzeugung eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug (1) für einen Fahrzeugführer eines Egofahrzeuges (2), ausgeführt, in einen Speicher eines Computers des Egofahrzeuges (2) geladen zu werden, und das Softwarecodeabschnitte umfasst, mit denen ein Verfahren nach einem der Anspruch 2 bis 5 ausführbar ist, wenn das Computerprogrammprodukt auf dem Computer läuft.
DE102018218137.3A 2018-10-23 2018-10-23 System, Verfahren und Computerprogrammprodukt zur Erzeugung eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges Active DE102018218137B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102018218137.3A DE102018218137B4 (de) 2018-10-23 2018-10-23 System, Verfahren und Computerprogrammprodukt zur Erzeugung eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges
EP19769444.1A EP3871208A1 (de) 2018-10-23 2019-09-13 System, verfahren und computerprogrammprodukt zur erzeugung eines kontext abhängigen hinweises auf ein einsatzfahrzeug für einen fahrzeugführer eines egofahrzeuges
PCT/EP2019/074467 WO2020083564A1 (de) 2018-10-23 2019-09-13 System, verfahren und computerprogrammprodukt zur erzeugung eines kontext abhängigen hinweises auf ein einsatzfahrzeug für einen fahrzeugführer eines egofahrzeuges

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018218137.3A DE102018218137B4 (de) 2018-10-23 2018-10-23 System, Verfahren und Computerprogrammprodukt zur Erzeugung eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges

Publications (2)

Publication Number Publication Date
DE102018218137A1 DE102018218137A1 (de) 2020-04-23
DE102018218137B4 true DE102018218137B4 (de) 2023-03-02

Family

ID=67982057

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018218137.3A Active DE102018218137B4 (de) 2018-10-23 2018-10-23 System, Verfahren und Computerprogrammprodukt zur Erzeugung eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges

Country Status (3)

Country Link
EP (1) EP3871208A1 (de)
DE (1) DE102018218137B4 (de)
WO (1) WO2020083564A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4323145A1 (de) 1993-07-10 1995-01-12 Goetz Dr Corinth Wahrnehmungsvorrichtung für Sondersignale
DE102004045690A1 (de) 2003-10-29 2005-06-02 Volkswagen Ag Vorrichtung zur Bestimmung externer Schallquellen in der Umgebung eines Kraftfahrzeugs und entsprechendes Fahrerassistenzsystem
DE102010022165A1 (de) 2010-05-20 2011-01-05 Daimler Ag Verfahren und Vorrichtung zur Erfassung zumindest eines von einem Einsatzfahrzeug ausgehenden akustischen Sondersignals für ein Fahrzeug
DE102012016819A1 (de) 2012-08-24 2014-02-27 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren und Vorrichtungen zur Fahrerunterstützung

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006005022B3 (de) * 2006-02-03 2007-06-21 Audi Ag Kraftfahrzeug umfassend wenigstens eine Einrichtung zur Ausgabe akustischer und/oder optischer Informationen, sowie Verfahren zur Leitung eines Kraftfahrzeugs bei Annäherung eines vorfahrtsberechtigten Einsatzfahrzeugs
DE102012014457A1 (de) * 2012-07-21 2014-01-23 Audi Ag Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug
JP2015022453A (ja) * 2013-07-18 2015-02-02 カルソニックカンセイ株式会社 緊急車両報知システム
US10994712B2 (en) * 2015-07-02 2021-05-04 Sony Corporation Vehicle control device and vehicle control method
US10074274B2 (en) * 2016-02-29 2018-09-11 Faraday & Future Inc. Emergency signal detection and response

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4323145A1 (de) 1993-07-10 1995-01-12 Goetz Dr Corinth Wahrnehmungsvorrichtung für Sondersignale
DE102004045690A1 (de) 2003-10-29 2005-06-02 Volkswagen Ag Vorrichtung zur Bestimmung externer Schallquellen in der Umgebung eines Kraftfahrzeugs und entsprechendes Fahrerassistenzsystem
DE102010022165A1 (de) 2010-05-20 2011-01-05 Daimler Ag Verfahren und Vorrichtung zur Erfassung zumindest eines von einem Einsatzfahrzeug ausgehenden akustischen Sondersignals für ein Fahrzeug
DE102012016819A1 (de) 2012-08-24 2014-02-27 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren und Vorrichtungen zur Fahrerunterstützung

Also Published As

Publication number Publication date
WO2020083564A1 (de) 2020-04-30
DE102018218137A1 (de) 2020-04-23
EP3871208A1 (de) 2021-09-01

Similar Documents

Publication Publication Date Title
EP2149131B1 (de) Verfahren und vorrichtung zur erkennung von verkehrsrelevanten informationen
DE102018120786B4 (de) Verfahren zum Überwachen eines autonomen Fahrzeugs sowie entsprechend eingerichtetes Fahrzeug
DE102018132525A1 (de) Verfahren und Vorrichtung zur Bewertung einer Fahrzeugfahrfläche
DE102019127229A1 (de) System und verfahren zum bestimmen einer vertrautheit eines fahrzeugdatensatzes
DE102019125707A1 (de) Verfahren und Vorrichtung zur computerunterstützten oder autonomen Fahr-Verkehrsschilderkennung
EP2951804A1 (de) Erstellen eines umfeldmodells für ein fahrzeug
DE102019108610A1 (de) Verbesserung des fahrzeugverhaltens unter verwendung von informationen aus anderen fahrzeugleuchten
DE102019127190A1 (de) System und verfahren zum beurteilen des bekanntseins eines gelernten fahrzeugdatensatzes eines fahrerassistenzsystems
DE102018105163A1 (de) System zum automatisierten Fahren
DE102021128041A1 (de) Verbesserung eines neuronalen fahrzeugnetzwerks
DE112017001647T5 (de) Fahrassistenzverfahren und Fahrassistenzvorrichtung, Steuervorrichtung für automatisches Fahren, Fahrzeug und diese nutzendes Programm
DE102020102725A1 (de) Verfahren und vorrichtung für eine kontextabhängige, aus der crowd-source stammende, spärliche, hochauflösende karte
DE112019007727T5 (de) Fahrassistenzvorrichtung, fahrassistenzverfahren und programm
DE102018219103A1 (de) Vorrichtung und Verfahren zum Ermitteln eines Aufmerksamkeitserforderlichkeitsgrades eines Fahrers eines Fahrzeugs
DE102018218137B4 (de) System, Verfahren und Computerprogrammprodukt zur Erzeugung eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges
DE102022102501B3 (de) Verfahren, System und Computerprogrammprodukt zur Ermittlung einer Bewertung über die Funktionsfähigkeit einer Komponente eines Kraftfahrzeugs
DE102018219255A1 (de) Trainingssystem, Datensatz, Trainingsverfahren, Auswerteeinrichtung und Einsatzsystem für ein Straßenfahrzeug zum Erfassen und Klassifizieren von Verkehrsgeräuschen
DE102021126348A1 (de) Benachrichtigungsvorrichtung für einen fahrer
DE102020211280A1 (de) Computerimplementiertes Verfahren zur Umfelderkennung für ein automatisiertes Fahrsystem, Maschinenlernverfahren, Steuergerät für ein automatisiertes Fahrsystem und Computerprogramm für ein derartiges Steuergerät
DE102019202266A1 (de) Verfahren und Computerprogrammprodukt zum Adaptieren einer Auflösung eines Multisensorsystems eines Straßenfahrzeuges und Steuergerät für ein Multisensorsystem und Computerprogrammprodukt
DE102022207617B3 (de) Verfahren und Überwachungseinrichtung zur Steuerung wenigstens einer Fahrzeugfunktion eines Fahrzeugs
DE102022201659B3 (de) Fahrzeugsystem und Verfahren zur Zuordnung von Ampeln zu Fahrspuren
DE102022201355B4 (de) Verfahren zum Erstellen einer Datenbank zur Fahrkontexterkennung
DE102022119711A1 (de) Verfahren, System und Computerprogrammprodukt zur Überprüfung von Datensätzen für das Testen und Trainieren eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS)
DE102021204326A1 (de) Verfahren sowie Server oder Steuergerät zum Ermitteln von in einem Fahrabschnitt benötigten Merkmalen eines Fahrsystems

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final