DE102017101238A1 - Spracherkennungs-systeme und verfahren zum automatisierten fahren - Google Patents

Spracherkennungs-systeme und verfahren zum automatisierten fahren Download PDF

Info

Publication number
DE102017101238A1
DE102017101238A1 DE102017101238.9A DE102017101238A DE102017101238A1 DE 102017101238 A1 DE102017101238 A1 DE 102017101238A1 DE 102017101238 A DE102017101238 A DE 102017101238A DE 102017101238 A1 DE102017101238 A1 DE 102017101238A1
Authority
DE
Germany
Prior art keywords
context data
autonomous vehicle
vehicle
processor
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017101238.9A
Other languages
English (en)
Inventor
Eli Tzirkel-Hancock
Ilan Malka
Scott D. Custer
David P. Pop
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102017101238A1 publication Critical patent/DE102017101238A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/21Voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es werden Methoden und Systeme zur Verarbeitung von Sprache für ein Fahrzeug mit mindestens einem autonomen Fahrzeugsystem bereitgestellt. In einer Ausführungsform enthält ein Verfahren: den Empfang von durch ein autonomes Fahrzeugsystem erzeugten Kontextdaten durch einen Prozessor; den Empfang von Sprachäußerungen eines mit dem Fahrzeug interagierenden Benutzers durch einen Prozessor; die Verarbeitung der Sprachäußerung durch einen Prozessor, basierend auf den Kontextdaten; und durch einen Prozessor das selektive Übermitteln mindestens entweder einer Dialogfrage zum Benutzer oder einer Steuermaßnahme für das autonome Fahrzeugsystem basierend auf der Kontextdaten.

Description

  • TECHNISCHES GEBIET
  • Das technische Gebiet bezieht sich im Allgemeinen auf Sprachsysteme und insbesondere auf Sprach-Verfahren und Systeme zur Verwendung beim automatisierten Fahren eines Fahrzeugs.
  • HINTERGRUND
  • Fahrzeug-Sprachsysteme führen eine Spracherkennung für Sprachäußerungen eines Insassen des Fahrzeugs aus. Die Sprachäußerungen beinhalten normalerweise Anfragen oder Befehle für eine oder mehrere Funktionen des Fahrzeugs oder andere Systeme, die über das Fahrzeug erreichbar sind.
  • Ein autonomes Fahrzeug ist ein Fahrzeug, das in der Lage ist, seine Umgebung zu erfassen und mit wenig oder keiner Benutzereingabe zu navigieren. Ein autonomes Fahrzeug erfasst seine Umgebung mithilfe von Sensorvorrichtungen wie Radar, Lidar, Bildsensoren, usw. und/oder verwendet Informationen von Systemen wie Global Positioning System (GPS), anderen Fahrzeugen oder anderer Infrastruktur.
  • In einigen Fällen ist es für einen Benutzer wünschenswert, mit dem autonomen Fahrzeug zu interagieren, während das Fahrzeug in einem autonomen oder teilweise autonomen Modus arbeitet. Falls der Benutzer physisch mit einem oder mehreren Tasten, Schaltern, Pedalen oder dem Lenkrad hantieren muss, dann ist der Betrieb des Fahrzeugs nicht mehr autonom. Dementsprechend ist es wünschenswert, das Fahrzeug-Sprachsystem für die Interaktion mit dem Fahrzeug zu benutzen, während sich das Fahrzeug in einem autonomen oder teilweise autonomen Modus befindet, sodass Informationen von der Sprache erhalten oder das Fahrzeug durch Sprache gesteuert werden kann. Es ist weiterhin wünschenswert, verbesserte Systeme und Verfahren zur Spracherkennung für den Betrieb mit einem autonomen Fahrzeug bereitzustellen. Ferner werden weitere wünschenswerte Funktionen und Merkmale aus der nachfolgenden ausführlichen Beschreibung und den beigefügten Ansprüchen in Verbindung mit den beigefügten Zeichnungen und dem vorangegangenen technischen Gebiet und Hintergrund offensichtlich.
  • ZUSAMMENFASSUNG
  • Es werden Methoden und Systeme zur Verarbeitung von Sprache für ein Fahrzeug bereitgestellt, das mindestens ein autonomes Fahrzeugsystem hat. In einer Ausführungsform beinhaltet ein Verfahren: den Empfang von durch ein autonomes Fahrzeugsystem erzeugten Kontextdaten durch einen Prozessor; den Empfang von Sprachäußerungen eines mit dem Fahrzeug interagierenden Benutzers durch einen Prozessor; die Verarbeitung der Sprachäußerung durch einen Prozessor, basierend auf den Kontextdaten; und durch einen Prozessor das selektive Übermitteln mindestens entweder einer Dialogabfrage zum Benutzer oder einer Steuermaßnahme für das autonome Fahrzeugsystem basierend auf den Kontextdaten.
  • In einer Ausführungsform beinhaltet ein System ein erstes nichtflüchtiges Modul, das durch einen Prozessor Kontextdaten empfängt, die durch ein autonomes Fahrzeugsystem erzeugt worden sind. Das System beinhaltet ferner ein zweites nichtflüchtiges Modul, das durch einen Prozessor eine Sprachäußerung von einem Benutzer aufnimmt, der mit dem Fahrzeug interagiert. Das System beinhaltet ferner ein drittes nichtflüchtiges Modul, das durch einen Prozessor die Sprachäußerung basierend auf den Kontextdaten verarbeitet. Das System beinhaltet ferner ein viertes nichtflüchtiges Modul, das durch einen Prozessor basierend auf den Kontextdaten selektiv mindestens entweder eine Dialogabfrage an den Benutzer oder eine Steuermaßnahme zum autonomen Fahrzeugsystem übermittelt.
  • BESCHREIBUNG DER ZEICHNUNGEN
  • Die Ausführungsbeispiele werden nachfolgend in Verbindung mit den folgenden Abbildungen (Zeichnungen) beschrieben, worin gleiche Ziffern gleiche Elemente bezeichnen, und worin:
  • 1 ein Funktionsblockdiagramm eines autonomen Fahrzeugs ist, das über ein Sprachsystem gemäß verschiedener exemplarischer Ausführungsformen verfügt;
  • 2 ein Funktionsblockdiagramm ist des Sprachsystems von 1 gemäß verschiedener exemplarischer Ausführungsformen; und
  • 3 bis 5 Sequenzdiagramme sind, welche die Sprachverfahren darstellen, die vom Fahrzeug und dem Sprachsystem gemäß verschiedener exemplarischer Ausführungsformen ausgeführt werden können.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende ausführliche Beschreibung dient lediglich als Beispiel und soll die Anwendung und Verwendungen nicht einschränken. Weiterhin besteht keine Absicht, im vorstehenden technischen Bereich, Hintergrund, der Kurzzusammenfassung oder der folgenden detaillierten Beschreibung an eine ausdrücklich oder implizit vorgestellte Theorie gebunden zu sein. Der hier verwendete Begriff „Modul“ bezieht sich auf eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (gemeinsam genutzt, dediziert oder Gruppenprozessor) und einen Speicher, der ein oder mehrere Software- oder Firmwareprogramme, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten ausführt, die die beschriebene Funktionalität bieten.
  • Mit anfänglichem Bezug auf 1 gemäß exemplarischer Ausführungsformen der vorliegenden Offenbarung ist ein Sprachsystem 10 als Teil eines Fahrzeugs 12 dargestellt. Das Fahrzeug 12 beinhaltet eines oder mehrere autonome Fahrzeugsysteme, die allgemein als 14 bezeichnet sind. Die autonomen Fahrzeugsysteme 14 beinhalten einen oder mehrere Sensoren, die ein Element der Umgebung des Fahrzeugs 12 erfassen oder Informationen von anderen Fahrzeugen oder Fahrzeuginfrastrukturen empfangen und eine oder mehrere Funktionen des Fahrzeugs 12 steuern, um dem Fahrer vollständig oder teilweise beim Fahren des Fahrzeugs 12 zu helfen. Wenn das Fahrzeug ein Automobil ist, können die autonomen Fahrzeugsysteme 14 unter anderem ein Einparkhilfesystem 14a, ein Geschwindigkeitsregelsystem 14b, einen Spurwechselassistent 14c und ein Fahrzeuglenksystem 14d beinhalten.
  • Das Fahrzeug 12 beinhaltet weiterhin ein Modul 16 als Mensch-Maschine-Schnittstelle HMI). Die HMI-Modul 16 beinhaltet eines oder mehrere Eingabegeräte 18 und eines oder mehrere Ausgabegeräte 20 zum Empfang von Informationen vom und zum Senden von Informationen zu einem Benutzer. Die Eingabegeräte 18 beinhalten mindestens ein Mikrofon oder eine andere Erfassungsvorrichtung zum Erfassen von Sprachäußerungen eines Benutzers. Die Ausgabegeräte 20 beinhalten mindestens eine akustische Vorrichtung zur Wiedergabe eines Dialogs zurück zu einem Benutzer.
  • Wie dargestellt, ist das Sprachsystem 10 in einem Server 22 oder einer anderen Computervorrichtung beinhaltet. In verschiedenen Ausführungsformen können sich der Server 22 und das Sprachsystem 10 entfernt vom Fahrzeug 12 befinden (wie dargestellt). In verschiedenen anderen Ausführungsformen können sich das Sprachsystem 10 und der Server 22 teilweise im Fahrzeug 12 und teilweise entfernt vom Fahrzeug 12 befinden (nicht dargestellt). In verschiedenen anderen Ausführungsformen können sich das Sprachsystem 10 und der Server 22 allein im Fahrzeug 12 befinden (nicht dargestellt).
  • Das Sprachsystem 10 bietet die Spracherkennung und einen Dialog für eines oder mehrere Systeme des Fahrzeugs 12 über das HMI-Modul 16. Das Sprachsystem 10 kommuniziert mit dem HMI-Modul 16 über eine definierte Anwendungsprogrammierschnittstelle (API) 24. Das Sprachsystem 10 bietet die Spracherkennung und den Dialog basierend auf einem Kontext, der vom Fahrzeug 12 bereitgestellt ist. Kontextdaten werden durch die autonomen Fahrzeugsysteme 14 bereitgestellt; und der Kontext wird aus den Kontextdaten bestimmt.
  • In verschiedenen Ausführungsformen beinhaltet das Fahrzeug 12 ein Kontext-Managementmodul 26, das mit den autonomen Fahrzeugsystemen 14 kommuniziert, um die Kontextdaten zu erfassen. Die Kontextdaten zeigen einen aktuellen Automatisierungsmodus und einen allgemeinen Zustand oder einen Zustand im Zusammenhang mit dem autonomen Fahrzeugsystem 14 und/oder basierend auf der Steuerung des autonomen Fahrzeugsystems 14 ein Ereignis an, das bevorsteht oder gerade aufgetreten ist. Beispielsweise können die Kontextdaten eine Position eines anderen Fahrzeugs (nicht dargestellt) relativ zu dem Fahrzeug 12, einen geographischen Standort des Fahrzeugs 12, eine Position des Fahrzeugs 12 auf der Straße und/oder innerhalb einer Fahrspur, eine Geschwindigkeit oder Beschleunigung des Fahrzeugs 12, eine Lenkstellung oder ein Manöver des Fahrzeugs 12, eine aktuelle oder aufkommende Wetterbedingung, Navigationsschritte einer aktuellen Route, usw. anzeigen. In einem anderen Beispiel können die Kontextdaten ein Ereignis anzeigen, das aufgetreten ist oder auftreten wird. Das Ereignis kann ein Alarm oder Warnsignal sein, das erzeugt wurde oder erzeugt werden wird, eine Änderung der Fahrzeuggeschwindigkeit, eine genommene oder zu fahrende Kurve, ein erfolgter oder vorzunehmender Spurwechsel usw. Wie zu erkennen ist, sind diese Beispiele der Kontextdaten und Ereignisse lediglich einige Beispiele, da die Liste ausführlich sein kann. Die Offenbarung ist nicht auf die vorliegenden Beispiele beschränkt. In verschiedenen Ausführungsformen erfasst das Kontext-Managementmodul 26 Kontextdaten über einen Zeitraum, in welchem Fall die Kontextdaten einen Zeitstempel oder eine Sequenznummer beinhalten, die mit dem Zustand, der Bedingung oder dem Ereignis verbunden sind.
  • In verschiedenen Ausführungsformen verarbeitet das Kontext-Managementmodul 26 die empfangenen Kontextdaten, um einen aktuellen Automatisierungsmodus und Grammatikoptionen, Absichtsoptionen und Dialoginhalte zu bestimmen, die mit dem aktuellen Automatisierungsmodus verbunden sind. Beispielsweise speichert das Kontext-Managementmodul 26 eine Vielzahl von Grammatikoptionen, Absichtsoptionen und Dialoginhalte und deren Zuordnungen zu bestimmten Automatisierungsmodi und Kontextdaten; und das Kontext-Managementmodul 26 wählt bestimmte Grammatikoptionen, Absichtsoptionen und Dialoginhalte basierend auf dem aktuellen Automatisierungsmodus, den aktuellen Kontextdaten und den Zuordnungen. Das Kontext-Managementmodul 26 übermittelt dann den aktuellen Automatisierungsmodus und die gewählten Grammatikoptionen, Absichtsoptionen und Dialoginhalte über das HMI-Modul 16 unter Verwendung der definierten API 24 als Metadaten zum Sprachsystem 10. In solchen Ausführungsformen verarbeitet das Sprachsystem 10 die in den Metadaten bereitgestellten Optionen zur Bestimmung einer Grammatik, einer Absicht und eines Dialogs zur Verwendung in der Sprachverarbeitung.
  • In verschiedenen anderen Ausführungsformen übermittelt das Kontext-Managementmodul 26 die Kontextdaten oder Indizes oder anderen Werte der Kontextdaten über das HMI-Modul 16 unter Verwendung der definierten API 24 direkt zum Sprachsystem 10. In solchen Ausführungsformen verarbeitet das Sprachsystem 10 die empfangenen aktuellen Daten oder Indizes direkt zur Bestimmung einer Grammatik, einer Absicht und eines Dialogs zur Verwendung in der Sprachverarbeitung.
  • Nach Abschluss der Sprachverarbeitung durch das Sprachsystem 10 liefert das Sprachsystem 10 eine Dialogabfrage, einen Index einer Frage, eine Aktion, einen Index einer Aktion oder irgendeine Kombination davon über das HMI-Modul 16 an das Fahrzeug 12 zurück. Die Dialogabfrage, der Index oder die Aktion wird dann beispielsweise durch das HMI-Modul 16 weiterverarbeitet, um die Frage an den Benutzer zu senden. Wenn der Dialogabfrage eine Aufgabe zugeordnet ist, wird die Aufgabe an das autonome Fahrzeugsystem 14 gesendet, welches den aktuellen Automatisierungsmodus steuert, um die Aktion basierend auf den aktuellen Fahrzeugbedingungen auszuführen.
  • Das Sprachsystem 10 ist so konfiguriert, um Spracherkennung, Dialog und Fahrzeugsteuerung für die folgenden exemplarischen Anwendungsfälle bereitzustellen.
  • Anwendungsfall 1 beinhaltet Benutzerkommunikation für teilweise autonome Fahrzeugfunktionen wie: „Ist das Überholen jetzt sicher?“, „Kann ich hier parken?“ wobei das System dem Benutzer beispielsweise wie folgt antwortet: „Überholen Sie, sobald Sie können“, „Halten Sie mehr Abstand (von einem vorausfahrenden Wagen)“, „Fragen Sie mich vor einem Spurwechsel“ oder „Folgen Sie dem vorausfahrenden Fahrzeug.“
  • Anwendungsfall 2 beinhaltet Benutzerkommunikationen für autonome Fahrzeugfunktionen wie: „Fahrspur wechseln“, „zur linken Spur wechseln“, „rechte Spur“, oder „mehr Abstand halten“ mit einer Systemreaktion zum Benutzer wie etwa das Fahrzeug bewegt sich zur rechten Fahrspur, das Fahrzeug bremst, um mehr Abstand vom vorausfahrenden Fahrzeug einzuhalten, das Fahrzeug beschleunigt, um mehr Abstand zum hinteren Auto zu haben, oder es erfolgt eine Frage vom System wie „zur linken oder rechten Fahrspur wechseln?“.
  • Anwendungsfall 3 enthält Benutzerkommunikation für eine Abfrage nach einem Ereignis, das durch Ton, Licht, Haptik usw. angezeigt wurde, wie etwa: „Was ist das für ein Ton?“, „Was ist das für ein Licht?“, „Warum vibriert mein Sitz?“ oder „Was ist das?“, mit einer Systemreaktion zum Benutzer wie etwa „Der Ton ist eine Warnung für ein Fahrzeug auf der linken Spur“, „Ihr Sitz vibriert, um Sie an die nächste Linkskurve zu erinnern“ oder „Das ist eine Warnung, dass das Fahrzeug zu dicht auffährt“.
  • Anwendungsfall 4 enthält Benutzerkommunikation für eine Abfrage nach einem Fahrzeugereignis wie: „Warum bremsen Sie?“, „Warum halten Sie an?“ oder „Was machen Sie?“, mit einer Systemreaktion wie „Das vorausfahrende Fahrzeug ist zu dicht dran“, „Wir werden eine Linkskurve machen“ oder „Die kommende Ampel ist Gelb“.
  • Unter Bezugnahme auf 2 und mit weiterer Bezugnahme auf 1 ist das Sprachsystem 10 gemäß verschiedener Ausführungsformen näher dargestellt. Das Sprachsystem 10 enthält im Allgemeinen ein Kontext-Managementmodul 28, ein Modul zur automatischen Spracherkennung (ASR) 30 und ein Dialog-Managementmodul 32. Wie zu erwarten, können das Kontext-Managementmodul 28, das ASR-Modul 30 und das Dialog-Managementmodul 32 als separate Systeme und/oder als eines oder mehrere kombinierte Systeme realisiert werden.
  • Das Kontext-Managementmodul 28 empfängt Kontextdaten 34 vom Fahrzeug 12. Wie oben erörtert, können die Kontextdaten 34 den aktuellen Automatisierungsmodus sowie tatsächliche Daten, Indizes zum Verweis auf aktuelle Daten oder die Metadaten einschließlich Grammatikoptionen, Absichtsoptionen und Dialoginhalt enthalten, die dem aktuellen Automatisierungsmodus zugeordnet sind. Das Kontext-Managementmodul 28 definiert selektiv einen Kontext der Sprachverarbeitung, indem es die Kontextdaten 34 in einem Kontextdaten-Datenspeicher 36 speichert. Die gespeicherten Kontextdaten 34 können dann vom ASR-Modul 30 und/oder dem Dialog-Managementmodul 32 für die Sprachverarbeitung verwendet werden. Das Kontext-Managementmodul 28 übermittelt über das HMI-Modul 16 unter Verwendung der definierten API 24 eine Bestätigung 37 an das Fahrzeug 12, dass der Kontext festgelegt worden ist.
  • Im Betrieb empfängt das ASR-Modul 30 über das HMI-Modul 16 Sprachäußerungen 38 von einem Benutzer. Das ASR-Modul 30 verarbeitet im Allgemeinen die Sprachäußerungen 38 unter Verwendung eines oder mehrerer Sprachverarbeitungsmodelle und einer bestimmten Grammatik, um eines oder mehrere Ergebnisse zu erzeugen.
  • In verschiedenen Ausführungsformen enthält das ASR-Modul 30 einen dynamischen Grammatik-Generator 40, der die Grammatik auf der Grundlage der im Kontextdaten-Datenspeicher 36 gespeicherten Kontextdaten 34 wählt. In verschiedenen Ausführungsformen kann der Kontextdaten-Datenspeicher 36 beispielsweise eine Vielzahl von Grammatikoptionen oder Klassifikatoren sowie deren Zuordnung zu Automatisierungsmodi und Kontextdaten speichern. Wenn die Kontextdaten 34 die aktuellen Daten oder Indizes vom autonomen Fahrzeugsystem 14 enthalten, wählt der dynamische Grammatik-Generator 40 eine entsprechende Grammatik aus den gespeicherten Grammatikoptionen oder Klassifikatoren basierend auf dem aktuellen Automatisierungsmodus und den aktuellen Daten oder Indizes aus. Wenn die Kontextdaten 34 in einem anderen Beispiel die Metadaten enthalten, wählt der dynamische Grammatik-Generator 40 eine entsprechende Grammatik aus den vorgesehenen Grammatikoptionen basierend auf dem aktuellen Automatisierungsmodus und gegebenenfalls Ergebnissen aus dem Prozess der Spracherkennung aus.
  • Das Dialog-Managementmodul 32 empfängt die erkannten Ergebnisse vom ASR-Modul 30. Das Dialog-Managementmodul 32 bestimmt anhand der erkannten Ergebnisse eine Dialogfrage 41. Das Dialog-Managementmodul 32 bestimmt anhand der erkannten Ergebnisse, einer ermittelten Absicht des Benutzers und einem ermittelten Dialog die Dialogfrage 41. Die ermittelte Absicht und der ermittelte Dialog werden dynamisch auf der Grundlage der gespeicherten Kontextdaten 34 bestimmt. Das Dialog-Managementmodul 32 übermittelt die Dialogfrage 41 über das HMI-Modul 16 zurück zum Fahrzeug 12.
  • In verschiedenen Ausführungsformen enthält das Dialog-Managementmodul 32 einen dynamischen Absichts-Klassifikator 42 und einen dynamischen Dialog-Generator 44. Der dynamische Absichts-Klassifikator 42 bestimmt die Absicht des Benutzers anhand der im Kontextdaten-Datenspeicher 36 gespeicherten Kontextdaten 34. Beispielsweise verarbeitet der dynamische Absichts-Klassifikator 42 die im Kontextdaten-Datenspeicher 36 gespeicherten Kontextdaten 34 und optional die erkannten Ergebnisse, um die Absicht des Benutzers zu bestimmen. In verschiedenen Ausführungsformen kann der Kontextdaten-Datenspeicher 36 beispielsweise eine Vielzahl von Absichtsoptionen oder Klassifikatoren und deren Zuordnungen zu Automatisierungsmodi und Kontextdaten speichern. Wenn die Kontextdaten 34 die aktuellen Daten oder Indizes vom autonomen Fahrzeugsystem 14 enthalten, wählt der dynamische Absichts-Klassifikator 42 eine entsprechende Absichtsoption aus den gespeicherten Absichtsoptionen oder Klassifikatoren basierend auf dem aktuellen Automatisierungsmodus, den erkannten Ergebnissen und den tatsächlichen Daten oder Indizes aus. Wenn die Kontextdaten 34 in einem anderen Beispiel die Metadaten enthalten, wählt der dynamische Absichts-Klassifikator 42 eine entsprechende Absicht aus den vorgesehenen Absichtsoptionen anhand des aktuellen Automatisierungsmodus und den erkannten Ergebnissen aus.
  • Der dynamische Dialoggenerator 44 bestimmt den Dialog, der bei der Verarbeitung der erkannten Ergebnisse zu verwenden ist. Der dynamische Dialoggenerator 44 verarbeitet die im Kontextdaten-Datenspeicher 36 gespeicherten Kontextdaten 34 und optional die erkannten Ergebnisse zusammen mit der Absicht, um den Dialog zu bestimmen. In verschiedenen Ausführungsformen kann der Kontextdaten-Datenspeicher 36 beispielsweise eine Vielzahl von Dialogoptionen oder Klassifikatoren und deren Zuordnungen zu Automatisierungsmodi und Kontextdaten speichern. Wenn die Kontextdaten 34 die aktuellen Daten oder Indizes vom autonomen Fahrzeugsystem 14 beinhalten, wählt der dynamische Dialoggenerator 44 eine entsprechende Dialogoption oder einen Klassifikator aus den gespeicherten Dialogoptionen oder Klassifikatoren anhand des aktuellen Automatisierungsmodus, der aktuellen Daten oder Indizes und optional der Absicht und/oder den erkannten Ergebnissen aus. Wenn die Kontextdaten 34 in einem anderen Beispiel die Metadaten enthalten, wählt der dynamische Dialoggenerator 44 den entsprechenden Dialog aus den vorgesehenen Dialogoptionen anhand des aktuellen Automatisierungsmodus und optional der Absicht und/oder den erkannten Ergebnissen aus.
  • Jetzt bezugnehmend auf 35 und mit weiterer Bezugnahme auf die 12 stellen Sequenzdiagramme die Sprachverfahren dar, die vom Sprachsystem 10 und/oder dem Fahrzeug 12 gemäß verschiedener beispielhafter Ausführungsformen ausgeführt werden können. Wie im Hinblick auf die Offenbarung ersichtlich ist, ist die Reihenfolge der Verarbeitung innerhalb der Verfahren nicht auf die sequenzielle Ausführung beschränkt, wie in den 35 dargestellt, sondern kann in einer oder mehreren Variationen ausgeführt werden, wie dies anwendbar und gemäß der vorliegenden Offenbarung ist. Weiterhin sollte ersichtlich sein, dass ein oder mehrere Schritt(e) der Verfahren hinzugefügt oder entfernt werden können, ohne dass dadurch der Geist des Verfahrens geändert wird.
  • Wie in 3 stellt ein Flussdiagramm ein exemplarisches Verfahren dar, das durchgeführt werden kann, um das Sprachsystem 10 mit den Kontextdaten 34 zu aktualisieren. Die Kontextdaten 34 sind durch ein autonomes Fahrzeugsystem 14 erzeugt worden. Wie zu erkennen ist, kann das Verfahren zur Ausführung in zuvor festgelegten Zeitintervallen oder zur Ausführung bei einem Ereignis vorgesehen sein.
  • In verschiedenen Ausführungsformen kann das Verfahren bei 100 beginnen. Die Kontextdaten 34 werden vom Kontext-Managementmodul 26 bei 110 beispielsweise vom HMI-Modul 16 empfangen. Die Kontextdaten 34 werden im Kontextdaten-Datenspeicher 36 bei 120 gespeichert. Die Bestätigung 37 wird erzeugt und zum Fahrzeug 12 zurück übermittelt, und optional erzeugt das autonome Fahrzeugsystem 14 über das HMI-Modul 16 bei 130 die Kontextdaten 34. Danach kann das Verfahren bei 140 enden.
  • Mit Bezug auf 4 zeigt ein Flussdiagramm ein exemplarisches Verfahren, das zur Verarbeitung von Sprachäußerungen 38 durch das Sprachsystem 10 unter Verwendung der gespeicherten Kontextdaten 34 durchgeführt werden kann. Die Sprachäußerungen 38 werden durch das HMI-Modul 16 während eines Automatisierungsmodus eines autonomen Fahrzeugsystems 14 übermittelt. Wie zu erkennen ist, kann das Verfahren so geplant werden, dass es in vordefinierten Zeitintervallen oder basierend auf einem Ereignis (z. B. einem durch einen sprechenden Benutzer erzeugten Ereignis) ausgeführt wird.
  • In verschiedenen Ausführungsformen kann das Verfahren bei 200 beginnen. Die Sprachäußerung 38 wird bei 210 empfangen. Die kontextbasierte Grammatik wird bei 220 aus den im Kontextdaten-Datenspeicher 36 gespeicherten Kontextdaten 34 bestimmt. Die Sprachäußerung 38 wird bei 240 anhand der kontextbasierten Grammatik verarbeitet, um bei 230 eines oder mehrere erkannte Ergebnisse zu bestimmen.
  • Danach wird bei 240 aus den im Kontextdaten-Datenspeicher 36 gespeicherten Kontextdaten 34 (und gegebenenfalls basierend auf den erkannten Ergebnissen) die Absicht ermittelt. Dann wird bei 250 der Dialog aus dem Kontextdaten-Datenspeicher 36 (und gegebenenfalls basierend auf der Absicht und den erkannten Ergebnissen) bestimmt. Der Dialog und die erkannten Ergebnisse werden nun verarbeitet, um bei 260 die Dialogfrage 41 zu bestimmen. Dann wird bei 270 die Dialogfrage 41 erzeugt und über das HMI-Modul 16 zurück zum Fahrzeug 12 übermittelt. Danach kann das Verfahren bei 280 enden.
  • Mit Bezug auf 5 zeigt ein Flussdiagramm ein exemplarisches Verfahren, das vom HMI-Modul 16 ausgeführt werden kann, um die vom Sprachsystem 10 empfangene Dialogfrage 41 zu verarbeiten. Wie zu erkennen ist, kann das Verfahren zur Ausführung in zuvor festgelegten Zeitintervallen oder zur Ausführung bei einem Ereignis vorgesehen sein.
  • In verschiedenen Ausführungsformen kann das Verfahren bei 300 beginnen. Die Dialogfrage 41 wird bei 310 empfangen. Die Dialogfrage 310 wird bei 320 über das HMI-Modul 16 an den Benutzer übermittelt. Wenn die Dialogfrage bei 330 mit einer Fahrzeugaktion (z. B. Linksabbiegen, Spurwechsel usw.) verbunden ist, wird die Aktion bei 340 zum autonomen Fahrzeugsystem 14 übermittelt und das autonome Fahrzeugsystem 14 steuert gezielt das Fahrzeug 12, so dass bei 350 die Wirkung eintritt. Danach kann das Verfahren bei 360 enden.
  • Während mindestens eine beispielhafte Ausführungsform in der vorstehenden ausführlichen Beschreibung dargestellt wurde, versteht es sich, dass es eine große Anzahl an Varianten gibt. Es versteht sich weiterhin, dass die exemplarische Ausführungsform oder die exemplarischen Ausführungsformen lediglich Beispiele sind und den Umfang, die Anwendbarkeit oder die Konfiguration dieser Offenbarung in keiner Weise einschränken sollen. Die vorstehende ausführliche Beschreibung stellt Fachleuten auf dem Gebiet vielmehr einen zweckmäßigen Plan zur Implementierung der exemplarischen Ausführungsform oder von exemplarischen Ausführungsformen zur Verfügung. Es versteht sich, dass verschiedene Veränderungen an der Funktion und der Anordnung von Elementen vorgenommen werden können, ohne vom Rahmen der Offenbarung, wie sie in den beigefügten Ansprüchen und deren rechtlichen Entsprechungen aufgeführt werden, abzuweichen.

Claims (10)

  1. Ein Verfahren zur Verarbeitung von Sprache für ein Fahrzeug mit mindestens einem autonomen Fahrzeugsystem, umfassend: das Empfangen von durch ein autonomes Fahrzeugsystem erzeugten Kontextdaten durch einen Prozessor; das Empfangen einer Sprachäußerung von einem mit dem Fahrzeug interagierenden Benutzer durch einen Prozessor; die Verarbeitung der Sprachäußerung anhand der Kontextdaten durch einen Prozessor; und die selektive Erzeugung mindestens entweder einer Dialogfrage an den Benutzer oder einer Steuermaßnahme für das autonome Fahrzeugsystem durch einen Prozessor basierend auf den Kontextdaten.
  2. Das Verfahren nach Anspruch 1, worin die Kontextdaten einen Automatisierungsmodus des autonomen Fahrzeugsystems enthalten.
  3. Das Verfahren nach Anspruch 1, worin die Kontextdaten mindestens entweder einen Zustand oder eine Bedingung enthalten, der/die mit dem autonomen Fahrzeugsystem verbunden ist.
  4. Das Verfahren nach Anspruch 1, worin die Kontextdaten ein Ereignis enthalten, das anhand der Steuerung des autonomen Fahrzeugsystems mindestens gerade aufgetreten ist oder auftreten wird.
  5. Das Verfahren nach Anspruch 1, ferner umfassend die Verarbeitung der Kontextdaten zur Bestimmung mindestens einer Grammatikoption, Absichtsoption oder Dialogoption, worin die Verarbeitung der Sprachäußerung mindestens auf einer der Grammatikoptionen, Absichtsoptionen oder Dialogoptionen basiert.
  6. Das Verfahren nach Anspruch 1, ferner umfassend die Verarbeitung der Kontextdaten zur Bestimmung einer Absicht des Benutzers, worin die selektive Übermittlung der Dialogfrage auf der Absicht des Benutzers basiert.
  7. Das Verfahren nach Anspruch 1, ferner umfassend die Verarbeitung der Kontextdaten zur Bestimmung eines Dialogs, worin die selektive Übermittlung der Dialogfrage auf dem Dialog basiert.
  8. Das Verfahren nach Anspruch 1, ferner umfassend die Verarbeitung der Kontextdaten zur Bestimmung einer Grammatik, worin die Verarbeitung der Sprachäußerung auf der Grammatik basiert.
  9. Das Verfahren nach Anspruch 1, ferner umfassend das Bestimmen einer Grammatik im Zusammenhang mit den Kontextdaten, das Bestimmen einer Absicht im Zusammenhang mit den Kontextdaten und das Bestimmen eines Dialoges im Zusammenhang mit den Kontextdaten, worin die selektive Übermittlung der Dialogfrage auf der Grammatik, der Absicht und dem Dialog basiert.
  10. Ein System zur Verarbeitung von Sprache für ein Fahrzeug mit mindestens einem autonomen Fahrzeugsystem, umfassend: ein erstes nichtflüchtiges Modul, das durch einen Prozessor Kontextdaten empfängt, die von einem autonomen Fahrzeugsystem erzeugt worden sind; ein zweites nichtflüchtiges Modul, das durch einen Prozessor eine Sprachäußerung von einem mit dem Fahrzeug interagierenden Benutzer empfängt; ein drittes nichtflüchtiges Modul, das durch einen Prozessor die Sprachäußerung basierend auf den Kontextdaten verarbeitet; und ein viertes nichtflüchtiges Modul, das durch einen Prozessor basierend auf den Kontextdaten selektiv mindestens entweder eine Dialogfrage an den Benutzer oder eine Steuermaßnahme zum autonomen Fahrzeugsystem übermittelt.
DE102017101238.9A 2016-01-29 2017-01-23 Spracherkennungs-systeme und verfahren zum automatisierten fahren Withdrawn DE102017101238A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/011,060 US20170221480A1 (en) 2016-01-29 2016-01-29 Speech recognition systems and methods for automated driving
US15/011,060 2016-01-29

Publications (1)

Publication Number Publication Date
DE102017101238A1 true DE102017101238A1 (de) 2017-08-03

Family

ID=59327638

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017101238.9A Withdrawn DE102017101238A1 (de) 2016-01-29 2017-01-23 Spracherkennungs-systeme und verfahren zum automatisierten fahren

Country Status (3)

Country Link
US (1) US20170221480A1 (de)
CN (1) CN107024931A (de)
DE (1) DE102017101238A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018002941A1 (de) 2018-04-11 2018-10-18 Daimler Ag Verfahren zum Führen eines Sprachdialogs

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10093322B2 (en) * 2016-09-15 2018-10-09 International Business Machines Corporation Automatically providing explanations for actions taken by a self-driving vehicle
US10496362B2 (en) 2017-05-20 2019-12-03 Chian Chiu Li Autonomous driving under user instructions
US10395457B2 (en) * 2017-08-10 2019-08-27 GM Global Technology Operations LLC User recognition system and methods for autonomous vehicles
US10647332B2 (en) 2017-09-12 2020-05-12 Harman International Industries, Incorporated System and method for natural-language vehicle control
KR102557861B1 (ko) 2017-10-03 2023-07-21 구글 엘엘씨 센서 기반 검증을 통한 차량 기능 제어
CN109920429A (zh) * 2017-12-13 2019-06-21 上海擎感智能科技有限公司 一种用于车载的语音识别数据处理方法及系统
CN108181899A (zh) * 2017-12-14 2018-06-19 北京汽车集团有限公司 控制车辆行驶的方法、装置及存储介质
CN108320738B (zh) * 2017-12-18 2021-03-02 上海科大讯飞信息科技有限公司 语音数据处理方法及装置、存储介质、电子设备
JP7069730B2 (ja) * 2018-01-11 2022-05-18 トヨタ自動車株式会社 情報処理装置、方法、及びプログラム
KR20200001188A (ko) * 2018-06-27 2020-01-06 현대자동차주식회사 대화 시스템, 그를 가지는 차량 및 차량의 제어 방법
CN110503947B (zh) * 2018-05-17 2024-06-18 现代自动车株式会社 对话系统、包括其的车辆和对话处理方法
WO2020111351A1 (ko) * 2018-11-30 2020-06-04 엘지전자 주식회사 차량 제어장치 및 차량 제어방법
KR102330978B1 (ko) * 2019-03-29 2021-11-26 엘지전자 주식회사 음성 인터렉션 방법 및 이를 이용한 차량
US20210070316A1 (en) * 2019-09-09 2021-03-11 GM Global Technology Operations LLC Method and apparatus for voice controlled maneuvering in an assisted driving vehicle
CN113808575A (zh) * 2020-06-15 2021-12-17 珠海格力电器股份有限公司 语音交互方法、系统、存储介质以及电子设备
US20220122456A1 (en) * 2020-10-20 2022-04-21 Here Global B.V. Explanation of erratic driving behavior
JP2023016404A (ja) * 2021-07-21 2023-02-02 トヨタ自動車株式会社 情報処理装置、方法、及び、車両

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7024366B1 (en) * 2000-01-10 2006-04-04 Delphi Technologies, Inc. Speech recognition with user specific adaptive voice feedback
US9224394B2 (en) * 2009-03-24 2015-12-29 Sirius Xm Connected Vehicle Services Inc Service oriented speech recognition for in-vehicle automated interaction and in-vehicle user interfaces requiring minimal cognitive driver processing for same
DE102006052481A1 (de) * 2006-11-07 2008-05-08 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs mit mindestens einem Fahrassistenzsystem
CN101033978B (zh) * 2007-01-30 2010-10-13 珠海市智汽电子科技有限公司 智能汽车辅助导航和自动兼辅助驾驶系统
US9263040B2 (en) * 2012-01-17 2016-02-16 GM Global Technology Operations LLC Method and system for using sound related vehicle information to enhance speech recognition
US9251704B2 (en) * 2012-05-29 2016-02-02 GM Global Technology Operations LLC Reducing driver distraction in spoken dialogue
US9747898B2 (en) * 2013-03-15 2017-08-29 Honda Motor Co., Ltd. Interpretation of ambiguous vehicle instructions
US9653071B2 (en) * 2014-02-08 2017-05-16 Honda Motor Co., Ltd. Method and system for the correction-centric detection of critical speech recognition errors in spoken short messages
US20150310853A1 (en) * 2014-04-25 2015-10-29 GM Global Technology Operations LLC Systems and methods for speech artifact compensation in speech recognition systems

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018002941A1 (de) 2018-04-11 2018-10-18 Daimler Ag Verfahren zum Führen eines Sprachdialogs

Also Published As

Publication number Publication date
US20170221480A1 (en) 2017-08-03
CN107024931A (zh) 2017-08-08

Similar Documents

Publication Publication Date Title
DE102017101238A1 (de) Spracherkennungs-systeme und verfahren zum automatisierten fahren
DE102014109936B4 (de) Interaktives automatisiertes Fahrsystem
DE102014218050A1 (de) Übergang von autonomer Fahrzeugsteuerung zu Fahrer-Steuerung
DE102017103973A1 (de) Autonome Fahrzeugsteuerung unter Berücksichtigung der Fahreraufmerksamkeit
DE102017103971A1 (de) Autonome Fahrzeugsteuerung mit Vertrauensfaktor
DE102020124633A1 (de) Kontextsensitive anpassung einer geländeblickzeit
DE102014013960A1 (de) Verfahren zum Betreiben wenigstens einer Fahrerassistenzeinrichtung eines Kraftwagens und System mit einer Fahrerassistenzeinrichtung
DE102012022630A1 (de) Fahrerassistenzsystem und Verfahren zur Kommunikation eines Fahrers mit einem Fahrerassistenzsystem
EP3530537B1 (de) Kraftfahrzeug-steuervorrichtung und verfahren zum betreiben der steuervorrichtung zum autonomen führen eines kraftfahrzeugs
DE102017205261A1 (de) Fahrzeugbewusste spracherkennungssysteme und -verfahren
DE102019106122A1 (de) Automatisiertes Fahrsystem
DE102014116431B4 (de) Akustikschnittstelle für ein autonomes Fahrsystem
DE102018133670A1 (de) Verfahren und Vorrichtung zum Erzeugen von Steuersignalen zum Unterstützen von Insassen eines Fahrzeugs
WO2019174766A1 (de) Verfahren, eine vorrichtung sowie ein korrespondierendes computerprogramm zum variieren oder unterdrücken zumindest einer fahrerinformation
DE102022123930A1 (de) System und verfahren zum managen einer fahrerübernahme von einem autonomen fahrzeug auf der basis eines überwachten fahrerverhaltens
DE102022205744A1 (de) Ultraschallsystem und Verfahren zum Rekonfigurieren eines in einem Fahrzeug verwendeten Maschinenlernmodells
DE102018210375A1 (de) Fahrerassistenzsystem, Fahrzeug, Verfahren zum Betreiben des Fahrerassistenzsystems, Computerprogramm und computerlesbares Speichermedium
DE102006058304A1 (de) Verfahren zum ortsbasierten Verarbeiten von Daten
EP3674147B1 (de) Verfahren und vorrichtung zum erzeugen von steuersignalen zum unterstützen von insassen eines fahrzeugs
DE102020124257A1 (de) Verfahren und System zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs
DE102018203742A1 (de) Verfahren, eine Vorrichtung, ein mobiles Anwendergerät, sowie ein korrespondierendes Computerprogramm zum Variieren oder Unterdrücken zumindest einer Fahrerinformation
DE112018007086T5 (de) Steuerungsverfahren für ein fahrzeug, computerprogramm, nicht-transitorisches computerlesbares medium und automatisiertes fahrsystem
DE102017007777A1 (de) Verfahren zum Betreiben eines Assistenzsystems für ein Kraftfahrzeug, Assistenzsystem, eingerichtet zur Durchführung eines solchen Verfahrens, und Kraftfahrzeug mit einem solchen Assistenzsystem
DE102022102442A1 (de) Verfahren und Vorrichtung zur Priorisierung von Ausgabeelementen an einen Fahrer eines Fahrzeugs
DE102022206603A1 (de) Verfahren zur Handdetektion, Computerprogramm, und Vorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: SCHWEIGER & PARTNERS, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee