DE112021000497T5 - Kommunikationssystem und -verfahren - Google Patents

Kommunikationssystem und -verfahren Download PDF

Info

Publication number
DE112021000497T5
DE112021000497T5 DE112021000497.2T DE112021000497T DE112021000497T5 DE 112021000497 T5 DE112021000497 T5 DE 112021000497T5 DE 112021000497 T DE112021000497 T DE 112021000497T DE 112021000497 T5 DE112021000497 T5 DE 112021000497T5
Authority
DE
Germany
Prior art keywords
autonomous vehicle
driver
verbal
response
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021000497.2T
Other languages
English (en)
Inventor
Ramiro Almeida
Pierre Beaudreau
Alexandra Klotz
Dana Kirsanov
Disha Sule
Louise Katzovitz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magna Electronics Inc
Original Assignee
Magna Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magna Electronics Inc filed Critical Magna Electronics Inc
Publication of DE112021000497T5 publication Critical patent/DE112021000497T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3438Rendez-vous, i.e. searching a destination where several users can meet, and the routes to this destination for these users; Ride sharing, i.e. searching a route such that at least two users can share a vehicle for at least part of the route
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/21Voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Abstract

Verfahren, Computerprogrammprodukt und Computersystem zum Überwachen des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug geliefert werden; und Verarbeiten der Informationen, die von dem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug geliefert werden, um eine Antwort zu erzeugen, die zumindest teilweise auf den von dem Fahrer des autonomen Fahrzeugs gelieferten Informationen basiert.

Description

  • Verwandte Anmeldung(en)
  • Diese Anmeldung beansprucht die Vorteile der am 10. Januar 2020 eingereichten vorläufigen US-Anmeldung Nr. 62/959,400 , deren gesamter Inhalt durch Bezugnahme hierin aufgenommen ist.
  • Technisches Gebiet
  • Diese Offenbarung bezieht sich auf Kommunikationssysteme und insbesondere auf Kommunikationssysteme zur Verwendung in autonomen Fahrzeugen.
  • Hintergrund
  • Da sich der Verkehr in Richtung autonomer (d. h. fahrerloser) Fahrzeuge entwickelt, müssen sich die Hersteller und Konstrukteure dieser autonomen Fahrzeuge mit Fragen befassen, die bei herkömmlichen Fahrzeugen keine Rolle spielen.
  • Zum Beispiel werden Mietfahrzeuge von einem Fahrer gefahren, mit dem die Fahrer im Fahrzeug sprechen können. Dementsprechend kann der Mitfahrer im Fahrzeug dem Fahrer Fragen stellen, sein Ziel ändern, den Fahrer bitten, einen unerwarteten Zwischenstopp einzulegen, usw. Bei autonomen Fahrzeugen sind solche Diskussionen jedoch schwierig, da es kein menschliches Wesen gibt, mit dem der Fahrer sprechen kann.
  • Zusammenfassung der Offenlegung
  • In einer Implementierung wird ein computerimplementiertes Verfahren auf einer Computervorrichtung ausgeführt und umfasst: Überwachen des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug geliefert werden; und Verarbeiten der Informationen, die von dem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug geliefert werden, um eine Antwort zu erzeugen, die zumindest teilweise auf den von dem Fahrer des autonomen Fahrzeugs gelieferten Informationen basiert.
  • Eines oder mehrere der folgenden Merkmale können enthalten sein. Das Überwachen des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs dem autonomen Fahrzeug zur Verfügung gestellt werden, kann umfassen: Überwachen des Innenraums des autonomen Fahrzeugs auf verbale Informationen, die von dem Fahrer des autonomen Fahrzeugs dem autonomen Fahrzeug zur Verfügung gestellt werden; wobei der Innenraum des autonomen Fahrzeugs eine Mikrofonbaugruppe zum Erhalten der verbalen Informationen, die von dem Fahrer des autonomen Fahrzeugs zur Verfügung gestellt werden, umfasst. Das Überwachen des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs dem autonomen Fahrzeug zur Verfügung gestellt werden, kann Folgendes umfassen: Überwachen des Innenraums des autonomen Fahrzeugs auf nonverbale Informationen, die von dem Fahrer des autonomen Fahrzeugs dem autonomen Fahrzeug zur Verfügung gestellt werden; wobei der Innenraum des autonomen Fahrzeugs eine Eingabevorrichtung zum Erhalten der vom Fahrer des autonomen Fahrzeugs zur Verfügung gestellten nonverbalen Informationen umfasst. Die nonverbalen Informationen können eines oder mehrere der folgenden Elemente enthalten: textbasierte Informationen und kodierte Informationen. Die Antwort kann dem Fahrer des autonomen Fahrzeugs zur Verfügung gestellt werden. Das Bereitstellen der Antwort an den Fahrer des autonomen Fahrzeugs kann Folgendes umfassen: Bereitstellen einer verbalen Antwort an den Fahrer des autonomen Fahrzeugs; wobei der Innenraum des autonomen Fahrzeugs eine Lautsprecherbaugruppe zum Bereitstellen der verbalen Antwort an den Fahrer des autonomen Fahrzeugs umfasst. Die Bereitstellung der Antwort an den Fahrer des autonomen Fahrzeugs kann Folgendes umfassen: Bereitstellung einer nonverbalen Antwort an den Fahrer des autonomen Fahrzeugs; wobei das Innere des autonomen Fahrzeugs eine Ausgabebaugruppe zur Bereitstellung der nonverbalen Antwort an den Fahrer des autonomen Fahrzeugs umfasst. Die nonverbale Information kann eines oder mehrere der folgenden Elemente umfassen: eine textbasierte Antwort; und eine lichtbasierte Antwort. Die vom Fahrer des autonomen Fahrzeugs bereitgestellte Information kann eine verbale Information sein. Das Verarbeiten der vom Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug gelieferten Informationen, um eine Antwort zu erzeugen, die zumindest teilweise auf den vom Fahrer des autonomen Fahrzeugs gelieferten Informationen basiert, kann Folgendes umfassen: Verarbeiten der vom Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug gelieferten verbalen Informationen unter Verwendung von Natürlichem Sprachverständnis (NLU), um eine Antwort zu erzeugen, die zumindest teilweise auf den vom Fahrer des autonomen Fahrzeugs gelieferten verbalen Informationen basiert.
  • In einer anderen Implementierung befindet sich ein Computerprogrammprodukt auf einem computerlesbaren Medium, auf dem eine Vielzahl von Anweisungen gespeichert ist. Wenn es von einem Prozessor ausgeführt wird, veranlassen die Anweisungen den Prozessor, Vorgänge auszuführen, die Folgendes umfassen: Überwachen des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug geliefert werden; und Verarbeiten der Informationen, die von dem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug geliefert werden, um eine Antwort zu erzeugen, die zumindest teilweise auf den von dem Fahrer des autonomen Fahrzeugs gelieferten Informationen basiert.
  • Eines oder mehrere der folgenden Merkmale können enthalten sein. Das Überwachen des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs dem autonomen Fahrzeug zur Verfügung gestellt werden, kann umfassen: Überwachen des Innenraums des autonomen Fahrzeugs auf verbale Informationen, die von dem Fahrer des autonomen Fahrzeugs dem autonomen Fahrzeug zur Verfügung gestellt werden; wobei der Innenraum des autonomen Fahrzeugs eine Mikrofonbaugruppe zum Erhalten der verbalen Informationen, die von dem Fahrer des autonomen Fahrzeugs zur Verfügung gestellt werden, umfasst. Das Überwachen des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs dem autonomen Fahrzeug zur Verfügung gestellt werden, kann Folgendes umfassen: Überwachen des Innenraums des autonomen Fahrzeugs auf nonverbale Informationen, die von dem Fahrer des autonomen Fahrzeugs dem autonomen Fahrzeug zur Verfügung gestellt werden; wobei der Innenraum des autonomen Fahrzeugs eine Eingabevorrichtung zum Erhalten der vom Fahrer des autonomen Fahrzeugs zur Verfügung gestellten nonverbalen Informationen umfasst. Die nonverbalen Informationen können eines oder mehrere der folgenden Elemente enthalten: textbasierte Informationen und kodierte Informationen. Die Antwort kann dem Fahrer des autonomen Fahrzeugs zur Verfügung gestellt werden. Das Bereitstellen der Antwort an den Fahrer des autonomen Fahrzeugs kann Folgendes umfassen: Bereitstellen einer verbalen Antwort an den Fahrer des autonomen Fahrzeugs; wobei der Innenraum des autonomen Fahrzeugs eine Lautsprecherbaugruppe zum Bereitstellen der verbalen Antwort an den Fahrer des autonomen Fahrzeugs umfasst. Die Bereitstellung der Antwort an den Fahrer des autonomen Fahrzeugs kann Folgendes umfassen: Bereitstellung einer nonverbalen Antwort an den Fahrer des autonomen Fahrzeugs; wobei das Innere des autonomen Fahrzeugs eine Ausgabebaugruppe zur Bereitstellung der nonverbalen Antwort an den Fahrer des autonomen Fahrzeugs umfasst. Die nonverbale Information kann eines oder mehrere der folgenden Elemente umfassen: eine textbasierte Antwort; und eine lichtbasierte Antwort. Die vom Fahrer des autonomen Fahrzeugs bereitgestellte Information kann eine verbale Information sein. Das Verarbeiten der vom Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug gelieferten Informationen, um eine Antwort zu erzeugen, die zumindest teilweise auf den vom Fahrer des autonomen Fahrzeugs gelieferten Informationen basiert, kann Folgendes umfassen: Verarbeiten der vom Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug gelieferten verbalen Informationen unter Verwendung von Natürlichem Sprachverständnis (NLU), um eine Antwort zu erzeugen, die zumindest teilweise auf den vom Fahrer des autonomen Fahrzeugs gelieferten verbalen Informationen basiert.
  • In einer anderen Implementierung enthält ein Computersystem einen Prozessor und einen Speicher, der so konfiguriert ist, dass er Operationen durchführt, die Folgendes umfassen: Überwachen des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug geliefert werden; und Verarbeiten der Informationen, die von dem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug geliefert werden, um eine Antwort zu erzeugen, die zumindest teilweise auf den von dem Fahrer des autonomen Fahrzeugs gelieferten Informationen basiert.
  • Eines oder mehrere der folgenden Merkmale können enthalten sein. Das Überwachen des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs dem autonomen Fahrzeug zur Verfügung gestellt werden, kann Folgendes umfassen: Überwachen des Innenraums des autonomen Fahrzeugs auf verbale Informationen, die von dem Fahrer des autonomen Fahrzeugs dem autonomen Fahrzeug zur Verfügung gestellt werden; wobei der Innenraum des autonomen Fahrzeugs eine Mikrofonbaugruppe zum Erhalten der verbalen Informationen, die von dem Fahrer des autonomen Fahrzeugs zur Verfügung gestellt werden, umfasst. Das Überwachen des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug geliefert werden, kann Folgendes umfassen: Überwachen des Innenraums des autonomen Fahrzeugs auf nonverbale Informationen, die von dem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug geliefert werden; wobei der Innenraum des autonomen Fahrzeugs eine Eingabevorrichtung zum Erhalten der vom Fahrer des autonomen Fahrzeugs gelieferten nonverbalen Informationen umfasst. Die nonverbalen Informationen können eines oder mehrere der folgenden Elemente enthalten: textbasierte Informationen und kodierte Informationen. Die Antwort kann dem Fahrer des autonomen Fahrzeugs zur Verfügung gestellt werden. Das Bereitstellen der Antwort an den Fahrer des autonomen Fahrzeugs kann Folgendes umfassen: Bereitstellen einer verbalen Antwort an den Fahrer des autonomen Fahrzeugs; wobei der Innenraum des autonomen Fahrzeugs eine Lautsprecherbaugruppe zum Bereitstellen der verbalen Antwort an den Fahrer des autonomen Fahrzeugs umfasst. Die Bereitstellung der Antwort an den Fahrer des autonomen Fahrzeugs kann Folgendes umfassen: Bereitstellung einer nonverbalen Antwort an den Fahrer des autonomen Fahrzeugs; wobei das Innere des autonomen Fahrzeugs eine Ausgabebaugruppe zur Bereitstellung der nonverbalen Antwort an den Fahrer des autonomen Fahrzeugs umfasst. Die nonverbale Information kann eines oder mehrere der folgenden Elemente umfassen: eine textbasierte Antwort; und eine lichtbasierte Antwort. Die vom Fahrer des autonomen Fahrzeugs bereitgestellte Information kann eine verbale Information sein. Das Verarbeiten der vom Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug gelieferten Informationen, um eine Antwort zu erzeugen, die zumindest teilweise auf den vom Fahrer des autonomen Fahrzeugs gelieferten Informationen basiert, kann Folgendes umfassen: Verarbeiten der vom Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug gelieferten verbalen Informationen unter Verwendung von Natürlichem Sprachverständnis (NLU), um eine Antwort zu erzeugen, die zumindest teilweise auf den vom Fahrer des autonomen Fahrzeugs gelieferten verbalen Informationen basiert.
  • Die Einzelheiten einer oder mehrerer Ausführungsformen sind in den beigefügten Zeichnungen und der nachstehenden Beschreibung dargelegt. Weitere Merkmale und Vorteile werden aus der Beschreibung, den Zeichnungen und den Ansprüchen ersichtlich.
  • Figurenliste
    • 1 ist eine schematische Darstellung eines autonomen Fahrzeugs gemäß einer Ausführungsform der vorliegenden Offenbarung;
    • 2A ist eine schematische Ansicht einer Ausführungsform der verschiedenen Systeme, die in dem autonomen Fahrzeug von 1 gemäß einer Ausführungsform der vorliegenden Offenbarung enthalten sind;
    • 2B ist eine schematische Ansicht einer anderen Ausführungsform der verschiedenen Systeme, die in dem autonomen Fahrzeug von 1 gemäß einer Ausführungsform der vorliegenden Offenbarung enthalten sind;
    • 3 ist eine schematische Ansicht einer anderen Ausführungsform der verschiedenen Systeme, die in dem autonomen Fahrzeug von 1 gemäß einer Ausführungsform der vorliegenden Offenbarung enthalten sind;
    • 4 ist eine Innenansicht des autonomen Fahrzeugs aus 1 gemäß einer Ausführungsform der vorliegenden Offenbarung; und
    • 5 ist ein Flussdiagramm eines Kommunikationsprozesses, der auf einem oder mehreren Systemen des autonomen Fahrzeugs von 1 gemäß einer Ausführungsform der vorliegenden Offenbarung ausgeführt wird.
  • Gleiche Referenzsymbole in den verschiedenen Zeichnungen bezeichnen gleiche Elemente.
  • Detaillierte Beschreibung der bevorzugten Ausführungsformen
  • Autonomes Fahrzeug Übersicht
  • In 1 ist ein autonomes Fahrzeug 10 dargestellt. Wie in der Technik bekannt ist, ist ein autonomes Fahrzeug (z. B. autonomes Fahrzeug 10) ein Fahrzeug, das in der Lage ist, seine Umgebung zu erfassen und sich mit wenig oder ohne menschliche Eingaben zu bewegen. Autonome Fahrzeuge (z. B. das autonome Fahrzeug 10) können eine Vielzahl von Sensorsystemen kombinieren, um ihre Umgebung wahrzunehmen. Beispiele hierfür sind unter anderem Radar, Computer Vision, LIDAR, GPS, Odometrie, Temperatur und Trägheit, wobei solche Sensorsysteme so konfiguriert sein können, dass sie Fahrspuren und Markierungen auf einer Fahrbahn, Straßenschilder, Ampeln, Fußgänger, andere Fahrzeuge, Objekte am Straßenrand, Gefahren usw. interpretieren.
  • Das autonome Fahrzeug 10 kann eine Vielzahl von Sensoren (z.B. Sensoren 12), eine Vielzahl von elektronischen Steuerungseinheiten (z.B. ECUs 14) und eine Vielzahl von Aktuatoren (z.B. Aktuatoren 16) umfassen. Dementsprechend können die Sensoren 12 innerhalb des autonomen Fahrzeugs 10 die Umgebung überwachen, in der das autonome Fahrzeug 10 betrieben wird, wobei die Sensoren 12 den ECUs 14 Sensordaten 18 zur Verfügung stellen können. Die ECUs 14 können die Sensordaten 18 verarbeiten, um die Art und Weise zu bestimmen, in der sich das autonome Fahrzeug 10 bewegen soll. ECUs 14 können dann Steuerungsdaten 20 an Aktuatoren 16 liefern, so dass sich das autonome Fahrzeug 10 in der von den ECUs 14 bestimmten Weise bewegen kann. Zum Beispiel kann ein Bildverarbeitungssensor, der in den Sensoren 12 enthalten ist, ein Geschwindigkeitsbegrenzungsschild „lesen“, das besagt, dass die Geschwindigkeitsbegrenzung auf der Straße, auf der das autonome Fahrzeug 10 unterwegs ist, jetzt 35 Meilen pro Stunde beträgt. Dieser Bildverarbeitungssensor, der in den Sensoren 12 enthalten ist, kann Sensordaten 18 an die ECUs 14 liefern, die anzeigen, dass die Geschwindigkeit auf der Straße, auf der das autonome Fahrzeug 10 unterwegs ist, nun 35 Meilen pro Stunde beträgt. Nach Erhalt der Sensordaten 18 können die ECUs 14 die Sensordaten 18 verarbeiten und feststellen, dass das autonome Fahrzeug 10 (das derzeit mit 45 mph unterwegs ist) zu schnell fährt und langsamer werden muss. Dementsprechend können die ECUs 14 Steuerungsdaten 20 an die Aktuatoren 16 weitergeben, wobei die Steuerungsdaten 20 z.B. die Bremsen des autonomen Fahrzeugs 10 betätigen oder jedes Betätigungssignal, das derzeit auf das Gaspedal wirkt, eliminieren können (wodurch das autonome Fahrzeug 10 ausrollen kann, bis die Geschwindigkeit des autonomen Fahrzeugs 10 auf 35 mph reduziert ist).
  • System-Redundanz
  • Da das autonome Fahrzeug 10 von verschiedenen elektronischen Systemen gesteuert wird (z. B. Sensoren 12, ECUs 14 und Aktuatoren 16), sollte der mögliche Ausfall eines oder mehrerer dieser Systeme bei der Entwicklung des autonomen Fahrzeugs 10 berücksichtigt werden, und es können geeignete Notfallpläne eingesetzt werden.
  • Zum Beispiel und unter Bezugnahme auf 2A können die verschiedenen ECUs (z.B. ECUs 14), die im autonomen Fahrzeug 10 enthalten sind, so unterteilt werden, dass die Aufgaben der verschiedenen ECUs (z.B. ECUs 14) logisch gruppiert werden können. Beispielsweise können die ECUs 14 eine Autonomiesteuerungseinheit 50 umfassen, die Sensordaten 18 von den Sensoren 12 empfangen kann.
  • Die Autonomiesteuerungseinheit 50 kann so konfiguriert sein, dass sie verschiedene Funktionen ausführt. Zum Beispiel kann die Autonomiesteuerungseinheit 50 exterozeptive Sensordaten (z.B. Sensordaten 18) empfangen und verarbeiten, die Position des autonomen Fahrzeugs 10 innerhalb seiner Betriebsumgebung schätzen, eine Darstellung der Umgebung des autonomen Fahrzeugs 10 berechnen, sichere Trajektorien für das autonome Fahrzeug 10 berechnen und den anderen ECUs (insbesondere einem Fahrzeugsteuergerät) befehlen, das autonome Fahrzeug 10 zu veranlassen, ein gewünschtes Manöver auszuführen. Die Autonomiesteuerungseinheit 50 kann eine beträchtliche Rechenleistung, einen dauerhaften Speicher und einen Speicher umfassen.
  • Dementsprechend kann die Autonomiesteuerungseinheit 50 Sensordaten 18 verarbeiten, um die Art und Weise zu bestimmen, in der das autonome Fahrzeug 10 betrieben werden soll. Die Autonomiesteuerungseinheit 50 kann dann Fahrzeugsteuerungsdaten 52 an die Fahrzeugsteuerungseinheit 54 liefern, wobei die Fahrzeugsteuerungseinheit 54 dann die Fahrzeugsteuerungsdaten 52 verarbeiten kann, um die Art und Weise zu bestimmen, in der die einzelnen Steuersysteme (z. B. das Antriebssystem 56, das Bremssystem 58 und das Lenksystem 60) reagieren sollten, um die von der Autonomiesteuerungseinheit 50 in den Fahrzeugsteuerungsdaten 52 definierte Trajektorie zu erreichen.
  • Das Fahrzeugsteuergerät 54 kann so konfiguriert sein, dass es andere Steuergeräte im autonomen Fahrzeug 10 steuert. Zum Beispiel kann die Fahrzeugsteuereinheit 54 die Lenkung, den Antriebsstrang und die Bremssteuereinheiten steuern. Zum Beispiel kann die Fahrzeugsteuereinheit 54 folgendes bereitstellen: ein Antriebsstrang-Steuersignal 62 an die Antriebsstrang-Steuereinheit 64; ein Bremssteuersignal 66 an die Bremssteuereinheit 68; und ein Lenkungssteuersignal 70 an die Lenkungssteuereinheit 72.
  • Die Antriebsstrang-Steuereinheit 64 kann das Antriebsstrang-Steuersignal 62 so verarbeiten, dass die entsprechenden Steuerungsdaten (die üblicherweise durch die Steuerungsdaten 20 dargestellt werden) dem Antriebssystem 56 zur Verfügung gestellt werden können. Zusätzlich kann die Bremssteuereinheit 68 das Bremssteuersignal 66 verarbeiten, so dass die entsprechenden Steuerungsdaten (üblicherweise durch die Steuerungsdaten 20 dargestellt) dem Bremssystem 58 zur Verfügung gestellt werden können. Darüber hinaus kann die Lenkungssteuereinheit 72 das Lenkungssteuersignal 70 verarbeiten, so dass die entsprechenden Steuerungsdaten (die üblicherweise durch die Steuerungsdaten 20 dargestellt werden) dem Lenksystem 60 zugeführt werden können.
  • Die Antriebsstrang-Steuereinheit 64 kann so konfiguriert sein, dass sie das Getriebe (nicht abgebildet) und den Motor / Zugmaschine (nicht abgebildet) im autonomen Fahrzeug 10 steuert; die Bremssteuereinheit 68 kann so konfiguriert sein, dass sie das mechanische / regenerative Bremssystem (nicht abgebildet) im autonomen Fahrzeug 10 steuert; und die Lenkungssteuereinheit 72 kann so konfiguriert sein, dass sie die Lenksäule / Zahnstange (nicht abgebildet) im autonomen Fahrzeug 10 steuert.
  • Die Autonomiesteuerungseinheit 50 kann ein hochkomplexes Rechensystem sein, das umfangreiche Verarbeitungsmöglichkeiten bietet (z. B. ein Arbeitsplatzrechner-System mit Multicore-Prozessoren, diskreten Co-Prozessor-Einheiten, Gigabytes an Speicher und dauerhaftem Speicher). Im Gegensatz dazu kann die Fahrzeugsteuerungseinheit 54 ein viel einfacheres Gerät sein, das eine den anderen Steuergeräten des autonomen Fahrzeugs 10 entsprechende Verarbeitungsleistung bietet (z. B. ein Computersystem mit einem bescheidenen Mikroprozessor (mit einer CPU-Frequenz von weniger als 200 Megahertz), weniger als 1 Megabyte Systemspeicher und keinem dauerhaften Speicher). Aufgrund dieser einfacheren Bauweise kann die Fahrzeugsteuerungseinheit 54 zuverlässiger und langlebiger sein als die Autonomiesteuerungseinheit 50.
  • Um die Redundanz und Zuverlässigkeit weiter zu erhöhen, können eines oder mehrere der Steuergeräte (ECUs 14), die im autonomen Fahrzeug 10 enthalten sind, redundant konfiguriert sein. Zum Beispiel und unter Bezugnahme auf 2B ist eine Implementierung von ECUs 14 gezeigt, bei der eine Vielzahl von Fahrzeugsteuergeräten verwendet wird. Zum Beispiel ist diese spezielle Implementierung so dargestellt, dass sie zwei Fahrzeugsteuergeräte umfasst, nämlich eine erste Fahrzeugsteuerungseinheit (z. B. Fahrzeugsteuerungseinheit 54) und eine zweite Fahrzeugsteuerungseinheit (z. B. Fahrzeugsteuerungseinheit 74).
  • In dieser besonderen Konfiguration können die beiden Fahrzeugsteuerungseinheiten (z. B. die Fahrzeugsteuerungseinheiten 54, 74) auf verschiedene Weise konfiguriert werden. Beispielsweise können die beiden Fahrzeugsteuerungseinheiten (z. B. die Fahrzeugsteuerungseinheiten 54, 74) in einer Aktiv-Passiv-Konfiguration konfiguriert werden, bei der z. B. das Fahrzeugsteuerungseinheit 54 die aktive Rolle der Verarbeitung von Fahrzeugsteuerungsdaten 52 übernimmt, während das Fahrzeugsteuerungseinheit 74 eine passive Rolle einnimmt und sich im Wesentlichen im Standby-Modus befindet. Bei einem Ausfall der Fahrzeugsteuerungseinheit 54 kann die Fahrzeugsteuerungseinheit 74 von einer passiven Rolle in eine aktive Rolle übergehen und die Verarbeitung der Fahrzeugsteuerungsdaten 52 übernehmen. Alternativ können die beiden Fahrzeugsteuerungseinheiten (z. B. die Fahrzeugsteuerungseinheiten 54, 74) in einer Aktiv-Aktiv-Konfiguration konfiguriert werden, bei der z. B. sowohl die Fahrzeugsteuerungseinheit 52 als auch die Fahrzeugsteuerungseinheit 74 die aktive Rolle der Verarbeitung der Fahrzeugsteuerungsdaten 54 übernehmen (z. B. durch Aufteilung der Arbeitslast), wobei bei einem Ausfall entweder der Fahrzeugsteuerungseinheit 54 oder der Fahrzeugsteuerungseinheit 74 die verbleibende Fahrzeugsteuerungseinheit alle Fahrzeugsteuerungsdaten 52 verarbeiten kann.
  • Während 2B ein Beispiel für die Art und Weise zeigt, in der die verschiedenen ECUs (z. B. ECU 14), die im autonomen Fahrzeug 10 enthalten sind, redundant konfiguriert sein können, dient dies nur der Veranschaulichung und soll keine Einschränkung dieser Offenbarung darstellen, da andere Konfigurationen möglich sind und als im Rahmen dieser Offenbarung liegend betrachtet werden. Beispielsweise kann die Autonomiesteuerungseinheit 50 redundant konfiguriert sein, wobei eine zweite Autonomiesteuerungseinheit (nicht dargestellt) im autonomen Fahrzeug 10 enthalten ist und in einer aktiv-passiven oder aktiv-aktiven Weise konfiguriert ist. Ferner ist es vorhersehbar, dass einer oder mehrere der Sensoren (z. B. Sensoren 12) und/oder einer oder mehrere der Aktuatoren (z. B. Aktuatoren 16) redundant konfiguriert sein können. Dementsprechend versteht es sich, dass der Grad der Redundanz, der in Bezug auf das autonome Fahrzeug 10 erreicht werden kann, nur durch die Konstruktionskriterien und Budgetbeschränkungen des autonomen Fahrzeugs 10 begrenzt werden kann.
  • Autonome rechnergestützte Teilsysteme
  • Die verschiedenen Steuergeräte des autonomen Fahrzeugs 10 können so gruppiert / angeordnet / konfiguriert sein, dass sie verschiedene Funktionen ausführen.
  • Beispielsweise können ein oder mehrere ECUs 14 so konfiguriert sein, dass sie das Wahrnehmungs-Teilsystem 100 bewirken/bilden. wobei das Wahrnehmungs-Teilsystem 100 so konfiguriert sein kann, dass es Daten von bordeigenen Sensoren (z. B. Sensordaten 18) verarbeitet, um präzise Darstellungen von Objekten von Interesse in der Nähe des autonomen Fahrzeugs 10 zu berechnen (Beispiele hierfür können andere Fahrzeuge, Fußgänger, Verkehrssignale, Verkehrsschilder, Straßenmarkierungen, Gefahren usw. sein, sind aber nicht darauf beschränkt) und Umgebungsmerkmale zu erkennen, die zur Bestimmung des Standorts des autonomen Fahrzeugs 10 beitragen können. ) und zur Identifizierung von Umgebungsmerkmalen, die bei der Bestimmung des Standorts des autonomen Fahrzeugs 10 hilfreich sein können. Des Weiteren können ein oder mehrere ECUs 14 so konfiguriert sein, dass sie das Zustandsschätzungs-Teilsystem 102 ausführen/bilden, wobei das Zustandsschätzungs-Teilsystem 102 so konfiguriert sein kann, dass es Daten von bordeigenen Sensoren (z. B. Sensordaten 18) verarbeitet, um die Position, Orientierung und Geschwindigkeit des autonomen Fahrzeugs 10 innerhalb seiner Betriebsumgebung zu schätzen. Zusätzlich können ein oder mehrere ECUs 14 so konfiguriert sein, dass sie das Planungs-Teilsystem 104 bilden, wobei das Planungs-Teilsystem 104 so konfiguriert sein kann, dass es eine gewünschte Fahrzeugtrajektorie berechnet (unter Verwendung der Wahrnehmungsausgabe 106 und der Zustandsschätzungsausgabe 108). Weiterhin können eine oder mehrere ECUs 14 so konfiguriert sein, dass sie das Trajektoriensteuerungs-Teilsystem 110 bewirken/bilden, wobei das Trajektoriensteuerungs-Teilsystem 110 die Planungsausgabe 112 und die Zustandsschätzungsausgabe 108 (in Verbindung mit Rückkopplungs- und/oder Vorwärtssteuerungsverfahren) verwendet, um Aktuatorbefehle (z. B. Steuerungsdaten 20) zu berechnen, die das autonome Fahrzeug 10 veranlassen können, seine beabsichtigte Trajektorie innerhalb seiner Betriebsumgebung auszuführen.
  • Aus Redundanzgründen können die oben beschriebenen Teilsysteme auf verschiedene Geräte verteilt sein (z. B. auf die Autonomiesteuerungseinheit 50 und die Fahrzeugsteuerungseinheiten 54, 74). Zusätzlich/alternativ und aufgrund des erhöhten Rechenbedarfs können das Wahrnehmungs-Teilsystem 100 und das Planungs-Teilsystem 104 fast vollständig in der Autonomiesteuerungseinheit 50 untergebracht sein, die (wie oben beschrieben) über wesentlich mehr Rechenleistung verfügt als die Fahrzeugsteuerungsgeräte 54, 74. Umgekehrt und aufgrund ihrer geringeren Rechenanforderungen können das Zustandsschätzungs-Teilsystem 102 und das Trajektoriensteuerungs-Teilsystem 110: vollständig auf den Fahrzeugsteuereinheiten 54, 74 untergebracht werden, wenn die Fahrzeugsteuerungseinheiten 54, 74 über die erforderliche Rechenkapazität verfügen; und/oder teilweise auf den Fahrzeugsteuerungseinheiten 54, 74 und teilweise auf der Autonomiesteuerungseinheit 50 untergebracht werden. Der Standort des Zustandsschätzungs-Teilsystems 102 und des Trajektoriensteuerungs-Teilsystems 110 kann jedoch von entscheidender Bedeutung für den Entwurf einer Notfallplanungsarchitektur sein, da der Standort dieser Teilsysteme bestimmen kann, wie Notfallpläne berechnet, übertragen und/oder ausgeführt werden.
  • Bezugnehmend auf 4 wird eine Innenansicht des autonomen Fahrzeugs 10 gezeigt, wobei das autonome Fahrzeug 10 verschiedene Systeme/Geräte enthalten kann, die es einem Fahrer (z.B. Fahrer 200) ermöglichen, mit dem autonomen Fahrzeug 10 zu kommunizieren. Zum Beispiel kann das autonome Fahrzeug 10 eine kontextbezogene Anzeigebaugruppe 202, eine Lichtanzeigebaugruppe 204, eine Lautsprecherbaugruppe 206, eine Mikrofonbaugruppe 208, eine Scanner-Baugruppe 210 und eine Tastaturbaugruppe 212 umfassen.
  • Konkret und wie im Folgenden erörtert wird:
    • • Die kontextbezogene Anzeigebaugruppe 202 kann so konfiguriert sein, dass sie das autonome Fahrzeug 10 in die Lage versetzt, einem Fahrer (z. B. dem Fahrer 200) des autonomen Fahrzeugs 10 textbasierte Informationen zu liefern. Wenn sich das autonome Fahrzeug 10 beispielsweise seinem beabsichtigten Ziel nähert, kann die kontextbezogene Anzeigebaugruppe 202 so konfiguriert sein, dass sie eine textbasierte Nachricht für den Fahrer 200 wiedergibt, die lautet: „Sie erreichen Ihr Ziel. Bitte steigen Sie auf der rechten Seite des Fahrzeugs aus.“
    • • Die Lichtanzeigebaugruppe 204 kann so konfiguriert sein, dass sie das autonome Fahrzeug 10 in die Lage versetzt, einem Fahrer (z. B. dem Fahrer 200) des autonomen Fahrzeugs 10 bildbasierte Informationen zu liefern. Wenn das autonome Fahrzeug 10 beispielsweise an einer Kreuzung nach rechts abbiegen wird, kann die Lichtanzeigebaugruppe 204 so konfiguriert sein, dass sie ein nach rechts schwenkendes Bild wiedergibt, um anzuzeigen, dass das autonome Fahrzeug 10 nach rechts abbiegen wird.
    • • Die Lautsprecherbaugruppe 206 kann so konfiguriert sein, dass das autonome Fahrzeug 10 einem Fahrer (z. B. Fahrer 200) des autonomen Fahrzeugs 10 audiobasierte Informationen bereitstellen kann. Wenn das autonome Fahrzeug 10 beispielsweise gerade einen Fahrer aufgenommen hat und sich zur Abfahrt bereit macht, kann die Lautsprecherbaugruppe 206 so konfiguriert sein, dass sie eine audiobasierte Nachricht wiedergibt, die lautet: „Willkommen an Bord. Bitte schnallen Sie sich an, damit wir losfahren können.“
    • • Die Mikrofonbaugruppe 208 kann so konfiguriert sein, dass sie es einem Fahrer (z. B. Fahrer 200) des autonomen Fahrzeugs 10 ermöglicht, audio-basierte Informationen an das autonome Fahrzeug 10 zu übermitteln. Wenn beispielsweise ein Fahrer (z. B. Fahrer 200) des autonomen Fahrzeugs 10 mit dem Zustand des autonomen Fahrzeugs 10 unzufrieden ist, kann die Mikrofonbaugruppe 208 so konfiguriert sein, dass der Fahrer 200 dem autonomen Fahrzeug 10 (oder einer Person, die den Betrieb des autonomen Fahrzeugs 10 aus der Ferne überwacht) verbales Feedback geben kann.
    • • Die Scanner-Baugruppe 210 kann so konfiguriert sein, dass sie es einem Fahrer (z. B. Fahrer 200) des autonomen Fahrzeugs 10 ermöglicht, kodierte Informationen an das autonome Fahrzeug 10 zu übermitteln. Wenn beispielsweise ein Fahrer (z. B. Fahrer 200) in das autonome Fahrzeug 10 eingestiegen ist, nachdem er das autonome Fahrzeug 10 über eine Fernanwendung gerufen hat, kann die Scanner-Baugruppe 210 so konfiguriert sein, dass sie einen QR-Code scannt, der auf einem mobilen Gerät (z. B. einem Smartphone) des Fahrers 200 dargestellt wird, um den Fahrer 200 zu authentifizieren. Zusätzlich/alternativ kann die Scanner-Baugruppe 210 so konfiguriert sein, dass sie es dem Fahrer 200 ermöglicht, für seine Fahrt im autonomen Fahrzeug 10 zu bezahlen, indem er z. B. eine Kreditkarte scannt oder über ApplePaytm, GooglePaytm oder SamsungPaytm bezahlt.
    • • Die Tastaturbaugruppe 212 kann so konfiguriert sein, dass sie einem Fahrer (z. B. Fahrer 200) des autonomen Fahrzeugs 10 ermöglicht, dem autonomen Fahrzeug 10 textbasierte Informationen zu übermitteln. Wenn beispielsweise ein Fahrer (z. B. Fahrer 200) in das autonome Fahrzeug 10 eingestiegen ist, ohne dass ein Ziel vordefiniert wurde, kann die Tastaturbaugruppe 212 so konfiguriert sein, dass der Fahrer 200 ein beabsichtigtes Ziel eingeben kann.
  • Um eine solche Kommunikation zwischen dem Fahrer (z.B. Fahrer 200) und dem autonomen Fahrzeug 10 zu ermöglichen, können ein oder mehrere ECUs 14 (siehe 3) den Kommunikationsprozess 250 ausführen. Der Kommunikationsprozess 250 kann auf einem einzelnen ECU oder gemeinsam mit mehreren ECUs ausgeführt werden. Beispielsweise kann der Kommunikationsprozess 250 allein von der Autonomiesteuerungseinheit 50, der Fahrzeugsteuerungseinheit 54 oder der Fahrzeugsteuerungseinheit 74 ausgeführt werden. Alternativ kann der Kommunikationsprozess 250 gemeinsam von der Kombination aus Autonomiesteuerungseinheit 50, Fahrzeugsteuerungseinheit 54 und Fahrzeugsteuerungseinheit 74 ausgeführt werden. Dementsprechend kann in der letztgenannten Konfiguration bei einem Ausfall einer der Autonomiesteuerungseinheit 50, der Fahrzeugsteuerungseinheit 54 oder der Fahrzeugsteuerungseinheit 74 die verbleibende(n) Steuerungseinheit(en) den Kommunikationsprozess 250 weiter ausführen.
  • Die Befehlssätze und Unterprogramme des Kommunikationsprozesses 250, die auf einem mit den ECUs 14 gekoppelten Speichergerät 114 (siehe 3) gespeichert sein können, können von einem oder mehreren Prozessoren (nicht dargestellt) und einer oder mehreren Speicherarchitekturen (nicht dargestellt) in den ECUs 14 ausgeführt werden. Beispiele für das Speichergerät 114 sind unter anderem: ein Festplattenlaufwerk, ein RAID-Gerät, ein Direktzugriffsspeicher (RAM), ein Festwertspeicher (ROM) und alle Formen von Flash-Speichergeräten.
  • In Bezug auf die oben beschriebenen Systeme/Geräte, die es einem Fahrer (z. B. Fahrer 200) ermöglichen, mit dem autonomen Fahrzeug 10 zu kommunizieren, können diese verschiedenen Systeme/Geräte so konfiguriert werden, dass sie verschiedene Arten von Funktionen bereitstellen, wie im Folgenden beschrieben.
  • Anforderung von Fahrten
  • Ein Fahrer (z. B. Fahrer 200) kann sich bei einer Mobil- oder Webanwendung (nicht gezeigt) anmelden, wobei der Fahrer (z. B. Fahrer 200) ein gespeichertes Benutzerprofil haben kann, das seine Kontaktinformationen enthält. Durch die Verwendung einer solchen Anwendung kann der Fahrer (z. B. Fahrer 200) eine Fahrt von einem autonomen Fahrzeug (z. B. autonomes Fahrzeug 10) zum aktuellen Zeitpunkt anfordern (oder durch Planung einer Fahrt für einen Zeitpunkt in der Zukunft). Bei der Anforderung der Fahrt können Details wie das gewünschte Abholdatum und die Uhrzeit, derAbhol- und Rückgabeort und die Anzahl der benötigten Sitze angegeben werden. Diese Fahrtdetails können in einem digitalen Ticket (z. B. digitales Ticket 214) kodiert werden, das in einer mobilen Anwendung (z. B. einer Smartphone-Anwendung) zur späteren Verwendung gespeichert werden kann. Nach der Erstellung kann die Anforderung der Fahrt an ein Abfertigungssystem (nicht dargestellt) gesendet werden. Dieses Abfertigungssystem kann ein autonomes Fahrzeug (z. B. das autonome Fahrzeug 10) auswählen und (über eine Telekommunikationsverbindung) einem autonomen Fahrzeug (z. B. dem autonomen Fahrzeug 10) aus der Ferne befehlen, zum entsprechenden Abholort zu fahren. Ein menschlicher Bediener kann optional in die Abfertigung des autonomen Fahrzeugs involviert sein, entweder indem er einfach die vorgewählte Abfertigung genehmigt oder indem er manuell andere Berechnungen/Entscheidungen/Befehle ausführt, die für die Abfertigung des autonomen Fahrzeugs (z. B. des autonomen Fahrzeugs 10) erforderlich sind. Ticket-Kontrolle
  • Sobald das autonome Fahrzeug (z. B. das autonome Fahrzeug 10) am angeforderten Abholort eintrifft, kann der Fahrer (z. B. der Fahrer 200) aufgefordert werden (z. B. durch verbale Aufforderung oder textbasierte Aufforderung), sein digitales Ticket (z. B. das digitale Ticket 214) vorzulegen, um seine Fahrt zu beginnen. Das digitale Ticket (z. B. das digitale Ticket 214) kann erforderlich sein, um in das autonome Fahrzeug 10 einzusteigen, wobei die Fahrzeugtüren nur dann entriegelt werden, wenn ein gültiges digitales Ticket (z. B. das digitale Ticket 214) vorgelegt wird. Alternativ kann ein gültiges digitales Ticket (z.B. digitales Ticket 214) erforderlich sein, nachdem der Fahrer (z.B. Fahrer 200) in das autonome Fahrzeug (z.B. autonomes Fahrzeug 10) eingestiegen ist, um die Fahrt zu beginnen. Die Details der Fahrt können im digitalen Ticket (z. B. digitales Ticket 214) kodiert und zum Zeitpunkt der Fahrt über einen visuellen Code (z. B. QR-Code oder einen anderen 1 D- oder 2D-Barcode) an das autonome Fahrzeug (z. B. autonomes Fahrzeug 10) gesendet werden, der über eine Scanner-Baugruppe 210 (z. B. eine optische Scanner-Baugruppe, Nahfeldkommunikation (NFC), Radiofrequenz-Identifikation (RFID), Wi-Fi, Bluetooth oder andere Kurzstrecken-Kommunikationstechnologien) gescannt werden kann. Das Abfertigungssystem kann dann die im digitalen Ticket (z. B. digitales Ticket 214) enthaltenen Informationen nutzen, um die Fahrt durchzuführen.
  • Bildschirmanzeigen
  • Ein oder mehrere Bildschirmanzeigen (z.B. kontextbezogene Anzeigebaugruppe 202) können im Inneren des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) angebracht sein, wobei diese Anzeigeschirme (z.B. kontextbezogene Anzeigebaugruppe 202) so konfiguriert sein können, dass sie dem Fahrer (z.B. Fahrer 200) während der Fahrt einfache, kontextbezogene Informationen/Aufforderungen liefern, wobei diese Informationen Text, Grafiken, Animationen und/oder Töne umfassen können.
  • Auslöser für Nachrichten
  • Die auf den Bildschirmen (z. B. der kontextbezogenen Anzeigebaugruppe 202) angezeigten Meldungen können von verschiedenen Systemen ausgelöst werden, darunter der Kommunikationsprozess 250, ein Fernüberwachungssystem und/oder ein Versandsystem. Darüber hinaus können solche Meldungen, die auf den Bildschirmen (z. B. der kontextbezogenen Anzeigebaugruppe 202) angezeigt werden, durch Aktionen des Fahrers, Aktionen der Fernüberwachung, Auslöseereignisse, Systemstatus und/oder andere Ereignisse ausgelöst werden. Zum Beispiel:
    • • Angenommen, das autonome Fahrzeug (z. B. das autonome Fahrzeug 10) ist angekommen, um den Fahrer (z. B. den Fahrer 200) abzuholen, und der Fahrer muss ein gültiges digitales Ticket (z. B. das digitale Ticket 214) vorzeigen, um die Fahrt zu beginnen. Dementsprechend kann auf dem Bildschirm (z. B. der kontextbezogenen Anzeigebaugruppe 202) eine Meldung angezeigt werden, wie z. B.: „Willkommen, [Name des Fahrers], bitte scannen Sie Ihr digitales Ticket, um die Fahrt zu beginnen.“ Wenn der Fahrgast sein digitales Ticket (z. B. das digitale Ticket 214) nach einer bestimmten Zeit nicht vorlegt, kann ein Erinnerungston ertönen.
    • • Angenommen, das autonome Fahrzeug (z. B. das autonome Fahrzeug 10) muss an einer Kreuzung ungewöhnlich lange ausweichen. Der Bildschirm (z. B. die kontextbezogene Anzeigebaugruppe 202) kann eine Meldung wie „Warten auf freie Strecke“ anzeigen, um den Fahrer (z. B. den Fahrer 200) über die Situation zu informieren und ihm zu versichern, dass alles in Ordnung ist.
    • • Angenommen, während das autonome Fahrzeug (z. B. das autonome Fahrzeug 10) unterwegs ist, wird festgestellt, dass ein Sicherheitsgurt auf einem besetzten Sitz geöffnet wurde. Der Bildschirm (z. B. die kontextbezogene Anzeigebaugruppe 202) kann dem Fahrer (z. B. dem Fahrer 200) visuelle und akustische Warnungen anzeigen, wie z. B. „Bitte schnallen Sie sich an“, begleitet von einer Grafik, die anzeigt, welcher Sicherheitsgurt nicht angelegt ist. Wird der Sicherheitsgurt nicht wieder angelegt, kann die angezeigte Meldung zu „Das Fahrzeug wird in [verbleibende Zeit] Sekunden anhalten“ eskalieren, wenn der Sicherheitsgurt nicht angelegt ist.
    • • Angenommen, vor Beginn einer Fahrt wird festgestellt, dass eine Tür geöffnet ist. Dementsprechend kann auf dem Bildschirm (z. B. auf der kontextabhängigen Anzeigebaugruppe 202) eine Meldung angezeigt werden, die den Fahrer auffordert, die Tür zu schließen, z. B. „Bitte schließen Sie die Tür, um Ihre Fahrt zu beginnen“. Diese Meldung kann auch von Tönen, Grafiken und/oder Animationen begleitet sein.
  • Nachrichtenauswahl
  • Der Kommunikationsprozess 250 kann auf der Grundlage einer Reihe von Faktoren, einschließlich des Reisestatus, bestimmen, welche Meldung zu einem bestimmten Zeitpunkt angezeigt werden soll. So können z. B. als Reaktion auf das Ablegen des Sicherheitsgurtes unterschiedliche Meldungen angezeigt werden, je nachdem, ob die Fahrt noch nicht begonnen hat, noch andauert oder bereits abgeschlossen ist. Zum Beispiel:
    • • Während der Abholung: Wenn ein Sicherheitsgurt auf einem belegten Sitz nicht angelegt ist, während der Reisestatus „Abholung“ lautet, kann eine Meldung wie „Bitte schnallen Sie sich an, damit wir die Fahrt beginnen können“ angezeigt werden, begleitet von einer Grafik, die den nicht angelegten Sicherheitsgurt zeigt.
    • • Auf der Fahrt: Wenn sich ein Sicherheitsgurt auf einem besetzten Sitz löst, während der Reisestatus „Unterwegs“ lautet, kann eine dringendere Meldung wie „Bitte schnallen Sie sich an, sonst hält das Fahrzeug an“ angezeigt werden, begleitet von einem Ton, um die Aufmerksamkeit des Fahrers zu erregen (z. B. Fahrer 200).
    • • Während des Absetzens: Wenn ein Sicherheitsgurt auf einem belegten Sitz nicht angelegt ist, während der Reisestatus „Absetzen“ lautet, ist dies ein erwünschtes Verhalten, so dass möglicherweise keine Meldung bezüglich des Sicherheitsgurts angezeigt wird.
  • Darüber hinaus kann den Meldungen eine Priorität zugewiesen werden, so dass bei mehreren ausgelösten Meldungen jeweils nur die Meldung mit der höchsten Priorität angezeigt werden kann. Dazu folgendes Beispiel, in dem zwei Meldungen ausgelöst wurden. Das Fahrzeug nähert sich dem Absetzziel, so dass eine erste Meldung ausgelöst wurde, um den Fahrer darüber zu informieren, dass die Fahrt kurz vor dem Abschluss steht. Außerdem wurde eine zweite Meldung ausgelöst, weil das Fahrzeug eine Störung hat und kurz davor ist, anzuhalten. Die Meldung über die Fahrzeugstörung kann eine höhere Priorität haben als die Meldung über das nahende Fahrtziel, sodass auf dem Bildschirm (z. B. der kontextbezogenen Anzeigebaugruppe 202) nur die Meldung über die Fahrzeugstörung angezeigt wird. Der Anzeigebildschirm (z. B. die kontextbezogene Anzeigebaugruppe 202) kann auch einen Standard- (oder Haupt-) Bildschirm enthalten (z. B. eine Karte, die den Standort des autonomen Fahrzeugs 10 zeigt), der die niedrigste Priorität hat und nur angezeigt wird, wenn keine anderen Meldungen ausgelöst wurden. Alle unterdrückten Meldungen können entweder in einer Warteschlange für eine spätere Anzeige gespeichert oder überhaupt nicht angezeigt werden, wenn sie nicht mehr relevant sind.
  • Beleuchtung
  • Der Kommunikationsprozess 250 kann eindeutige Lichtcodes erzeugen, die sich in Intensität, Dauer, Häufigkeit, Farbe, Animationsmuster und Ort der Lichtanzeige unterscheiden. Diese eindeutigen Lichtcodes können auf der Lichtanzeigebaugruppe 204 dargestellt werden und jeder Art von Nachricht als sekundäre Methode zur Übermittlung von Informationen an den Fahrer (z. B. Fahrer 200) zugeordnet werden. Meldungen, die auf dem Bildschirm angezeigt werden (z. B. kontextbezogene Anzeigebaugruppe 202), können von ihrem eindeutig zugewiesenen Lichtcode begleitet werden, der auf der Lichtanzeigebaugruppe 204 dargestellt wird, um den Fahrer auf subtile Weise zu informieren oder allgemein das Erscheinungsbild des Fahrzeugs und die Umgebung zu verbessern. Zum Beispiel kann die Lichtanzeigebaugruppe 204 animierte Leuchtstreifen in der Nähe der Oberseite der Windschutzscheibe enthalten, die verwendet werden können, um anzuzeigen, dass das autonome Fahrzeug 10 abbiegt (ähnlich wie ein Blinker). Die Lichtanzeigebaugruppe 204 kann auch so konfiguriert sein, dass sie Meldungen begleitet, die auf dem Bildschirm (z. B. der kontextbezogenen Anzeigebaugruppe 202) angezeigt werden, wie z. B. schnell blinkende Lichter, die die Fahrgäste daran erinnern, sich anzuschnallen.
  • Physikalische Schaltflächen
  • Der Kommunikationsprozess 250 kann so konfiguriert sein, dass er mit einer oder mehreren physikalischen Tasten (z. B. physikalische Taste 216) im autonomen Fahrzeug 10 verbunden ist und vom Fahrer (z. B. Fahrer 200) während der Fahrt verwendet werden kann, um eine Reaktion vom autonomen Fahrzeug 10 (oder einem Fernüberwachungssystem) auszulösen. Darüber hinaus können mehrere Tastensätze innerhalb des autonomen Fahrzeugs 10 positioniert werden, so dass Fahrgäste im gesamten autonomen Fahrzeug 10 Zugang zu einer physikalischen Taste (z. B. physikalische Taste 216) haben können. Wenn beispielsweise ein Fahrer (z. B. Fahrer 200) das autonome Fahrzeug 10 in der Mitte einer Fahrt anhalten möchte, kann der Fahrer 200 eine physikalische Taste (z. B. physikalische Taste 216) im autonomen Fahrzeug 10 drücken. Als Reaktion auf das Drücken der physikalischen Taste 216 kann der Kommunikationsprozess 250 ein Signal entweder an das autonome Fahrzeug 10 oder an ein Fernüberwachungssystem (nicht dargestellt) senden und das autonome Fahrzeug 10 auffordern, anzuhalten.
  • Darüber hinaus kann die physikalische Taste 216, die sich im autonomen Fahrzeug 10 befindet, einem Fahrer ermöglichen, Unterstützung anzufordern. Dementsprechend kann der Kommunikationsprozess 250, wenn ein Fahrer (z. B. Fahrer 200) die physikalische Taste 216 drückt, ein Signal an das Fernüberwachungssystem (nicht dargestellt) senden, um Unterstützung anzufordern, wobei die Fernüberwachung, die für die Überwachung des autonomen Fahrzeugs 10 verantwortlich ist, reagieren kann, indem sie einen Audioanruf mit dem Fahrer (z. B. dem Fahrer 200) eröffnet.
  • System zur Kommunikation mit Personal für Fernunterstützung
  • Im autonomen Fahrzeug 10 können verschiedene Audio- und visuelle Kommunikationsgeräte vorhanden sein, z. B. Kameras, Lautsprecher und Mikrofone. Zu jedem Zeitpunkt vor, während oder nach einer Fahrt können solche Audio- und visuellen Kommunikationsgeräte für die Kommunikation zwischen dem Fahrer (z. B. Fahrer 200) und dem Fernüberwachungsgerät (z. B. im Fall der oben beschriebenen Unterstützungsanfrage) verwendet werden.
  • Mobile Anwendung
  • Fahrer (z. B. Fahrer 200) können auch eine mobile Anwendung (nicht gezeigt) auf ihrem Smartphone (nicht gezeigt) verwenden, um mit dem autonomen Fahrzeug 10 und/oder dem Fernüberwachungsgerät vor, während und nach ihrer Fahrt zu interagieren. Zum Beispiel kann der aktuelle Standort des autonomen Fahrzeugs 10 visuell auf einer Karte innerhalb der mobilen Anwendung (nicht gezeigt) auf dem Smartphone (nicht gezeigt) angezeigt werden. Als weiteres Beispiel kann ein Fahrer (z. B. Fahrer 200) eine Softtaste in der mobilen Anwendung (nicht gezeigt) auf seinem Smartphone (nicht gezeigt) drücken, um Unterstützung anzufordern, anzuhalten, das Ziel zu ändern oder andere Fahrzeugprobleme anzusprechen.
  • Das Kommunikationssystem
  • Dementsprechend kann der Kommunikationsprozess 250 den Innenraum des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) auf Informationen (z.B. Informationen 218) überwachen, die vom Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) an das autonome Fahrzeug (z.B. autonomes Fahrzeug 10) übermittelt werden.
  • Insbesondere und wenn der Innenraum eines autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) auf Informationen (z.B. Informationen 218) überwacht wird, die vom Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) an das autonome Fahrzeug (z.B. autonomes Fahrzeug 10) übermittelt werden, kann der Kommunikationsprozess 250 den Innenraum des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) auf verbale Informationen (z.B. Informationen 218) überwachen, die von dem Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) an das autonome Fahrzeug (z.B. autonomes Fahrzeug 10) bereitgestellt werden.
  • Wie oben beschrieben, kann der Innenraum des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) eine Mikrofonbaugruppe (z.B. Mikrofonbaugruppe 208) zum Erhalten der verbalen Informationen (z.B. Informationen 218), die vom Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) bereitgestellt werden, enthalten. Wenn beispielsweise ein Fahrer (z. B. der Fahrer 200) des autonomen Fahrzeugs 10 mit dem Zustand des autonomen Fahrzeugs 10 unzufrieden ist, kann die Mikrofonbaugruppe 208 so konfiguriert sein, dass der Fahrer 200 dem autonomen Fahrzeug 10 (oder einer Person, die den Betrieb des autonomen Fahrzeugs 10 aus der Ferne überwacht) verbales Feedback geben kann.
  • Weiterhin und bei der Überwachung 252 des Innenraums eines autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) auf Informationen (z.B. Informationen 218), die vom Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) an das autonome Fahrzeug (z.B. autonomes Fahrzeug 10) übermittelt werden, kann der Kommunikationsprozess 250 den Innenraum des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) auf nonverbale Informationen (z.B. Informationen 218) überwachen, die von dem Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) an das autonome Fahrzeug (z.B. autonomes Fahrzeug 10) bereitgestellt werden.
  • Wie oben beschrieben, kann der Innenraum des autonomen Fahrzeugs (z. B. autonomes Fahrzeug 10) eine Eingabevorrichtung zum Erhalten der nonverbalen Informationen (z. B. Informationen 218) enthalten, die vom Fahrer (z. B. Fahrer 200) des autonomen Fahrzeugs (z. B. autonomes Fahrzeug 10) bereitgestellt werden. Insbesondere und wie oben erläutert, kann das Innere des autonomen Fahrzeugs 10 eine oder mehrere Scanner-Baugruppen 210 und Tastaturbaugruppen 212 enthalten. Dementsprechend können Beispiele dieser nonverbalen Informationen (z. B. Informationen 218) eines oder mehrere der folgenden Elemente umfassen, sind aber nicht darauf beschränkt: textbasierte Informationen, die der Tastaturbaugruppe 212 bereitgestellt werden, und kodierte Informationen (z. B. QR-Code-Informationen, Kreditkarteninformationen, ApplePaytm-Informationen, GooglePaytm-Informationen oder SamsungPaytm-Informationen), die der Scanner-Baugruppe 210 bereitgestellt werden.
  • Nach Erhalt kann der Kommunikationsprozess 250 die vom Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) an das autonome Fahrzeug (z.B. autonomes Fahrzeug 10) übermittelten Informationen (z.B. Informationen 218) verarbeiten 258 (z.B. autonomes Fahrzeug 10), um eine Antwort (z.B. Antwort 220) zu erzeugen, die zumindest teilweise auf den Informationen (z.B. Informationen 218) basiert, die vom Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) bereitgestellt werden.
  • Wie oben beschrieben, können die vom Fahrer (z. B. Fahrer 200) des autonomen Fahrzeugs (z. B. autonomes Fahrzeug 10) bereitgestellten Informationen verbale Informationen (z. B. Informationen 218) sein. Dementsprechend und bei der Verarbeitung 258 der Informationen (z.B. Informationen 218), die von dem Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) dem autonomen Fahrzeug (z.B. autonomes Fahrzeug 10) bereitgestellt werden, um die Antwort (z.B., Antwort 220) zu erzeugen, die zumindest teilweise auf den Informationen (z.B. Informationen 218) basiert, die von dem Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) bereitgestellt werden, kann der Kommunikationsprozess 250 die verbalen Informationen (z.B, Informationen 218), die vom Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) an das autonome Fahrzeug (z.B. autonomes Fahrzeug 10) übermittelt werden, unter Verwendung von natürlichem Sprachverständnis (NLU) verarbeiten, um die Antwort (z.B. Antwort 220) zumindest teilweise auf der Grundlage der vom Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) übermittelten verbalen Informationen (z.B. Informationen 218) zu erzeugen.
  • Wie in der Fachwelt bekannt, ist natürliches Sprachverständnis (NLU) ein Zweig der künstlichen Intelligenz (AI), der Computersoftware verwendet, um verbale Eingaben eines Benutzers (z. B. Fahrer 200) zu verstehen. NLU kann eine direkte Mensch-Computer-Interaktion (HCI) ermöglichen, bei der das Verstehen der natürlichen menschlichen Sprache Computer in die Lage versetzt, von Menschen gegebene Befehle zu verstehen (ohne die formalisierte Syntax von Computersprachen), während diese Computer in die Lage versetzt werden, dem Menschen in seiner eigenen Sprache zu antworten. Das Gebiet der NLU ist ein wichtiger und anspruchsvoller Teilbereich der natürlichen Sprachverarbeitung (NLP). Während beide die menschliche Sprache verstehen, hat NLU die Aufgabe, mit ungeschulten Personen zu kommunizieren und deren Absichten zu verstehen, was bedeutet, dass NLU über das Verstehen von Wörtern hinausgeht und tatsächlich die Bedeutung dieser Wörter interpretiert. NLU kann Algorithmen verwenden, um menschliche Sprache in eine strukturierte Ontologie zu überführen, die Dinge wie Absicht, Zeitpunkt, Ort und Stimmung herausarbeitet.
  • Nach der Generierung kann der Kommunikationsprozess 250 die Antwort (z.B. Antwort 220) an den Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) übermitteln.
  • Beim Bereitstellen 262 der Antwort (z.B. Antwort 220) an den Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) kann der Kommunikationsprozess 250 eine verbale Antwort (z.B. Antwort 220) an den Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) bereitstellen.
  • Wie oben beschrieben, kann das Innere des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) eine Lautsprecherbaugruppe (z.B. Lautsprecherbaugruppe 206) enthalten, um dem Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) eine verbale Antwort zu geben. Wenn das autonome Fahrzeug 10 beispielsweise gerade einen Fahrer aufgenommen hat und sich zur Abfahrt bereit macht, kann die Lautsprecherbaugruppe 206 so konfiguriert sein, dass sie eine audiobasierte Nachricht wiedergibt, die lautet: „Willkommen an Bord. Bitte schnallen Sie sich an, damit wir losfahren können.“
  • Ferner kann der Kommunikationsprozess 250 bei der Bereitstellung 262 der Antwort (z.B. Antwort 220) an den Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs eine nonverbale Antwort 266 (z.B. Antwort 220) an den Fahrer (z.B. Fahrer 200) des autonomen Fahrzeugs (z.B. autonomes Fahrzeug 10) bereitstellen.
  • Dementsprechend umfasst das Innere des autonomen Fahrzeugs (z. B. autonomes Fahrzeug 10) eine Ausgabebaugruppe (z. B. eine kontextbezogene Anzeigebaugruppe 202 und/oder eine Lichtanzeigebaugruppe 204), um dem Fahrer (z. B. Fahrer 200) des autonomen Fahrzeugs (z. B. autonomes Fahrzeug 10) die nonverbale Antwort zu geben. Wenn sich das autonome Fahrzeug 10 beispielsweise seinem beabsichtigten Ziel nähert, kann die kontextbezogene Anzeigebaugruppe 202 so konfiguriert sein, dass sie eine textbasierte Nachricht für den Fahrer 200 wiedergibt, die lautet: „Sie erreichen Ihr Ziel. Bitte steigen Sie auf der rechten Seite des Fahrzeugs aus.“ Wenn das autonome Fahrzeug 10 an einer Kreuzung nach rechts abbiegen soll, kann die Lichtanzeigebaugruppe 204 außerdem so konfiguriert sein, dass sie ein nach rechts schwenkendes Bild wiedergibt, um anzuzeigen, dass das autonome Fahrzeug (z. B. das autonome Fahrzeug 10) nach rechts abbiegen wird.
  • Allgemein
  • Wie ein Fachmann wissen wird, kann die vorliegende Offenbarung als Verfahren, System oder Computerprogrammprodukt verkörpert werden. Dementsprechend kann die vorliegende Offenbarung die Form einer reinen Hardware-Variante, einer reinen Software-Variante (einschließlich Firmware, residenter Software, Mikrocode usw.) oder einer Variante annehmen, die Software- und Hardware-Aspekte kombiniert, die hier allgemein als „Schaltung“, „Modul“ oder „System“ bezeichnet werden können. Darüber hinaus kann die vorliegende Offenbarung die Form eines Computerprogrammprodukts auf einem computerverwendbaren Speichermedium annehmen, das einen computerverwendbaren Programmcode enthält, der in dem Medium verkörpert ist.
  • Es kann jedes geeignete computerverwendbare oder computerlesbare Medium verwendet werden. Das computernutzbare oder computerlesbare Medium kann beispielsweise, aber nicht ausschließlich, ein elektronisches, magnetisches, optisches, elektromagnetisches, Infrarot- oder Halbleitersystem, ein Apparat, eine Vorrichtung oder ein Übertragungsmedium sein. Zu den spezifischeren Beispielen (eine nicht erschöpfende Liste) für das computerlesbare Medium gehören: eine elektrische Verbindung mit einem oder mehreren Drähten, eine tragbare Computerdiskette, eine Festplatte, ein Direktzugriffsspeicher (RAM), ein Festwertspeicher (ROM), ein löschbarer programmierbarer Festwertspeicher (EPROM oder Flash-Speicher), eine optische Faser, ein tragbarer Compact-Disc-Festwertspeicher (CD-ROM), ein optisches Speichermedium, ein Übertragungsmedium, z. B. zur Unterstützung des Internets oder eines Intranets, oder ein magnetisches Speichergerät. Das computernutzbare oder computerlesbare Medium kann auch Papier oder ein anderes geeignetes Medium sein, auf das das Programm gedruckt wird, da das Programm elektronisch erfasst werden kann, z. B. durch optisches Scannen des Papiers oder eines anderen Mediums, und dann kompiliert, interpretiert oder anderweitig in geeigneter Weise verarbeitet werden kann, falls erforderlich, und dann in einem Computerspeicher gespeichert wird. Im Zusammenhang mit diesem Dokument kann ein computerverwendbares oder computerlesbares Medium jedes Medium sein, das das Programm zur Verwendung durch oder in Verbindung mit dem Befehlsausführungssystem, dem Apparat oder der Vorrichtung enthalten, speichern, übermitteln, verbreiten oder transportieren kann. Das computernutzbare Medium kann ein verbreitetes Datensignal mit dem darin verkörperten computernutzbaren Programmcode enthalten, entweder im Basisband oder als Teil einer Trägerwelle. Der computernutzbare Programmcode kann über ein beliebiges geeignetes Medium übertragen werden, einschließlich, aber nicht beschränkt auf das Internet, eine Kabelverbindung, ein optisches Faserkabel, RF, usw.
  • Der Computerprogrammcode zur Durchführung der Vorgänge der vorliegenden Offenbarung kann in einer objektorientierten Programmiersprache wie Java, Smalltalk, C++ oder ähnlichem geschrieben werden. Der Computerprogrammcode zur Durchführung von Vorängen der vorliegenden Offenbarung kann jedoch auch in herkömmlichen prozeduralen Programmiersprachen wie der Programmiersprache „C“ oder ähnlichen Programmiersprachen geschrieben sein. Der Programmcode kann vollständig auf dem Computer des Benutzers, teilweise auf dem Computer des Benutzers, als eigenständiges Softwarepaket, teilweise auf dem Computer des Benutzers und teilweise auf einem entfernten Computer oder vollständig auf dem entfernten Computer oder Server ausgeführt werden. Im letztgenannten Fall kann der entfernte Computer mit dem Computer des Benutzers über ein lokales Netzwerk / ein Weitverkehrsnetzwerk / das Internet (z. B. Netzwerk 14) verbunden sein.
  • Die vorliegende Offenbarung wird unter Bezugnahme auf Flussdiagrammabbildungen und/oder Blockdiagramme von Verfahren, Geräten (Systemen) und Computerprogrammprodukten gemäß den Ausführungsformen der Offenbarung beschrieben. Es versteht sich, dass jeder Block der Flussdiagramme und/oder Blockdiagramme sowie Kombinationen von Blöcken in den Flussdiagrammen und/oder Blockdiagrammen durch Computerprogrammanweisungen implementiert werden können. Diese Computerprogrammanweisungen können einem Prozessor eines Allzweckcomputers/Spezialcomputers/einer anderen programmierbaren Datenverarbeitungsvorrichtung zur Verfügung gestellt werden, so dass die Anweisungen, die über den Prozessor des Computers oder der anderen programmierbaren Datenverarbeitungsvorrichtung ausgeführt werden, Mittel zur Implementierung der in dem Flussdiagramm und/oder dem Blockdiagrammblock oder den Blöcken angegebenen Funktionen/Aktionen schaffen.
  • Diese Computerprogrammanweisungen können auch in einem computerlesbaren Speicher gespeichert werden, der einen Computer oder ein anderes programmierbares Datenverarbeitungsgerät anweisen kann, in einer bestimmten Weise zu arbeiten, so dass die in dem computerlesbaren Speicher gespeicherten Anweisungen einen Herstellungsartikel erzeugen, der Befehlsmittel enthält, die die in dem Flussdiagramm und/oder dem Blockdiagramm angegebene Funktion/Aktion umsetzen.
  • Die Computerprogrammanweisungen können auch auf einen Computer oder ein anderes programmierbares Datenverarbeitungsgerät geladen werden, um eine Reihe von Betriebsschritten zu veranlassen, die auf dem Computer oder einem anderen programmierbaren Gerät ausgeführt werden, um einen computerimplementierten Prozess zu erzeugen, so dass die Anweisungen, die auf dem Computer oder einem anderen programmierbaren Gerät ausgeführt werden, Schritte zur Implementierung der in dem Flussdiagramm und/oder dem Blockdiagrammblock oder den Blöcken angegebenen Funktionen/Aktionen bereitstellen.
  • Die Flussdiagramme und Blockdiagramme in den Abbildungen können die Architektur, die Funktionalität und den Betrieb möglicher Implementierungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedenen Ausführungsformen der vorliegenden Offenlegung veranschaulichen. In dieser Hinsicht kann jeder Block im Flussdiagramm oder in den Blockdiagrammen ein Modul, ein Segment oder einen Teil des Codes darstellen, der eine oder mehrere ausführbare Anweisungen zur Implementierung der angegebenen logischen Funktion(en) umfasst. Es sollte auch beachtet werden, dass in einigen alternativen Implementierungen die in den Blöcken angegebenen Funktionen in einer anderen Reihenfolge, als in den Abbildungen angegeben, auftreten können. So können beispielsweise zwei nacheinander gezeigte Blöcke in Wirklichkeit im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können manchmal in umgekehrter Reihenfolge ausgeführt werden, je nach der betreffenden Funktionalität. Es wird auch darauf hingewiesen, dass jeder Block in den Blockdiagrammen und/oder Flussdiagrammdarstellungen und Kombinationen von Blöcken in den Blockdiagrammen und/oder Flussdiagrammdarstellungen durch spezielle hardwarebasierte Systeme, die die angegebenen Funktionen oder Handlungen ausführen, oder durch Kombinationen von spezieller Hardware und Computerbefehlen implementiert werden können.
  • Die hier verwendete Terminologie dient nur der Beschreibung bestimmter Ausführungsformen und ist nicht als Einschränkung der Offenbarung zu verstehen. Die hier verwendeten Singularformen „ein“, „eine“ und „die“ schließen auch die Pluralformen ein, sofern aus dem Kontext nicht eindeutig etwas anderes hervorgeht. Es versteht sich ferner, dass die Begriffe „umfasst“ und/oder „umfassend“, wenn sie in dieser Beschreibung verwendet werden, das Vorhandensein bestimmter Merkmale, ganzer Zahlen, Schritte, Operationen, Elemente und/oder Komponenten spezifizieren, aber das Vorhandensein oder Hinzufügen eines oder mehrerer anderer Merkmale, ganzer Zahlen, Schritte, Operationen, Elemente, Komponenten und/oder Gruppen davon nicht ausschließen.
  • Die entsprechenden Strukturen, Materialien, Handlungen und Äquivalente aller Mittel oder Schritt-plus-Funktions-Elemente in den nachstehenden Ansprüchen sollen jede Struktur, jedes Material oder jede Handlung zur Ausführung der Funktion in Kombination mit anderen beanspruchten Elementen umfassen, wie sie speziell beansprucht werden. Die Beschreibung der vorliegenden Offenbarung dient der Veranschaulichung und Beschreibung, erhebt jedoch keinen Anspruch auf Vollständigkeit oder Beschränkung auf die Offenbarung in der offengelegten Form. Viele Modifikationen und Variationen sind für den Fachmann offensichtlich, ohne dass dadurch der Umfang und der Geist der Offenbarung beeinträchtigt werden. Die Ausführungsform wurde gewählt und beschrieben, um die Grundsätze der Offenbarung und die praktische Anwendung bestmöglich zu erläutern und es anderen Fachleuten zu ermöglichen, die Offenbarung für verschiedene Ausführungsformen mit verschiedenen Modifikationen zu verstehen, die für die jeweilige Verwendung geeignet sind.
  • Es wurde eine Reihe von Ausführungsformen beschrieben. Nachdem die Offenbarung der vorliegenden Anmeldung im Detail und unter Bezugnahme auf Ausführungsformen beschrieben wurde, wird deutlich, dass Modifikationen und Variationen möglich sind, ohne vom Umfang der Offenbarung, die in den beigefügten Ansprüchen definiert ist, abzuweichen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 62/959400 [0001]

Claims (30)

  1. Ein computerimplementiertes Verfahren, das auf einer Rechenvorrichtung ausgeführt wird und Folgendes umfasst: Überwachung des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug übermittelt werden; und Verarbeiten der vom Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug gelieferten Informationen, um eine Antwort zu erzeugen, die zumindest teilweise auf den vom Fahrer des autonomen Fahrzeugs gelieferten Informationen basiert.
  2. Computerimplementiertes Verfahren nach Anspruch 1, wobei das Überwachen des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug übermittelt werden, umfasst: Überwachung des Innenraums des autonomen Fahrzeugs auf verbale Informationen, die vom Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug übermittelt werden; wobei der Innenraum des autonomen Fahrzeugs eine Mikrofonbaugruppe zum Erfassen der von dem Fahrer des autonomen Fahrzeugs bereitgestellten verbalen Informationen enthält.
  3. Computerimplementiertes Verfahren nach Anspruch 1, wobei das Überwachen des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug übermittelt werden, umfasst: Überwachung des Innenraums des autonomen Fahrzeugs auf nonverbale Informationen, die vom Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug übermittelt werden; wobei der Innenraum des autonomen Fahrzeugs eine Eingabevorrichtung zum Abrufen der vom Fahrer des autonomen Fahrzeugs bereitgestellten nonverbalen Informationen enthält.
  4. Computerimplementiertes Verfahren nach Anspruch 3, wobei die nonverbale Information eines oder mehrere der folgenden Elemente enthält: textbasierte Informationen; und kodierte Informationen.
  5. Computerimplementiertes Verfahren nach Anspruch 1 ferner umfassend: Bereitstellung der Antwort an den Fahrer des autonomen Fahrzeugs.
  6. Computerimplementiertes Verfahren nach Anspruch 5, wobei das Bereitstellen der Antwort an den Fahrer des autonomen Fahrzeugs umfasst: eine verbale Antwort an den Fahrer des autonomen Fahrzeugs zu geben; wobei der Innenraum des autonomen Fahrzeugs eine Lautsprecherbaugruppe enthält, um dem Fahrer des autonomen Fahrzeugs die verbale Antwort zu geben.
  7. Computerimplementiertes Verfahren nach Anspruch 5, wobei das Bereitstellen der Antwort an den Fahrer des autonomen Fahrzeugs umfasst: dem Fahrer des autonomen Fahrzeugs eine nonverbale Antwort zu geben; wobei der Innenraum des autonomen Fahrzeugs eine Ausgabebaugruppe zur Bereitstellung der nonverbalen Antwort an den Fahrer des autonomen Fahrzeugs enthält.
  8. Computerimplementiertes Verfahren nach Anspruch 7, wobei die nonverbale Antwort eines oder mehrere der folgenden Elemente umfasst: eine textbasierte Antwort; und eine lichtbasierte Reaktion.
  9. Computerimplementiertes Verfahren nach Anspruch 1, bei dem die vom Fahrer des autonomen Fahrzeugs bereitgestellte Information eine verbale Information ist.
  10. Computerimplementiertes Verfahren nach Anspruch 9, wobei das Verarbeiten der vom Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug gelieferten Informationen zum Erzeugen einer Antwort, die zumindest teilweise auf den vom Fahrer des autonomen Fahrzeugs gelieferten Informationen basiert, umfasst: Verarbeiten der verbalen Informationen, die der Fahrer des autonomen Fahrzeugs dem autonomen Fahrzeug zur Verfügung stellt, unter Verwendung von Natürlichem Sprachverständnis (NLU), um eine Antwort zu erzeugen, die zumindest teilweise auf den verbalen Informationen basiert, die der Fahrer des autonomen Fahrzeugs zur Verfügung stellt.
  11. Ein Computerprogrammprodukt, das sich auf einem computerlesbaren Medium befindet, auf dem eine Vielzahl von Anweisungen gespeichert sind, die, wenn sie von einem Prozessor ausgeführt werden, den Prozessor veranlassen, Operationen durchzuführen, die Folgendes umfassen: Überwachung des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug übermittelt werden; und Verarbeiten der vom Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug gelieferten Informationen, um eine Antwort zu erzeugen, die zumindest teilweise auf den vom Fahrer des autonomen Fahrzeugs gelieferten Informationen basiert.
  12. Computerprogrammprodukt nach Anspruch 11, wobei das Überwachen des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug übermittelt werden, umfasst: Überwachung des Innenraums des autonomen Fahrzeugs auf verbale Informationen, die vom Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug übermittelt werden; wobei der Innenraum des autonomen Fahrzeugs eine Mikrofonbaugruppe zum Erfassen der von dem Fahrer des autonomen Fahrzeugs bereitgestellten verbalen Informationen enthält.
  13. Computerprogrammprodukt nach Anspruch 11, wobei das Überwachen des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug übermittelt werden, umfasst: Überwachung des Innenraums des autonomen Fahrzeugs auf nonverbale Informationen, die vom Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug übermittelt werden; wobei der Innenraum des autonomen Fahrzeugs eine Eingabevorrichtung zum Abrufen der vom Fahrer des autonomen Fahrzeugs bereitgestellten nonverbalen Informationen enthält.
  14. Computerprogrammprodukt nach Anspruch 13, wobei die nonverbale Information eines oder mehrere der folgenden Elemente enthält: textbasierte Informationen; und kodierte Informationen.
  15. Computerprogrammprodukt nach Anspruch 11 ferner umfassend: Bereitstellung der Antwort an den Fahrer des autonomen Fahrzeugs.
  16. Computerprogrammprodukt nach Anspruch 15, wobei das Bereitstellen der Antwort an den Fahrer des autonomen Fahrzeugs umfasst: eine verbale Antwort an den Fahrer des autonomen Fahrzeugs zu geben; wobei der Innenraum des autonomen Fahrzeugs eine Lautsprecherbaugruppe enthält, um dem Fahrer des autonomen Fahrzeugs die verbale Antwort zu geben.
  17. Computerprogrammprodukt nach Anspruch 15, wobei das Bereitstellen der Antwort an den Fahrer des autonomen Fahrzeugs umfasst: dem Fahrer des autonomen Fahrzeugs eine nonverbale Antwort zu geben; wobei der Innenraum des autonomen Fahrzeugs eine Ausgabebaugruppe zur Bereitstellung der nonverbalen Antwort an den Fahrer des autonomen Fahrzeugs enthält.
  18. Computerprogrammprodukt nach Anspruch 17, wobei die nonverbale Antwort eines oder mehrere der folgenden Elemente umfasst: eine textbasierte Antwort; und eine lichtbasierte Reaktion.
  19. Computerprogrammprodukt nach Anspruch 11, wobei die vom Fahrer des autonomen Fahrzeugs bereitgestellten Informationen verbale Informationen sind.
  20. Computerprogrammprodukt nach Anspruch 19, wobei das Verarbeiten der vom Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug gelieferten Informationen zum Erzeugen einer Antwort, die zumindest teilweise auf den vom Fahrer des autonomen Fahrzeugs gelieferten Informationen basiert, umfasst: Verarbeiten der verbalen Informationen, die der Fahrer des autonomen Fahrzeugs dem autonomen Fahrzeug zur Verfügung stellt, unter Verwendung von Natürlichem Sprachverständnis (NLU), um eine Antwort zu erzeugen, die zumindest teilweise auf den verbalen Informationen basiert, die der Fahrer des autonomen Fahrzeugs zur Verfügung stellt.
  21. Computersystem mit einem Prozessor und einem Speicher, das so konfiguriert ist, dass es Operationen durchführt, die Folgendes umfassen: Überwachung des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug übermittelt werden; und Verarbeiten der vom Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug gelieferten Informationen, um eine Antwort zu erzeugen, die zumindest teilweise auf den vom Fahrer des autonomen Fahrzeugs gelieferten Informationen basiert.
  22. Computersystem nach Anspruch 21, wobei das Überwachen des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug übermittelt werden, umfasst: Überwachung des Innenraums des autonomen Fahrzeugs auf verbale Informationen, die vom Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug übermittelt werden; wobei der Innenraum des autonomen Fahrzeugs eine Mikrofonbaugruppe zum Erfassen der von dem Fahrer des autonomen Fahrzeugs bereitgestellten verbalen Informationen enthält.
  23. Computersystem nach Anspruch 21, wobei das Überwachen des Innenraums eines autonomen Fahrzeugs auf Informationen, die von einem Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug übermittelt werden, umfasst: Überwachung des Innenraums des autonomen Fahrzeugs auf nonverbale Informationen, die vom Fahrer des autonomen Fahrzeugs an das autonome Fahrzeug übermittelt werden; wobei der Innenraum des autonomen Fahrzeugs eine Eingabevorrichtung zum Abrufen der vom Fahrer des autonomen Fahrzeugs bereitgestellten nonverbalen Informationen enthält.
  24. Computersystem nach Anspruch 23, wobei die nonverbale Information eines oder mehrere der folgenden Elemente enthält: textbasierte Informationen; und kodierte Informationen.
  25. Computersystem nach Anspruch 21 ferner umfassend: Bereitstellung der Antwort an den Fahrer des autonomen Fahrzeugs.
  26. Computersystem nach Anspruch 25, wobei das Bereitstellen der Antwort an den Fahrer des autonomen Fahrzeugs umfasst: eine verbale Antwort an den Fahrer des autonomen Fahrzeugs zu geben; wobei der Innenraum des autonomen Fahrzeugs eine Lautsprecherbaugruppe enthält, um dem Fahrer des autonomen Fahrzeugs die verbale Antwort zu geben.
  27. Computersystem nach Anspruch 25, wobei das Bereitstellen der Antwort an den Fahrer des autonomen Fahrzeugs umfasst: dem Fahrer des autonomen Fahrzeugs eine nonverbale Antwort zu geben; wobei der Innenraum des autonomen Fahrzeugs eine Ausgabebaugruppe zur Bereitstellung der nonverbalen Antwort an den Fahrer des autonomen Fahrzeugs enthält.
  28. Computersystem nach Anspruch 27, wobei die nonverbale Antwort eines oder mehrere der folgenden Elemente umfasst: eine textbasierte Antwort; und eine lichtbasierte Reaktion.
  29. Computersystem nach Anspruch 21, wobei die vom Fahrer des autonomen Fahrzeugs bereitgestellten Informationen verbale Informationen sind.
  30. Computersystem nach Anspruch 29, wobei die Verarbeitung der Informationen, die der Fahrer des autonomen Fahrzeugs dem autonomen Fahrzeug zur Verfügung stellt, um eine Antwort zu erzeugen, die zumindest teilweise auf den Informationen basiert, die der Fahrer des autonomen Fahrzeugs zur Verfügung stellt, umfasst: Verarbeiten der verbalen Informationen, die der Fahrer des autonomen Fahrzeugs dem autonomen Fahrzeug zur Verfügung stellt, unter Verwendung von Natürlichem Sprachverständnis (NLU), um eine Antwort zu erzeugen, die zumindest teilweise auf den verbalen Informationen basiert, die der Fahrer des autonomen Fahrzeugs zur Verfügung stellt.
DE112021000497.2T 2020-01-10 2021-01-11 Kommunikationssystem und -verfahren Pending DE112021000497T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202062959400P 2020-01-10 2020-01-10
US62/959,400 2020-01-10
PCT/US2021/012958 WO2021142442A1 (en) 2020-01-10 2021-01-11 Communication system and method

Publications (1)

Publication Number Publication Date
DE112021000497T5 true DE112021000497T5 (de) 2022-11-24

Family

ID=76764086

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021000497.2T Pending DE112021000497T5 (de) 2020-01-10 2021-01-11 Kommunikationssystem und -verfahren

Country Status (4)

Country Link
US (1) US11866063B2 (de)
CN (1) CN115066662A (de)
DE (1) DE112021000497T5 (de)
WO (1) WO2021142442A1 (de)

Family Cites Families (241)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10217778A1 (de) 2002-04-18 2003-11-06 Volkswagen Ag Kommunikationseinrichtung zur Übertragung akustischer Signale in einem Kraftfahrzeug
US3997868A (en) 1973-02-20 1976-12-14 Ribnick Gerson D Emergency vehicle warning system
IL84902A (en) 1987-12-21 1991-12-15 D S P Group Israel Ltd Digital autocorrelation system for detecting speech in noisy audio signal
US4930742A (en) 1988-03-25 1990-06-05 Donnelly Corporation Rearview mirror and accessory mount for vehicles
US4956866A (en) 1989-06-30 1990-09-11 Sy/Lert System Ltd. Emergency signal warning system
US4975966A (en) 1989-08-24 1990-12-04 Bose Corporation Reducing microphone puff noise
AU8412191A (en) 1990-07-27 1992-03-02 James L. Hill Sound detection system
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US5550677A (en) 1993-02-26 1996-08-27 Donnelly Corporation Automatic rearview mirror system using a photosensor array
US5670935A (en) 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
US5329593A (en) 1993-05-10 1994-07-12 Lazzeroni John J Noise cancelling microphone
US5495242A (en) 1993-08-16 1996-02-27 C.A.P.S., Inc. System and method for detection of aural signals
US5671996A (en) 1994-12-30 1997-09-30 Donnelly Corporation Vehicle instrumentation/console lighting
US5703957A (en) 1995-06-30 1997-12-30 Lucent Technologies Inc. Directional microphone assembly
US5820245A (en) 1995-12-11 1998-10-13 Donnelly Corporation Rearview mirror assembly
US5850016A (en) 1996-03-20 1998-12-15 Pioneer Hi-Bred International, Inc. Alteration of amino acid compositions in seeds
US5828012A (en) 1996-05-31 1998-10-27 W. L. Gore & Associates, Inc. Protective cover assembly having enhanced acoustical characteristics
WO1998010255A1 (de) 1996-09-05 1998-03-12 Rudolf Schwarte Verfahren und vorrichtung zur bestimmung der phasen- und/oder amplitudeninformation einer elektromagnetischen welle
US6166625A (en) 1996-09-26 2000-12-26 Donnelly Corporation Pyroelectric intrusion detection in motor vehicles
CA2269027A1 (en) 1996-10-17 1998-04-23 Andrea Electronics Corporation Noise cancelling acoustical improvement to wireless telephone or cellular phone
US5878147A (en) 1996-12-31 1999-03-02 Etymotic Research, Inc. Directional microphone assembly
US5979586A (en) 1997-02-05 1999-11-09 Automotive Systems Laboratory, Inc. Vehicle collision warning system
US5894279A (en) 1997-08-22 1999-04-13 Rose; Chino R. Emergency vehicle detection system
US6326613B1 (en) 1998-01-07 2001-12-04 Donnelly Corporation Vehicle interior mirror assembly adapted for containing a rain sensor
US6172613B1 (en) 1998-02-18 2001-01-09 Donnelly Corporation Rearview mirror assembly incorporating vehicle information display
US7796081B2 (en) 1997-10-22 2010-09-14 Intelligent Technologies International, Inc. Combined imaging and distance monitoring for vehicular applications
US6278377B1 (en) 1999-08-25 2001-08-21 Donnelly Corporation Indicator for vehicle accessory
US6243003B1 (en) 1999-08-25 2001-06-05 Donnelly Corporation Accessory module for vehicle
US6420975B1 (en) 1999-08-25 2002-07-16 Donnelly Corporation Interior rearview mirror sound processing system
US6693517B2 (en) 2000-04-21 2004-02-17 Donnelly Corporation Vehicle mirror assembly communicating wirelessly with vehicle accessories and occupants
US6477464B2 (en) 2000-03-09 2002-11-05 Donnelly Corporation Complete mirror-based global-positioning system (GPS) navigation solution
US6428172B1 (en) 1999-11-24 2002-08-06 Donnelly Corporation Rearview mirror assembly with utility functions
US6329925B1 (en) 1999-11-24 2001-12-11 Donnelly Corporation Rearview mirror assembly with added feature modular display
US6363156B1 (en) 1998-11-18 2002-03-26 Lear Automotive Dearborn, Inc. Integrated communication system for a vehicle
US6485081B1 (en) 1999-03-24 2002-11-26 Donnelly Corporation Safety system for a closed compartment of a vehicle
DE19938158C1 (de) 1999-08-16 2001-01-11 Daimler Chrysler Ag Verfahren und Vorrichtung sowie ihre Verwendung zur Kompensation von Verlusten eines akustischen Signals
US6710770B2 (en) 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
CA2387125C (en) 1999-11-19 2011-10-18 Gentex Corporation Vehicle accessory microphone
US8682005B2 (en) 1999-11-19 2014-03-25 Gentex Corporation Vehicle accessory microphone
DE19958836A1 (de) 1999-11-29 2001-05-31 Deutsche Telekom Ag Verfahren und Anordnung zur Verbesserung der Kommunikation in einem Fahrzeug
WO2007053710A2 (en) 2005-11-01 2007-05-10 Donnelly Corporation Interior rearview mirror with display
AU2001243285A1 (en) 2000-03-02 2001-09-12 Donnelly Corporation Video mirror systems incorporating an accessory module
US6980092B2 (en) 2000-04-06 2005-12-27 Gentex Corporation Vehicle rearview mirror assembly incorporating a communication system
US6587186B2 (en) 2000-06-06 2003-07-01 Canesta, Inc. CMOS-compatible three-dimensional image sensing using reduced peak energy
US6648477B2 (en) 2000-07-06 2003-11-18 Donnelly Corporation Rearview mirror assembly with information display
AU2002211523A1 (en) 2000-10-05 2002-04-15 Etymotic Research, Inc. Directional microphone assembly
US6570992B1 (en) 2000-10-11 2003-05-27 Molex, Incorporated Microphone holder
US6906793B2 (en) 2000-12-11 2005-06-14 Canesta, Inc. Methods and devices for charge management for three-dimensional sensing
US7352454B2 (en) 2000-11-09 2008-04-01 Canesta, Inc. Methods and devices for improved charge management for three-dimensional and color sensing
AU2002243265A1 (en) 2000-11-19 2002-06-24 Canesta, Inc. Method for enhancing performance in a system utilizing an array of sensors that sense at least two-dimensions
JP4250421B2 (ja) 2001-02-14 2009-04-08 ジェンテクス・コーポレーション 車両アクセサリマイクロホン
WO2002067574A2 (en) 2001-02-16 2002-08-29 Canesta Inc. Technique for removing blurring from a captured image
WO2002095679A2 (en) 2001-05-23 2002-11-28 Canesta, Inc. Enhanced dynamic range conversion in 3-d imaging
US6362749B1 (en) 2001-06-18 2002-03-26 William E. Brill Emergency vehicle detection system
US6958707B1 (en) 2001-06-18 2005-10-25 Michael Aaron Siegel Emergency vehicle alert system
US8301108B2 (en) 2002-11-04 2012-10-30 Naboulsi Mouhamad A Safety control system for vehicles
AU2003217587A1 (en) 2002-02-15 2003-09-09 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7310431B2 (en) 2002-04-10 2007-12-18 Canesta, Inc. Optical methods for remotely measuring objects
US7203356B2 (en) 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
WO2003091066A2 (en) 2002-04-24 2003-11-06 Salvatore Buscemi System to warn of an approaching emergency vehicle
AU2003225228A1 (en) 2002-05-03 2003-11-17 Donnelly Corporation Object detection system for vehicle
AU2003245628A1 (en) 2002-06-19 2004-01-06 Canesta, Inc. System and method for determining 3-d coordinates of a surface using a coded array
WO2004032568A1 (en) 2002-10-01 2004-04-15 Donnelly Corporation Microphone system for vehicle
US20040155795A1 (en) 2002-12-30 2004-08-12 Quintana Nina Mariah C. Systems and methods for motor vehicle-based emergency/hazard detection
DE10308414B4 (de) 2003-02-27 2007-10-04 Bayerische Motoren Werke Ag Verfahren zur Steuerung eines Akustiksystems im Fahrzeug
US7176438B2 (en) 2003-04-11 2007-02-13 Canesta, Inc. Method and system to differentially enhance sensor dynamic range using enhanced common mode reset
JP2006523074A (ja) 2003-04-11 2006-10-05 カネスタ インコーポレイテッド センサのダイナミックレンジを差分拡大する方法及びシステム
JP4072854B2 (ja) 2003-06-17 2008-04-09 本田技研工業株式会社 能動型振動騒音制御装置
US20050074131A1 (en) 2003-10-06 2005-04-07 Mc Call Clark E. Vehicular sound processing system
US7061402B1 (en) 2003-10-09 2006-06-13 Robert Lawson Emergency vehicle warning system
US7308341B2 (en) 2003-10-14 2007-12-11 Donnelly Corporation Vehicle communication system
US7379100B2 (en) 2004-02-12 2008-05-27 Canesta, Inc. Method and system to increase dynamic range of time-of-flight (TOF) and/or imaging sensors
US7629880B2 (en) 2004-03-09 2009-12-08 Ingrid, Inc. System, method and device for detecting a siren
US7321111B2 (en) 2004-04-12 2008-01-22 Canesta, Inc. Method and system to enhance differential dynamic range and signal/noise in CMOS range finding systems using differential sensors
US7157685B2 (en) 2004-04-12 2007-01-02 Canesta, Inc. Method and system to enhance differential dynamic range and signal/noise in CMOS range finding systems using differential sensors
US20060055630A1 (en) 2004-09-15 2006-03-16 Cheang Tak M Chromatically enhanced display
US7881496B2 (en) 2004-09-30 2011-02-01 Donnelly Corporation Vision system for vehicle
WO2006058098A2 (en) 2004-11-22 2006-06-01 Donnelly Corporation Occupant detection system for vehicle
US7720580B2 (en) 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
US7283213B2 (en) 2005-02-08 2007-10-16 Canesta, Inc. Method and system to correct motion blur and reduce signal transients in time-of-flight sensor systems
US7379163B2 (en) 2005-02-08 2008-05-27 Canesta, Inc. Method and system for automatic gain control of sensors in time-of-flight systems
US7408627B2 (en) 2005-02-08 2008-08-05 Canesta, Inc. Methods and system to quantify depth data accuracy in three-dimensional sensors using single frame capture
US20070008175A1 (en) 2005-07-06 2007-01-11 Duane Johnson Siren detection notification alarm
US7245232B1 (en) 2005-08-09 2007-07-17 Caouette Sr James Emergency vehicle alert system
US20070216539A1 (en) 2005-10-12 2007-09-20 D Antoni Jennifer System to warn of an approaching emergency vehicle
US8094040B1 (en) 2005-11-02 2012-01-10 Cornett Robertt H Methods and apparatus for electronically detecting siren sounds for controlling traffic control lights for signalling the right of way to emergency vehicles at intersections or to warn motor vehicle operators of an approaching emergency vehicle
ATE434353T1 (de) 2006-04-25 2009-07-15 Harman Becker Automotive Sys Fahrzeugkommunikationssystem
US7375803B1 (en) 2006-05-18 2008-05-20 Canesta, Inc. RGBZ (red, green, blue, z-depth) filter system usable with sensor systems, including sensor systems with synthetic mirror enhanced three-dimensional imaging
US7405812B1 (en) 2006-05-18 2008-07-29 Canesta, Inc. Method and system to avoid inter-system interference for phase-based time-of-flight systems
CN101140704A (zh) 2006-09-08 2008-03-12 松下电器产业株式会社 方向检测装置
US7692551B2 (en) 2006-09-12 2010-04-06 Deere & Company Method and system for detecting operator alertness
DE602006005493D1 (de) 2006-10-02 2009-04-16 Harman Becker Automotive Sys Sprachsteuerung von Fahrzeugelementen von außerhalb einer Fahrzeugkabine
US8013780B2 (en) 2007-01-25 2011-09-06 Magna Electronics Inc. Radar sensing system for vehicle
US8558883B2 (en) 2007-07-27 2013-10-15 Sportvision, Inc. Providing graphics in images depicting aerodynamic flows and forces
DE102007036262A1 (de) 2007-08-02 2009-02-05 Robert Bosch Gmbh Radarsensor für Kraftfahrzeuge
EP2186075A1 (de) 2007-08-29 2010-05-19 Continental Teves AG & CO. OHG Informationseinrichtung zur angepassten informationsdarstellung in einem fahrzeug
US20100245066A1 (en) 2007-10-23 2010-09-30 Sarioglu Guner R Automotive Ultrasonic Sensor System with Independent Wire Harness
US8027029B2 (en) 2007-11-07 2011-09-27 Magna Electronics Inc. Object detection and tracking system
US7791499B2 (en) 2008-01-15 2010-09-07 Qnx Software Systems Co. Dynamic siren detection and notification system
US8392064B2 (en) 2008-05-27 2013-03-05 The Board Of Trustees Of The Leland Stanford Junior University Systems, methods and devices for adaptive steering control of automotive vehicles
US8319620B2 (en) 2008-06-19 2012-11-27 Personics Holdings Inc. Ambient situation awareness system and method for vehicles
JP5255988B2 (ja) 2008-10-22 2013-08-07 富士重工業株式会社 操舵支援装置
EP2211564B1 (de) 2009-01-23 2014-09-10 Harman Becker Automotive Systems GmbH Insassenkommunikationssystem
US9126525B2 (en) 2009-02-27 2015-09-08 Magna Electronics Inc. Alert system for vehicle
US7675431B1 (en) 2009-03-13 2010-03-09 Caouette Sr James Emergency vehicle alert system
US9036026B2 (en) 2009-06-12 2015-05-19 Magna Electronics Scalable integrated electronic control unit for vehicle
JPWO2011030422A1 (ja) 2009-09-10 2013-02-04 パイオニア株式会社 雑音低減装置
US8590272B2 (en) 2010-06-07 2013-11-26 Georgia-Pacific Gypsum Llc Acoustical sound proofing materials and methods of making the same
US8793036B2 (en) 2010-09-22 2014-07-29 The Boeing Company Trackless transit system with adaptive vehicles
US20120121113A1 (en) 2010-11-16 2012-05-17 National Semiconductor Corporation Directional control of sound in a vehicle
US20120136559A1 (en) 2010-11-29 2012-05-31 Reagan Inventions, Llc Device and system for identifying emergency vehicles and broadcasting the information
EP2523173B1 (de) 2011-05-10 2017-09-20 Autoliv Development AB Fahrerassistenzsystem und -verfahren für ein Kraftfahrzeug
US20130049985A1 (en) 2011-08-24 2013-02-28 Henry Eisenson Device and system to alert vehicles and pedestrians of approaching emergency vehicles and emergency situations
US9146898B2 (en) 2011-10-27 2015-09-29 Magna Electronics Inc. Driver assist system with algorithm switching
WO2013109869A1 (en) 2012-01-20 2013-07-25 Magna Electronics, Inc. Vehicle vision system with free positional virtual panoramic view
WO2013125257A1 (ja) 2012-02-20 2013-08-29 株式会社Jvcケンウッド 雑音信号抑制装置、雑音信号抑制方法、特殊信号検出装置、特殊信号検出方法、報知音検出装置、および、報知音検出方法
US9269263B2 (en) 2012-02-24 2016-02-23 Magna Electronics Inc. Vehicle top clearance alert system
JP5820305B2 (ja) 2012-02-29 2015-11-24 株式会社村上開明堂 車外音導入装置
US9412273B2 (en) 2012-03-14 2016-08-09 Autoconnect Holdings Llc Radar sensing and emergency response vehicle detection
US9218698B2 (en) 2012-03-14 2015-12-22 Autoconnect Holdings Llc Vehicle damage detection and indication
US20140309871A1 (en) 2013-04-15 2014-10-16 Flextronics Ap, Llc User gesture control of vehicle features
US8942881B2 (en) 2012-04-02 2015-01-27 Google Inc. Gesture-based automotive controls
US9397630B2 (en) 2012-04-09 2016-07-19 Dts, Inc. Directional based audio response to an external environment emergency signal
DE102012205891A1 (de) 2012-04-11 2013-10-17 Continental Automotive Gmbh Kommunikationseinrichtung für ein Fahrzeug
US9417838B2 (en) 2012-09-10 2016-08-16 Harman International Industries, Incorporated Vehicle safety system using audio/visual cues
US8676427B1 (en) 2012-10-11 2014-03-18 Google Inc. Controlling autonomous vehicle using audio data
US8849557B1 (en) 2012-11-15 2014-09-30 Google Inc. Leveraging of behavior of vehicles to detect likely presence of an emergency vehicle
US20140218529A1 (en) 2013-02-04 2014-08-07 Magna Electronics Inc. Vehicle data recording system
US9279881B2 (en) 2013-03-12 2016-03-08 Escort Inc. Radar false alert reduction
DE102013004271A1 (de) 2013-03-13 2013-09-19 Daimler Ag Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs
US9224294B1 (en) 2013-04-09 2015-12-29 Phyllis St. John Automobile emergency vehicle warning display system
US9280202B2 (en) 2013-05-10 2016-03-08 Magna Electronics Inc. Vehicle vision system
US20160083995A1 (en) 2013-05-15 2016-03-24 Magna Closures Inc. Method and system for operating a closure panel of a vehicle
US10946798B2 (en) 2013-06-21 2021-03-16 Magna Electronics Inc. Vehicle vision system
US20140375476A1 (en) 2013-06-24 2014-12-25 Magna Electronics Inc. Vehicle alert system
US20150009010A1 (en) 2013-07-03 2015-01-08 Magna Electronics Inc. Vehicle vision system with driver detection
US9701258B2 (en) 2013-07-09 2017-07-11 Magna Electronics Inc. Vehicle vision system
KR101470190B1 (ko) 2013-07-09 2014-12-05 현대자동차주식회사 자율주행 시스템의 고장 처리 장치 및 그 방법
US9935710B2 (en) 2013-07-22 2018-04-03 Osram Sylvania Inc. Spatially and/or distance defined light-based communications in a vehicle/roadway environment
US20150066284A1 (en) 2013-09-05 2015-03-05 Ford Global Technologies, Llc Autonomous vehicle control for impaired driver
US10908417B2 (en) 2013-09-19 2021-02-02 Magna Electronics Inc. Vehicle vision system with virtual retinal display
US9469247B2 (en) 2013-11-21 2016-10-18 Harman International Industries, Incorporated Using external sounds to alert vehicle occupants of external events and mask in-car conversations
US9275136B1 (en) 2013-12-03 2016-03-01 Google Inc. Method for siren detection based on audio samples
US9576208B2 (en) 2013-12-11 2017-02-21 Continental Automotive Systems, Inc. Emergency vehicle detection with digital image sensor
DE102015202846B4 (de) 2014-02-19 2020-06-25 Magna Electronics, Inc. Fahrzeugsichtsystem mit Anzeige
WO2015148611A1 (en) 2014-03-26 2015-10-01 Magna Mirrors Of America, Inc. Vehicle function control system using projected icons
US20150294169A1 (en) 2014-04-10 2015-10-15 Magna Electronics Inc. Vehicle vision system with driver monitoring
US20150296135A1 (en) 2014-04-10 2015-10-15 Magna Electronics Inc. Vehicle vision system with driver monitoring
US9536271B2 (en) * 2014-05-16 2017-01-03 Uber Technologies, Inc. User-configurable indication device for use with an on-demand transport service
US9911454B2 (en) 2014-05-29 2018-03-06 Jaunt Inc. Camera array including camera modules
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US20150352953A1 (en) 2014-06-04 2015-12-10 Magna Electronics Inc. Vehicle control system with mobile device interface
JP6284446B2 (ja) 2014-06-27 2018-02-28 株式会社オーディオテクニカ ダイナミックマイクロホンおよび背部空気室の成形方法
US9800983B2 (en) 2014-07-24 2017-10-24 Magna Electronics Inc. Vehicle in cabin sound processing system
US10368011B2 (en) 2014-07-25 2019-07-30 Jaunt Inc. Camera array removing lens distortion
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US20160252905A1 (en) 2014-08-28 2016-09-01 Google Inc. Real-time active emergency vehicle detection
AU2015324125B2 (en) 2014-09-29 2018-02-08 Keith Kropf Underwater communication systems, underwater speakers, underwater microphone assemblies and methods
KR101588184B1 (ko) 2014-10-22 2016-01-25 현대자동차주식회사 차량용 제어 장치, 차량, 및 차량의 제어방법
US9278689B1 (en) 2014-11-13 2016-03-08 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle detection of and response to emergency vehicles
US9405120B2 (en) 2014-11-19 2016-08-02 Magna Electronics Solutions Gmbh Head-up display and vehicle using the same
US10247941B2 (en) 2015-01-19 2019-04-02 Magna Electronics Inc. Vehicle vision system with light field monitor
US9817109B2 (en) 2015-02-27 2017-11-14 Texas Instruments Incorporated Gesture recognition using frequency modulated continuous wave (FMCW) radar with low angle resolution
US10168785B2 (en) 2015-03-03 2019-01-01 Nvidia Corporation Multi-sensor based user interface
GB2536475B (en) 2015-03-18 2018-02-14 Jaguar Land Rover Ltd Reducing erroneous detection of input command gestures
KR101654694B1 (ko) 2015-03-31 2016-09-06 주식회사 퓨전소프트 손 제스처를 이용한 차량용 전자기기 제어 방법 및 이를 구현하는 모션 감지 장치
US9844981B2 (en) 2015-06-02 2017-12-19 Karma Automotive Llc Systems and methods for use in a vehicle for detecting external events
US20160355124A1 (en) 2015-06-04 2016-12-08 Ford Global Technologies, Llc Molded electroluminescent automotive interior components
US9470033B1 (en) 2015-06-09 2016-10-18 Ford Global Technologies, Llc System and method for controlling vehicle access component
US9818246B2 (en) 2015-07-29 2017-11-14 Ford Global Technologies, Llc System and method for gesture-based control of a vehicle door
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
US9875583B2 (en) * 2015-10-19 2018-01-23 Toyota Motor Engineering & Manufacturing North America, Inc. Vehicle operational data acquisition responsive to vehicle occupant voice inputs
US10137777B2 (en) 2015-11-03 2018-11-27 GM Global Technology Operations LLC Systems and methods for vehicle system control based on physiological traits
US20190227553A1 (en) * 2015-11-04 2019-07-25 Zoox, Inc. Interactive autonomous vehicle command controller
US20170217445A1 (en) * 2016-01-29 2017-08-03 GM Global Technology Operations LLC System for intelligent passenger-vehicle interactions
US20170222311A1 (en) 2016-02-01 2017-08-03 Magna Electronics Inc. Vehicle sensing system with radar antenna radome
US10863335B2 (en) 2016-03-04 2020-12-08 Magna Electronics Inc. Vehicle trailer angle detection system using short range communication devices
FR3048933B1 (fr) 2016-03-21 2019-08-02 Valeo Vision Dispositif de commande d'eclairage interieur d'un vehicule automobile
US10703204B2 (en) 2016-03-23 2020-07-07 Magna Electronics Inc. Vehicle driver monitoring system
US10571562B2 (en) 2016-03-25 2020-02-25 Magna Electronics Inc. Vehicle short range sensing system using RF sensors
US9689967B1 (en) 2016-04-07 2017-06-27 Uhnder, Inc. Adaptive transmission and interference cancellation for MIMO radar
US10443292B2 (en) 2016-04-25 2019-10-15 Magna Closures, Inc. Non-contact obstacle detection system for motor vehicles
US9575160B1 (en) 2016-04-25 2017-02-21 Uhnder, Inc. Vehicular radar sensing system utilizing high rate true random number generator
US11313167B2 (en) 2016-04-25 2022-04-26 Magna Closures Inc. System and method for detecting vehicular door movement due to non-contact using obstacle detection
WO2017187242A1 (en) 2016-04-25 2017-11-02 Uhnder, Inc. On-demand multi-scan micro doppler for vehicle
US10534081B2 (en) 2016-05-02 2020-01-14 Magna Electronics Inc. Mounting system for vehicle short range sensors
US10789840B2 (en) 2016-05-09 2020-09-29 Coban Technologies, Inc. Systems, apparatuses and methods for detecting driving behavior and triggering actions based on detected driving behavior
US10152858B2 (en) 2016-05-09 2018-12-11 Coban Technologies, Inc. Systems, apparatuses and methods for triggering actions based on data capture and characterization
US10768298B2 (en) 2016-06-14 2020-09-08 Magna Electronics Inc. Vehicle sensing system with 360 degree near range sensing
US9753121B1 (en) 2016-06-20 2017-09-05 Uhnder, Inc. Power control for improved near-far performance of radar systems
CN109565304B (zh) 2016-07-08 2023-04-07 马格纳电子系统公司 用于车辆的2d mimo雷达系统
US10866562B2 (en) 2016-07-09 2020-12-15 Doubleme, Inc. Vehicle onboard holographic communication system
US10239446B2 (en) 2016-07-13 2019-03-26 Magna Electronics Inc. Vehicle sensing system using daisy chain of sensors
EP3497546B1 (de) 2016-08-09 2021-10-06 Google LLC Radarbasierte gestenbasierte benutzeroberfläche
US10641867B2 (en) 2016-08-15 2020-05-05 Magna Electronics Inc. Vehicle radar system with shaped radar antennas
US10640117B2 (en) 2016-08-17 2020-05-05 Allstate Insurance Company Driving cues and coaching
US10934764B2 (en) 2016-09-08 2021-03-02 Magna Closures Inc. Radar detection system for non-contact human activation of powered closure member
US20190162821A1 (en) 2016-09-08 2019-05-30 Magna Closures Inc. Radar detection system for non-contact human activation of powered closure member
US10246009B2 (en) 2016-09-08 2019-04-02 Magna Colsures Inc. User notification of powered system activation during non-contact human activation
US20180170309A1 (en) 2016-09-08 2018-06-21 Magna Closures Inc. User notification of powered system activation during non-contact human activation
US11067667B2 (en) 2016-09-08 2021-07-20 Magna Closures Inc. Radar detection system for non-contact human activation of powered closure member
US10913463B2 (en) * 2016-09-21 2021-02-09 Apple Inc. Gesture based control of autonomous vehicles
US20180137756A1 (en) 2016-11-17 2018-05-17 Ford Global Technologies, Llc Detecting and responding to emergency vehicles in a roadway
US10466772B2 (en) 2017-01-09 2019-11-05 Infineon Technologies Ag System and method of gesture detection for a remote device
US10266182B2 (en) * 2017-01-10 2019-04-23 Ford Global Technologies, Llc Autonomous-vehicle-control system and method incorporating occupant preferences
US10753754B2 (en) * 2017-01-19 2020-08-25 Andrew DeLizio Managing autonomous vehicles
US11214280B2 (en) * 2017-01-26 2022-01-04 Ford Global Technologies, Llc Autonomous vehicle providing driver education
US11244564B2 (en) 2017-01-26 2022-02-08 Magna Electronics Inc. Vehicle acoustic-based emergency vehicle detection
US20180222414A1 (en) 2017-02-06 2018-08-09 Magna Electronics Inc. Vehicle cabin monitoring system and temperature control
US10782388B2 (en) 2017-02-16 2020-09-22 Magna Electronics Inc. Vehicle radar system with copper PCB
DE102018202343A1 (de) 2017-02-17 2018-08-23 Magna Closures Inc. Kraft-schwenktür mit virtual-handgriff -gestensteuerung
CA3053668A1 (en) 2017-03-01 2018-09-07 Soltare Inc. Systems and methods for detection of a target sound
US11702066B2 (en) * 2017-03-01 2023-07-18 Qualcomm Incorporated Systems and methods for operating a vehicle based on sensor data
US20180284772A1 (en) * 2017-04-03 2018-10-04 nuTonomy Inc. Processing a request signal regarding operation of an autonomous vehicle
CN110573398B (zh) 2017-05-03 2023-05-23 索尔塔雷公司 用于车辆传感系统的音频处理
US10372130B1 (en) * 2017-05-19 2019-08-06 Zoox, Inc. Communicating reasons for vehicle actions
US10317899B2 (en) * 2017-06-16 2019-06-11 nuTonomy Inc. Intervention in operation of a vehicle having autonomous driving capabilities
US10346888B2 (en) * 2017-06-16 2019-07-09 Uber Technologies, Inc. Systems and methods to obtain passenger feedback in response to autonomous vehicle driving events
KR101930462B1 (ko) * 2017-09-25 2018-12-17 엘지전자 주식회사 차량 제어 장치 및 그것을 포함하는 차량
US20190122056A1 (en) 2017-10-24 2019-04-25 Magna Closures Inc. Ultrasonic object detection system for motor vehicles and method of operation thereof
US10914110B2 (en) 2017-11-02 2021-02-09 Magna Closures Inc. Multifunction radar based detection system for a vehicle liftgate
US20190143888A1 (en) * 2017-11-15 2019-05-16 Pedestrian Safety Solutions, Llc Vehicle front alert system
US11054514B2 (en) 2017-11-22 2021-07-06 Magna Closures Inc. Radar beam forming shield for motor vehicle
US11167771B2 (en) 2018-01-05 2021-11-09 Magna Mirrors Of America, Inc. Vehicular gesture monitoring system
US11079758B2 (en) * 2018-01-12 2021-08-03 Toyota Research Institute, Inc. Systems and methods for incentivizing user-aided improvement of autonomous vehicle control systems and methods of operating a vehicle using the same
US11465557B2 (en) 2018-04-06 2022-10-11 Magna Closures Inc. Vehicle latch with integrated radar module
JP6730552B2 (ja) 2018-05-14 2020-07-29 株式会社ユピテル 電子情報システム及びそのプログラム
US20190051302A1 (en) * 2018-09-24 2019-02-14 Intel Corporation Technologies for contextual natural language generation in a vehicle
US11341671B2 (en) 2018-11-01 2022-05-24 Magna Electronics Inc. Vehicular driver monitoring system
US11434683B2 (en) 2018-11-15 2022-09-06 Magna Closures Inc. Side door non-contact obstacle detection system and method
US10969236B2 (en) * 2018-12-13 2021-04-06 Gm Global Technology Operations, Llc Vehicle route control based on user-provided trip constraints
US11488399B2 (en) 2018-12-19 2022-11-01 Magna Electronics Inc. Vehicle driver monitoring system for determining driver workload
KR20210113224A (ko) * 2019-01-04 2021-09-15 세렌스 오퍼레이팅 컴퍼니 음성 상호작용을 사용하여 자율 주행 차량의 안전성과 유연성을 향상시키기 위한 방법 및 시스템
US11205083B2 (en) 2019-04-02 2021-12-21 Magna Electronics Inc. Vehicular driver monitoring system
KR102339085B1 (ko) * 2019-07-22 2021-12-14 엘지전자 주식회사 사용자의 어플리케이션 사용 기록을 고려하여 사용자의 음성을 인식하는 인공 지능 장치 및 그 방법
US10766412B1 (en) * 2019-09-12 2020-09-08 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for notifying other road users of a change in vehicle speed
US10609148B1 (en) 2019-09-17 2020-03-31 Ha Q Tran Smart vehicle
US11557096B2 (en) * 2019-12-09 2023-01-17 At&T Intellectual Property I, L.P. Cognitive stimulation in vehicles
US11866983B2 (en) 2020-02-26 2024-01-09 Magna Electronics Inc. Radar scanning system for static obstacle detection for power door movement
US11816905B2 (en) 2020-03-19 2023-11-14 Magna Electronics Inc. Multi-camera vision system integrated into interior rearview mirror
DE102021203783B4 (de) 2020-04-17 2022-04-28 Magna Mirrors Of America, Inc. Innenrückspiegelanordnung mit fahrerüberwachungssystem

Also Published As

Publication number Publication date
CN115066662A (zh) 2022-09-16
WO2021142442A1 (en) 2021-07-15
US11866063B2 (en) 2024-01-09
US20210213970A1 (en) 2021-07-15

Similar Documents

Publication Publication Date Title
DE112020001642T5 (de) Autonomes Fahrzeugsystem
EP2762988B1 (de) Bedarfsweise aktivierbares Fernsteuerungssystem und/oder Fernüberwachungssystem für Kraftfahrzeuge
DE112012006226B4 (de) Fahrassistenzvorrichtung
EP3826897B1 (de) Verfahren und vorrichtung zur unterstützung einer aufmerksamkeit und/oder fahrbereitschaft eines fahrers bei einem automatisierten fahrvorgang eines fahrzeugs
DE102020100078A1 (de) Verbessern des autonomen fahrens mit empfehlung eines entfernten betrachters
DE112017007713T5 (de) Systeme und Verfahren zur Fahrzeugbelegungsverwaltung
DE102019104974A1 (de) Verfahren sowie System zum Bestimmen eines Fahrmanövers
DE202013100347U1 (de) Bedarfsweise aktivierbares Fernsteuerungssystem für Kraftfahrzeuge
DE102020124755A1 (de) Intelligente eskalationsstrategie für ein autonomes fahrzeug
DE102019128411A1 (de) Systeme und verfahren für den mitfahrdienst durch autonome fahrzeuge
DE112016003658T5 (de) Informationsübertragungsvorrichtung, elektronische steuerungsvorrichtung, informationssendevorrichtung und elektronisches steuerungssystem
DE102013201169A1 (de) Bedarfsweise aktivierbares Fernsteuerungssystem für Kraftfahrzeuge
DE102020123084A1 (de) Einstieg und ausstieg für ein autonomes fahrzeug
DE112017007596T5 (de) Strategieerzeugungsvorrichtung und Fahrzeug
DE102019120265A1 (de) Vorhersage des dynamischen Ansprechens
DE102018116684A1 (de) Systeme und verfahren zum bereitstellen einer intelligenten übersteuerung für ein antriebsautomatisierungssystem
DE102019215657A1 (de) Fahrzeugsteuerungsstystem und -verfahren
DE112019007111T5 (de) Steuervorrichtung, Steuerverfahren und Programm
DE102016210760A1 (de) Verfahren zur Interaktion zwischen einem Fahrzeug und Verkehrsteilnehmer
DE102021116309A1 (de) Assistenz für beeinträchtigte fahrer
DE102016116860A1 (de) System und Verfahren zum Betreiben von autonom fahrenden Nutzfahrzeugen
DE112021002091T5 (de) Präsentationssteuervorrichtung und präsentationssteuerprogramm
DE112021000497T5 (de) Kommunikationssystem und -verfahren
DE102016216520A1 (de) Verfahren und System zum Betrieb eines Fahrzeugs
DE102018214506A1 (de) Verfahren zur Weiterentwicklung eines Fahrerassistenzsystems und Fahrerassistenzsystem für ein Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed