DE102022213029A1 - Fahrzeug und steuerungsverfahren dafür - Google Patents

Fahrzeug und steuerungsverfahren dafür Download PDF

Info

Publication number
DE102022213029A1
DE102022213029A1 DE102022213029.4A DE102022213029A DE102022213029A1 DE 102022213029 A1 DE102022213029 A1 DE 102022213029A1 DE 102022213029 A DE102022213029 A DE 102022213029A DE 102022213029 A1 DE102022213029 A1 DE 102022213029A1
Authority
DE
Germany
Prior art keywords
mobile device
vehicle
microphone
user
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022213029.4A
Other languages
English (en)
Inventor
Seong Soo Yae
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Kia Corp
Original Assignee
Hyundai Motor Co
Kia Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Motor Co, Kia Corp filed Critical Hyundai Motor Co
Publication of DE102022213029A1 publication Critical patent/DE102022213029A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0217Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for loud-speakers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0247Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for microphones or earphones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/01Fittings or systems for preventing or indicating unauthorised use or theft of vehicles operating on vehicle systems or fittings, e.g. on doors, seats or windscreens
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • G10L21/055Time compression or expansion for synchronising with other signals, e.g. video signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Offenbart werden ein Fahrzeug und ein Steuerungsverfahren dafür, die es sowohl einem Fahrgast als auch einem Fahrer ermöglichen können, ein Spracherkennungssystem komfortabel zu verwenden, indem ein Mikrofon einer Mobilvorrichtung als Quelle für die Spracheingabe verwendet wird, die ein Mikrofon einer Mobilvorrichtung als Quelle zur Geräuscherfassung verwenden kann, wenn ein Fahrer ein Spracherkennungssystem verwendet. Ein Fahrzeug kann ein Mikrofon, einen Lautsprecher, ein Kommunikationsmodul, das zur Kommunikation mit einer Mobilvorrichtung konfiguriert ist, und einen Controller aufweisen. In einem ersten Modus ist das Kommunikationsmodul konfiguriert, ein Sprachsignal eines Nutzers von der Mobilvorrichtung zu empfangen, und im ersten Modus ist der Controller konfiguriert, um basierend auf einem in das Mikrofon eingegebenen Audiosignal an dem von der Mobilvorrichtung empfangenen Sprachsignal des Nutzers Rauschunterdrückung durchzuführen.

Description

  • TECHNISCHER HINTERGRUND
  • 1. Technisches Gebiet
  • Die vorliegende Offenbarung betrifft ein Fahrzeug und ein Steuerungsverfahren dafür, das entsprechend der Sprache eines Nutzers einen Dienst bereitstellen kann.
  • 2. Stand der Technik
  • Ein Spracherkennungssystem ist in der Lage, aus der Sprache eines Nutzers heraus zu identifizieren, was dieser beabsichtigt, sowie einen Dienst bereitzustellen, der der identifizierten Absicht des Nutzers entspricht.
  • Ein Spracherkennungssystem ist mit einer bestimmten Vorrichtung verknüpft, um die Vorrichtung zu steuern und entsprechend der Absicht des Nutzers spezifische Informationen bereitzustellen.
  • Da ein Fahrzeug mit einem Spracherkennungssystem ausgestattet ist, kann ein Nutzer das Fahrzeug steuern, gewünschte Informationen erhalten oder einfach durch Dialoge mit dem Fahrzeug gewünschte Dienste in Anspruch nehmen.
  • Da ein Spracherkennungssystem in einem Fahrzeug jedoch hauptsächlich zur Benutzung durch einen Fahrer gedacht ist, kann ein Insasse bzw. Fahrgast im Auto das Spracherkennungssystem nur eingeschränkt nutzen.
  • DARSTELLUNG
  • Ein Aspekt der Offenbarung stellt ein Fahrzeug und ein Steuerungsverfahren dafür bereit, die es sowohl einem Fahrgast als auch einem Fahrer ermöglichen können, ein Spracherkennungssystem komfortabel zu nutzen, indem ein Mikrofon einer Mobilvorrichtung als Quelle für Spracheingaben verwendet wird.
  • Ein Aspekt der Offenbarung stellt ein Fahrzeug und ein Steuerungsverfahren dafür bereit, das ein Mikrofon einer Mobilvorrichtung als Quelle für die Geräuscherfassung nutzen kann, wenn ein Fahrer ein Spracherkennungssystem verwendet.
  • Zusätzliche Aspekte der Offenbarung werden teilweise in der folgenden Beschreibung dargelegt und sollten teilweise aus der Beschreibung ersichtlich sein oder können durch Ausführen der Offenbarung erlernt werden.
  • Gemäß einem Aspekt der vorliegenden Offenbarung weist ein Fahrzeug auf: ein Mikrofon, das im Innern des Fahrzeugs bereitgestellt ist; einen Lautsprecher, der im Innern des Fahrzeugs bereitgestellt ist; ein Kommunikationsmodul, das konfiguriert ist, um mit einer in dem Fahrzeug befindlichen Mobilvorrichtung zu kommunizieren; und einen Controller. Insbesondere ist das Kommunikationsmodul in einem ersten Modus konfiguriert, um ein Sprachsignal eines Nutzers von der Mobilvorrichtung zu empfangen, und in dem ersten Modus ist der Controller konfiguriert, um an dem von der Mobilvorrichtung empfangenen Sprachsignal des Nutzers basierend auf einem in das Mikrofon eingegebenen Audiosignal Rauschunterdrückung durchzuführen.
  • In einer anderen Ausführungsform ist das Kommunikationsmodul in einem zweiten Modus konfiguriert, um ein Audiosignal von der Mobilvorrichtung zu empfangen, und in dem zweiten Modus ist der Controller konfiguriert, um an einem Sprachsignal des Nutzers, das in das Mikrofon eingegeben wird, basierend auf dem von der Mobilvorrichtung empfangenen Audiosignal Rauschunterdrückung durchzuführen.
  • In einer Ausführungsform ist der Controller konfiguriert, um den Lautsprecher so zu steuern, dass er in einem Registrierungsmodus zur Registrierung der Mobilvorrichtung einen Prüfton ausgibt.
  • In einer anderen Ausführungsform ist der Controller im Registrierungsmodus konfiguriert, um basierend auf einem Prüftonsignal, das von der Mobilvorrichtung empfangen wird, eine Verzögerung der Mobilvorrichtung zu berechnen, nachdem er den Lautsprecher dahingehend gesteuert hat, den Prüfton auszugeben, sowie der Mobilvorrichtung die berechnete Verzögerung zuzuordnen und zu speichern.
  • In einer Ausführungsform ist der Controller im ersten Modus konfiguriert, um das in das Mikrofon eingegebene Audiosignal und das von der Mobilvorrichtung empfangene Sprachsignal des Nutzers basierend auf der der Mobilvorrichtung zugeordneten Verzögerung zu synchronisieren.
  • In dem zweiten Modus ist der Controller konfiguriert, um das in das Mikrofon eingegebene Sprachsignal des Nutzers und das von der Mobilvorrichtung empfangene Audiosignal basierend auf der der Mobilvorrichtung zugeordneten Verzögerung zu synchronisieren.
  • In einer Ausführungsform ist der Controller konfiguriert, um in dem ersten Modus zu arbeiten, wenn ein Spracherkennungs-Auslösesignal in die Mobilvorrichtung eingegeben wird, und in dem zweiten Modus zu arbeiten, wenn das Spracherkennungs-Auslösesignal in das Fahrzeug eingegeben wird.
  • In einer Ausführungsform ist das Kommunikationsmodul konfiguriert, um im ersten Modus ein Sprachsignal eines Fahrzeuginsassen von der Mobilvorrichtung zu empfangen und das Mikrofon ist konfiguriert, um im zweiten Modus die Sprache eines Fahrers des Fahrzeugs zu empfangen.
  • In einer Ausführungsform ist das Kommunikationsmodul konfiguriert, um das Sprachsignal des Nutzers, an dem die Rauschunterdrückung durchgeführt wird, an ein Spracherkennungssystem zu senden.
  • Wenn ein Befehl, der dem von der Mobilvorrichtung empfangenen Sprachsignal des Nutzers entspricht, zulässig ist, ist der Controller konfiguriert, ein Steuersignal zum Durchführen des Befehls zu erzeugen, und dann, wenn der Befehl, der dem von der Mobilvorrichtung empfangenen Sprachsignal des Nutzers entspricht, nicht zulässig ist, eine Leitnachricht zu erzeugen.
  • Gemäß einem Aspekt der vorliegenden Offenbarung umfasst ein Steuerungsverfahren eines Fahrzeugs: Bestimmen eines ersten Modus oder eines zweiten Modus, in Bezug auf eine Spracherkennung, wenn der erste Modus in Betrieb ist, Empfangen eines Sprachsignals eines Nutzers aus einer Mobilvorrichtung, die sich im Innern des Fahrzeugs befindet; und wenn der erste Modus in Betrieb ist, Durchführen von Rauschunterdrückung an dem Sprachsignal des Nutzers, das von der Mobilvorrichtung empfangen wird, basierend auf einem Audiosignal, das in ein in dem Fahrzeug bereitgestelltes Mikrofon eingegeben wird.
  • In einer Ausführungsform umfasst das Steuerungsverfahren ferner: wenn der zweite Modus in Betrieb ist, Empfangen eines Audiosignals von der Mobilvorrichtung; und wenn der zweite Modus in Betrieb ist, Durchführen von Rauschunterdrückung an einem Sprachsignal des Nutzers, das in das Mikrofon eingegeben wird, basierend auf dem von der Mobilvorrichtung empfangenen Audiosignal.
  • Das Steuerungsverfahren umfasst ferner die Registrierung der Mobilvorrichtung im Fahrzeug.
  • In einer Ausführungsform umfasst die Registrierung der Mobilvorrichtung im Fahrzeug das Steuern eines im Fahrzeug bereitgestellten Lautsprechers zur Ausgabe eines Prüftons.
  • In einer Ausführungsform umfasst das Registrieren der Mobilvorrichtung im Fahrzeug ferner: Berechnen einer Verzögerung der Mobilvorrichtung basierend auf einem Prüftonsignal, das von der Mobilvorrichtung empfangen wird, nachdem der Lautsprecher dahingehend gesteuert wurde, den Prüfton auszugeben; und Zuordnen und Speichern der berechneten Verzögerung zu der Mobilvorrichtung.
  • In einer Ausführungsform umfasst das Durchführen der Rauschunterdrückung, wenn der erste Modus in Betrieb ist, das Synchronisieren des in das Mikrofon eingegebenen Audiosignals und des von der Mobilvorrichtung empfangenen Sprachsignals des Nutzers, basierend auf der der Mobilvorrichtung zugeordneten Verzögerung.
  • In einer Ausführungsform umfasst das Durchführen der Rauschunterdrückung, wenn der zweite Modus in Betrieb ist, das Synchronisieren des in das Mikrofon eingegebenen Sprachsignals des Nutzers und des von der Mobilvorrichtung empfangenen Audiosignals basierend auf der der Mobilvorrichtung zugeordneten Verzögerung.
  • In einer Ausführungsform umfasst das Bestimmen des ersten Modus oder des zweiten Modus in Bezug auf die Spracherkennung: Bestimmen als ersten Modus, wenn ein Spracherkennungs-Auslösesignal in die Mobilvorrichtung eingegeben wird, und Bestimmen als zweiten Modus, wenn das Spracherkennungs-Auslösesignal in das Fahrzeug eingegeben wird.
  • In einer Ausführungsform beinhaltet das von der Mobilvorrichtung empfangene Sprachsignal des Nutzers ein Sprachsignal eines Fahrzeugfahrgastes, wenn der erste Modus in Betrieb ist, und das in das Mikrofon eingegebene Sprachsignal des Nutzers beinhaltet ein Sprachsignal eines Fahrers des Fahrzeugs, wenn der zweite Modus in Betrieb ist.
  • In einer Ausführungsform umfasst das Steuerungsverfahren ferner: wenn ein Befehl, der dem von der Mobilvorrichtung empfangenen Sprachsignal des Nutzers entspricht, zulässig ist, Erzeugen eines Steuersignals zum Durchführen des Befehls; und wenn der Befehl, der dem von der Mobilvorrichtung empfangenen Sprachsignal des Nutzers entspricht, nicht zulässig ist, Erzeugen einer Leitnachricht.
  • Figurenliste
  • Diese und/oder weitere Aspekte der Offenbarung sollten aus der nachstehenden Beschreibung von Ausführungsformen, die in Zusammenschau mit den beigefügten Zeichnungen erfolgen, ersichtlich und leichter zu verstehen sein. Die Zeichnungen zeigen in:
    • 1 ein Blockdiagramm, das ein mit einem Fahrzeug verbundenes Spracherkennungssystem gemäß einer Ausführungsform darstellt;
    • 2 ein Blockdiagramm, das ein Fahrzeug gemäß einer Ausführungsform darstellt, und 3 eine Darstellung, die schematisch eine Beziehung zwischen einem Spracherkennungssystem und einem Fahrzeug gemäß einer Ausführungsform darstellt;
    • 4 ein Blockdiagramm, das eine Mobilvorrichtung darstellt, die gemäß einer Ausführungsform ein Mikrofon für ein Fahrzeug bereitstellt;
    • 5 eine Darstellung, die die Typen von Signalen veranschaulicht, die zwischen einem Fahrzeug gemäß einer Ausführungsform und einer damit verbundenen Mobilvorrichtung ausgetauscht werden;
    • 6 ein Ablaufdiagramm, das die Vorgänge zur Registrierung einer Mobilvorrichtung in einem Fahrzeug in einem Steuerungsverfahren des Fahrzeugs gemäß einer Ausführungsform darstellt;
    • 7 eine Darstellung, die den Betrieb eines Controllers für ein Fahrzeug gemäß einer Ausführungsform darstellt;
    • 8 ein Ablaufdiagramm, das die Vorgänge bei der Messung einer Verzögerung in einem Steuerungsverfahren eines Fahrzeugs gemäß einer Ausführungsform darstellt;
    • 9 eine Darstellung, die ein Beispiel für eine Zeitdifferenz zwischen einem Prüfton, der von einem Fahrzeug gemäß einer Ausführungsform ausgegeben wird, und einem Signal, das von einer Mobilvorrichtung an das Fahrzeug gesendet wird, zeigt;
    • 10 eine Darstellung, die ein Beispiel zeigt, bei dem ein Mikrofon eines Fahrzeugs gemäß einer Ausführungsform für die Spracheingabe und ein Mikrofon einer Mobilvorrichtung für die Geräuscherfassung verwendet wird;
    • 11 eine Darstellung, die ein Beispiel zeigt, bei dem ein Mikrofon eines Fahrzeugs gemäß einer Ausführungsform zur Geräuscherfassung und ein Mikrofon einer Mobilvorrichtung zur Spracheingabe verwendet wird;
    • 12 ein Ablaufdiagramm, das Vorgänge veranschaulicht, bei denen ein Fahrzeug ein von einer Mobilvorrichtung bereitgestelltes Audiosignal in einem Steuerungsverfahren des Fahrzeugs gemäß einer Ausführungsform nutzt;
    • 13 eine Darstellung, die ein Beispiel für einen auf einer Mobilvorrichtung angezeigten Bildschirm darstellt, wenn die Spracherkennung durch die Mobilvorrichtung ausgelöst wird;
    • 14 ein Ablaufdiagramm, das Vorgänge zur abweichenden Verarbeitung eines Sprachbefehls in Abhängigkeit von einem Objekt, in das der Sprachbefehl eingegeben wird, in einem Steuerungsverfahren eines Fahrzeugs gemäß einer Ausführungsform darstellt; und
    • 15 eine Darstellung, die ein Beispiel für ein Leitsignal darstellt, das ausgegeben wird, wenn ein Sprachbefehl nicht durchführbar ist, in einem Fahrzeug gemäß einer Ausführungsform.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Es wird angemerkt, dass Ausführungsformen zum Zeitpunkt der Offenbarung durch verschiedene Äquivalente und Änderungen ersetzt werden können.
  • Die vorliegend verwendete Terminologie dient lediglich der Beschreibung bestimmter Ausführungsformen und soll die Offenbarung nicht beschränken. Es wird angemerkt, dass die Singularformen auch die Pluralformen umfassen, es sei denn, aus dem Kontext ergibt sich eindeutig etwas anderes. Ferner sei angemerkt, dass die Begriffe „beinhalten“, „umfassen“ und/oder „haben/aufweisen“, wenn sie in dieser Schrift verwendet werden, das Vorhandensein bestimmter Merkmale, Ganzzahlen, Schritte, Operationen/Betriebe, Elemente und/oder Bauteile angeben, nicht aber das Vorhandensein oder das Hinzuergänzen eines oder mehrerer anderer Merkmale, Ganzzahlen, Schritte, Operationen, Elemente, Bauteile und/oder Gruppen davon ausschließen.
  • Darüber hinaus können sich Begriffe wie „Teil“, „Vorrichtung „Block“, „Element“, „Modul“ und dergleichen auf eine Einheit zur Verarbeitung zumindest einer Funktion oder Handlung beziehen. Die Begriffe können sich beispielsweise auf zumindest einen Prozess beziehen, der von zumindest einer Hardware, wie einem Field-Programmable Gate Array (FPGA)/einer anwendungsspezifischen integrierten Schaltung (ASIC),[] einer in Speichern oder Prozessoren gespeicherten Software verarbeitet wird.
  • Es wird angemerkt, dass obgleich vorliegend die Begriffe „erstes“, „zweites“ etc. verwendet werden können, um verschiedene Elemente zu beschreiben, diese Elemente nicht durch diese Begriffe beschränkt werden sollten. Wenn ein Bauteil, eine Vorrichtung, ein Element etc. der vorliegenden Offenbarung als einen Zweck verfolgend oder eine Operation/Betrieb, Funktion oder ähnliches durchführend beschrieben wird, sollten das Bauteil, die Vorrichtung oder das Element vorliegend als „konfiguriert, um“ diesen Zweck zu erfüllen oder diese Operation oder Funktion durchzuführen, betrachtet werden.
  • Die für die Verfahrensschritte verwendeten Bezugszeichen dienen lediglich der einfacheren Erläuterung, nicht aber der Beschränkung der Reihenfolge der Schritte. Sofern der Kontext nicht eindeutig etwas anderes vorschreibt, kann die schriftliche Reihenfolge also anders gehandhabt werden.
  • Der vorliegend verwendete Begriff „zumindest eines“ umfasst jedwede und alle Kombinationen der entsprechenden aufgelisteten Elemente. Zum Beispiel kann der Begriff „zumindest eines von a, b oder c“ nur a, nur b, nur c, sowohl a als auch b, sowohl a als auch c, sowohl b als auch c oder alle von a, b und c umfassen.
  • Die Ausführungsformen können in Form eines Aufzeichnungsmediums gespeichert werden, das computerausführbare Anweisungen speichert. Die Anweisungen können in Form eines Programmcodes gespeichert sein, und wenn sie von einem Prozessor ausgeführt werden, können die Anweisungen Operationen der offenbarten Ausführungsformen durchführen. Das Aufzeichnungsmedium kann als computerlesbares Aufzeichnungsmedium implementiert sein.
  • Das computerlesbare Aufzeichnungsmedium umfasst alle Arten von Aufzeichnungsmedien, auf denen Befehle gespeichert sind, die von einem Computer entschlüsselt werden können, z. B. einen Festwertspeicher (ROM), einen Direktzugriffsspeicher (RAM), Magnetbänder, Magnetplatten, Flash-Speicher, optische Aufzeichnungsmedien und dergleichen.
  • Ausführungsformen eines Fahrzeugs und ein Steuerungsverfahren dafür sollten ausführlich unter Bezugnahme auf die beigefügten Zeichnungen beschrieben werden.
  • 1 ist ein Blockdiagramm, das ein mit einem Fahrzeug verbundenes Spracherkennungssystem gemäß einer Ausführungsform zeigt.
  • Bei einer Ausführungsform kann sich ein mit einem Fahrzeug verbundenes Spracherkennungssystem auf ein Spracherkennungssystem beziehen, das verwendet werden kann, wenn es vom Fahrzeug aus angerufen wird.
  • Unter Bezugnahme auf 1 beinhaltet ein Spracherkennungssystem 100 ein Sprachverarbeitungsmodul 10, das aus einem Sprachsignal des Nutzers Informationen extrahiert, die zur Durchführung einer von einem Nutzer beabsichtigten Steuerung erforderlich sind, und einen Controller 130, der ein Steuersignal zum Durchführen der vom Nutzer beabsichtigten Steuerung erzeugt.
  • Das Sprachverarbeitungsmodul 10 kann ein Spracherkennungsmodul 110 beinhalten, das die Sprache eines Nutzers in Text umwandelt, und ein Modul 120 zum Verstehen natürlicher Sprache, das eine dem Text entsprechende Nutzerabsicht ermittelt.
  • Das Spracherkennungsmodul 110 kann mit einer STT-Engine (Speech to Text) implementiert werden und durch Anwendung eines Spracherkennungsalgorithmus auf die Sprache des Nutzers eine Umwandlung in Text durchführen.
  • Das Spracherkennungsmodul 110 kann beispielsweise Merkmalsvektoren aus der Sprache eines Nutzers extrahieren, indem es ein Verfahren zur Merkmalsvektorextraktion anwendet, wie z. B. ein Cepstrum, einen Linear Predictive Coefficient (LPC), einen Mel-Frequenz-Cepstral-Coefficent (MFCC), eine Filterbankenergie oder Ähnliches.
  • Ein Erkennungsergebnis kann auch durch den Vergleich von extrahierten Merkmalsvektoren und trainierten Referenzmustern erzielt werden. Es kann ein Akustikmodell für die Modellierung und den Vergleich von Signaleigenschaften der Stimme oder ein Sprachmodell für die Modellierung einer sprachlichen Ordnung des Erkennungsvokabulars wie Wörtern oder Silben verwendet werden.
  • Das Spracherkennungsmodul 110 kann ferner die Sprache des Nutzers auf Grundlage von Deep Learning oder maschinellem Lernen in Text umwandeln. Gemäß einer Ausführungsform ist die Art und Weise, wie das Spracherkennungsmodul 110 die Sprache des Nutzers in den Text umwandelt, nicht hierauf beschränkt, und es können verschiedene von Spracherkennungstechniken angewendet werden, um die Sprache des Nutzers in Text umzuwandeln.
  • Das Modul 120 zum Verstehen natürlicher Sprache kann eine Technik zum Verstehen natürlicher Sprache (NLU) anwenden, um die im Text enthaltene Nutzerabsicht zu ermitteln. Dementsprechend kann das Modul 120 zum Verstehen natürlicher Sprache eine NLU-Engine enthalten, die durch Anwendung der NLU-Technik auf einen Eingabesatz die Nutzerabsicht ermittelt. Der vom Spracherkennungsmodul 110 ausgegebene Text kann ein Satz sein, der in das Modul 120 zum Verstehen natürlicher Sprache eingegeben wird.
  • So kann das Modul 120 zum Verstehen natürlicher Sprache beispielsweise einen Namen einer Einheit bzw. Entität („entity“) aus dem Eingabesatz identifizieren. Der Entitätsname ist ein Eigenname, wie z. B. der Name einer einzelnen Person, eines Ortes, einer Organisation, einer Zeit, eines Tages, einer Währung und dergleichen. Die Erkennung benannter Entitäten dient der Identifizierung eines Entitätsnamens in einem Satz und der Klassifizierung eines Typs der identifizierten Entität. Ein Schlüsselwort kann mit Hilfe der Eigennamenerkennung Named-entity-Erkennung aus einem Satz extrahiert werden, um die Bedeutung des Satzes zu verstehen.
  • Außerdem kann das Modul 120 zum Verstehen natürlicher Sprache eine Domain aus dem Eingabesatz bestimmen. Die Domain kann zur Identifizierung eines Themas der Sprache des Nutzers dienen. Beispielsweise können basierend auf dem Eingabesatz Domains bestimmt werden, die verschiedene Themen repräsentieren, wie etwa Fahrzeugsteuerung, Zeitplan, Informationen über Wetter- oder Verkehrsbedingungen, Textübertragung, Navigation und Ähnliches.
  • Darüber hinaus kann das Modul 120 zum Verstehen natürlicher Sprache einen Sprechakt des Eingabesatzes analysieren. Die Sprechaktanalyse („Speech act analysis) dient dazu, die Absicht der Sprache zu analysieren, z. B. ob der Nutzer eine Frage stellt, eine Bitte äußert, antwortet oder einfach seine Gefühle zum Ausdruck bringt.
  • Das Modul 120 zum Verstehen natürlicher Sprache kann basierend auf der Domain, des Namens der Entität und der aus dem Eingabesatz extrahierten Sprachhandlung eine Absicht und eine zum Durchführen der Absicht erforderliche Entität bestimmen. Wenn der Eingabesatz beispielsweise lautet „Schalte die Klimaanlage ein“, kann die Domaine [Fahrzeugsteuerung] und die Absicht [Einschalten, Klimaanlage] lauten. [Einschalten] kann eine Aktion sein, [Klimaanlage] kann ein Ziel sein, und die Entität, die zum Durchführen der dieser Absicht entsprechenden Steuerung erforderlich ist, kann [Temperatur, Luftmenge] sein.
  • Der Controller 130 kann eine Verarbeitung des Ergebnisses der Spracherkennung und des Verstehens natürlicher Sprache durchführen und ein Ergebnisverarbeitungssignal an ein Nutzerendgerät oder einen externen Server ausgeben, um entsprechend einer Nutzerabsicht einen Dienst bereitzustellen. Zum Beispiel kann der Controller 130 entsprechend einer aus der Sprache des Nutzers extrahierten Absicht ein Steuersignal zur Durchführung einer Steuerung erzeugen und ausgeben.
  • Das Nutzerendgerät kann als Gateway zwischen dem Nutzer und dem Spracherkennungssystem 100 dienen. Bei dem Nutzerendgerät kann es sich um eine Mobilvorrichtung handeln, die mit einer Eingabe-/Ausgabeschnittstelle wie einem Mikrofon, einem Lautsprecher, einer Anzeige und dergleichen versehen ist, oder um ein Fahrzeug selbst. Handelt es sich bei dem Nutzerendgerät um eine Mobilvorrichtung, können das Fahrzeug und die Mobilvorrichtung über eine Drahtloskommunikation wie Bluetooth™ oder über eine Kabel- bzw. Drahtverbindung miteinander verbunden sein.
  • Wenn es sich beispielsweise bei einem Dienst, der einer Nutzerabsicht entspricht, um eine fahrzeugbezogene Steuerung handelt, kann der Controller 130 ein Steuersignal zur Durchführung der entsprechenden Steuerung erzeugen und das Steuersignal an das Nutzerendgerät übertragen.
  • Alternativ kann der Controller 130 nach konkreten Informationen suchen und die abgerufenen Informationen an das Nutzerendgerät übertragen, wenn ein Dienst, der einer Nutzerabsicht entspricht, bestimmte Informationen bereitstellt. Der Informationsabruf kann bei Bedarf von einem externen Server durchgeführt werden.
  • Wenn es sich bei einem Dienst, der einer Nutzerabsicht entspricht, um die Bereitstellung bestimmter Inhalte handelt, kann der Controller 130 alternativ eine Anfrage an einen externen Server stellen, der die entsprechenden Inhalte bereitstellt.
  • Wenn ein Dienst, der einer Nutzerabsicht entspricht, einfach die Fortsetzung eines Dialogs ist, kann der Controller 130 alternativ eine Antwort bzw. Reaktion auf die Sprache des Nutzers erzeugen und die Antwort per Sprache ausgeben.
  • Das oben beschriebene Spracherkennungssystem 100 kann mit zumindest einem Speicher, der ein Programm speichert, das die oben genannten Operationen durchführt, und zumindest einem Prozessor, der das gespeicherte Programm verwirklicht, implementiert werden.
  • Die Bestandteile des in 1 dargestellten Spracherkennungssystems 100 sind nach ihrem Betrieb oder ihrer Funktion unterteilt, und alle oder ein Teil der Bestandteile können sich den Speicher oder Prozessor teilen. Das Spracherkennungsmodul 110, das Modul zum Verstehen natürlicher Sprache 120 und der Controller 130 sind nicht unbedingt räumlich voneinander getrennt.
  • 2 ist ein Blockdiagramm, das ein Fahrzeug gemäß einer Ausführungsform darstellt, und 3 ist eine Darstellung, die schematisch eine Beziehung zwischen einem Fahrzeug und einem Spracherkennungssystem gemäß einer Ausführungsform darstellt.
  • Bezugnehmend auf 2 weist ein Fahrzeug 2 auf: ein Mikrofon 210, in das die Sprache eines Nutzers eingegeben wird; einen Lautsprecher 220, der einen Ton ausgibt, der erforderlich ist, um einen von einem Nutzer gewünschten Dienst bereitzustellen; eine Anzeige 230, die ein Bild anzeigt, das erforderlich ist, um einen vom Nutzer gewünschten Dienst bereitzustellen; ein Kommunikationsmodul 240, das Kommunikation mit einer externen Vorrichtung durchführt; und einen Controller 250, der die oben beschriebenen Bestandteile sowie andere Bestandteile des Fahrzeugs 2 steuert.
  • Das Mikrofon 210 kann im Inneren des Fahrzeugs 2 bereitgestellt sein, um die Sprache eines Nutzers zu empfangen. Der Nutzer, der die Nutzersprache in das Mikrofon 210 des Fahrzeugs 2 eingibt, kann ein Fahrer sein. Das Mikrofon 210 kann an einem Lenkrad, einer Mittelkonsole, einem Dachhimmel, einem Rückspiegel oder ähnlichem bereitgestellt sein, um die Sprache des Fahrers zu empfangen.
  • In das Mikrofon 210 können zusätzlich zur Sprache des Nutzers auch verschiedene, um das Mikrofon 210 herum erzeugte Töne eingegeben werden. Das Mikrofon 210 kann ein Audiosignal ausgeben, das dem in das Mikrofon 210 eingegebenen Ton entspricht, und das ausgegebene Audiosignal kann vom Controller 250 verarbeitet oder durch das Kommunikationsmodul 240 an das Spracherkennungssystem 100 übertragen werden.
  • Das Fahrzeug 2 kann zusätzlich zu dem Mikrofon 210 auch eine Eingabeeinrichtung 260 zur manuellen Entgegennahme eines Nutzerbefehls aufweisen. Die Eingabeeinrichtung 260 kann eine Eingabeeinrichtung, die als eines Jog/Shuttle oder einer Taste in einem Bereich bereitgestellt ist, in dem ein Audio-, Video-, Navigationsgerät (AVN) bereitgestellt ist, auf einer Mittelkonsole in einem Bereich, in dem ein Getriebe bzw. eine Gangschaltung bereitgestellt ist, oder auf einem Lenkrad aufweisen.
  • Um einen Steuerbefehl in Bezug auf die Fahrgastsitze zu empfangen, kann die Eingabeeinrichtung 260 auch eine an jeder Tür des Fahrzeugs 2 bereitgestellte Eingabeeinrichtung und eine an einer vorderen oder hinteren Armlehne bereitgestellte Eingabeeinrichtung aufweisen.
  • Außerdem kann die Eingabeeinrichtung 260 ein Touchpad wie einen Berührbildschirm beinhalten, indem sie in die Anzeige 230 integriert bereitgestellt wird.
  • Die Anzeige 230 kann eine in der Mittelkonsole des Fahrzeugs 2 bereitgestellte AVN-Anzeige, eine Cluster-Anzeige oder ein Head-Up-Display (HUD) aufweisen. Alternativ kann die Anzeige 230 auch eine Rücksitz-Anzeige aufweisen, die an der Rückseite der Kopfstütze des Vordersitzes bereitgestellt ist, so dass ein Rücksitzinsasse die Rücksitz-Anzeige sehen kann. Handelt es sich bei dem Fahrzeug 2 um ein mehrsitziges Fahrzeug, kann die Anzeige 230 eine Anzeige aufweisen, die an einem Dachhimmel des Fahrzeugs 2 montiert ist.
  • Die Anzeige 230 kann überall bereitgestellt werden, solange die Nutzer im Innern des Fahrzeugs 2 die Anzeige 230 sehen können, und die Position oder die Anzahl der Anzeigen 230 ist nicht beschränkt.
  • Das Kommunikationsmodul 240 kann ein Signal mit anderen Vorrichtungen senden und empfangen, indem es zumindest eine der verschiedenen Drahtloskommunikationsverfahren verwendet, wie Bluetooth™, Drahtloskommunikation der vierten Generation (4G), Drahtloskommunikation der fünften Generation (5G), Wireless Fidelity (Wi-Fi) und dergleichen. Alternativ kann das Kommunikationsmodul 240 Informationen an/von anderen Vorrichtungen über ein Kabel übertragen und empfangen, das an einen USB-Anschluss (Universal Serial Bus), einen AUX-Anschluss (Auxiliary Port) etc. angeschlossen ist.
  • Das Kommunikationsmodul 240 kann ferner mit zwei oder mehr Kommunikationsschnittstellen bereitgestellt sein, die verschiedene Kommunikationsverfahren zum Senden und Empfangen von Informationen mit zwei oder mehr anderen Vorrichtungen unterstützen.
  • Zum Beispiel kann das Kommunikationsmodul 240 mit einer Mobilvorrichtung im Fahrzeug 2 über eine Bluetooth™-Kommunikation kommunizieren und dabei Informationen (Nutzerbilder, Nutzersprache, Kontaktnummern, Zeitpläne und Ähnliches) empfangen, die von der Mobilvorrichtung erlangt oder darin gespeichert wurden. Außerdem kann das Kommunikationsmodul 240 über ein 5G-Kommunikationsverfahren mit einem Server 1 kommunizieren, wodurch die Sprache eines Nutzers übertragen und ein Signal empfangen wird, das erforderlich ist, um einen vom Nutzer gewünschten Dienst bereitzustellen. Darüber hinaus kann das Kommunikationsmodul 240 mit dem Server 1 über eine mit dem Fahrzeug 2 verbundene Mobilvorrichtung ein Signal senden und empfangen.
  • Das Fahrzeug 2 kann ferner aufweisen: eine Navigationsvorrichtung für die Routenführung; eine Klimaanlagenvorrichtung zum Einstellen der Innenraumtemperatur; eine Fenstereinstellvorrichtung zum Öffnen/Schließen der Fahrzeugfenster; eine Sitzheizungsvorrichtung zum Beheizen der Sitze; eine Sitzverstellvorrichtung zum Verstellen der Position, der Höhe und des Winkels eines Sitzes; eine Beleuchtungsvorrichtung zum Einstellen der Beleuchtungsstärke im Innenraum etc.
  • Die vorgenannten Bestandteile dienen der Bereitstellung von Komfortfunktionen in Bezug auf das Fahrzeug 2, und ein Teil der Bestandteile kann je nach Modell oder Option entfallen. Auch können zusätzlich zu den oben genannten Bestandteilen andere Bestandteile in dem Fahrzeug 2 beinhaltet sein. Konfigurationen, die sich auf das Fahren des Fahrzeugs 2 beziehen, sind wohlbekannt, und somit entfällt an dieser Stelle eine Beschreibung dieser.
  • Der Controller 250 kann das Mikrofon 210 an- oder ausschalten, eine Spracheingabe an das Mikrofon 210 verarbeiten und speichern und über das Kommunikationsmodul 240 an eine andere Vorrichtung übertragen.
  • Der Controller 250 kann ferner die Anzeige 230 zum Anzeigen eines Bildes und den Lautsprecher 220 zur Ausgabe eines Tons steuern.
  • Darüber hinaus kann der Controller 250 verschiedene Steuerungen in Bezug auf das Fahrzeug 2 durchführen. So kann der Controller 250 gemäß einem über die Eingabeeinrichtung 260 oder das Mikrofon 210 eingegebenen Nutzerbefehl beispielsweise die Navigationsvorrichtung und/oder die Klimaanlage und/oder die Fensterverstellvorrichtung und/oder die Sitzheizung und/oder die Sitzverstellvorrichtung und/oder die Beleuchtungsvorrichtung steuern.
  • Der Controller 250 kann zumindest einen Speicher, in dem ein Programm gespeichert ist, das die oben genannten oder weiter unten zu beschreibenden Operationen durchführt, sowie zumindest einen Prozessor aufweisen, der ein gespeichertes Programm implementiert.
  • Unter Bezugnahme auf 3 kann das Spracherkennungssystem 100 im Server 1 bereitgestellt sein. Dementsprechend kann die Spracheingabe eines Nutzers an das Fahrzeug 2 an ein Kommunikationsmodul 140 des Servers 1 übertragen werden, und wenn durch das im Server 1 bereitgestellte Spracherkennungssystem 100 ein Sprachsignal verarbeitet wird, kann das Kommunikationsmodul 140 erneut ein Verarbeitungsergebnis an das Fahrzeug 2 übertragen.
  • Das Kommunikationsmodul 140 kann ein Signal an andere Vorrichtungen senden oder von diesen empfangen, mithilfe von zumindest einem der verschiedenen Drahtloskommunikationsverfahren wie etwa Bluetooth™, 4G, 5G, Wi-Fi und dergleichen.
  • Ein Teil der Bestandteile des Spracherkennungssystems 100 kann im Fahrzeug 2 bereitgestellt sein und die anderen Bestandteile können im Server 1 bereitgestellt sein.
  • Zum Beispiel kann das Spracherkennungsmodul 110 im Fahrzeug 2 bereitgestellt sein und das Modul zum Verstehen natürlicher Sprache 120 und der Controller 130 können im Server 1 bereitgestellt sein.
  • Als weiteres Beispiel können das Spracherkennungsmodul 110 und der Controller 130 im Fahrzeug 2 und das Modul 120 zum Verstehen natürlicher Sprache im Server 1 bereitgestellt sein, oder das Spracherkennungsmodul 110 und das Modul 120 zum Verstehen natürlicher Sprache können im Server 1 bereitgestellt sein und der Controller 130 im Fahrzeug 2 bereitgestellt sein.
  • Bei einem weiteren Beispiel kann das Spracherkennungssystem 100 im Fahrzeug 2 bereitgestellt sein.
  • Obwohl alle oder ein Teil der Bestandteile des Spracherkennungssystems 100 wie oben beschrieben im Fahrzeug 2 bereitgestellt sein können, wird bei der untenstehend beschriebenen Ausführungsform ein Beispiel beschrieben, bei dem wie in 3 dargestellt das Spracherkennungssystem 100 im Server 1 bereitgestellt ist.
  • Wie oben beschrieben ist das Mikrofon 210, in das die Sprache eines Nutzers eingegeben wird, im Fahrzeug 2 bereitgestellt und ein aus dem Mikrofon 210 ausgegebenes Audiosignal wird an das Spracherkennungssystem 100 übertragen und zur Bestimmung einer Nutzerabsicht verwendet. Außerdem kann gemäß einer Ausführungsform durch die Verwendung eines Mikrofons einer sich im Innern des Fahrzeugs 2 befindenden Mobilvorrichtung als Mikrofon zum Empfangen der Sprache eines Insassen, der nicht der Fahrer ist, der Insasse auch das mit dem Fahrzeug 2 verbundene Spracherkennungssystem 100 komfortabel verwenden. Da ein separates Mikrofon zum Empfang der Sprache eines Insassen für das Fahrzeug 2 nicht erforderlich ist, können der Komfort des Fahrzeugs verbessert und eine Kostenreduzierung erreicht werden.
  • 4 ist ein Blockdiagramm, das eine Mobilvorrichtung veranschaulicht, die gemäß einer Ausführungsform einem Fahrzeug ein Mikrofon bereitstellt.
  • Bezugnehmend auf 4 weist eine Mobilvorrichtung 3 auf: ein Mikrofon 310, einen Lautsprecher 320, eine Anzeige 330, ein Kommunikationsmodul 340, einen Controller 350 und eine Eingabeeinrichtung 360.
  • Bei der Mobilvorrichtung 3 kann es sich um ein Smartphone, ein Tablet, einen Laptop oder ein „Wearable“ wie eine SmartWatch oder SmartGlasses handeln.
  • In das Mikrofon 310 können verschiedene Audiosignale, einschließlich der Stimme eines Nutzers eingegeben werden, und das Mikrofon 310 kann ein Audiosignal ausgeben, das dem eingegebenen Audiosignal entspricht. Das vom Mikrofon 310 ausgegebene Audiosignal kann auf verschiedene Weise verwendet werden. Das Audiosignal kann während eines Anrufs an die Vorrichtung des anderen Teilnehmers übertragen und während der Aufzeichnung in einem Speicher der Mobilvorrichtung 3 gespeichert werden. Außerdem kann das Audiosignal an ein Spracherkennungssystem übertragen werden, das mit der Mobilvorrichtung 30 verbunden ist.
  • Wenn die Mobilvorrichtung 3 gemäß einer Ausführungsform mit dem Fahrzeug 2 verbunden ist, kann das vom Mikrofon 310 ausgegebene Audiosignal an das Fahrzeug 2 übertragen werden.
  • Auf der Anzeige 330 können Bildschirme angezeigt werden, die zur Durchführung verschiedener Funktionen der Mobilvorrichtung 30 erforderlich sind. Wenn beispielsweise die Mobilvorrichtung 3 gemäß einer Ausführungsform mit dem Fahrzeug 2 verbunden ist, können verschiedene Bildschirme angezeigt werden, die mit der Ausführung einer Anwendung zur Verbindung mit dem Fahrzeug 2 einhergehen.
  • Das Kommunikationsmodul 340 kann mit anderen Vorrichtungen ein Signal übertragen und empfangen, indem es zumindest eines der verschiedenen Drahtloskommunikationsverfahren wie etwa Bluetooth™, 4G, 5G, Wi-Fi und dergleichen verwendet. Alternativ kann das Kommunikationsmodul 340 mit anderen Vorrichtungen ein Signal durch ein mit einem USB-Anschluss, einem AUX-Anschluss etc. verbundenen Kabel übertragen und empfangen.
  • Das Kommunikationsmodul 340 kann beispielsweise über eine Bluetooth™-Kommunikation mit dem Fahrzeug 2 verbunden werden. Wenn es mit dem Fahrzeug 2 verbunden ist, kann das Kommunikationsmodul 340 vom Fahrzeug 2 angeforderte Informationen an das Fahrzeug 2 übertragen.
  • So kann das Kommunikationsmodul 340 beispielsweise Informationen wie Kontaktnummern, Anruflisten oder Textverläufe, die auf der Mobilvorrichtung 3 gespeichert sind, an das Fahrzeug 2 übertragen. Alternativ dazu kann das Kommunikationsmodul 340, wie unten beschrieben, das aus dem Mikrofon 310 ausgegebene Audiosignal an das Fahrzeug 2 übertragen.
  • Ein Nutzer kann einen gewünschten Befehl auch per Stimme in die Mobilvorrichtung 3 eingeben. Die Mobilvorrichtung 3 kann mit einem Spracherkennungssystem verbunden sein, und somit kann sich das mit der Mobilvorrichtung 3 verbundene Spracherkennungssystem von dem mit dem Fahrzeug 2 verbundenen Spracherkennungssystem 100 unterscheiden oder dasselbe sein.
  • Wenn ein Nutzer eine Nutzersprache in das Mikrofon 310 eingibt, um die Mobilvorrichtung 3 zu steuern, kann das aus dem Mikrofon 310 ausgegebene Audiosignal über das Kommunikationsmodul 340 an das Spracherkennungssystem übertragen werden.
  • Das übertragene Audiosignal kann von dem Spracherkennungssystem verarbeitet werden, und wenn ein Steuersignal zur Durchführung einer Steuerung, die einer Nutzerabsicht entspricht, von dem Spracherkennungssystem empfangen wird, kann die Mobilvorrichtung 3 gemäß dem empfangenen Steuersignal die Bestandteile steuern.
  • Die Mobilvorrichtung 3 kann eine Eingabeeinrichtung 360 beinhalten, um manuell einen anderen Befehl als einen Sprachbefehl durch Manipulation zu empfangen, wie das Fahrzeug 2. Die Eingabeeinrichtung 360 kann eine Vorrichtung wie eine Taste, die außen an der Mobilvorrichtung 3 bereitgestellt ist oder ein Touchpad wie einen Berührbildschirm aufweisen, der einstückig mit der Anzeige 220 bereitgestellt ist.
  • 5 ist eine Darstellung, die die Typen von Signalen veranschaulicht, die zwischen einem Fahrzeug gemäß einer Ausführungsform und einer damit verbundenen Mobilvorrichtung ausgetauscht werden.
  • Nachdem das Fahrzeug 2 gemäß einer Ausführungsform und die sich im Fahrzeug 2 befindende Mobilvorrichtung 3 drahtgebunden oder drahtlos miteinander verbunden sind, wenn unten zu beschreibende Betriebe durchgeführt werden, kann als Mikrofon ein Mikrofon der Mobilvorrichtung 3 verwendet werden, um wie in 5 gezeigt die Sprache eines Insassen zu empfangen oder Geräusche zu erfassen. Dementsprechend kann die Mobilvorrichtung 3 dem Fahrzeug 2 ein Audiosignal, einschließlich eines Sprachsignals oder eines Rauschsignals, bereitstellen.
  • Außerdem kann das Fahrzeug 2 ein Steuersignal in Bezug darauf, welches Mikrofon des Fahrzeugs 2 oder der Mobilvorrichtung 3 für die Spracheingabe oder die Geräuscherfassung verwendet wird, an die Mobilvorrichtung 3 senden.
  • Wie unten beschrieben, kann über einen Audiokanal zwischen dem Fahrzeug 2 und der Mobilvorrichtung 3 ein Audiosignal übertragen oder empfangen werden, und über einen Steuerkanal kann ein Steuersignal zwischen dem Fahrzeug 2 und der Mobilvorrichtung 3 übertragen oder empfangen werden.
  • Ein Nutzer kann eine spezielle Anwendung zur gemeinsamen Nutzung eines Mikrofons mit dem Fahrzeug 2 auf der Mobilvorrichtung 3 installieren, um das Mikrofon der Mobilvorrichtung 3 wie oben beschrieben zu nutzen. Unter den im Folgenden zu beschreibenden Operationen können durch Ausführen der installierten Anwendung von der Mobilvorrichtung 3 durchgeführte Operationen durchgeführt werden.
  • 6 ist ein Ablaufdiagramm, das die Operationen zur Registrierung einer Mobilvorrichtung in einem Fahrzeug bei einem Steuerungsverfahren eines Fahrzeugs gemäß einer Ausführungsform veranschaulicht. 7 ist eine Darstellung zur Veranschaulichung der Operationen eines Controllers eines Fahrzeugs gemäß einer Ausführungsform.
  • Ein Steuerungsverfahren für ein Fahrzeug gemäß einer Ausführungsform bezieht sich auf ein Steuerungsverfahren für das Fahrzeug 2 gemäß einer Ausführungsform. Dementsprechend kann das Steuerungsverfahren für ein Fahrzeug gemäß einer Ausführungsform vom Fahrzeug 2 durchgeführt werden, und eine Beschreibung von Operationen des Fahrzeugs 2 ist gleichermaßen auf Ausführungsformen des Steuerungsverfahrens eines Fahrzeugs anwendbar, selbst wenn dies nachstehend nicht konkret beschrieben wird.
  • Unter Bezugnahme auf 6 wird rückgemeldet, ob das Fahrzeug 2 und die Mobilvorrichtung 3 verbunden sind (1100). Das Fahrzeug 2 und die Mobilvorrichtung 3 können über ein Drahtloskommunikationsverfahren wie etwa Bluetooth™ oder über ein drahtgebundenes Kommunikationsverfahren unter Verwendung eines Kabels bzw. Drahts miteinander verbunden sein.
  • Wenn die Mobilvorrichtung 3 verbunden ist (Ja in Betrieb 1100), wird rückgemeldet, ob es sich bei der Mobilvorrichtung 3 um eine neue Vorrichtung oder eine bereits registrierte Vorrichtung handelt (1200).
  • Wenn es sich bei der Mobilvorrichtung 3 um eine neues Vorrichtung handelt (Ja in Betrieb 1200), wird ein Prozess zum Registrieren der neu verbundenen Mobilvorrichtung 3 durchgeführt, d.h. es nimmt einen Registrierungsmodus ein.
  • Zunächst kann rückgemeldet werden, ob die verbundene Mobilvorrichtung 3 ein verfügbares Mikrofon hat (1300). Zum Beispiel kann rückgemeldet werden, ob die Mobilvorrichtung 3 ein Freisprechprofil unterstützt, und wenn ein Freisprechprofil unterstützt wird, kann bestimmt werden, dass in der Mobilvorrichtung 3 ein verfügbares Mikrofon bereitgestellt ist (Ja in Betrieb 1300).
  • Es wird eine Verzögerung der Mobilvorrichtung 3 gemessen (1400). Damit eine in die Mobilvorrichtung 3 eingegebene Audioeingabe im Fahrzeug 2 verwendet werden kann, ist ein Audioübertragungsprozess von der Mobilvorrichtung 3 an das Fahrzeug 2 erforderlich, und bei dem oben genannten Übertragungsprozess tritt eine Verzögerung auf.
  • Dementsprechend kann das Fahrzeug 2, wenn die Mobilvorrichtung 3 neu verbunden wird, eine Verzögerung zwischen der Mobilvorrichtung 3 und dem Fahrzeug 2 messen (1400) und die gemessene Verzögerung in der entsprechenden Mobilvorrichtung 3 speichern (1500). Wenn ein von der Mobilvorrichtung 3 bereitgestelltes Audiosignal verwendet wird, kann die gespeicherte Verzögerung zur Synchronisierung mit einem aus dem Mikrofon 210 des Fahrzeugs 2 ausgegebenen Audiosignal verwendet werden.
  • Wenn die Verzögerung gespeichert wurde und das Mikrofon 310 der Mobilvorrichtung 3 für das Fahrzeug 2 verwendet werden kann, wird ein Spracherkennungs-Standby-Modus für eingenommen (1600).
  • Unter Bezugnahme auf 7 können vom Controller 250 des Fahrzeugs 2 die oben beschriebenen Operationen durchgeführt werden. Der Controller 250 des Fahrzeugs 2 kann als Haupteinheit (Head Unit, HU) bezeichnet werden und weist zumindest einen Speicher und zumindest einen Prozessor auf.
  • Wie oben unter Bezugnahme auf 6 beschrieben, kann der Controller 250 jedes Mal, wenn die neue Mobilvorrichtung 3 mit dem Fahrzeug 2 verbunden wird, rückmelden, ob das Mikrofon 310 vorhanden ist, und kann die neue Vorrichtung im Fahrzeug 2 registrieren, indem es Informationen darüber, ob das Mikrofon 310 vorhanden ist, einer Kennung (ID) jeder Mobilvorrichtung 3 zuordnet und in einem Speicher speichert.
  • Außerdem kann der Controller 250 eine Verzögerung für die neu registrierte Mobilvorrichtung 3 messen, der Kennung (ID) jeder Mobilvorrichtung 3 einen Verzögerungswert zuordnen und im Speicher speichern.
  • Darüber hinaus kann der Controller 250 Geräusche unterdrücken, indem er an einem Audiosignal, das wie unten beschrieben aus dem Mikrofon 210 des Fahrzeugs 2 oder aus dem Mikrofon 310 der Mobilvorrichtung 3 ausgegeben wurde, eine Vorverarbeitung durchführt.
  • 8 ist ein Ablaufdiagramm, das die Operationen zur Messung einer Verzögerung in einem Steuerungsverfahren für ein Fahrzeugs gemäß einer Ausführungsform veranschaulicht. 9 ist eine Darstellung, die ein Beispiel für eine Zeitdifferenz zwischen einem Prüfton, der von einem Fahrzeug gemäß einer Ausführungsform ausgegeben wird, und einem Signal, das aus einer Mobilvorrichtung an das Fahrzeug übertragen wird, darstellt.
  • Wie in 8 dargestellt, gibt der Controller 250 des Fahrzeugs 2 einen Prüfton über den Lautsprecher 220 (1410) aus, um die Verzögerung der neu verbundenen Mobilvorrichtung 3 (1400) zu messen. Der Prüfton wird ausgegeben, um in das Mikrofon 310 der Mobilvorrichtung 3 eingegeben zu werden. Dementsprechend kann das Fahrzeug 2 vor der Ausgabe des Prüftons ein Steuersignal zum Öffnen des Mikrofons 310 an die Mobilvorrichtung 3 übertragen.
  • Der aus dem Lautsprecher 220 des Fahrzeugs 2 ausgegebene Prüfton kann in das offene Mikrofon 310 der Mobilvorrichtung 3 eingegeben werden (2010).
  • Die Mobilvorrichtung 3 überträgt den in das Mikrofon 310 eingegebenen Prüfton über das Kommunikationsmodul 340 (2020) an das Fahrzeug 2.
  • Das Kommunikationsmodul 240 des Fahrzeugs 2 empfängt den von der Mobilvorrichtung 3 (1420) übertragenen Prüfton. Das Kommunikationsmodul 240 des Fahrzeugs 2 und das Kommunikationsmodul 340 der Mobilvorrichtung 3 verwenden für die Übertragung und den Empfang des Prüftons das gleiche Kommunikationsverfahren, das später für die Übertragung und den Empfang eines Audiosignals verwendet wird.
  • Der Controller 250 des Fahrzeugs 2 berechnet basierend auf dem empfangenen Prüfton eine Verzögerung (1430). Wie in 9 dargestellt, besteht eine Zeitdifferenz zwischen einem Zeitpunkt, zu dem das Fahrzeug 2 den Prüfton über den Lautsprecher 220 ausgibt, und einem Zeitpunkt, zu dem der Prüfton wieder von der Mobilvorrichtung 3 empfangen wird, d. h. eine Verzögerung T(d).
  • Wie oben beschrieben, speichert der Controller 250 den berechneten Verzögerungswert T(d) im Speicher, und wenn später ein Audiosignal von der Mobilvorrichtung 3 empfangen wird, kann der gespeicherte Verzögerungswert zur Synchronisierung mit einem Audiosignal verwendet werden, das aus dem Mikrofon 210 des Fahrzeugs 2 ausgegeben wird.
  • 10 ist eine Darstellung, die ein Beispiel zeigt, bei dem ein Mikrofon eines Fahrzeugs gemäß einer Ausführungsform für die Spracheingabe und ein Mikrofon einer Mobilvorrichtung für die Geräuscherfassung verwendet wird. 11 ist eine Darstellung, die ein Beispiel zeigt, bei dem ein Mikrofon eines Fahrzeugs gemäß einer Ausführungsform zur Geräuscherfassung und ein Mikrofon einer Mobilvorrichtung zur Spracheingabe verwendet wird.
  • Bezugnehmend auf ein Beispiel aus 10 kann, wenn durch einen Insassen, bei dem es sich um einen Nutzer der Mobilvorrichtung 3 handelt, eine Spracherkennung ausgelöst wird, für die Spracheingabe das Mikrofon 310 der die mit dem Fahrzeug 2 verbundenen Mobilvorrichtung 3 verwendet werden, und für die Geräuscherfassung kann das Mikrofon 210 des Fahrzeugs 2 verwendet werden.
  • Der Insasse kann einen Sprachbefehl in das Mikrofon 310 der Mobilvorrichtung 3 eingeben, und während der Insasse den Sprachbefehl des Insassen in das Mikrofon 310 der Mobilvorrichtung 3 eingibt, kann das Mikrofon 210 des Fahrzeugs 2 Geräusche erfassen.
  • Der in die Mobilvorrichtung 3 eingegebene Sprachbefehl kann an das Fahrzeug 2 übertragen werden, und das Fahrzeug 2 kann mithilfe des gesammelten Rauschens das Rauschen des übertragenen Sprachbefehls unterdrücken.
  • Unter Bezugnahme auf ein Beispiel der 11 kann dann, wenn von einem Fahrer eine Spracherkennung ausgelöst wird, das Mikrofon 210 des Fahrzeugs 2 für die Spracheingabe und die mit dem Fahrzeug 2 verbundene Mobilvorrichtung 3 des Insassen für die Geräuscherfassung verwendet werden.
  • Der Fahrer kann einen Sprachbefehl zur Steuerung des Fahrzeugs 2 in das Mikrofon 210 des Fahrzeugs 2 eingeben, und während der Fahrer den Sprachbefehl des Fahrers in das Mikrofon 210 des Fahrzeugs 2 eingibt, kann die mit dem Fahrzeug 2 verbundene Mobilvorrichtung 3 des Insassen Geräusche erfassen.
  • Die erfassten Geräusche werden an das Fahrzeug 2 übertragen und können verwendet werden, um Geräusche aus der Spracheingabe des Fahrers an das Fahrzeug 2 zu unterdrücken.
  • Die mit dem Fahrzeug 2 verbundene Mobilvorrichtung 3 kann eine Mobilvorrichtung des Fahrgasts oder eine Mobilvorrichtung des Fahrers sein. Wenn beispielsweise der Fahrer fährt und die Mobilvorrichtung 3 auf einem Beifahrersitz platziert ist, kann das Mikrofon 210 des Fahrzeugs 2 für die Spracheingabe und die Mobilvorrichtung 3 für die Geräuscherfassung verwendet werden.
  • Gemäß den oben beschriebenen Ausführungsformen kann für die Geräuscherfassung ein Mikrofon verwendet werden, das nicht für die Spracheingabe zwischen dem Mikrofon 210 des Fahrzeugs 2 und dem Mikrofon 310 der Mobilvorrichtung 3 verwendet wird, wodurch Geräusche wirksam unterdrückt werden, ohne Hinzuergänzen eines zusätzlichen Mikrofons.
  • Die Betriebe bzw. Vorgänge zur Nutzung des Mikrofons 210 des Fahrzeugs 2 und des Mikrofons 310 der Mobilvorrichtung 3 zur Spracherkennung oder Geräuscherfassung werden nun ausführlich beschrieben.
  • 12 ist ein Ablaufdiagramm, das Vorgänge veranschaulicht, bei denen ein Fahrzeug ein aus einer Mobilvorrichtung bereitgestelltes Audiosignal in einem Steuerungsverfahren für ein Fahrzeug gemäß einer Ausführungsform verwendet. 13 ist eine Darstellung, die ein Beispiel eines Bildschirms zeigt, der auf einer Mobilvorrichtung angezeigt wird, wenn durch die Mobilvorrichtung die Spracherkennung ausgelöst wird.
  • Bezugnehmend auf 12 wird bei Auslösung einer Spracherkennung (Ja in Betrieb 2100) bestimmt, ob die Spracherkennung durch das Fahrzeug (Ja in Betrieb 2200) oder die Mobilvorrichtung (Nein in Betrieb 2200) ausgelöst wird. Wenn die Spracherkennung durch die Mobilvorrichtung ausgelöst wird, wird ein erster Modus aktiviert, in dem das Mikrofon 310 der Mobilvorrichtung 3 zur Spracherkennung und das Mikrofon 210 des Fahrzeugs 2 zur Geräuscherfassung verwendet wird. Wenn die Spracherkennung durch das Fahrzeug ausgelöst wird, wird ein zweiter Modus aktiviert, in dem das Mikrofon 310 der Mobilvorrichtung 3 zur Geräuscherfassung und das Mikrofon 210 des Fahrzeugs 2 zur Spracheingabe verwendet wird.
  • Wenn die Spracherkennung beispielsweise durch eine im Fahrzeug 2 bereitgestellte Sprechtaste (PTT, push to talk) ausgelöst wird oder wenn ein Weckwort, das ein Rufwort zum Aufrufen des Spracherkennungssystems 100 ist, in das Mikrofon 210 des Fahrzeugs 2 eingegeben wird, kann vom Fahrzeug 2 bestimmt werden, dass die Spracherkennung ausgelöst wird.
  • Um die Spracherkennung über die Mobilvorrichtung 3 auszulösen kann eine entsprechende Anwendung ausgeführt werden, die auf der Mobilvorrichtung 3 installiert ist. Wenn die Anwendung läuft, kann wie in einem Beispiel aus 13 gezeigt, ein Bildschirm mit der Frage angezeigt werden, ob ein Mikrofon verwendet werden soll, und wenn eine „Ja“-Taste ausgewählt wird, kann sich das Mikrofon 310 öffnen und die Spracherkennung durch die Mobilvorrichtung 3 ausgelöst werden. Ein Auslösesignal für die Spracherkennung kann an das Fahrzeug 2 übertragen werden.
  • Alternativ kann ein Nutzer ein Weckwort aussprechen, um das in der Mobilvorrichtung 3 verwendete Spracherkennungssystem aufzurufen. Durch Aussprechen des entsprechenden Weckworts kann sich das Mikrofon 310 der Mobilvorrichtung 3 öffnen und es kann ein Spracherkennungsauslösesignal an das Fahrzeug 2 übertragen werden.
  • Während er mit dem Fahrzeug 2 verbunden ist, kann der Controller 350 der Mobilvorrichtung 3 erkennen, dass die Äußerung des Weckworts ein Auslösesignal für die Übertragung eines Audiosignals an das Fahrzeug 2 ist und nicht für einen Anruf des mit der Mobilvorrichtung 3 verbundenen Spracherkennungssystems. Dementsprechend kann der Controller 350 das aus dem Mikrofon 310 der Mobilvorrichtung 3 ausgegebene Audiosignal nur an das Fahrzeug 2 übertragen, ohne es an das mit der Mobilvorrichtung 3 verbundene Spracherkennungssystem zu übertragen.
  • Wenn durch das Fahrzeug 2 die Spracherkennung ausgelöst wird (Ja in Betrieb 2200), kann ein Leitsignal an die Mobilvorrichtung 3 übertragen werden (2300).
  • Das Fahrzeug 2 und die Mobilvorrichtung 3 können einen Audiokanal zur Übertragung eines Audiosignals und einen Steuerkanal zur gegenseitigen Steuerung verwenden. Wenn die Spracherkennung durch das Fahrzeug 2 ausgelöst wird, kann über den Audiokanal ein Rauschsignal von der Mobilvorrichtung 3 empfangen werden, und wenn die Spracherkennung durch die Mobilvorrichtung 3 ausgelöst wird, kann über den Audiokanal ein Sprachsignal des Nutzers von der Mobilvorrichtung 3 empfangen werden.
  • Wenn die Spracherkennung durch das Fahrzeug 2 ausgelöst wird (Ja in Betrieb 2200), sendet das Fahrzeug 2 über den Steuerkanal ein Leitsignal zur Benachrichtigung über den Beginn der Spracherkennung an die Mobilvorrichtung. Die Mobilvorrichtung 3 kann das Mikrofon 310 öffnen und über das Mikrofon 310 Geräusche erfassen.
  • Das Mikrofon 210 des Fahrzeugs 2 empfängt (2400) die Sprache eines Nutzers. Bei der Sprache des Nutzers kann es sich um die Sprache des Fahrers handeln.
  • Wenn eine Spracheingabe des Nutzers endet (Ja in Betrieb 2500), wird ein Leitsignal zur Benachrichtigung über das Ende der Spracheingabe an die Mobilvorrichtung 3 übertragen (2600).
  • Beim Empfang des Leitsignals kann die Mobilvorrichtung 3 das Mikrofon 310 schließen und ein gesammeltes Rauschsignal an das Fahrzeug 2 übertragen.
  • Das Fahrzeug 2 kann das Rauschsignal von der Mobilvorrichtung 3 empfangen (2700) und basierend auf dem empfangenen Rauschsignal das Rauschen im Sprachsignal des Nutzers unterdrücken (2800).
  • Der Controller 250 synchronisiert ein Rauschsignal Noise(d), das vom Mikrofon 310 der Mobilvorrichtung 3 erfasst wird, mit einem Sprachsignal Voice(D), das vom Mikrofon 210 des Fahrzeugs 2 ausgegeben wird, unter Verwendung eines im Speicher gespeicherten Verzögerungswerts T(d) der Mobilvorrichtung 3. Wie in Gleichung (1) unten angegeben, kann durch Unterdrücken des synchronisierten Rauschsignals Noise(ds) aus dem Sprachsignal Voice(D) des Nutzers das vorverarbeitete Sprachsignal (Vcmd), d.h. das rauschunterdrückte Sprachsignal, erhalten werden. Vcmd = Voice ( D ) Noise ( ds )
    Figure DE102022213029A1_0001
  • Wenn der Mobilvorrichtung 3 die Spracherkennung von ausgelöst wird (Nein in Betrieb 2200), empfängt das Fahrzeug 2 über den Steuerkanal das Leitsignal zur Benachrichtigung über den Beginn der Spracherkennung von der Mobilvorrichtung 3 (2910). Die Mobilvorrichtung 3 kann das Mikrofon 310 öffnen und über das Mikrofon 310 die Sprache eines Nutzers empfangen. Bei der Sprache des Nutzers kann es sich um die Sprache eines Insassen handeln.
  • Das Fahrzeug 2 kann das Mikrofon 210 öffnen und Geräusche erfassen (2920).
  • Wenn eine Spracheingabe des Nutzers endet, überträgt die Mobilvorrichtung 3 die Spracheingabe des Nutzers an das Fahrzeug 2, und das Fahrzeug 2 empfängt (2930) das Sprachsignal von der Mobilvorrichtung 3.
  • Während die Sprache des Nutzers in das Mikrofon 310 der Mobilvorrichtung 3 eingegeben wird, erfasst das Mikrofon 210 des Fahrzeugs 2 Geräusche.
  • Der Controller 250 des Fahrzeugs 2 kann Rauschen aus dem Sprachsignal des Nutzers basierend auf dem empfangenen Rauschsignal unterdrücken (2800).
  • Der Controller 250 synchronisiert mithilfe des im Speicher gespeicherten Verzögerungswerts T(d) der Mobilvorrichtung 3 ein Rauschsignal Noise(D), das vom Mikrofon 210 des Fahrzeugs 2 erfasst wird, mit einem Sprachsignal Voice(d), das vom Mikrofon 310 der Mobilvorrichtung 3 übertragen wird. Wie in der untenstehenden Gleichung (2) angegeben, kann durch Unterdrücken des synchronisierten Rauschsignals Noise(Ds) aus dem Sprachsignal Voice(d) des Nutzers das vorverarbeitete Sprachsignal Vcmd, d.h. das rauschunterdrückte Sprachsignal Vcmd, erhalten werden. Vcmd = Voice ( d ) Noise ( Ds )
    Figure DE102022213029A1_0002
  • 14 ist ein Ablaufdiagramm, das Vorgänge zur Verarbeitung eines Sprachbefehls in einem Steuerungsverfahren eines Fahrzeugs gemäß einer Ausführungsform in Abhängigkeit von einem Objekt, in das der Sprachbefehl eingegeben wird, unterschiedlich darstellt. 15 ist eine Darstellung, die ein Beispiel für ein Leitsignal darstellt, das ausgegeben wird, wenn ein Sprachbefehl in einem Fahrzeug gemäß einer Ausführungsform nicht durchführbar ist.
  • Bezugnehmend auf 14, wenn ein Sprachsignal, bei dem gemäß den oben beschriebenen Vorgängen das Rauschen unterdrückt wird, an das Spracherkennungssystem 100 übertragen wird (3100), können das Spracherkennungsmodul 110 und das Modul 120 zum Verstehen natürlicher Sprache des Spracherkennungssystems 100 eine Absicht ermitteln, die dem übertragenen Sprachsignal entspricht.
  • Das Spracherkennungssystem 100 überträgt ein Verarbeitungsergebnis des Sprachsignals an das Fahrzeug 2. Das übertragene Verarbeitungsergebnis des Sprachsignals kann die dem Sprachsignal entsprechende Absicht und/oder ein Steuersignal zum Durchführen eines durch die entsprechende Absicht angegebenen Befehls beinhalten.
  • Das Kommunikationsmodul 240 des Fahrzeugs 2 empfängt (3200) das Ergebnis der Verarbeitung des Sprachsignals von dem Spracherkennungssystem 100.
  • Basierend darauf, ob das Sprachsignal vom Mikrofon 310 der Mobilvorrichtung 3 oder vom Mikrofon 210 des Fahrzeugs 2 ausgegeben wird, bestimmt (3300) der Controller 250 des Fahrzeugs 2, ob der dem Sprachsignal entsprechende Befehl zulässig ist.
  • Das Steuerungsverfahren für das Fahrzeug gemäß einer Ausführungsform kann die Typen von Befehlen begrenzen, die über die Mobilvorrichtung 3 eingegeben werden können, was auf der Annahme beruht, dass die Befehlseingabe über die Mobilvorrichtung 3 durch einen Fahrgast und nicht durch einen Fahrer erfolgt. Aus Sicherheitsgründen darf nur ein Fahrer einen Befehl für die Fahrzeugsteuerung eingeben, und ferner darf ein Fahrgast einen Befehl für andere Steuerungen als die Fahrzeugsteuerung eingeben.
  • Die Typen von Befehlen, die je nach Person, die das Sprachsignal bereitstellt, zulässig sind, können im Speicher gespeichert sein.
  • Ein Befehl, der über das Mikrofon 210 des Fahrzeugs 2 eingegeben werden kann, kann beispielsweise umfassen: eine Fahrzeugsteuerung, eine Multimediasteuerung, eine Telefon-/Textnachricht, Navigation etc. Ein Befehl, der durch das Mikrofon 30 der Mobilvorrichtung 3 eingegeben werden kann, kann eine Multimediasteuerung, eine Telefon-/Textnachricht etc. umfassen, mit Ausnahme der Fahrzeugsteuerung, und entsprechend den Einstellungen die Navigation einbinden oder ausschließen.
  • Alternativ kann eine fahrbezogene Steuerung unter den Fahrzeugsteuerungen nur durch das Mikrofon 210 des Fahrzeugs 2 eingegeben werden und eine Steuerung der Klimaanlage, die Sitzsteuerung des Beifahrersitzes, die Beleuchtungssteuerung und dergleichen, die für das Fahren irrelevant sind, können auch über das Mikrofon 310 der Mobilvorrichtung 3 eingegeben werden.
  • Ob ein Befehl gemäß einer Person zugelassen wird, die ein Sprachsignal bereitstellt, kann Domänen-basiert oder auf Basis einzelner Befehle bestimmt werden.
  • Im Ergebnis der Bestimmung führt die Steuereinheit 250 den Befehl durch (3400), wenn der dem Sprachsignal entsprechende Befehl ein zulässiger Befehl ist (Ja in Betrieb 3300). Wenn der dem Sprachsignal entsprechende Befehl nicht zulässig ist (Nein in Betrieb 3300), kann der Controller 250 wie in 15 gezeigt eine Leitnachricht erzeugen und anzeigen, dass der angeforderte Befehl nicht durchführbar ist (3500). Die Leitnachricht kann visuell über die Anzeige 230 oder akustisch über den Lautsprecher 220 ausgegeben werden.
  • Gemäß den obigen Ausführungen können sowohl ein Fahrgast als auch ein Fahrer ein Spracherkennungssystem komfortabel nutzen, ohne dass ein zusätzliches Mikrofon hinzuergänzt werden muss, und die Rauschunterdrückung kann wirksam durchgeführt werden, wodurch eine Spracherkennungsrate verbessert wird.
  • Wie aus den obigen Ausführungen ersichtlich ist, können das Fahrzeug und das Steuerungsverfahren hierfür sowohl einem Fahrgast als auch einem Fahrer die komfortable Nutzung eines Spracherkennungssystems ermöglichen, indem ein Mikrofon einer Mobilvorrichtung als Quelle für Spracheingaben verwendet wird.
  • Wenn ein Fahrer ein Spracherkennungssystem verwendet, kann als Quelle zur Geräuscherfassung auch das Mikrofon einer Mobilvorrichtung genutzt werden, wodurch die Anzahl der Mikrofone im Fahrzeug und die Kosten reduziert werden.
  • Obgleich zu Veranschaulichungszwecken die Ausführungsformen beschrieben wurden, wird ein Fachmann erkennen, dass verschiedene Modifizierungen, Ergänzungen und Ersetzungen möglich sind, ohne vom Grundgedanken und Schutzumfang der Offenbarung abzuweichen. Daher wurden die Ausführungsformen nicht zu einschränkenden Zwecken beschrieben.

Claims (20)

  1. Fahrzeug, aufweisend: ein im Innern des Fahrzeugs bereitgestelltes Mikrofon; einen im Inneren des Fahrzeugs bereitgestellten Lautsprecher; ein Kommunikationsmodul, das konfiguriert ist, um mit einer in dem Fahrzeug befindlichen Mobilvorrichtung zu kommunizieren; und einen Controller, wobei in einem ersten Modus: das Kommunikationsmodul konfiguriert ist, um ein Sprachsignal eines Nutzers von der Mobilvorrichtung zu empfangen, und der Controller konfiguriert ist, um Rauschunterdrückung an dem von der Mobilvorrichtung empfangenen Sprachsignal des Nutzers basierend auf einem in das Mikrofon eingegebenen Audiosignal durchzuführen.
  2. Fahrzeug nach Anspruch 1, wobei in einem zweiten Modus: das Kommunikationsmodul konfiguriert ist, um ein Audiosignal von der Mobilvorrichtung zu empfangen, und der Controller konfiguriert ist, um Rauschunterdrückung an einem Sprachsignal des Nutzers, das in das Mikrofon eingegeben wird, basierend auf dem von der Mobilvorrichtung empfangenen Audiosignal durchzuführen.
  3. Fahrzeug nach Anspruch 1 oder 2, wobei der Controller konfiguriert ist, um den Lautsprecher dahingehend zu steuern, in einem Registrierungsmodus, der konfiguriert ist, die Mobilvorrichtung zu registrieren, einen Prüfton auszugeben.
  4. Fahrzeug nach Anspruch 3, wobei der Controller in dem Registrierungsmodus konfiguriert ist, um basierend auf einem Prüftonsignal eine Verzögerung der Mobilvorrichtung berechnen und zuzuordnen, wobei das Prüftonsignal von der Mobilvorrichtung empfangen wird, nachdem der Lautsprecher dahingehend gesteuert wurde, den Prüfton auszugeben, und der Controller konfiguriert ist, um die berechnete Verzögerung an die Mobilvorrichtung zu speichern.
  5. Fahrzeug nach Anspruch 4, wobei in dem ersten Modus der Controller konfiguriert ist, um das in das Mikrofon eingegebene Audiosignal und das von der Mobilvorrichtung empfangene Sprachsignal des Nutzers basierend auf der der Mobilvorrichtung zugeordneten Verzögerung zu synchronisieren.
  6. Fahrzeug nach Anspruch 4 oder 5 in Abhängigkeit von Anspruch 2, wobei in dem zweiten Modus der Controller konfiguriert ist, um das in das Mikrofon eingegebene Sprachsignal des Nutzers und das von der Mobilvorrichtung empfangene Audiosignal basierend auf der der Mobilvorrichtung zugeordneten Verzögerung zu synchronisieren.
  7. Fahrzeug nach einem der vorstehenden Ansprüche in Abhängigkeit von Anspruch 2, wobei der Controller konfiguriert ist, um im ersten Modus zu arbeiten, wenn ein Spracherkennungs-Auslösesignal in die Mobilvorrichtung eingegeben wird, und der Controller konfiguriert ist, um im zweiten Modus zu arbeiten, wenn das Spracherkennungs-Auslösesignal in das Fahrzeug eingegeben wird.
  8. Fahrzeug nach einem der vorstehenden Ansprüche in Abhängigkeit von Anspruch 2, wobei das Kommunikationsmodul konfiguriert ist, um im ersten Modus ein Sprachsignal eines Fahrgasts des Fahrzeugs von der Mobilvorrichtung zu empfangen, und das Mikrofon konfiguriert ist, um im zweiten Modus eine Sprache eines Fahrers des Fahrzeugs zu empfangen.
  9. Fahrzeug nach einem der vorstehenden Ansprüche in Abhängigkeit von Anspruch 2, wobei das Kommunikationsmodul konfiguriert ist, um das Sprachsignal des Nutzers, an dem die Rauschunterdrückung durchgeführt wird, an ein Spracherkennungssystem zu senden.
  10. Fahrzeug nach einem der vorstehenden Ansprüche, wobei, wenn ein Befehl, der dem von der Mobilvorrichtung empfangenen Sprachsignal des Nutzers entspricht, zulässig ist, der Controller konfiguriert ist, um ein Steuersignal zu erzeugen, das konfiguriert ist, den Befehl durchzuführen, und wobei, wenn der Befehl, der dem von der Mobilvorrichtung empfangenen Sprachsignal des Nutzers entspricht, nicht zulässig ist, der Controller konfiguriert ist, eine Leitnachricht zu erzeugen.
  11. Steuerungsverfahren für ein Fahrzeug, wobei das Steuerungsverfahren umfasst: Bestimmen eines ersten Modus oder eines zweiten Modus in Bezug auf eine Spracherkennung; wenn der erste Modus in Betrieb ist, Empfangen eines Sprachsignals eines Nutzers von einer Mobilvorrichtung, die sich im Innern des Fahrzeugs befindet; und wenn der erste Modus in Betrieb ist, Durchführen von Rauschunterdrückung an dem von der Mobilvorrichtung empfangenen Sprachsignal des Nutzers basierend auf einem Audiosignal, das in ein in dem Fahrzeug bereitgestelltes Mikrofon eingegeben wird.
  12. Steuerungsverfahren nach Anspruch 11, ferner umfassend: wenn der zweite Modus in Betrieb ist, Empfangen eines Audiosignals von der Mobilvorrichtung; und wenn der zweite Modus in Betrieb ist, Durchführen von Rauschunterdrückung an einem Sprachsignal des Nutzers, das in das Mikrofon eingegeben wird, basierend auf dem von der Mobilvorrichtung empfangenen Audiosignal.
  13. Steuerungsverfahren nach Anspruch 11 oder 12, ferner umfassend die Registrierung der Mobilvorrichtung in dem Fahrzeug.
  14. Steuerungsverfahren nach Anspruch 13, wobei die Registrierung der Mobilvorrichtung in dem Fahrzeug das Steuern eines in dem Fahrzeug bereitgestellten Lautsprechers zur Ausgabe eines Prüftons umfasst.
  15. Steuerungsverfahren nach Anspruch 14, wobei das Registrieren der Mobilvorrichtung in dem Fahrzeug ferner umfasst: Berechnen einer Verzögerung der Mobilvorrichtung basierend auf einem Prüftonsignal, das von der Mobilvorrichtung empfangen wird, nachdem der Lautsprecher dahingehend gesteuert wurde, den Prüfton auszugeben; und Zuordnen und Speichern der berechneten Verzögerung an die Mobilvorrichtung.
  16. Steuerungsverfahren nach Anspruch 15, wobei das Durchführen von Rauschunterdrückung umfasst: wenn der erste Modus in Betrieb ist, Synchronisieren des in das Mikrofon eingegebenen Audiosignals und des von der Mobilvorrichtung empfangenen Sprachsignals des Nutzers basierend auf der der Mobilvorrichtung zugeordneten Verzögerung.
  17. Steuerungsverfahren nach Anspruch 14 oder 15 in Abhängigkeit von Anspruch 12, wobei das Durchführen der Rauschunterdrückung umfasst: wenn der zweite Modus in Betrieb ist, Synchronisieren des in das Mikrofon eingegebenen Sprachsignals des Nutzers und des von der Mobilvorrichtung empfangenen Audiosignals basierend auf der der Mobilvorrichtung zugeordneten Verzögerung.
  18. Steuerungsverfahren nach einem der Ansprüche 11 bis 17 in Abhängigkeit von Anspruch 12, wobei das Bestimmen des ersten Modus oder des zweiten Modus in Bezug auf die Spracherkennung umfasst: Bestimmen, als den ersten Modus, wenn ein Spracherkennungs-Auslösesignal in die Mobilvorrichtung eingegeben wird, und Bestimmen, als den zweiten Modus, wenn das Spracherkennungs-Auslösesignal in das Fahrzeug eingegeben wird.
  19. Steuerungsverfahren nach einem der Ansprüche 11 bis 18 in Abhängigkeit von Anspruch 12, wobei, wenn der erste Modus in Betrieb ist, das von der Mobilvorrichtung empfangene Sprachsignal des Nutzers ein Sprachsignal eines Fahrzeugfahrgastes umfasst, und wenn der zweite Modus in Betrieb ist, das in das Mikrofon eingegebene Sprachsignal des Nutzers ein Sprachsignal eines Fahrers des Fahrzeugs beinhaltet.
  20. Steuerungsverfahren nach einem der Ansprüche 11 bis 19, ferner umfassend: wenn ein Befehl, der dem von der Mobilvorrichtung empfangenen Sprachsignal des Nutzers entspricht, zulässig ist, Erzeugen eines Steuersignals, das zum Durchführen des Befehls konfiguriert ist; und wenn der Befehl, der dem von der Mobilvorrichtung empfangenen Sprachsignal des Nutzers entspricht, nicht zulässig ist, Erzeugen einer Leitnachricht.
DE102022213029.4A 2022-02-09 2022-12-02 Fahrzeug und steuerungsverfahren dafür Pending DE102022213029A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220017057A KR20230120465A (ko) 2022-02-09 2022-02-09 차량 및 그 제어 방법
KR10-2022-0017057 2022-02-09

Publications (1)

Publication Number Publication Date
DE102022213029A1 true DE102022213029A1 (de) 2023-08-10

Family

ID=87312410

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022213029.4A Pending DE102022213029A1 (de) 2022-02-09 2022-12-02 Fahrzeug und steuerungsverfahren dafür

Country Status (4)

Country Link
US (1) US20230252987A1 (de)
KR (1) KR20230120465A (de)
CN (1) CN116580699A (de)
DE (1) DE102022213029A1 (de)

Also Published As

Publication number Publication date
CN116580699A (zh) 2023-08-11
US20230252987A1 (en) 2023-08-10
KR20230120465A (ko) 2023-08-17

Similar Documents

Publication Publication Date Title
DE102009051508B4 (de) Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und -führung
DE112018002857T5 (de) Sprecheridentifikation mit ultrakurzen Sprachsegmenten für Fern- und Nahfeld-Sprachunterstützungsanwendungen
DE102016212647B4 (de) Verfahren zum Betreiben eines Sprachsteuerungssystems in einem Innenraum und Sprachsteuerungssystem
EP3661797B1 (de) Verfahren, vorrichtung, mobiles anwendergerät, computerprogramm zur steuerung eines audiosystems eines fahrzeugs
DE102015210430A1 (de) Verfahren zum Erkennen eines Sprachkontexts für eine Sprachsteuerung, Verfahren zum Ermitteln eines Sprachsteuersignals für eine Sprachsteuerung und Vorrichtung zum Ausführen der Verfahren
DE10008226C2 (de) Vorrichtung zur Sprachsteuerung und Verfahren zur Sprachsteuerung
EP3430615B1 (de) Fortbewegungsmittel, system und verfahren zur anpassung einer länge einer erlaubten sprechpause im rahmen einer spracheingabe
DE102015106280B4 (de) Systeme und Verfahren zum Kompensieren von Sprachartefakten in Spracherkennungssystemen
DE102016217026A1 (de) Sprachsteuerung eines Kraftfahrzeugs
DE102019102090A1 (de) Fahrzeuginterne medienstimmunterdrückung
DE112017008305T5 (de) Spracherkennungsvorrichtung, Spracherkennungssystem und Spracherkennungsverfahren
DE102017213249A1 (de) Verfahren und System zum Erzeugen einer auditiven Meldung in einem Innenraum eines Fahrzeugs
DE102021214593A1 (de) Aktivgeräuschkontrolleinrichtung für Fahrzeuge und Verfahren zum Steuern derselben
DE102021211773A1 (de) Fahrzeug und Verfahren zum Steuern desselben
DE102017213252A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Variieren eines in einem Fahrzeug auszugebenden Audio-Inhalts
US20230206916A1 (en) Service management system and service management method for a vehicle
DE102022213029A1 (de) Fahrzeug und steuerungsverfahren dafür
EP2907048B1 (de) Kraftwagen mit einem sprachübersetzungssystem
DE102019218058B4 (de) Vorrichtung und Verfahren zum Erkennen von Rückwärtsfahrmanövern
DE102016003401B4 (de) Erfassungsvorrichtung und Verfahren zum Erfassen einer Sprachäußerung einer sprechenden Person in einem Kraftfahrzeug
DE102022213306A1 (de) Spracherkennungssystem und verfahren zur bereitstellung eines spracherkennungsdienstes
DE102021103310B4 (de) Verfahren und vorrichtung zur verbesserung der sprachverständlichkeit in einem raum
DE102017213260A1 (de) Verfahren, Vorrichtung, mobiles Anwendergerät, Computerprogramm zur Steuerung eines Audiosystems eines Fahrzeugs
DE102014203116A1 (de) Steuern eines sprachdialogs, wobei ein zusätzlicher sensor benutzt wird
DE102022133571A1 (de) Vorrichtung zur verarbeitung natürlicher sprache und verfahren zur verarbeitung natürlicher sprache