DE102015106530B4 - Systeme und Verfahren zum Koordinieren einer Spracherkennung - Google Patents

Systeme und Verfahren zum Koordinieren einer Spracherkennung Download PDF

Info

Publication number
DE102015106530B4
DE102015106530B4 DE102015106530.4A DE102015106530A DE102015106530B4 DE 102015106530 B4 DE102015106530 B4 DE 102015106530B4 DE 102015106530 A DE102015106530 A DE 102015106530A DE 102015106530 B4 DE102015106530 B4 DE 102015106530B4
Authority
DE
Germany
Prior art keywords
speech
utterance
vehicle
user device
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102015106530.4A
Other languages
English (en)
Other versions
DE102015106530A1 (de
Inventor
Cody Hansen
Robert Hrabak
Timothy Grost
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102015106530A1 publication Critical patent/DE102015106530A1/de
Application granted granted Critical
Publication of DE102015106530B4 publication Critical patent/DE102015106530B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)

Abstract

Verfahren zum Koordinieren der Erkennung einer Sprachäußerung zwischen einem Sprachsystem eines Fahrzeugs und einem Sprachsystem einer Benutzervorrichtung, umfassend folgende Schritte:- Empfangen der Sprachäußerung von einem Benutzer;- Ausführen einer Spracherkennung an der Sprachäußerung, um ein Thema der Sprachäußerung zu bestimmen;- Bestimmen, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war, basierend auf dem Thema der Sprachäußerung; und- selektives Bereitstellen der Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung basierend auf der Bestimmung, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war.

Description

  • TECHNISCHES GEBIET
  • Das technische Gebiet betrifft im Allgemeinen Sprachsysteme und betrifft genauer gesagt Verfahren und Systeme zum Koordinieren einer Spracherkennung zwischen den Sprachsystemen eines Fahrzeugs und einer Benutzervorrichtung.
  • HINTERGRUND
  • Fahrzeugsprachsysteme führen unter anderem basierend auf der Sprache, die von den Insassen eines Fahrzeugs geäußert wird, eine Spracherkennung aus. Die Sprachäußerungen umfassen typischerweise Befehle, die mit einem oder mehreren Merkmalen des Fahrzeugs kommunizieren oder diese steuern.
  • In manchen Fällen kann ein Fahrzeug mit einer Benutzervorrichtung in Verbindung stehen, die sich in der Nähe des Fahrzeugs befindet, wie etwa mit einem Smartphone oder einer anderen Vorrichtung. Die Benutzervorrichtung kann ein Sprachsystem umfassen, das unter anderem basierend auf der Sprache, die von den Insassen eines Fahrzeugs geäußert wird, eine Spracherkennung ausführt. Derartige Sprachäußerungen umfassen typischerweise Befehle, die mit einer oder mehreren Anwendungen der Benutzervorrichtung kommunizieren oder diese steuern.
  • Entsprechend ist es erwünscht, Verfahren und Systeme zum Koordinieren der Erkennung von Sprachbefehlen bereitzustellen, die von den Insassen eines Fahrzeugs geäußert werden, wenn eine Benutzervorrichtung in Verbindung mit dem Fahrzeug steht. Ferner werden andere wünschenswerte Merkmale und Kennzeichen der vorliegenden Erfindung aus der nachstehenden ausführlichen Beschreibung und den beiliegenden Ansprüchen zusammen mit den beiliegenden Zeichnungen und dem vorstehenden technischen Gebiet und Hintergrund gesehen hervorgehen.
  • Die Druckschrift DE 600 15 531 T2 beschreibt ein Verfahren zum Koordinieren der Erkennung einer Sprachäußerung, wobei auf einer Benutzervorrichtung eine erste Spracherkennung durchgeführt wird, um ein Thema der Sprachäußerung zu bestimmen, wobei basierend auf dem Thema die Sprachäußerung jeweils einer für das Thema geeigneten Server-Station bereitgestellt wird.
  • Die Druckschrift DE 10 2012 218 938 A1 beschreibt, dass in einem Fahrzeug mittels einer Spracherkennung eine Sprachäußerung erkannt wird, aus dem Spracherkennungsergebnis ein Thema der Äußerung bestimmt wird und anhand des Themas das Spracherkennungsergebnis einem jeweils gewünschten Dienst bereitgestellt wird.
  • KURZDARSTELLUNG
  • Es werden Verfahren und Systeme zum Koordinieren der Erkennung einer Sprachäußerung zwischen einem Sprachsystem eines Fahrzeugs und einem Sprachsystem einer Benutzervorrichtung bereitgestellt. Bei einer Ausführungsform umfasst ein Verfahren folgende Schritte: Empfangen der Sprachäußerung von einem Benutzer; Ausführen einer Spracherkennung an der Sprachäußerung, um ein Thema der Sprachäußerung zu bestimmen; Bestimmen, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war, basierend auf dem Thema der Sprachäußerung; und selektives Bereitstellen der Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung basierend auf der Bestimmung, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war.
  • Bei einer anderen Ausführungsform umfasst ein System ein erstes Modul, das die Sprachäußerung von einem Benutzer empfängt und das eine Spracherkennung an der Sprachäußerung ausführt, um ein Thema der Sprachäußerung zu bestimmen. Das System umfasst ferner ein zweites Modul, das bestimmt, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war, basierend auf dem Thema der Sprachäußerung, und das die Sprachäußerung selektiv dem Sprachsystem des Fahrzeugs oder dem Sprachsystem der Benutzervorrichtung bereitstellt, basierend auf der Bestimmung, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war.
  • Bei einer anderen Ausführungsform wird ein Fahrzeug bereitgestellt. Das Fahrzeug umfasst ein Sprachsystem und ein Erkennungskoordinationsmodul. Das Erkennungskoordinationsmodul empfängt eine Sprachäußerung von einem Benutzer des Fahrzeugs, führt eine Spracherkennung an der Sprachäußerung aus, um ein Thema der Sprachäußerung zu bestimmen, und bestimmt, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war, basierend auf dem Thema der Sprachäußerung.
  • Figurenliste
  • Die beispielhaften Ausführungsformen werden nachstehend in Verbindung mit den folgenden Zeichnungsfiguren beschrieben, wobei die gleichen Bezugszeichen die gleichen Elemente bezeichnen. Es zeigen:
    • 1 ein Funktionsblockdiagramm eines Fahrzeugs und einer Benutzervorrichtung, die jeweils ein Sprachsystem umfassen, gemäß diversen Ausführungsbeispielen;
    • 2 ein Datenablaufdiagramm, das ein Erkennungskoordinationsmodul des Sprachsystems gemäß diversen Ausführungsbeispielen abbildet; und
    • 3 und 4 Ablaufschemata, die Sprachverfahren gemäß diversen Ausführungsbeispielen abbilden.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die nachstehende ausführliche Beschreibung ist rein beispielhafter Art und nicht dazu gedacht, die Anwendung und Verwendungen einzuschränken. Ferner ist es nicht beabsichtigt, durch eine ausgedrückte oder bedingte Theorie gebunden zu sein, die in dem vorstehenden technischen Gebiet, dem Hintergrund, der Kurzdarstellung oder der nachstehenden ausführlichen Beschreibung vorgelegt wird. Wie er hier verwendet wird, bezieht sich der Begriff „Modul“ auf eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (geteilt, dediziert oder als Gruppe) und einen Speicher, der eines oder mehrere von Software- oder Firmware-Programmen ausführt, eine kombinatorische logische Schaltung und/oder andere geeignete Komponenten, welche die beschriebene Funktion bereitstellen.
  • Nun mit Bezug auf 1 wird gemäß den Ausführungsbeispielen des hier beschriebenen Gegenstandes ein Fahrzeug 10 gezeigt, das ein Sprachsystem 12 gemäß diversen Ausführungsbeispielen aufweist. Im Allgemeinen stellt das Sprachsystem 12 des Fahrzeugs 10 eine Spracherkennung, eine Dialogverwaltung und eine Sprachgenerierung für ein oder mehrere Systeme des Fahrzeugs 10 über ein Mensch-Maschine-Schnittstellen- (HMI) Modul 14 bereit. Derartige Fahrzeugsysteme können beispielsweise ohne Einschränkung ein Telefonsystem 16, ein Navigationssystem 18, ein Mediensystem 20, ein Telematik-System 22, ein Netzwerksystem 24 und ein beliebiges anderes Fahrzeugsystem umfassen, das eine sprachabhängige Anwendung umfassen kann.
  • Das HMI-Modul 14 ist konfiguriert, um von einem oder mehreren Benutzern (z.B. einem Fahrer, einem Beifahrer usw.) über eine oder mehrere Benutzereingabevorrichtungen betätigt zu werden. Derartige Benutzereingabevorrichtungen können beispielsweise ohne Einschränkung ein Mikrofon 26 und eine Aktivierungstaste 28 umfassen. Das Mikrofon 26 kann beispielsweise konfiguriert sein, um Sprachäußerungen aufzuzeichnen, die von einem Benutzer gemacht werden. Die Aktivierungstaste 28 kann konfiguriert sein, um die Aufzeichnung durch das Mikrofon 26 zu aktivieren, und/oder um einen Zweck der Aufzeichnung anzugeben. Beispielsweise sendet die Aktivierungstaste 28, wenn sie eine erste Zeit lang (z.B. kurzfristig) gedrückt wird, ein Signal, das angibt, die Aufzeichnung durch das Mikrofon für eine Sprachäußerung zu aktivieren, die für ein Fahrzeugsystem 16 bis 24 gedacht ist. Bei einem anderen Beispiel sendet die Aktivierungstaste 28, wenn sie eine zweite Zeit lang (z.B. länger) gedrückt wird, ein Signal, das angibt, die Aufzeichnung durch das Mikrofon 26 für eine Sprachäußerung zu aktivieren, die für ein Nicht-Fahrzeugsystem gedacht ist (z.B. eine Anwendung einer Benutzervorrichtung oder ein anderes System, wie es nachstehend ausführlicher besprochen wird).
  • Bei diversen Ausführungsformen kann bzw. können eine oder mehrere Benutzervorrichtungen 30 in oder in der Nähe des Fahrzeugs 10 zu jeder Zeit vorhanden sein und kann bzw. können mit dem Fahrzeug 10 über das HMI-Modul 14 in Verbindung stehen. Beispielsweise kann die Benutzervorrichtung 30 konfiguriert sein, um direkt mit dem HMI-Modul 14 oder einer anderen Komponente des Fahrzeugs 10 über eine geeignete drahtgebundene oder drahtlose Verbindung (z.B. Bluetooth, WiFi, USB usw.) zu kommunizieren. Die Benutzervorrichtung 30 kann beispielsweise ein Smartphone, ein Tablet-Computer, ein Feature-Phone oder dergleichen sein und kann ein Sprachsystem 32 umfassen. Im Allgemeinen stellt das Sprachsystem 32 der Benutzervorrichtung 30 eine Spracherkennung, eine Dialogverwaltung und eine Sprachgenerierung für eine oder mehrere Anwendungen der Benutzervorrichtung 30 bereit. Derartige Anwendungen können beispielsweise ohne Einschränkung eine Navigationsanwendung 34, eine Medienanwendung 36, eine Telefonanwendung 38 und/oder eine beliebige andere Anwendung umfassen, die eine sprachabhängige Anwendung umfassen kann.
  • Das Sprachsystem 12 des Fahrzeugs 10 wird gezeigt, wie es ein Erkennungskoordinationsmodul 40 umfasst (oder damit verknüpft ist). Das Erkennungskoordinationsmodul 40 koordiniert eine Erkennung der Sprachäußerung, die von dem Benutzer bereitgestellt wird, basierend auf dem Signal, das den Zweck der Aufzeichnung angibt. Wenn das Signal beispielsweise angibt, dass die Sprachäußerung zur Verwendung durch eine Anwendung der Benutzervorrichtung 30 gedacht ist, speichert das Erkennungskoordinationsmodul 40 die Sprachäußerung in einem Audiozwischenspeicher zur Übertragung durch das HMI-Modul 14 an die Benutzervorrichtung 30. Wenn das Signal bei einem anderen Beispiel angibt, dass die Sprachäußerung zur Verwendung durch ein Fahrzeugsystem des Fahrzeugs 10 gedacht ist, bestimmt das Erkennungskoordinationsmodul 40 zunächst, ob die Sprachäußerung tatsächlich zur Verwendung durch eine Anwendung der Benutzervorrichtung 30 gedacht war, und falls die Sprachäußerung tatsächlich zur Verwendung durch eine Anwendung der Benutzervorrichtung 30 gedacht war, speichert das Erkennungskoordinationsmodul 40 die Sprachäußerung in einem Audiozwischenspeicher zur Übertragung durch das HMI-Modul 14 an die Benutzervorrichtung 30. Das Sprachsystem 32 der Benutzervorrichtung 30 empfängt den Audiozwischenspeicher und verarbeitet die Sprachäußerung. Falls jedoch die Sprachäußerung nicht tatsächlich zur Verwendung durch eine Anwendung der Benutzervorrichtung 30 gedacht war, verarbeitet das Erkennungskoordinationsmodul 40 die Sprachäußerung mit dem Sprachsystem 12 des Fahrzeugs 10.
  • Falls bei diversen Ausführungsformen die Sprachäußerung tatsächlich zur Verwendung durch eine Anwendung der Benutzervorrichtung 30 gedacht war, bestimmt das Erkennungskoordinationsmodul 40 einen Kontext der Sprachäußerung (z.B. einen Medienkontext, einen Navigationskontext, einen Telefonkontext usw.) zum Übertragen mit dem Audiozwischenspeicher. Das Sprachsystem 32 der Benutzervorrichtung 30 empfängt den Kontext und verwendet den Kontext, um eine verbesserte Erkennung der Sprachäußerung bereitzustellen.
  • Nun mit Bezug auf 2 und weiter mit Bezug auf 1 erläutert ein Datenablaufdiagramm das Erkennungskoordinationsmodul 40 gemäß diversen Ausführungsbeispielen. Es versteht sich, dass diverse Ausführungsbeispiele des Erkennungskoordinationsmoduls 40 gemäß der vorliegenden Offenbarung eine beliebige Anzahl von Teilmodulen umfassen können. Bei diversen Ausführungsbeispielen können die in 2 gezeigten Teilmodule kombiniert und/oder ferner unterteilt werden, um die Erkennung einer Sprachäußerung zwischen dem Sprachsystem 12 des Fahrzeugs 10 und dem Sprachsystem 32 der Benutzervorrichtung 30 zu koordinieren. Bei diversen Ausführungsbeispielen umfasst das Erkennungskoordinationsmodul 40 ein Zweckbestimmungsmodul 42, ein Themenbestimmungsmodul 44, ein Koordinationsmodul 46, einen Themendatenbestand 48 und einen Kontextdatenbestand 50.
  • Das Zweckbestimmungsmodul 42 empfängt als Eingangsdaten 52 das Signal, das angibt, die Aufzeichnung zu aktivieren, und den Zweck der Sprachäußerung angibt (z.B. wie durch den Benutzer angegeben, wenn er die Aktivierungstaste 28 drückt). Basierend auf den Daten 52 bestimmt das Zweckbestimmungsmodul 42, dass der Zweck 54 der Sprachäußerung die Verwendung durch ein Fahrzeugsystem oder die Verwendung durch eine Anwendung einer Benutzervorrichtung ist.
  • Das Themenbestimmungsmodul 44 empfängt als Eingabe eine Sprachäußerung 56 (z.B. basierend auf einem Benutzer, der in das Mikrofon 26 spricht, das mit dem HMI-Modul 14 verknüpft ist). Das Themenbestimmungsmodul 44 verarbeitet die Sprachäußerung 56, um ein Thema 58 der Sprachäußerung 56 unter Verwendung von einem oder mehreren Themenerkennungsverfahren zu bestimmen. Beispielsweise kann das Themenbestimmungsmodul 44 unter Verwendung einer oder mehrerer Spracherkennungstechniken ein Verb der Sprachäußerung 56 bestimmen und kann ein Thema 58 basierend auf einer Verknüpfung des Verbs mit einem bestimmten Thema, das in dem Themendatenbestand 48 gespeichert ist, auswählen. Es versteht sich, dass dies rein beispielhaft ist und dass andere Verfahren verwendet werden können, um das Thema 58 der Sprachäußerung 56 zu bestimmen.
  • Das Koordinationsmodul 46 empfängt als Eingabe den Zweck 54 der Sprachäußerung, das Thema 58 der Sprachäußerung, die Sprachäußerung und Daten 60, die angeben, ob eine Benutzervorrichtung 30 mit dem Fahrzeug 10 in Verbindung steht. Basierend auf den Eingaben bereitet das Koordinationsmodul 46 die Sprachäußerung 56 zur Verarbeitung durch entweder das Sprachsystem 12 des Fahrzeugs 10 oder das Sprachsystem 32 der Benutzervorrichtung 30 vor. Falls die Daten 60 beispielsweise angeben, dass eine Benutzervorrichtung 30 nicht mit dem Fahrzeug 10 in Verbindung steht, stellt das Koordinationsmodul 46 die Sprachäußerung 56 dem Sprachsystem 12 des Fahrzeugs 10 zur weiteren Verarbeitung bereit.
  • Falls die Daten 60 jedoch angeben, dass eine oder mehrere Benutzervorrichtungen 30 mit dem Fahrzeug 10 in Verbindung steht bzw. stehen, bestimmt das Koordinationsmodul 46, ob der Zweck 54 der Sprachäußerung zur Verwendung durch das Sprachsystem 32 der Benutzervorrichtung 30 gedacht ist. Falls der Zweck 54 der Sprachäußerung zur Verwendung durch das Sprachsystem 32 der Benutzervorrichtung 30 gedacht ist, speichert das Koordinationsmodul 46 die Sprachäußerung 56 in einem Audiozwischenspeicher 62 zur Übertragung an das Sprachsystem 32 der Benutzervorrichtung 30 über das HMI-Modul 14.
  • Falls jedoch der Zweck 54 der Sprachäußerung zur Verwendung durch das Sprachsystem 12 des Fahrzeugs 10 gedacht ist, bestimmt das Koordinationsmodul 46, ob das Thema 58 der Sprachäußerung tatsächlich zur Verwendung durch die Benutzervorrichtung 30 gedacht war (z.B. durch Vergleichen des Themas mit Themen, die mit einer bestimmten Benutzervorrichtung oder einer bestimmten Art von Benutzervorrichtung verknüpft sind). Falls mehrere Benutzervorrichtungen bereitgestellt werden, bestimmt das Koordinationsmodul 46, für welche der Benutzervorrichtungen das Thema tatsächlich gedacht ist. Falls bestimmt wird, dass die Sprachäußerung tatsächlich für eine bestimmte Benutzervorrichtung gedacht ist, speichert das Koordinationsmodul 46 die Sprachäußerung 56 in einem Audiozwischenspeicher 62 zur Übertragung an das Sprachsystem 32 der Benutzervorrichtung 30 über das HMI-Modul 14.
  • Bei diversen Ausführungsformen bestimmt das Koordinationsmodul 46 einen Kontext 64 der Sprachäußerung 56 basierend auf dem Thema 58. Beispielsweise kann das Koordinationsmodul 46 einen Kontext 64 basierend auf einer Verknüpfung des Themas 58 mit einem bestimmten Kontext, der in dem Kontextdatenbestand 50 gespeichert ist, auswählen. Es versteht sich, dass dies rein beispielhaft ist und dass andere Verfahren verwendet werden können, um den Kontext 64 der Sprachäußerung 56 zu bestimmen. Das Koordinationsmodul 46 speichert den Kontext zur Übertragung an das Sprachsystem 32 der Benutzervorrichtung 30 über das HMI-Modul 14.
  • Nun mit Bezug auf 3 und 4 und weiter mit Bezug auf 1 und 2 bilden die Ablaufschemata Sprachverfahren ab, die von dem Sprachsystem 12 des Fahrzeugs 10 ausgeführt werden können, das ein Erkennungskoordinationsmodul 40 und das Sprachsystem 32 der Benutzervorrichtung 30 gemäß diversen Ausführungsbeispielen aufweist. Es versteht sich angesichts der Offenbarung, dass die Reihenfolge der Arbeitsgänge innerhalb der Verfahren nicht auf die sequenzielle Ausführung wie in 3 und 4 abgebildet eingeschränkt ist, sondern je nach Bedarf und gemäß der vorliegenden Offenbarung in einer oder mehreren unterschiedlichen Reihenfolgen ausgeführt werden kann. Wie es sich ferner versteht, kann bzw. können ein oder mehrere Schritte der Verfahren hinzugefügt oder entfernt werden, ohne den Geist der Verfahren zu ändern.
  • Mit Bezug auf 3 wird ein Sprachverfahren, das von dem Sprachsystem 12 des Fahrzeugs 10 ausgeführt werden kann, gemäß diversen Ausführungsbeispielen gezeigt. Das Verfahren kann bei 100 beginnen. Das Signal, das angibt, die Aufzeichnung der Sprache zu aktivieren, wird bei 110 empfangen (z.B. basierend darauf, dass ein Benutzer die Aktivierungstaste 28 des HMI-Moduls 14 eine erste Zeit lang (kurzfristig) drückt). Bei 115 wird der Zweck 54 der Sprachäußerung als „zur Verwendung durch ein Fahrzeugsystem“ bestimmt. Die Sprachäußerung 56 wird bei 120 empfangen (z.B. basierend darauf, dass ein Benutzer in das Mikrofon 26 spricht, das mit dem HMI-Modul 14 verknüpft ist). Das Thema 58 der Sprachäußerung 56 wird unter Verwendung eines Themenerkennungsverfahrens bei 130 identifiziert.
  • Dann wird bei 140 bestimmt, ob eine Benutzervorrichtung 30 mit dem Fahrzeug 10 in Verbindung steht. Falls bei 140 eine Benutzervorrichtung 30 nicht mit dem Fahrzeug 10 in Verbindung steht, wird bei 150 die Sprachäußerung 56 dem Sprachsystem 12 des Fahrzeugs 10 zur weiteren Verarbeitung bereitgestellt, und das Verfahren kann bei 160 enden. Falls jedoch bei 140 eine oder mehrere Benutzervorrichtungen 30 mit dem Fahrzeug 10 in Verbindung steht bzw. stehen, wird bei 170 bestimmt, ob das Thema 58 der Sprachäußerung 56 zur Verwendung durch eine bestimmte Benutzervorrichtung 30 gedacht ist. Für den Fall, dass mehrere Benutzervorrichtungen 30 mit dem Fahrzeug 10 gleichzeitig in Verbindung stehen, wird bestimmt, für welche der Benutzervorrichtungen 30 das Thema 58 der Sprachäußerung 56 gedacht ist.
  • Falls bei 170 bestimmt wird, dass das Thema 58 nicht für eine bestimmte Benutzervorrichtung 30 gedacht ist, wird die Sprachäußerung 56 bei 150 dem Sprachsystem 12 des Fahrzeugs 10 zur weiteren Verarbeitung bereitgestellt, und das Verfahren kann bei 160 enden. Falls bei 170 bestimmt wird, dass das Thema 58 für eine bestimmte Benutzervorrichtung gedacht ist, kann bei 180 und 190 wahlweise ein Dialog mit dem Benutzer geführt werden, um zu bestätigen, dass die Sprachäußerung für die bestimmte Benutzervorrichtung 30 gedacht war. Falls der Benutzer bei 190 die bestimmte Benutzervorrichtung 30 nicht bestätigt, wird die Sprachäußerung 56 bei 150 dem Sprachsystem 12 des Fahrzeugs 10 zur weiteren Verarbeitung bereitgestellt, und das Verfahren kann bei 160 enden.
  • Falls der Benutzer jedoch bei 190 die bestimmte Benutzervorrichtung bestätigt, wird bei 200 bestimmt, ob die bestimmte Benutzervorrichtung 30 in der Lage ist, Kontextinformationen anzunehmen. Falls die Benutzervorrichtung bei 200 in der Lage ist, die Kontextinformationen anzunehmen, wird der Kontext 64 bei 210 basierend auf dem Thema 58 bestimmt, und bei 220 wird die Sprachäußerung 56 in dem Audiozwischenspeicher 62 gespeichert. Der Kontext 64 und der Audiozwischenspeicher 62 werden bei 230 über das HMI-Modul 14 mit der Benutzervorrichtung 30 (z.B. unter Verwendung des drahtgebundenen oder drahtlosen Kommunikationsprotokolls) in Verbindung gesetzt. Anschließend kann das Verfahren bei 160 enden.
  • Falls bei 200 die Benutzervorrichtung 30 nicht in der Lage ist, die Kontextinformationen anzunehmen, wird die Sprachäußerung 56 bei 240 in einem Audiozwischenspeicher 62 gespeichert, und der Audiozwischenspeicher 62 wird bei 250 über das HMI-Modul 14 mit der Benutzervorrichtung 30 (z.B. unter Verwendung des drahtgebundenen oder drahtlosen Kommunikationsprotokolls) in Verbindung gesetzt. Anschließend kann das Verfahren bei 160 enden.
  • Mit Bezug auf 4 wird ein Sprachverfahren, das von dem Sprachsystem 32 der Benutzervorrichtung 30 ausgeführt werden kann, gemäß diversen Ausführungsbeispielen gezeigt. Das Verfahren kann bei 300 beginnen. Die Benutzervorrichtung 30 empfängt den Audiozwischenspeicher 62 oder den Audiozwischenspeicher 62 und den Kontext 64 bei 310. Das Sprachsystem 32 der Benutzervorrichtung 30 führt dann bei 320 eine Spracherkennung an der Sprachäußerung 56 des Audiozwischenspeichers 62 aus. Falls der Kontext 64 bereitgestellt wird, führt das Sprachsystem 32 der Benutzervorrichtung 30 eine Spracherkennung an der Sprachäußerung 56 unter Verwendung des Kontextes 64 aus. Falls beispielsweise der Kontext 64 Medien angibt, werden die Spracherkennungsverfahren, die auf Medieninformationen der Medienanwendung 36 auf der Benutzervorrichtung 30 abgestimmt sind, verwendet, um die Sprachäußerung 56 zu verarbeiten. Falls bei einem anderen Beispiel der Kontext 64 Navigation angibt, werden die Spracherkennungsverfahren, die auf Navigationsinformationen der Navigationsanwendung 34 auf der Benutzervorrichtung 30 abgestimmt sind, verwendet, um die Sprachäußerung 56 zu verarbeiten. Anschließend kann die Benutzervorrichtung bei 330 eine Funktion der Benutzervorrichtung 30 steuern und/oder kann basierend auf den Ergebnissen der Spracherkennung einen Dialog mit dem Benutzer steuern, und das Verfahren kann bei 340 enden.
  • Beispiele
  • Beispiel 1. Ein Verfahren zum Koordinieren der Erkennung einer Sprachäußerung zwischen einem Sprachsystem eines Fahrzeugs und einem Sprachsystem einer Benutzervorrichtung, umfassend folgende Schritte:
    • Empfangen der Sprachäußerung von einem Benutzer;
    • Ausführen einer Spracherkennung an der Sprachäußerung, um ein Thema der Sprachäußerung zu bestimmen;
    • Bestimmen, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war, basierend auf dem Thema der Sprachäußerung; und
    • selektives Bereitstellen der Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung basierend auf der Bestimmung, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war.
  • Beispiel 2. Das Verfahren nach Beispiel 1, ferner umfassend folgenden Schritt:
    • Bestimmen, dass die Benutzervorrichtung mit dem Fahrzeug in Verbindung steht; und
    • wobei das Bestimmen, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war, ferner auf der Benutzervorrichtung basiert, die mit dem Fahrzeug in Verbindung steht.
  • Beispiel 3. Das Verfahren nach Beispiel 2, ferner umfassend folgenden Schritt:
    • Bestimmen, dass mehrere Benutzervorrichtungen mit dem Fahrzeug in Verbindung stehen; und
    • wobei das Bestimmen, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war, das Bestimmen umfasst, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem einer bestimmten Benutzervorrichtung der mehreren Benutzervorrichtungen, die mit dem Fahrzeug in Verbindung stehen, gedacht war.
  • Beispiel 4. Das Verfahren nach einem der Beispiele 1 bis 3, ferner umfassend folgende Schritte:
    • Bestimmen eines Kontexts der Sprachäußerung basierend auf dem Thema; und
    • selektives Bereitstellen des Kontexts der Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung.
  • Beispiel 5. Das Verfahren nach Beispiel 4, ferner umfassend folgenden Schritt:
    • Bestimmen, ob die Benutzervorrichtung in der Lage ist, den Kontext anzunehmen; und
    • wobei das selektive Bereitstellen des Kontexts der Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung auf der Bestimmung basiert, ob die Benutzervorrichtung in der Lage ist, den Kontext zu verarbeiten.
  • Beispiel 6. Das Verfahren nach einem der Beispiele 1 bis 5, ferner umfassend folgende Schritte:
    • Empfangen eines Signals, um die Fahrzeugspracherkennung zu aktivieren; und
    • Bestimmen eines Verwendungszwecks der Sprachäußerung basierend auf dem Signal.
  • Beispiel 7. Das Verfahren nach Beispiel 6, wobei das Ausführen der Spracherkennung an der Sprachäußerung, um das Thema der Sprachäußerung zu bestimmen, auf dem Verwendungszweck der Sprachäußerung basiert.
  • Beispiel 8. Das Verfahren nach Beispiel 6 oder 7, wobei das Bestimmen, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war, auf dem Verwendungszweck der Sprachäußerung basiert.
  • Beispiel 9. Das Verfahren nach einem der Beispiele 1 bis 8, wobei das Empfangen der Sprachäußerung des Benutzers durch das Sprachsystem des Fahrzeugs erfolgt, und wobei das selektive Bereitstellen das Bereitstellen der Sprachäußerung für das Sprachsystem der Benutzervorrichtung umfasst.
    • Beispiel 10. Ein System zum Koordinieren der Erkennung einer Sprachäußerung zwischen einem Sprachsystem eines Fahrzeugs und einem Sprachsystem einer Benutzervorrichtung, umfassend:
      • ein erstes Modul, das die Sprachäußerung von einem Benutzer empfängt und das eine Spracherkennung an der Sprachäußerung ausführt, um ein Thema der Sprachäußerung zu bestimmen; und
      • ein zweites Modul, das basierend auf dem Thema der Sprachäußerung bestimmt, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war, und das die Sprachäußerung selektiv dem Sprachsystem des Fahrzeugs oder dem Sprachsystem der Benutzervorrichtung bereitstellt, basierend auf der Bestimmung, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war.
  • Beispiel 11. Das System nach Beispiel 10, wobei das zweite Modul bestimmt, dass die Benutzervorrichtung mit dem Fahrzeug in Verbindung steht, und bestimmt, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war, ferner basierend auf der Benutzervorrichtung, die mit dem Fahrzeug in Verbindung steht.
  • Beispiel 12. Das System nach Beispiel 11, wobei das zweite Modul bestimmt, dass die mehreren Benutzervorrichtungen mit dem Fahrzeug in Verbindung stehen, und bestimmt, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem einer bestimmten Benutzervorrichtung der mehreren Benutzervorrichtungen, die mit dem Fahrzeug in Verbindung stehen, gedacht war.
  • Beispiel 13. Das System nach einem der Beispiele 10 bis 12, wobei das zweite Modul einen Kontext der Sprachäußerung basierend auf dem Thema bestimmt und den Kontext der Sprachäußerung selektiv dem Sprachsystem des Fahrzeugs oder dem Sprachsystem der Benutzervorrichtung bereitstellt.
  • Beispiel 14. Das System nach Beispiel 13, wobei das zweite Modul bestimmt, ob die Benutzervorrichtung in der Lage ist, den Kontext anzunehmen, und den Kontext der Sprachäußerung selektiv dem Sprachsystem des Fahrzeugs oder dem Sprachsystem der Benutzervorrichtung bereitstellt, basierend auf der Bestimmung, ob die Benutzervorrichtung in der Lage ist, den Kontext anzunehmen.
  • Beispiel 15. Das System nach einem der Beispiele 10 bis 14, ferner umfassend ein drittes Modul, das ein Signal empfängt, um die Fahrzeugspracherkennung zu aktivieren, und das einen Verwendungszweck der Sprachäußerung basierend auf dem Signal bestimmt.
  • Beispiel 16. Das System nach Beispiel 15, wobei das erste Modul die Spracherkennung an der Sprachäußerung ausführt, um das Thema der Sprachäußerung basierend auf dem Verwendungszweck der Sprachäußerung zu bestimmen.
  • Beispiel 17. Das System nach Beispiel 15 oder 16, wobei das zweite Modul bestimmt, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war, basierend auf dem Verwendungszweck der Sprachäußerung.
  • Beispiel 18. Das System nach einem der Beispiele 10 bis 17, wobei das erste Modul die Sprachäußerung des Benutzers durch das Sprachsystem des Fahrzeugs empfängt, und wobei das zweite Modul die Sprachäußerung dem Sprachsystem der Benutzervorrichtung bereitstellt.
  • Beispiel 19. Ein Fahrzeug, umfassend:
    • ein Sprachsystem; und
    • ein Erkennungskoordinationsmodul, das eine Sprachäußerung von einem Benutzer des Fahrzeugs empfängt, das eine Spracherkennung an der Sprachäußerung ausführt, um ein Thema der Sprachäußerung zu bestimmen, und das bestimmt, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war, basierend auf dem Thema der Sprachäußerung.
  • Beispiel 20. Das Fahrzeug nach Beispiel 19, wobei das Erkennungskoordinationsmodul einen Kontext der Sprachäußerung basierend auf dem Thema bestimmt, und selektiv mindestens eines von der Sprachäußerung und dem Kontext dem Sprachsystem der Benutzervorrichtung bereitstellt, basierend auf der Bestimmung, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war.
  • Obwohl mindestens ein Ausführungsbeispiel in der vorstehenden ausführlichen Beschreibung vorgelegt wurde, versteht es sich, dass zahlreiche Variationen existieren. Es versteht sich ebenfalls, dass das Ausführungsbeispiel oder die Ausführungsbeispiele rein erläuternd sind und nicht dazu gedacht sind, den Umfang, die Anwendbarkeit oder die Konfiguration der Offenbarung auf irgendeine Art und Weise einzuschränken. Vielmehr wird die vorstehende ausführliche Beschreibung dem Fachmann eine praktische Anleitung bereitstellen, um das Ausführungsbeispiel oder die Ausführungsbeispiele umzusetzen. Es versteht sich, dass diverse Änderungen an der Funktion und Anordnung der Elemente vorgenommen werden können, ohne den Umfang der Offenbarung zu verlassen, wie er in den beiliegenden Ansprüchen und ihren rechtlichen Äquivalenten dargelegt wird.

Claims (10)

  1. Verfahren zum Koordinieren der Erkennung einer Sprachäußerung zwischen einem Sprachsystem eines Fahrzeugs und einem Sprachsystem einer Benutzervorrichtung, umfassend folgende Schritte: - Empfangen der Sprachäußerung von einem Benutzer; - Ausführen einer Spracherkennung an der Sprachäußerung, um ein Thema der Sprachäußerung zu bestimmen; - Bestimmen, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war, basierend auf dem Thema der Sprachäußerung; und - selektives Bereitstellen der Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung basierend auf der Bestimmung, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war.
  2. Verfahren nach Anspruch 1, ferner umfassend folgenden Schritt: - Bestimmen, dass die Benutzervorrichtung mit dem Fahrzeug in Verbindung steht; - wobei das Bestimmen, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war, ferner auf der Benutzervorrichtung, die mit dem Fahrzeug in Verbindung steht, basiert.
  3. Verfahren nach Anspruch 2, ferner umfassend folgenden Schritt: - Bestimmen, dass mehrere Benutzervorrichtungen mit dem Fahrzeug in Verbindung stehen; - wobei das Bestimmen, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war, das Bestimmen umfasst, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem einer bestimmten Benutzervorrichtung der mehreren Benutzervorrichtungen, die mit dem Fahrzeug in Verbindung stehen, gedacht war.
  4. Verfahren nach einem der Ansprüche 1 bis 3, ferner umfassend folgende Schritte: - Bestimmen eines Kontexts der Sprachäußerung basierend auf dem Thema; und - selektives Bereitstellen des Kontexts der Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung.
  5. Verfahren nach Anspruch 4, ferner umfassend folgenden Schritt: - Bestimmen, ob die Benutzervorrichtung in der Lage ist, den Kontext anzunehmen; - wobei das selektive Bereitstellen des Kontexts der Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung auf der Bestimmung basiert, ob die Benutzervorrichtung in der Lage ist, den Kontext zu verarbeiten.
  6. Verfahren nach einem der Ansprüche 1 bis 5, ferner umfassend folgende Schritte: - Empfangen eines Signals, um die Fahrzeugspracherkennung zu aktivieren; und - Bestimmen eines Verwendungszwecks der Sprachäußerung basierend auf dem Signal.
  7. Verfahren nach Anspruch 6, wobei das Ausführen der Spracherkennung an der Sprachäußerung, um das Thema der Sprachäußerung zu bestimmen, auf dem Verwendungszweck der Sprachäußerung basiert.
  8. Verfahren nach Anspruch 6 oder 7, wobei das Bestimmen, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war, auf dem Verwendungszweck der Sprachäußerung basiert.
  9. Verfahren nach einem der Ansprüche 1 bis 8, wobei das Empfangen der Sprachäußerung des Benutzers durch das Sprachsystem des Fahrzeugs erfolgt, und wobei das selektive Bereitstellen das Bereitstellen der Sprachäußerung für das Sprachsystem der Benutzervorrichtung umfasst.
  10. System zum Koordinieren der Erkennung einer Sprachäußerung zwischen einem Sprachsystem eines Fahrzeugs und einem Sprachsystem einer Benutzervorrichtung, umfassend: - ein erstes Modul, das die Sprachäußerung von einem Benutzer empfängt und das eine Spracherkennung an der Sprachäußerung ausführt, um ein Thema der Sprachäußerung zu bestimmen; und - ein zweites Modul, das bestimmt, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war, basierend auf dem Thema der Sprachäußerung, und das die Sprachäußerung selektiv dem Sprachsystem des Fahrzeugs oder dem Sprachsystem der Benutzervorrichtung bereitstellt, basierend auf der Bestimmung, ob die Sprachäußerung für das Sprachsystem des Fahrzeugs oder das Sprachsystem der Benutzervorrichtung gedacht war.
DE102015106530.4A 2014-04-30 2015-04-28 Systeme und Verfahren zum Koordinieren einer Spracherkennung Active DE102015106530B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/266,593 2014-04-30
US14/266,593 US20150317973A1 (en) 2014-04-30 2014-04-30 Systems and methods for coordinating speech recognition

Publications (2)

Publication Number Publication Date
DE102015106530A1 DE102015106530A1 (de) 2015-11-05
DE102015106530B4 true DE102015106530B4 (de) 2020-06-18

Family

ID=54326145

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015106530.4A Active DE102015106530B4 (de) 2014-04-30 2015-04-28 Systeme und Verfahren zum Koordinieren einer Spracherkennung

Country Status (3)

Country Link
US (1) US20150317973A1 (de)
CN (1) CN105047197B (de)
DE (1) DE102015106530B4 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140379334A1 (en) * 2013-06-20 2014-12-25 Qnx Software Systems Limited Natural language understanding automatic speech recognition post processing

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60015531T2 (de) 1999-03-26 2005-03-24 Scansoft, Inc., Peabody Client-server spracherkennungssystem
DE102012218938A1 (de) 2011-10-18 2013-04-18 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Identifikation von Diensten und Auslösung für eine sprachbasierte Schnittstelle zu einer Mobilvorrichtung

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8065155B1 (en) * 1999-06-10 2011-11-22 Gazdzinski Robert F Adaptive advertising apparatus and methods
US6505161B1 (en) * 2000-05-01 2003-01-07 Sprint Communications Company L.P. Speech recognition that adjusts automatically to input devices
US7640006B2 (en) * 2001-10-03 2009-12-29 Accenture Global Services Gmbh Directory assistance with multi-modal messaging
US20050137877A1 (en) * 2003-12-17 2005-06-23 General Motors Corporation Method and system for enabling a device function of a vehicle
US8086462B1 (en) * 2004-09-09 2011-12-27 At&T Intellectual Property Ii, L.P. Automatic detection, summarization and reporting of business intelligence highlights from automated dialog systems
US8073681B2 (en) * 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
ATE403928T1 (de) * 2006-12-14 2008-08-15 Harman Becker Automotive Sys Sprachdialogkontrolle basierend auf signalvorverarbeitung
US8140335B2 (en) * 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US8364486B2 (en) * 2008-03-12 2013-01-29 Intelligent Mechatronic Systems Inc. Speech understanding method and system
US20090234655A1 (en) * 2008-03-13 2009-09-17 Jason Kwon Mobile electronic device with active speech recognition
US9171541B2 (en) * 2009-11-10 2015-10-27 Voicebox Technologies Corporation System and method for hybrid processing in a natural language voice services environment
US20110247013A1 (en) * 2010-04-01 2011-10-06 Gm Global Technology Operations, Inc. Method for Communicating Between Applications on an External Device and Vehicle Systems
US9495962B2 (en) * 2011-09-19 2016-11-15 Personetics Technologies Ltd. System and method for evaluating intent of a human partner to a dialogue between human user and computerized system
US9201859B2 (en) * 2011-12-15 2015-12-01 Microsoft Technology Licensing, Llc Suggesting intent frame(s) for user request(s)
US8346563B1 (en) * 2012-04-10 2013-01-01 Artificial Solutions Ltd. System and methods for delivering advanced natural language interaction applications
US20140350942A1 (en) * 2013-05-23 2014-11-27 Delphi Technologies, Inc. Vehicle human machine interface with gaze direction and voice recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60015531T2 (de) 1999-03-26 2005-03-24 Scansoft, Inc., Peabody Client-server spracherkennungssystem
DE102012218938A1 (de) 2011-10-18 2013-04-18 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Identifikation von Diensten und Auslösung für eine sprachbasierte Schnittstelle zu einer Mobilvorrichtung

Also Published As

Publication number Publication date
CN105047197A (zh) 2015-11-11
DE102015106530A1 (de) 2015-11-05
CN105047197B (zh) 2018-12-07
US20150317973A1 (en) 2015-11-05

Similar Documents

Publication Publication Date Title
DE102014225808B4 (de) Bluetooth-Kopplungs-System und Verfahren
EP2909833B1 (de) Spracherkennung in einem kraftfahrzeug
DE102014114604B4 (de) Verfahren und Vorrichtung zur Verarbeitung mehrerer Audioströme in einem Bordrechensystem eines Fahrzeugs
DE102013222507B4 (de) Verfahren zum Adaptieren eines Sprachsystems
DE102019119171A1 (de) Spracherkennung für fahrzeugsprachbefehle
DE102013221631B4 (de) System, Verfahren und Computerprogrammprodukt zur Implementierung einer Spracherkennungsfunktionalität in einem Fahrzeug durch eine von außen wirkende Vorrichtung
DE102014109122A1 (de) Systeme und Verfahren für ergebnisbezogene Arbitrierung in Sprachdialogsystemen
DE102013223036B4 (de) Adaptionsverfahren für Sprachsysteme
DE202016008230U1 (de) Sprachwiedererkennung mit externen Datenquellen
DE102014109121A1 (de) Systeme und Verfahren zur Arbitrierung eines Sprachdialogdienstes
DE102018108947A1 (de) Vorrichtung zum Korrigieren eines Äußerungsfehlers eines Benutzers und Verfahren davon
DE102015109758A9 (de) Verfahren und Systeme zum Anpassen von Sprachsystemen
DE102014201676A1 (de) Verfahren und Systeme für das Steuern des Dialogs von Sprachsystemen
DE102015106280B4 (de) Systeme und Verfahren zum Kompensieren von Sprachartefakten in Spracherkennungssystemen
DE112015006831T5 (de) Dynamisches Akustikmodell für Fahrzeug
DE102011103528A1 (de) Modulare Spracherkennungsarchitektur
DE102017123371A1 (de) Reagieren auf hvac-induzierte windeinflüsse (buffeting) am fahrzeugmikrofon
DE102018132160A1 (de) System und verfahren zum verstehen von standardsprache und dialekten
DE102015106530B4 (de) Systeme und Verfahren zum Koordinieren einer Spracherkennung
DE102016219134A1 (de) Verfahren zum Zugriff auf ein fahrzeugexternes elektronisches Gerät
EP3115886B1 (de) Verfahren zum betreiben eines sprachsteuerungssystems und sprachsteuerungssystem
DE112015006999T5 (de) Fahrzeugspracherkennung umfassend eine tragbare Vorrichtung
EP3735688B1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zum verarbeiten einer spracheingabe, kraftfahrzeug und nutzerendgerät mit einer sprachverarbeitung
DE102008025532B4 (de) Kommunikationssystem und Verfahren zum Durchführen einer Kommunikation zwischen einem Nutzer und einer Kommunikationseinrichtung
DE102016003903A1 (de) Verfahren zur Spracherkennung in einem Kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: SCHWEIGER & PARTNER, DE

Representative=s name: SCHWEIGER & PARTNERS, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G10L0015220000

Ipc: G10L0015320000

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R082 Change of representative

Representative=s name: SCHWEIGER, MARTIN, DIPL.-ING. UNIV., DE