DE102007052055A1 - Kraftfahrzeug mit einer Sprachschnittstelle - Google Patents
Kraftfahrzeug mit einer Sprachschnittstelle Download PDFInfo
- Publication number
- DE102007052055A1 DE102007052055A1 DE102007052055A DE102007052055A DE102007052055A1 DE 102007052055 A1 DE102007052055 A1 DE 102007052055A1 DE 102007052055 A DE102007052055 A DE 102007052055A DE 102007052055 A DE102007052055 A DE 102007052055A DE 102007052055 A1 DE102007052055 A1 DE 102007052055A1
- Authority
- DE
- Germany
- Prior art keywords
- language
- motor vehicle
- voice
- command
- vehicle according
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000009466 transformation Effects 0.000 claims description 3
- 239000004615 ingredient Substances 0.000 claims 1
- 230000001131 transforming effect Effects 0.000 claims 1
- 239000000470 constituent Substances 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Navigation (AREA)
Abstract
Die Erfindung betrifft ein Kraftfahrzeug mit einer Sprachschnittstelle zur akustischen Eingabe von Befehlen zum Bedienen des Kraftfahrzeuges oder eines Moduls des Kraftfahrzeuges, wobei die Sprachschnittstelle eine Spracherkennungsdatenbasis, in der ein wesentlicher Anteil der eingebbaren Befehle oder Befehlsbestandteile in einer Version gemäß der Aussprache in einer ersten Sprache und in einer Version gemäß der Aussprache in zumindest einer zweiten Sprache gespeichert ist, sowie eine Spracherkennungsmaschine zum automatischen Vergleichen eines akustischen Befehls sowohl mit in der Spracherkennungsdatenbasis gespeicherten Befehlen und/oder Befehlsbestandteilen in der Version gemäß der Aussprache in der ersten Sprache als auch mit in der Spracherkennungsdatenbasis gespeicherten Befehlen und/oder Befehlsbestandteilen in der Version gemäß der Aussprache in der zweiten Sprache umfasst.
Description
- Die Erfindung betrifft ein Kraftfahrzeug mit einer Sprachschnittstelle zur akustischen Ausgabe von Informationen und/oder zur akustischen Eingabe von Befehlen zum Bedienen des Kraftfahrzeuges oder eines Moduls des Kraftfahrzeuges.
- Eine Bedienung eines in einem Fahrzeug implementierten Systems durch akustische Eingaben ist z.B. aus der
WO 01/28187 A1 DE 10 2004 055 609 A1 und derDE 10 2004 061 782 A1 bekannt. - Es ist Aufgabe der Erfindung, die Bedienung eines Kraftfahrzeuges zu verbessern, zu erleichtern und/oder komfortabler zu gestalten.
- Vorgenannte Aufgabe wird durch ein Kraftfahrzeug mit einer Sprachschnittstelle zur akustischen Eingabe von Befehlen zum Bedienen des Kraftfahrzeuges oder eines Moduls des Kraftfahrzeuges gelöst, wobei die Sprachschnittstelle eine Spracherkennungsdatenbasis, in der ein wesentlicher Anteil der eingebbaren Befehle oder Befehlsbestandteile in einer Version gemäß der Aussprache in einer ersten Sprache und in einer Version gemäß der Aussprache in zumindest einer zweiten Sprache gespeichert ist, sowie eine Spracherkennungsmaschine zum automatischen Vergleichen eines akustischen Befehls sowohl mit in der Spracherkennungsdatenbasis gespeicherten Befehlen und/oder Befehlsbestandteilen in der Version gemäß der Aussprache in der ersten Sprache als auch mit in der Spracherkennungsdatenbasis gespeicherten Befehlen und/oder Befehlsbestandteilen in der Version gemäß der Aussprache in der zweiten Sprache umfasst.
- Eine Spracherkennungsdatenbasis im Sinne der Erfindung kann auch modular nach Sprachen getrennt aufgebaut sein. Eine modular nach Sprachen getrennt aufgebaute Spracherkennungsdatenbasis ist insbesondere dann eine Spracherkennungsdatenbasis im Sinne der Erfindung, wenn sie derart mit einer Spracherkennungsmaschine im Sinne der Erfindung zusammenwirkt, dass die Spracherkennungsmaschine einen akustisch eingegebenen Befehl sowohl mit in der Spracherkennungsdatenbasis gespeicherten Befehlen und/oder Befehlsbestandteilen in der Version gemäß der Aussprache in der ersten Sprache als auch mit in der Spracherkennungsdatenbasis gespeicherten Befehlen und/oder Befehlsbestandteilen in der Version gemäß der Aussprache in der zweiten Sprache automatisch vergleicht.
- In einer Ausgestaltung der Erfindung umfasst die Sprachschnittstelle weiterhin zumindest ein sowohl in der ersten Sprache als auch in der zweiten Sprache trainiertes akustisches Model zur Spracherkennung.
- In einer weiteren weiteren Ausgestaltung der Erfindung umfasst die Sprachschnittstelle weiterhin ein erstes, der ersten Sprache zugeordnetes, Grapheme-to-Phoneme-Modul zur Erzeugung eines neuen Eintrags in die Spracherkennungsdatenbasis für ein neues Wort oder einen neuen Namen (in der ersten Sprache) sowie – in einer weiteren Ausgestaltung der Erfindung – ein zweites, der zweiten Sprache zugeordnetes, Grapheme-to-Phoneme-Modul zur Erzeugung des neuen Eintrags in die Spracherkennungsdatenbasis für das neue Wort oder den neuen Namen (in der zweiten Sprache). Einzelheiten in Bezug auf Grapheme-to-Phoneme-Verfahren können z.B. den in der
DE 10 2004 055 609 A1 und in derDE 10 2004 061 782 A1 zitierten Quellen, wie z.B. dem auf der Internetseite www.speech.kth.se/qpsr/tmh/2002/02-44-117-120.pdf veröffentlichten Artikel "Grapheme-to-phoneme conversion, a knowledge-based approach" von Niklas Torstensson, Dept. of Languages, Högskolan i Skövde, TMH-QPSR Vol. 44 – Fonetik 2002, entnommen werden. - In einer weiteren Ausgestaltung der Erfindung umfasst die Sprachschnittstelle weiterhin ein mehrsprachiges Grammatikmodul, das Grammatik und Redewendungen der ersten Sprache und der zweiten Sprache umfasst.
- In einer weiteren Ausgestaltung der Erfindung umfasst die Sprachschnittstelle weiterhin eine Sprachausgabeschnittstelle zur akustischen Ausgabe von Informationen wobei die Sprachausgabeschnittstelle – in einer weiteren Ausgestaltung der Erfindung – ein Sprachauswahlmodul zur automatischen Auswahl der ersten oder der zweiten Sprache zur Ausgabe einer Information umfasst. In einer weiteren Ausgestaltung der Erfindung umfasst das Sprachauswahlmodul einen Zähler zum Zählen von Wörtern oder Bestandteilen eines eingegebenen Befehls unterschieden nach einer Verwendung der ersten und der zweiten Sprache für einzelne Wörter oder Bestandteile eines eingegebenen Befehls (insbesondere innerhalb eines Zählintervalls) sowie – in einer weiteren Ausgestaltung der Erfindung – einen Sprachschalter zur automatischen Auswahl der ersten oder der zweiten Sprache zur Ausgabe der Information in Abhängigkeit der Anzahl von Wörtern oder Bestandteilen des eingegebenen Befehls in der ersten und der zweiten Sprache innerhalb des Zählintervalls. Ein Zählintervall im Sinne der Erfindung kann z.B. eine bestimmte Anzahl von Wörtern oder Wortgruppen sein.
- In einer weiteren Ausgestaltung der Erfindung umfasst die Sprachausgabeschnittstelle ein mittels der ersten und der zweiten Sprache trainiertes Text-to-Speech-Modul zur Transformation eines Textbefehls in eine Sprachausgabe.
- In einer weiteren Ausgestaltung der Erfindung umfasst die Sprachausgabeschnittstelle eine Sprachausgabe-Datenbasis, in der ein wesentlicher Anteil der ausgebbaren Informationen in einer Version gemäß der Aussprache in der ersten Sprache und in einer Version gemäß der Aussprache in der zweiten Sprache gespeichert ist.
- Vorgenannte Aufgabe wird zudem durch ein – insbesondere eines oder mehrere der vorgenannten Merkmale umfassendes – Kraftfahrzeug mit einer Spracheingabeschnittstelle zur akustischen Eingabe von Befehlen zum Bedienen des Kraftfahrzeuges oder eines Moduls des Kraftfahrzeuges gelöst, wobei die Spracheingabeschnittstelle ein Sprachidentifikationsmodul zur Zuordnung der Aussprache eines eingegebenen Befehls und/oder Befehlsbestandteils zu einer Sprache umfasst.
- In einer weiteren Ausgestaltung der Erfindung umfasst das Kraftfahrzeug weiterhin eine Sprachausgabeschnittstelle zur akustischen Ausgabe von Informationen sowie – in einer weiteren Ausgestaltung der Erfindung – ein Sprachauswahlmodul zur automatischen Auswahl besagter Sprache als Sprache, in der die Ausgabe einer Information erfolgt.
- Vorgenannte Aufgabe wird zudem durch ein – insbesondere eines oder mehrere der vorgenannten Merkmale umfassendes – Kraftfahrzeug mit einer Sprachschnittstelle zur akustischen Ausgabe von Informationen gelöst, wobei die Sprachschnittstelle ein Sprachauswahlmodul zur automatischen Auswahl der Sprache umfasst, in der die Ausgabe einer Information erfolgt.
- In einer weiteren Ausgestaltung der Erfindung umfasst das Sprachauswahlmodul einen Zähler zum Zählen von Wörtern oder Bestandteilen eines eingegebenen Befehls unterschieden nach einer für einzelne Wörter oder Bestandteile verwendeten Sprache (insbesondere innerhalb eines Zählintervalls) sowie – in einer weiteren Ausgestaltung der Erfindung – einen Sprachschalter zur automatischen Auswahl der Sprache, in der die Ausgabe der Information erfolgt, in Abhängigkeit der Anzahl von einer für einzelne Wörter oder Bestandteile eines eingegebenen Befehls innerhalb eines Zählintervalls verwendeten Sprache.
- In einer weiteren Ausgestaltung der Erfindung umfasst die Sprachschnittstelle weiterhin ein mehrsprachig trainiertes Text-to-Speech-Modul zur Transformation eines Textbefehls in eine Sprachausgabe.
- In einer weiteren Ausgestaltung der Erfindung umfasst die Sprachschnittstelle weiterhin eine mehrsprachige Sprachausgabe-Datenbasis.
- Ein Kraftfahrzeug im Sinne der Erfindung ist insbesondere ein individuell im Straßenverkehr benutzbares Landfahrzeug. Kraftfahrzeuge im Sinne der Erfindung sind insbesondere nicht auf Landfahrzeuge mit Verbrennungsmotor beschränkt.
- Weitere Vorteile und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen.
-
1 zeigt ein Ausführungsbeispiel eines Kraftfahrzeuges mit einer Sprachschnittstelle zur akustischen Eingabe von Befehlen zum Bedienen des Kraftfahrzeuges oder eines Moduls des Kraftfahrzeuges sowie zur akustischen Ausgabe von Informationen; -
2 zeigt ein Ausführungsbeispiel einer Sprachschnittstelle gemäß1 ; -
3 zeigt ein Ausführungsbeispiel einer Spracheingabeschnittstelle; -
4 zeigt ein Ausführungsbeispiel einer Sprachausgabeschnittstelle; -
5 zeigt ein Ausführungsbeispiel einer Spracherkennungsdatenbasis; und -
6 zeigt ein Ausführungsbeispiel einer Sprachausgabe-Datenbasis. -
1 zeigt ein Ausführungsbeispiel eines Kraftfahrzeuges1 mit einer – detailliert in2 dargestellten – Sprachschnittstelle2 . Die Sprachschnittstelle2 ermöglicht in Verbindung mit einem Mikrofon4 einem Bediener6 eine akustische Eingabe von Befehlen zum Bedienen des Kraftfahrzeuges1 oder eines Moduls3 des Kraftfahrzeuges1 , wie z.B. eines Navigationssystems. Zudem kann mittels der Sprachschnittstelle2 in Verbindung mit einem Lautsprecher5 eine akustische Ausgabe von Informationen erfolgen. Bezugszeichen mic bezeichnet ein Ausgangssignal des Mikrofons4 . Bezugszeichen ci bezeichnet einen Eingabebefehl, der eine für das Kraftfahrzeug1 bzw. das Modul3 des Kraftfahrzeuges1 verarbeitbare Übersetzung des Ausgangssignals mic des Mikrofons4 ist. Bezugszeichen co bezeichnet eine Ausgabeinformation des Kraftfahrzeuges1 bzw. des Moduls3 des Kraftfahrzeuges1 . Bezugszeichen sp bezeichnet ein der Ausgabeinformation co entsprechendes Einsgangssignal für den Lautsprecher5 zur für den Bediener6 verständlichen akustischen Ausgabe des Ausgabeinformation co. - Die Sprachschnittstelle
2 umfasst eine – detailliert in3 dargestellte – Spracheingabeschnittstelle10 und eine – detailliert in4 dargestellte – Sprachausgabeschnittstelle20 . Die Spracheingabeschnittstelle10 umfasst eine – beispielhaft ausschnittsweise in5 dargestellte – Spracherkennungsdatenbasis24 , in der ein wesentlicher Anteil der eingebbaren Befehle oder Befehlsbestandteile in einer Version gemäß der Aussprache in einer ersten Sprache und in einer Version gemäß der Aussprache in zumindest einer zweiten Sprache gespeichert ist. So ist in dem in5 dargestellten Ausschnitt der Spracherkennungsdatenbasis24 die Ortsbezeichnung „Miranda Avenue" in einer englischen und in einer spanischen Aussprache gespeichert. - Die Spracheingabeschnittstelle
10 umfasst zudem eine Spracherkennungsmaschine21 zum automatischen Vergleichen eines akustischen Befehls in Form des Ausgangssignals mic des Mikrofons4 sowohl mit in der Spracherkennungsdatenbasis24 gespeicherten Befehlen und/oder Befehlsbestandteilen in der Version gemäß der Aussprache in der ersten Sprache als auch mit in der Spracherkennungsdatenbasis gespeicherten Befehlen und/oder Befehlsbestandteilen in der Version gemäß der Aussprache in der zweiten Sprache. Dazu werden mittels eines sowohl in der ersten Sprache als auch in der zweiten Sprache trainierten akustischen Modells22 zur Spracherkennung Sprachbestandteile in dem Ausgangssignal mic des Mikrofons4 identifiziert, die mittels eines mehrsprachigen Grammatikmoduls23 , das Grammatik und Redewendungen der ersten Sprache und der zweiten Sprache umfasst, in (phonetische) Befehlsbestandteile (z.B. einzelne Wörter oder Wortgruppen, wie z.B. „das Ziel ist" oder „Miranda Avenue") ge- bzw. zergliedert werden. - Die (phonetischen) Befehlsbestandteile werden mit den Einträgen der Spracherkennungsdatenbasis
24 , dass heißt in Bezug auf5 mit den Einträgen der rechten Spalte, verglichen. Ergibt sich z.B. eine Übereinstimmung mit dem Eintrag der zweiten Zeile in der rechten Spalte, so ermittelt die Spracherkennungsmaschine21 , dass von dem Bediener6 der Straßenname „Miranda Avenue" in englischer Aussprache eingegeben wurde. Die Spracherkennungsmaschine21 liefert in diesem Fall „Miranda Avenue" als Ausgabeinformation co sowie „englisch" als Ausgabeinformation Ing, die angibt, in welcher Sprache ein Befehlsbestandteil eingegeben worden ist. Die Spracherkennungsmaschine21 bildet dabei in Verbindung mit der Spracherkennungsdatenbasis24 ein Ausführungsbeispiel eines Sprachidentifikationsmoduls im Sinne der Ansprüche. - Die Spracheingabeschnittstelle
10 umfasst weiterhin ein, der ersten Sprache zugeordnetes, Grapheme-to-Phoneme-Modul25 zur Erzeugung eines neuen Eintrags in die Spracherkennungsdatenbasis24 für ein neues Wort oder einen neuen Namen in der ersten Sprache sowie ein, der zweiten Sprache zugeordnetes, Grapheme-to-Phoneme-Modul26 zur Erzeugung des neuen Eintrags in die Spracherkennungsdatenbasis24 für das neue Wort oder den neuen Namen in der zweiten Sprache. Einzelheiten in Bezug auf Grapheme-to-Phoneme-Verfahren können z.B. den in derDE 10 2004 055 609 A1 und in derDE 10 2004 061 782 A1 zitierten Quellen, wie z.B. dem auf der Internetseite www.speech.kth.se/qpsr/tmh/2002/02-44-117-120.pdf veröffentlichten Artikel "Grapheme-to-Phoneme conversion, a knowledge-based approach" von Niklas Torstensson, Dept. of Languages, Högskolan i Skövde, TMH-QPSR Vol. 44 – Fonetik 2002, entnommen werden. - Die in
4 dargestellte Sprachausgabeschnittstelle20 umfasst einen Zähler31 zum Zählen von Wörtern oder Bestandteilen eines eingegebenen Befehls unterschieden nach einer Verwendung der ersten und der zweiten Sprache für einzelne Wörter oder Bestandteile eines eingegebenen Befehls innerhalb eines Zählintervalls. Die Sprachausgabeschnittstelle20 umfasst zudem einen von dem Zähler31 gesteuerten Sprachschalter32 zur automatischen Auswahl der ersten oder der zweiten Sprache zur Ausgabe der Information in Abhängigkeit der Anzahl von Wörtern oder Bestandteilen des eingegebenen Befehls in der ersten und der zweiten Sprache innerhalb des Zählintervalls. Wurde z.B. die Mehrzahl der Worte oder Bestandteile des eingegebenen Befehls oder mehrerer Befehle innerhalb eines Zählintervalls Spanisch ausgesprochen, so wird mittels des Sprachschalters32 eingestellt, dass eine Bestätigung oder Antwort in Spanisch erfolgt. Der Zähler31 und der Sprachschalter32 bilden ein Ausführungsbeispiel eines Sprachauswahlmoduls im Sinne der Ansprüche. - Gibt der Bediener
6 z.B. die Anweisung „Dial cuatro siete seis dos ocha cinco siete" so liefert die Spracheingabeschnittstelle10 „Wähle die Telefonnummer 4762857" als Eingabebefehl ci und „Englisch Spanisch Spanisch Spanisch Spanisch Spanisch Spanisch Spanisch" als Ausgabeinformation Ing. Der Zähler31 ermittelt einmal „Englisch" und sieben mal „Spanisch" und steuert den Sprachschalter32 derart, dass eine Eingabebestätigung in Spanisch ausgegeben wird. - Die Sprachausgabeschnittstelle
20 umfasst hinter dem Sprachschalter32 angeordnete Übersetzungsmodule33 bzw.34 zur Übersetzung der Ausgabeinformation co in die erste bzw. die zweite Sprache. Lautet der Inhalt der Ausgabeinformation co z.B. „Eingabebestätigung", so wird diese in beispielhafter Ausgestaltung mittels des Übersetzungsmoduls33 in „thanks" bzw. mittels des Übersetzungsmoduls34 in „gracias" gewandelt. Die entsprechende Übersetzung, für den Fall, dass die Bestätigung in Spanisch erfolgt, „gracias", ist ein Textbefehl und wird mittels eines mittels der ersten und der zweiten Sprache trainierten Text-to-Speech-Moduls39 zur Sprachausgabe in ein Einsgangssignal sp für den Lautsprecher5 transformiert. Dazu sind eine – beispielhaft ausschnittsweise in6 dargestellte – Sprachausgabe-Datenbasis37 , in der zumindest ein wesentlicher Anteil der ausgebbaren Informationen in einer Version gemäß der Aussprache in der ersten Sprache und in einer Version gemäß der Aussprache in der zweiten Sprache gespeichert ist, sowie eine mehrsprachige Stimme38 vorgesehen. - Zur Ergänzung der Sprachausgabe-Datenbasis
37 mit neuen Einträgen sind ein, der ersten Sprache zugeordnetes, Grapheme-to-Phoneme-Modul35 und ein, der zweiten Sprache zugeordnetes, Grapheme-to-Phoneme-Modul36 vorgehen. - Obwohl – aus Gründen der Übersichtlichkeit – nur in Verbindung mit zwei Sprachen beschrieben, soll die Erfindung nicht auf ein zweisprachiges System beschränkt sein. Vielmehr soll die Erfindung insbesondere in Verbindung mit mehr als zwei Sprachen eingesetzt werden.
-
- 1
- Kraftfahrzeug
- 2
- Sprachschnittstelle
- 3
- Modul eines Kraftfahrzeuges
- 4
- Mikrofon
- 5
- Lautsprecher
- 6
- Bediener
- 10
- Spracheingabeschnittstelle
- 20
- Sprachausgabeschnittstelle
- 21
- Spracherkennungsmaschine
- 22
- akustisches Modell zur Spracherkennung
- 23
- Grammatikmodul
- 24
- Spracherkennungsdatenbasis
- 25, 26, 35, 36
- Grapheme-to-Phoneme-Modul
- 31
- Zähler
- 32
- Sprachschalter
- 33, 34
- Übersetzungsmodul
- 37
- Sprachausgabe-Datenbasis
- 38
- mehrsprachige Stimme
- 39
- Text-to-Speech-Modul
- ci
- Eingabebefehl
- co
- Ausgabeinformation
- Ing
- Ausgabeinformation, die angibt, in welcher Sprache ein Befehlsbestandteil eingegeben worden ist
- mic
- Ausgangssignal eines Mikrofons
- sp
- Einsgangssignal für einen Lautsprecher
Claims (21)
- Kraftfahrzeug mit einer Sprachschnittstelle zur akustischen Eingabe von Befehlen zum Bedienen des Kraftfahrzeuges oder eines Moduls des Kraftfahrzeuges, die Sprachschnittstelle umfassend: eine Spracherkennungsdatenbasis, in der ein wesentlicher Anteil der eingebbaren Befehle oder Befehlsbestandteile in einer Version gemäß der Aussprache in einer ersten Sprache und in einer Version gemäß der Aussprache in zumindest einer zweiten Sprache gespeichert ist; und eine Spracherkennungsmaschine zum automatischen Vergleichen eines akustischen Befehls sowohl mit in der Spracherkennungsdatenbasis gespeicherten Befehlen und/oder Befehlsbestandteilen in der Version gemäß der Aussprache in der ersten Sprache als auch mit in der Spracherkennungsdatenbasis gespeicherten Befehlen und/oder Befehlsbestandteilen in der Version gemäß der Aussprache in der zweiten Sprache.
- Kraftfahrzeug nach Anspruch 1, die Sprachschnittstelle weiterhin umfassend: zumindest ein sowohl in der ersten Sprache als auch in der zweiten Sprache trainiertes akustisches Model zur Spracherkennung.
- Kraftfahrzeug nach Anspruch 1, die Sprachschnittstelle weiterhin umfassend: ein erstes, der ersten Sprache zugeordnetes, Grapheme-to-Phoneme-Modul zur Erzeugung eines neuen Eintrags in die Spracherkennungsdatenbasis für ein neues Wort oder einen neuen Namen.
- Kraftfahrzeug nach Anspruch 3, die Sprachschnittstelle weiterhin umfassend: ein zweites, der zweiten Sprache zugeordnetes, Grapheme-to-Phoneme-Modul zur Erzeugung des neuen Eintrags in die Spracherkennungsdatenbasis für das neue Wort oder den neuen Namen.
- Kraftfahrzeug nach Anspruch 1, die Sprachschnittstelle weiterhin umfassend: ein mehrsprachiges Grammatikmodul, das Grammatik und Redewendungen der ersten Sprache und der zweiten Sprache umfasst.
- Kraftfahrzeug nach Anspruch 1, die Sprachschnittstelle weiterhin umfassend: eine Sprachausgabeschnittstelle zur akustischen Ausgabe von Informationen.
- Kraftfahrzeug nach Anspruch 6, die Sprachausgabeschnittstelle umfassend: ein Sprachauswahlmodul zur automatischen Auswahl der ersten oder der zweiten Sprache zur Ausgabe einer Information.
- Kraftfahrzeug nach Anspruch 7, das Sprachauswahlmodul umfassend: einen Zähler zum Zählen von Wörtern oder Bestandteilen eines eingegebenen Befehls unterschieden nach einer Verwendung der ersten und der zweiten Sprache für einzelne Wörter oder Bestandteile.
- Kraftfahrzeug nach Anspruch 8, das Sprachauswahlmodul umfassend: einen Sprachschalter zur automatischen Auswahl der. ersten oder der zweiten Sprache zur Ausgabe der Information in Abhängigkeit der Anzahl von Wörtern oder Bestandteilen des eingegebenen Befehls in ersten und der zweiten Sprache innerhalb eines Zählintervalls.
- Kraftfahrzeug nach Anspruch 7, das Sprachauswahlmodul umfassend: einen Zähler zum Zählen von Wörtern oder Bestandteilen eines eingegebenen Befehls unterschieden nach einer Verwendung der ersten und der zweiten Sprache für einzelne Wörter oder Bestandteile innerhalb eines Zählintervalls.
- Kraftfahrzeug nach Anspruch 6, die Sprachausgabeschnittstelle umfassend: ein mittels der ersten und der zweiten Sprache trainiertes Text-to-Speech-Modul zur Transformation eines Textbefehls in eine Sprachausgabe.
- Kraftfahrzeug nach Anspruch 6, die Sprachausgabeschnittstelle umfassend: eine Sprachausgabe-Datenbasis, in der ein wesentlicher Anteil der ausgebbaren Informationen in einer Version gemäß der Aussprache in der ersten Sprache und in einer Version gemäß der Aussprache in der zweiten Sprache gespeichert ist.
- Kraftfahrzeug mit einer Spracheingabeschnittstelle zur akustischen Eingabe von Befehlen zum Bedienen des Kraftfahrzeuges oder eines Moduls des Kraftfahrzeuges, die Spracheingabeschnittstelle umfassend: ein Sprachidentifikationsmodul zur Zuordnung der Aussprache eines eingegebenen Befehls und/oder Befehlsbestandteils zu einer Sprache.
- Kraftfahrzeug nach Anspruch 13, das Kraftfahrzeug weiterhin umfassend: eine Sprachausgabeschnittstelle zur akustischen Ausgabe von Informationen.
- Kraftfahrzeug nach Anspruch 14, die Sprachausgabeschnittstelle umfassend: ein Sprachauswahlmodul zur automatischen Auswahl besagter Sprache als Sprache, in der die Ausgabe einer Information erfolgt.
- Kraftfahrzeug mit einer Sprachschnittstelle zur akustischen Ausgabe von Informationen, die Sprachschnittstelle umfassend: ein Sprachauswahlmodul zur automatischen Auswahl einer Sprache, in der die Ausgabe einer Information erfolgt.
- Kraftfahrzeug nach Anspruch 16, das Sprachauswahlmodul umfassend: einen Zähler zum Zählen von Wörtern oder Bestandteilen eines eingegebenen Befehls unterschieden nach einer für einzelne Wörter oder Bestandteile verwendeten Sprache.
- Kraftfahrzeug nach Anspruch 17, das Sprachauswahlmodul umfassend: einen Sprachschalter zur automatischen Auswahl der Sprache, in der die Ausgabe der Information erfolgt, in Abhängigkeit der Anzahl von einer für einzelne Wörter oder Bestandteile eines eingegebenen Befehls innerhalb eines Zählintervalls verwendeten Sprache.
- Kraftfahrzeug nach Anspruch 16, das Sprachauswahlmodul umfassend: einen Zähler zum Zählen von Wörtern oder Bestandteilen eines eingegebenen Befehls unterschieden nach einer für einzelne Wörter oder Bestandteile verwendeten Sprache innerhalb eines Zählintervalls.
- Kraftfahrzeug nach Anspruch 16, die Sprachschnittstelle weiterhin umfassend: ein mehrsprachig trainiertes Text-to-Speech-Modul zur Transformation eines Textbefehls in eine Sprachausgabe.
- Kraftfahrzeug nach Anspruch 16, die Sprachschnittstelle weiterhin umfassend: eine mehrsprachige Sprachausgabe-Datenbasis.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/595,113 | 2006-11-09 | ||
US11/595,113 US7873517B2 (en) | 2006-11-09 | 2006-11-09 | Motor vehicle with a speech interface |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102007052055A1 true DE102007052055A1 (de) | 2008-05-15 |
DE102007052055B4 DE102007052055B4 (de) | 2022-09-15 |
Family
ID=39277887
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102007052055.9A Active DE102007052055B4 (de) | 2006-11-09 | 2007-10-30 | Kraftfahrzeug mit einer Sprachschnittstelle |
Country Status (2)
Country | Link |
---|---|
US (1) | US7873517B2 (de) |
DE (1) | DE102007052055B4 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014214428A1 (de) * | 2014-07-23 | 2016-01-28 | Bayerische Motoren Werke Aktiengesellschaft | Verbesserung der Spracherkennung in einem Fahrzeug |
DE102017216571A1 (de) | 2017-09-19 | 2019-03-21 | Volkswagen Aktiengesellschaft | Kraftfahrzeug |
Families Citing this family (167)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
DE102006057159A1 (de) * | 2006-12-01 | 2008-06-05 | Deutsche Telekom Ag | Verfahren zur Klassifizierung der gesprochenen Sprache in Sprachdialogsystemen |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
KR101300839B1 (ko) * | 2007-12-18 | 2013-09-10 | 삼성전자주식회사 | 음성 검색어 확장 방법 및 시스템 |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8712776B2 (en) | 2008-09-29 | 2014-04-29 | Apple Inc. | Systems and methods for selective text to speech synthesis |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US9959870B2 (en) | 2008-12-11 | 2018-05-01 | Apple Inc. | Speech recognition involving a mobile device |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US20120311585A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Organizing task items that represent tasks to perform |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
EP2531999A4 (de) * | 2010-02-05 | 2017-03-29 | Nuance Communications, Inc. | Sprachkontextbewusstes befehlssystem und verfahren dafür |
US8700405B2 (en) * | 2010-02-16 | 2014-04-15 | Honeywell International Inc | Audio system and method for coordinating tasks |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
DE102012202391A1 (de) * | 2012-02-16 | 2013-08-22 | Continental Automotive Gmbh | Verfahren und Einrichtung zur Phonetisierung von textenthaltenden Datensätzen |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
DE212014000045U1 (de) | 2013-02-07 | 2015-09-24 | Apple Inc. | Sprach-Trigger für einen digitalen Assistenten |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
WO2014144949A2 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | Training an at least partial voice command system |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
DE112014002747T5 (de) | 2013-06-09 | 2016-03-03 | Apple Inc. | Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Ermöglichen einer Konversationspersistenz über zwei oder mehr Instanzen eines digitalen Assistenten |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
CN105265005B (zh) | 2013-06-13 | 2019-09-17 | 苹果公司 | 用于由语音命令发起的紧急呼叫的系统和方法 |
AU2014306221B2 (en) | 2013-08-06 | 2017-04-06 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US9640173B2 (en) | 2013-09-10 | 2017-05-02 | At&T Intellectual Property I, L.P. | System and method for intelligent language switching in automated text-to-speech systems |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
TWI594134B (zh) * | 2013-12-27 | 2017-08-01 | 緯創資通股份有限公司 | 提供輸入法的方法及其電子裝置 |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
EP3149728B1 (de) | 2014-05-30 | 2019-01-16 | Apple Inc. | Eingabeverfahren durch einzelne äusserung mit mehreren befehlen |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9536521B2 (en) * | 2014-06-30 | 2017-01-03 | Xerox Corporation | Voice recognition |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9606986B2 (en) | 2014-09-29 | 2017-03-28 | Apple Inc. | Integrated word N-gram and class M-gram language models |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US10199864B2 (en) * | 2015-01-20 | 2019-02-05 | Schweitzer Engineering Laboratories, Inc. | Multilingual power system protection device |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10872598B2 (en) | 2017-02-24 | 2020-12-22 | Baidu Usa Llc | Systems and methods for real-time neural text-to-speech |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK201770427A1 (en) | 2017-05-12 | 2018-12-20 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10896669B2 (en) | 2017-05-19 | 2021-01-19 | Baidu Usa Llc | Systems and methods for multi-speaker neural text-to-speech |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US11017761B2 (en) | 2017-10-19 | 2021-05-25 | Baidu Usa Llc | Parallel neural text-to-speech |
US10796686B2 (en) | 2017-10-19 | 2020-10-06 | Baidu Usa Llc | Systems and methods for neural text-to-speech using convolutional sequence learning |
US10872596B2 (en) | 2017-10-19 | 2020-12-22 | Baidu Usa Llc | Systems and methods for parallel wave generation in end-to-end text-to-speech |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
CN116959420A (zh) | 2018-04-16 | 2023-10-27 | 谷歌有限责任公司 | 自动地确定用于经由自动化助理接口接收的口头话语的语音辨识的语言 |
CN117392977A (zh) | 2018-04-16 | 2024-01-12 | 谷歌有限责任公司 | 自动确定通过自动化助理接口接收的口头话语的语音识别的语言 |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US11076039B2 (en) | 2018-06-03 | 2021-07-27 | Apple Inc. | Accelerated task performance |
US11049501B2 (en) * | 2018-09-25 | 2021-06-29 | International Business Machines Corporation | Speech-to-text transcription with multiple languages |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4036528B2 (ja) | 1998-04-27 | 2008-01-23 | 富士通株式会社 | 意味認識システム |
US6085160A (en) * | 1998-07-10 | 2000-07-04 | Lernout & Hauspie Speech Products N.V. | Language independent speech recognition |
US7292980B1 (en) * | 1999-04-30 | 2007-11-06 | Lucent Technologies Inc. | Graphical user interface and method for modifying pronunciations in text-to-speech and speech recognition systems |
JP4292646B2 (ja) * | 1999-09-16 | 2009-07-08 | 株式会社デンソー | ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体 |
US7203721B1 (en) | 1999-10-08 | 2007-04-10 | At Road, Inc. | Portable browser device with voice recognition and feedback capability |
US6272464B1 (en) * | 2000-03-27 | 2001-08-07 | Lucent Technologies Inc. | Method and apparatus for assembling a prediction list of name pronunciation variations for use during speech recognition |
JP3908437B2 (ja) * | 2000-04-14 | 2007-04-25 | アルパイン株式会社 | ナビゲーションシステム |
US6999932B1 (en) | 2000-10-10 | 2006-02-14 | Intel Corporation | Language independent voice-based search system |
US7181395B1 (en) * | 2000-10-27 | 2007-02-20 | International Business Machines Corporation | Methods and apparatus for automatic generation of multiple pronunciations from acoustic data |
EP1213706B1 (de) * | 2000-12-11 | 2006-07-19 | Sony Deutschland GmbH | Verfahren zur Online-Anpassung von Aussprachewörterbüchern |
EP1346342A1 (de) | 2000-12-20 | 2003-09-24 | Koninklijke Philips Electronics N.V. | Sprachgesteuertes einstellen einer interaktionssprache |
ES2281626T3 (es) * | 2002-01-17 | 2007-10-01 | Siemens Aktiengesellschaft | Procedimiento de funcionamiento de un reconocedor automatico de voz para el reconocimiento por voz, independiente del orador, de palabras en distintos idiomas y reconocedor automatico de voz. |
US7328155B2 (en) * | 2002-09-25 | 2008-02-05 | Toyota Infotechnology Center Co., Ltd. | Method and system for speech recognition using grammar weighted based upon location information |
US7149688B2 (en) * | 2002-11-04 | 2006-12-12 | Speechworks International, Inc. | Multi-lingual speech recognition with cross-language context modeling |
DE102004055609A1 (de) | 2003-12-23 | 2005-08-04 | Volkswagen Ag | Kommunikationssytem für ein Kraftfahrzeug |
DE602004010054T2 (de) * | 2004-01-19 | 2008-03-06 | Harman Becker Automotive Systems Gmbh | Betätigung eines Sprachdialogsystems |
US7415411B2 (en) * | 2004-03-04 | 2008-08-19 | Telefonaktiebolaget L M Ericsson (Publ) | Method and apparatus for generating acoustic models for speaker independent speech recognition of foreign words uttered by non-native speakers |
DE102004061782B4 (de) * | 2004-03-04 | 2015-05-07 | Volkswagen Ag | Kraftfahrzeug mit einem Instant-Messaging-Kommunikationssystem |
US20050273337A1 (en) * | 2004-06-02 | 2005-12-08 | Adoram Erell | Apparatus and method for synthesized audible response to an utterance in speaker-independent voice recognition |
KR100679042B1 (ko) * | 2004-10-27 | 2007-02-06 | 삼성전자주식회사 | 음성인식 방법 및 장치, 이를 이용한 네비게이션 시스템 |
EP1693828B1 (de) | 2005-02-21 | 2008-01-23 | Harman Becker Automotive Systems GmbH | Multilinguale Spracherkennung |
US7826945B2 (en) * | 2005-07-01 | 2010-11-02 | You Zhang | Automobile speech-recognition interface |
-
2006
- 2006-11-09 US US11/595,113 patent/US7873517B2/en active Active
-
2007
- 2007-10-30 DE DE102007052055.9A patent/DE102007052055B4/de active Active
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014214428A1 (de) * | 2014-07-23 | 2016-01-28 | Bayerische Motoren Werke Aktiengesellschaft | Verbesserung der Spracherkennung in einem Fahrzeug |
CN106104676A (zh) * | 2014-07-23 | 2016-11-09 | 宝马股份公司 | 在车辆中的语音识别的改进 |
DE102017216571A1 (de) | 2017-09-19 | 2019-03-21 | Volkswagen Aktiengesellschaft | Kraftfahrzeug |
WO2019057580A1 (de) | 2017-09-19 | 2019-03-28 | Volkswagen Aktiengesellschaft | Kraftfahrzeug |
DE102017216571B4 (de) | 2017-09-19 | 2022-10-06 | Volkswagen Aktiengesellschaft | Kraftfahrzeug |
US11530930B2 (en) | 2017-09-19 | 2022-12-20 | Volkswagen Aktiengesellschaft | Transportation vehicle control with phoneme generation |
Also Published As
Publication number | Publication date |
---|---|
US7873517B2 (en) | 2011-01-18 |
US20080114598A1 (en) | 2008-05-15 |
DE102007052055B4 (de) | 2022-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102007052055A1 (de) | Kraftfahrzeug mit einer Sprachschnittstelle | |
EP1927980B1 (de) | Verfahren zur Klassifizierung der gesprochenen Sprache in Sprachdialogsystemen | |
EP1466317B1 (de) | Betriebsverfahren eines automatischen spracherkenners zur sprecherunabhängigen spracherkennung von worten aus verschiedenen sprachen und automatischer spracherkenner | |
DE19709518C5 (de) | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb | |
DE60016722T2 (de) | Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars | |
EP1892700A1 (de) | Verfahren zur Spracherkennung und Sprachwiedergabe | |
WO1998010413A1 (de) | Sprachverarbeitungssystem und verfahren zur sprachverarbeitung | |
DE19847419A1 (de) | Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äußerung | |
DE102006036338A1 (de) | Verfahren zum Erzeugen einer kontextbasierten Sprachdialogausgabe in einem Sprachdialogsystem | |
EP2176858A1 (de) | Verfahren zur spracherkennung | |
DE102005030380B4 (de) | Verfahren zur Ermittlung einer Hypothesenliste aus einem Vokabular eines Spracherkennungssystems | |
DE60220763T2 (de) | Automatisches dialogsystem mit einem datenbankbasierten sprachmodell | |
EP1134726A1 (de) | Verfahren zur Erkennung von Sprachäusserungen nicht-muttersprachlicher Sprecher in einem Sprachverarbeitungssystem | |
EP3152753A1 (de) | Assistenzsystem, das mittels spracheingaben steuerbar ist, mit einer funktionseinrichtung und mehreren spracherkennungsmodulen | |
WO2001086634A1 (de) | Verfahren zum erzeugen einer sprachdatenbank für einen zielwortschatz zum trainieren eines spracherkennungssystems | |
DE60029456T2 (de) | Verfahren zur Online-Anpassung von Aussprachewörterbüchern | |
EP2006835B1 (de) | Verfahren zur Ermittlung einer Hypothesenliste aus einem Vokabular eines Spracherkennungssystems | |
DE60219030T2 (de) | Verfahren zur mehrsprachigen Spracherkennung | |
DE102006056286B4 (de) | Verfahren zur Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug | |
DE10229207B3 (de) | Verfahren zur natürlichen Spracherkennung auf Basis einer Generativen Transformations-/Phrasenstruktur-Grammatik | |
DE102014010315B4 (de) | Computer-implementiertes Verfahren und Vorrichtung zur Verarbeitung von Spracheingaben | |
DE102015014206B4 (de) | Verfahren und Vorrichtung zum Auswählen eines Navigationsziels aus einer von mehreren Sprachregionen mittels Spracheingabe | |
EP2592623B1 (de) | Technik zur Ausgabe eines akustischen Signals mittels eines Navigationssystems | |
DE102015006662B4 (de) | Verfahren zum Konfigurieren einer Sprachbedieneinrichtung | |
DE102008024185A1 (de) | System zur Unterstützung in einer Notruf-Leitstelle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OR8 | Request for search as to paragraph 43 lit. 1 sentence 1 patent law | ||
8105 | Search report available | ||
R012 | Request for examination validly filed |
Effective date: 20140118 |
|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G10L0013080000 Ipc: G10L0015220000 |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |