DE102009017177A1 - Spracherkennungsanordnung zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges - Google Patents

Spracherkennungsanordnung zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges Download PDF

Info

Publication number
DE102009017177A1
DE102009017177A1 DE102009017177A DE102009017177A DE102009017177A1 DE 102009017177 A1 DE102009017177 A1 DE 102009017177A1 DE 102009017177 A DE102009017177 A DE 102009017177A DE 102009017177 A DE102009017177 A DE 102009017177A DE 102009017177 A1 DE102009017177 A1 DE 102009017177A1
Authority
DE
Germany
Prior art keywords
speech recognition
motor vehicle
recognition system
board
meaning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102009017177A
Other languages
English (en)
Other versions
DE102009017177B4 (de
Inventor
Rohit Mountain View Mishra
Edward Palo Alto Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Volkswagen AG
Original Assignee
Audi AG
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/108,264 external-priority patent/US20090271106A1/en
Application filed by Audi AG, Volkswagen AG filed Critical Audi AG
Publication of DE102009017177A1 publication Critical patent/DE102009017177A1/de
Application granted granted Critical
Publication of DE102009017177B4 publication Critical patent/DE102009017177B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)

Abstract

Die Erfindung betrifft eine Spracherkennungsanordnung (1) zur akustischen Bedienung einer Funktion egsanordnung (1) ein in dem Kraftfahrzeug (2) angeordnetes Mikrofon zur Eingabe eines Sprachbefehls, eine in dem Kraftfahrzeug (2) angeordnete Datenbasis (270), in der phonetischen Repräsentationen von Sprachbefehlen jeweils zumindest eine Bedeutung zugeordnet ist, und ein in dem Kraftfahrzeug (2) angeordnetes on-board-Spracherkennungssystem (27) zur Ermittlung einer Bedeutung des Sprachbefehls unter Verwendung einer in der Datenbasis (270) gespeicherten Bedeutung einer phonetischen Repräsentation eines Sprachbefehls umfasst, wobei die Spracherkennungsanordnung (1) zudem ein räumlich von dem Kraftfahrzeug (2) getrenntes off-board-Spracherkennungssystem (10), Ermittlung einer Bedeutung des Sprachbefehls und ein Kommunikationssystem zur Übertragung eines Sprachbefehls von dem Kraftfahrzeug (2) an das off-board-Spracherkennungssystem (10) und zur Übertragung der von dem off-board-Spracherkennungssystem (10) ermittelten Bedeutung des an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls sowie insbesondere einer dem Sprachbefehl zugeordneten phonetischen Repräsentation von dem off-board-Spracherkennungssystem (10) an das Kraftfahrzeug (2) aufweist, und wobei die phonetische Repräsentation des an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls zusammen mit seiner von dem ...

Description

  • Die Erfindung betrifft eine Spracherkennungsanordnung zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges.
  • Die DE 199 42 869 A1 offenbart eine Einrichtung zum Betrieb einer sprachgesteuerten Einrichtung bei Kraftfahrzeugen, wobei Sprachbefehle über Sprachmustervergleich einer Gerätefunktion im Kraftfahrzeug zugewiesen werden, wobei zusätzlich zu vorgegebenen sprachbefehlsauslösbaren Funktionen durch Ad-hoc-Generierungen und -Zuweisungen von neuen Sprachmustern ad hoc neue Funktionen ermöglicht werden, und wobei diese Ad-hoc-Generierungen durch adaptive Transkription vorgenommen werden. Dabei kann in einer Ausgestaltung vorgesehen sein, dass Sprachmuster von extern, beispielsweise über die Telematikdienste oder World Wide Web, gesendet und im Fahrzeug empfangen werden können, so dass das bordeigene System durch den besagten Zugriff nach Extern ”hinzulernen” kann.
  • Die DE 10 2006 006 551 A1 offenbart ein System zum Bereitstellen von Sprachdialoganwendungen auf mobilen Endgeräten mit einem Server zum Erzeugen mindestens einer Sprachdialoganwendung, die eine in einer Beschreibungssprache programmierte formale Beschreibung eines Sprachdialogs und Sprachmodelle für Dialogschritte des Sprachdialogs aufweist und einem Rundfunksender, welcher die erzeugten Sprachdialoganwendungen digital am Rundfunkempfänger von mobilen Endgeräten, die sich in seinem Sendegebiet befinden, ausstrahlt.
  • Die DE 10 2004 059 372 A1 offenbart ein Navigationssystem mit einer Fahrzeugeinbaueinheit, einem Sprachkonversationsdokument-Erzeugungsserver und einem Informationsauffindeserver.
  • Die EP 1 417 456 B1 offenbart ein Telekommunikationsdienstportal, welches mit zumindest einem Mobiltelekommunikationsnetz verbunden ist, und welches zumindest einen Streckennavigationsserver aufweist, der an eine Spracherkennungsschnittstelle angeschlossen ist, um Realzeitführungsinformationen in Antwort auf einen Zielort zu liefern, der ihm durch den Benutzer mit Hilfe eines an das Netz angeschlossenen Telekommunikationsterminals mitgeteilt worden ist, wobei der Navigationsserver Vorrichtungen zur akustischen Analyse des empfangenen Signals aufweist.
  • Die GB 2 368 441 A offenbart ein Voice-to-Voice-Datenhandhabungssystem mit mehreren mobilen, z. B. fahrzeuggestützten, Teilsystemen, die über individuelle GSM- und GPRS-Einrichtungen mit einem abgesetzten Internetserver verbunden sind, wobei jedes Teilsystem eine Freisprecheinrichtung mit einem Mikrofon und einem Lautsprecher sowie eine Einrichtung aufweist, die dazu geeignet ist, einen begrenzten Bereich einfacher vorprogrammierter Sprachbefehle zu erkennen und andernfalls den Befehl an den Server zu übertragen.
  • Die EP 1 341 363 A1 offenbart ein System als Schnittstelle zwischen einem in einem Fahrzeug angeordneten On-Board-Gerät und einem extern vom Fahrzeug angeordneten Sprachportalserver mit einem Sprachkommunikator und einem Datenkommunikator, die im Fahrzeug angeordnet sind, wobei das On-Board-Gerät elektronisch mit dem Sprachkommunikator und/oder dem Datenkommunikator kommuniziert, die dazu geeignet sind, drahtlos mit einer Basisstation zu kommunizieren, und wobei die Basisstation elektronisch mit dem Sprachportalserver kommuniziert.
  • Die EP 1 739 546 A2 offenbart ein Kraftfahrzeugsystem zum Bereitstellen einer integrierten Benutzerschnittstelle für Steuer- und Kommunikationsfunktionen in einem Automobil oder einem andersartigen Fahrzeug, wobei die Benutzerschnittstelle sprachaktivierte Wechselwirkungen sowie andersartige Wechselwirkungen unterstützt, wie beispielsweise manuelle Wechselwirkungen unter Verwendung von Steuerungen, wie beispielsweise armaturenbrett- oder lenkradmontierte Steuerungen, wobei das System außerdem Schnittstellen zu Geräten im Fahrzeug aufweist, z. B. drahtlose Schnittstellen zu mobilen Geräten, die in das Fahrzeug eingebracht werden, und wobei das System außerdem Schnittstellen zu Informationsquellen bereitstellt, z. B. zu einem abgesetzten Server, um einen Zugriff auf Information zu ermöglichen.
  • Es ist Aufgabe der Erfindung, die Spracherkennung in einem Kraftfahrzeug zu verbessern. Es ist weiterhin Aufgabe der Erfindung, die Leistung einer Spracherkennung in einem Kraftfahrzeug bei beschränkt verfügbarem Zugang zu einer drahtlosen Kommunikationsverbindung zu verbessern. Es ist weiterhin Aufgabe der Erfindung, die Bandbreite einer drahtlosen Kommunikationsverbindung zu einem Kraftfahrzeug effizienter zu nutzen.
  • Vorgenannte Aufgabe wird durch eine Spracherkennungsanordnung zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges gelöst, wobei die Spracherkennungsanordnung ein in dem Kraftfahrzeug angeordnetes Mikrofon zur Eingabe eines Sprachbefehls, eine in dem Kraftfahrzeug angeordnete Datenbasis, in der phonetischen Repräsentationen von Sprachbefehlen jeweils zumindest eine Bedeutung zugeordnet ist, und ein in dem Kraftfahrzeug angeordnetes on-board-Spracherkennungssystem zur, z. B. von der Position des Kraftfahrzeuges oder einer gewählten Position abhängigen, Ermittlung einer Bedeutung des Sprachbefehls unter Verwendung einer in der Datenbasis gespeicherten Bedeutung einer phonetischen Repräsentation eines Sprachbefehls umfasst, wobei die Spracherkennungsanordnung zudem ein räumlich von dem Kraftfahrzeug getrenntes off-board-Spracherkennungssystem Ermittlung einer Bedeutung des Sprachbefehls und ein Kommunikationssystem zur Übertragung eines Sprachbefehls von dem Kraftfahrzeug an das off-board-Spracherkennungssystem und zur Übertragung der von dem off-board-Spracherkennungssystem ermittelten Bedeutung des an das off-board-Spracherkennungssystem übertragenen Sprachbefehls sowie insbesondere einer dem Sprachbefehl zugeordneten phonetische Repräsentation von dem off-board-Spracherkennungssystem an das Kraftfahrzeug aufweist, und wobei die phonetische Repräsentation des an das off-board-Spracherkennungssystem übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem ermittelten Bedeutung in der Datenbasis speicherbar ist.
  • Eine Funktion eines Kraftfahrzeuges ist im Sinne der Erfindung insbesondere eine Auswahl und/oder Suche eines (Ziel)Ortes und/oder einer Information.
  • Eine Bedeutung eines Sprachbefehls kann im Sinne der Erfindung eine Bedeutung im engeren Sinne sein. So kann z. B. die Bedeutung des Sprachbefehls „Indisches Restaurant Satkar” „Indisches Restaurant Satkar” sein. Eine Bedeutung eines Sprachbefehls kann im Sinne der Erfindung auch ein der Bedeutung des Sprachbefehls im engeren Sinne zugeordnetes Ergebnis sein. So kann z. B. die Bedeutung des Sprachbefehls „Indisches Restaurant” unter anderem „Indisches Restaurant Satkar” sein. In diesem Sinne kann eine phonetische Repräsentation eines Sprachbefehls im Sinne der Erfindung eine phonetische Repräsentation des eigentlichen Sprachbefehls und/oder eine phonetische Repräsentation des dem Sprachbefehl zugeordneten Ergebnisses sein. Die phonetische Repräsentation des an das off-board-Spracherkennungssy stem übertragenen Sprachbefehls kann eine von dem off-board-Spracherkennungssystem ermittelte und an das Kraftfahrzeug übertragene phonetische Repräsentation sein.
  • Zusammen gespeichert bzw. zusammen speicherbar soll im Sinne der Erfindung bedeuten, dass die entsprechenden Daten einander zugeordnet gespeichert sind.
  • In einer Ausgestaltung der Erfindung ist eine der Bedeutung des Sprachbefehls zugeordnete Position von dem off-board-Spracherkennungssystem an das Kraftfahrzeug übertragbar. Eine Position im Sinne der Erfindung kann eine Position im engeren Sinne sein. Eine Position im Sinne der Erfindung kann jedoch insbesondere ein bestimmtes Gebiet umfassen, dem eine Bedeutung oder ein Suchergebnis zugeordnet ist. So kann eine Position im Sinne der Erfindung eine Stadt oder einen Bundesstaat umfassen. Eine Position im Sinne der Erfindung kann jedoch auch ein Gebiet einer bestimmten Postleitzahl oder ein mehrere Städte umfassendes Gebiet umfassen. Eine Position im Sinne der Erfindung kann jedoch auch ein Gebiet umfassen, das durch einen Kreis (insbesondere mit einem vorbestimmten Radius) um einen bestimmten Punkt definiert ist. In Bezug auf ein Restaurant kann zum Beispiel eine Position im Sinne der Erfindung eine Stadt umfassen, in der das Restaurant liegt. Eine zugeordnete Position im Sinne der Erfindung ist insbesondere ein als Position bezeichnetes Gebiet, in dem das Ergebnis einer Suche liegt.
  • In einer weiteren Ausgestaltung der Erfindung ist die phonetische Repräsentation des an das off-board-Spracherkennungssystem übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem ermittelten Bedeutung und der oder einer der Bedeutung zugeordneten Position in der Datenbasis speicherbar. In einer weiteren Ausgestaltung der Erfindung umfasst die Spracherkennungsanordnung ein in dem Kraftfahrzeugangeordnetes Navigationssystem zur Bestimmung der Position des Kraftfahrzeuges.
  • Vorgenannte Aufgabe wird zudem durch ein Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges gelöst, wobei ein Sprachbefehl mittels eines in dem Kraftfahrzeug angeordneten Mikrofons eingegeben wird, wobei mittels eines in dem Kraftfahrzeug angeordneten on-board-Spracherkennungssystems versucht wird, eine Bedeutung des Sprachbefehls unter Verwendung einer in dem Kraftfahrzeug angeordneten Datenbasis zu ermitteln, in der phonetischen Repräsentationen von Sprachbefehlen jeweils zumindest eine Bedeutung zugeordnet ist, wobei der Sprachbefehl von dem Kraftfahrzeug an ein off-board-Spracherkennungssystem übertragen wird, jedoch insbesondere nur dann, wenn die Bedeutung des Sprachbefehls nicht mittels des on-board-Spracherkennungssystems ermittelt werden konnte, wobei eine von dem off-board-Spracherkennungssystem ermittelte Bedeutung des an das off-board-Spracherkennungssystem übertragenen Sprachbefehls sowie insbesondere eine dieser Bedeutung zugeordnete Position von dem off-board-Spracherkennungssystem an das Kraftfahrzeug übertragen werden, wobei die phonetische Repräsentation des an das off-board-Spracherkennungssystem übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem ermittelten Bedeutung in der Datenbasis gespeichert werden, und wobei die Funktion des Kraftfahrzeuges gemäß der ermittelten Bedeutung des Sprachbefehls bedient bzw. ausgeführt wird.
  • In einer Ausgestaltung der Erfindung wird die phonetische Repräsentation des an das off-board-Spracherkennungssystem übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem ermittelten Bedeutung und der oder einer der Bedeutung zugeordneten Position in der Datenbasis gespeichert. In einer weiteren Ausgestaltung der Erfindung wird die Position des Kraftfahrzeuges bestimmt. In einer weiteren Ausgestaltung der Erfindung wird die Bedeutung des Sprachbefehls mittels des on-board-Spracherkennungssystems in Abhängigkeit der Position des Kraftfahrzeuges ermittelt.
  • Vorgenannte Aufgabe wird zudem durch ein Kraftfahrzeug mit einem Mikrofon zur Eingabe eines Sprachbefehls gelöst, wobei das Kraftfahrzeug eine Datenbasis, in der phonetischen Repräsentationen von Sprachbefehlen jeweils zumindest eine Bedeutung und eine Position zugeordnet ist, und ein on-board-Spracherkennungssystem zur, insbesondere von der Position des Kraftfahrzeuges abhängigen, Ermittlung einer Bedeutung des Sprachbefehls unter Verwendung einer in der Datenbasis gespeicherten Bedeutung einer phonetischen Repräsentation eines Sprachbefehls umfasst.
  • In einer Ausgestaltung der Erfindung weist das Kraftfahrzeug eine Schnittstelle für einen drahtlosen Zugriff auf ein räumlich von dem Kraftfahrzeug getrenntes off-board-Spracherkennungssystem auf. In einer weiteren Ausgestaltung der Erfindung ist die phonetische Repräsentation eines an das off-board-Spracherkennungssystem übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem ermittelten Bedeutung und einer der Bedeutung zugeordneten Position in der Datenbasis gespeichert. In einer weiteren Ausgestaltung der Erfindung ist eine Funktion des Kraftfahrzeuges gemäß der mittels des off-board-Spracherkennungssystems ermittelten Bedeutung des Sprachbefehls bedienbar bzw. ausführbar.
  • Kraftfahrzeug im Sinne der Erfindung ist insbesondere ein individuell im Straßenverkehr benutzbares Landfahrzeug. Kraftfahrzeuge im Sinne der Erfindung sind insbesondere nicht auf Landfahrzeuge mit Verbrennungsmotor beschränkt.
  • Weitere Vorteile und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen. Dabei zeigen:
  • 1 ein Ausführungsbeispiel einer Spracherkennungsanordnung zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges,
  • 2 ein Ausführungsbeispiel eines Kraftfahrzeuges,
  • 3 ein Ausführungsbeispiel einer Datenbasis und
  • 4 ein Ausführungsbeispiel eines Verfahrens zur Bedienung eines Kraftfahrzeuges.
  • 1 zeigt ein Ausführungsbeispiel einer Spracherkennungsanordnung 1 zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges 2. Die Spracherkennungsanordnung 1 umfasst ein außerhalb des Kraftfahrzeuges 2 angeordnetes off-board-Spracherkennungssystem 10 zur Ermittlung einer Bedeutung eines Sprachbefehls. Die Spracherkennungsanordnung 1 umfasst ferner eine drahtlose Internetverbindung zwischen dem Kraftfahrzeug 2 und dem off-board-Spracherkennungssystem 10, über die ein Sprachbefehl von dem Kraftfahrzeug 2 an das off-board-Spracherkennungssystem 10 und eine von dem off-board-Spracherkennungssystem 10 ermittelten Bedeutung des an das off-board-Spracherkennungssystem 10 übertragenen Sprachbefehls von dem off-board-Spracherkennungssystem 10 an das Kraftfahrzeug 2 übertragen wird. Zur Implementierung der drahtlosen Internetverbindung ist eine drahtlose Kommunikationsverbindung 7 zwischen dem Kraftfahrzeug 2 und einem Kommunikationsknoten 12 zur Verbindung ins Internet 15 vorgesehen. Die drahtlose Kommunikationsverbindung 7 ist insbesondere ein WLAN. Es kann aber auch vorgesehen sein, dass eine drahtlose Kommunikationsverbindung 7 als WIFI-Verbindung, WIMAXI-Verbindung, RFI-Verbindung, Mobilfunk-Verbindung etc. implementiert ist. Es kann auch vorgesehen sein, dass – abhängig von bestimmten Kriterien – (automatisch) zwischen alternativen drahtlosen Kommunikationsverbindungen gewählt wird. Diese Kriterien sind z. B. Kosten, Verfügbarkeit und/oder Bandbreite etc.
  • 2 zeigt ein Ausführungsbeispiel einer beispielhaften Implementierung des Kraftfahrzeuges 2 in einer Prinzipdarstellung. Das Kraftfahrzeug 2 umfasst eine z. B. als Touchscreen mit einem Display ausgestaltete Mensch-Maschine-Schnittstelle 21. Dazu ist der Touchscreen 21 mittels einer Anzeigesteuerung 20 ansteuerbar, die mittels eines Bussystems 30 mit einer Internetschnittstelle 22 für die drahtlose Kommunikationsverbindung 7 verbunden ist. Die als Touchscreen ausgestaltete Mensch-Maschine-Schnittstelle 21 kann – gemäß dem vorliegenden Ausführungsbeispiel – auch zur Bedienung eines Infotainmentsystems 24, eines Telefons 25 oder einer Klimaautomatik 26 genutzt werden.
  • Das Kraftfahrzeug 2 umfasst ein in ein Navigationssystem 23 integriertes Ortungssystem zur Bestimmung der Position des Kraftfahrzeuges 2, zur Bestimmung der Ausrichtung des Kraftfahrzeuges 2 und/oder zur Bestimmung der on-board-Zeit in Abhängigkeit von von in 1 mit Bezugszeichen 3 bezeichneten Satelliten gesendeten Signalen. Mittels des Navigationssystems 23 ist ein Routenvorschlag für das Kraftfahrzeug 2 zu einem Ziel ermittelbar. Das Kraftfahrzeug 2 umfasst zudem ein Mikrofon 29 zur Eingabe von Sprachbefehlen, das über eine Sprachschnittstelle 28 mit dem Bussystem 30 gekoppelt ist, eine Datenbasis 270, in der – wie ausschnittsweise beispielhaft in 3 dargestellt – phonetischen Repräsentationen von Sprachbefehlen jeweils zumindest eine Bedeutung und eine Position zugeordnet ist, sowie ein on-board-Spracherkennungssystem 27 zur Ermittlung einer Bedeutung eines Sprachbefehls unter Verwendung einer in der Datenbasis 270 gespeicherten Bedeutung einer phonetischen Repräsentation eines Sprachbefehls. Es kann ferner ein Lautsprecher vorgesehen sein, der ebenfalls über die Sprachschnittstelle 28 mit dem Bussystem 30 gekoppelt sein kann.
  • 4 zeigt ein Ausführungsbeispiel eines Verfahrens zum Betrieb des Kraftfahrzeuges 2 bzw. der Spracherkennungsanordnung 1. Dabei werden zunächst in einem Schritt 41 die Einträge aus der Datenbasis 270 geladen, die derselben Position, also zum Beispiel der Position 1 zugeordnet sind. Dem Schritt 41 folgte eine Abfrage 42, ob ein Sprachbefehl eingegangen ist. Ist kein Sprachbefehl eingegangen, so erfolgt erneut Schritt 41. Ist jedoch ein Sprachbefehl eingegangen, so folgt der Abfrage 42 ein Schritt 43, in dem versucht wird, den Sprachbefehl mittels des on-board-Spracherkennungssystems 27 zu erkennen.
  • Dem Schritt 43 folgt eine Abfrage 44, ob der Sprachbefehl mittels des on-board-Spracherkennungssystems 27 erkannt wurde (auswertbar war). Wurde der Sprachbefehl mittels des on-board-Spracherkennungssystems 27 erkannt, so folgt der Abfrage 44 ein Schritt 45, in dem eine dem Sprachbefehl entsprechende Funktion des Kraftfahrzeuges ausgeführt wird. Dies kann zum Beispiel das Anzeigen oder Ausgeben einer Information (wie eines Zielortes) oder das Übertragen eines Zielortes in das Navigationssystem 23 umfassen. Dem Schritt 45 folgt wiederum der Schritt 41. Wurde der Sprachbefehl dagegen nicht mittels des on-board-Spracherkennungssystems 27 erkannt, so folgt der Abfrage 44 eine Abfrage 46, ob die Kommunikationsverbindung 7 verfügbar ist.
  • Ist die Kommunikationsverbindung 7 nicht verfügbar, so folgt der Abfrage 46 Schritt 41. Ist die Kommunikationsverbindung 7 dagegen verfügbar, so wird der Sprachbefehl an das off-board-Spracherkennungssystem 10 übertragen und von diesem in einem Schritt 47 ausgewertet. Das Ergebnis dieser Auswertung ist eine Bedeutung des Sprachbefehls, was eine Bedeutung im engeren Sinne als auch das Ergebnis einer durch die Bedeutung im engeren Sinne angestoßenen Suche sein kann. Die Bedeutung des Sprachbefehls (also die Bedeutung im engeren Sinne bzw. das Ergebnis) werden zusammen mit einer phonetischen Präsentation des Sprachbefehls und einer der Bedeutung zugeordneten Position, wie zum Beispiel einem Städtenamen und/oder einer Postleitzahl, an das Kraftfahrzeug 2 übertragen.
  • Es folgt ein Schritt 48, in dem der die Bedeutung des Sprachbefehls (also die Bedeutung im engeren Sinne bzw. das Ergebnis), die phonetische Präsentation des Sprachbefehls und der der Bedeutung zugeordneten Position umfassende Datensatz der Datenbasis 270 hinzugefügt wird. Darüber hinaus wird eine dem Sprachbefehl entsprechende Funktion des Kraftfahrzeuges ausgeführt.
  • Die Erfindung wird anhand der folgenden Beispiele näher erläutert: Es wird vorausgesetzt, dass ein Benutzer das Spracherkennungssystem aktiviert und die Phrase ”Indian Restaurant” spricht, wobei das Audiosignal im fahrzeugeigenen System erfasst und codiert und dann für eine Übertragung über ein IP-Netzwerk formattiert wird. Beispielhafte Verbindungsverfahren sind sitzungsorientierte TCP- oder HTTP-Anfragen in einem Webdienstmodell. Am Off-Board-Spracherkennungssystem 10 empfangene Audiodaten werden dann hinsichtlich verschiedenartiger Informationsteile verarbeitet, z. B. Worterkennung, Sprachverständnis und datengetriebene (data driven) Anpassung oder Abstimmung. Außerdem können die extrahierten Wortbedeutungen, um das Nachschlagen und Suchen von Information im Internet selbst zu ermöglichen, zu Informationsabrufdiensten (Information Retrieval Services) weitergeleitet werden (die im Sinn der Ansprüche Teil des Off-Board-Spracherkennungssystems sind). Schließlich wird eine Antwort in Form von Daten an das Fahrzeug übertragen. Die Antwort beinhaltet: (1) Spracherkennungsdarstellungen der Anfrage selbst, (2) den Ort der Suche, und (3) die gemäß der Suche erhaltenen kontextspezifischen Ergebnisse. Das lokale, fahrzeugeigene Spracherkennungssystem interpretiert diese Informationen, führt gegebenenfalls Formatumwandlungen aus und speichert alle drei Informationsteile in seinem lokalen Cache-Speicher (Datenbank 270). Wenn zukünftige Anfragen mit der Spracherkennungsdarstellung einer zuvor (in der Datenbank 270) gespeicherten Anfrage übereinstimmen und sich auf den gleichen Suchort beziehen wie die zuvor gespeicherte Anfrage, kann das System (On-Board-Spracherkennungssystem 27) die kontextspezifischen Ergebnisse für diese Anfrage zurücksenden, ohne dass irgendwelche Information über das Netzwerk übertragen wird, und ohne dass das Off-Board-Spracherkennungssystem 10 erforderlich ist. Dies kann nützlich sein, wenn das Netzwerk außer Betrieb ist, so dass das vernetzte Sprachsystem vorübergehend deaktiviert ist. Es ist auch nützlich, wenn schnellere Suchläufe, eine Bandbreiteneinsparung und/oder ein verminderter Serververarbeitungsaufwand erwünscht sind.
  • Eine in Tabelle 1 dargestellte beispielhafte Ergebnissatzdatendatei würde aufweisen: die phonetische Darstellung von ”Indian Restaurant” (die Anfrage), die Stadt ”Palo Alto, California” (den Ort) und eine Liste mit indischen Restaurants in Palo Alto, Kalifornien (den kontextspezifischen Ergebnissatz).
  • Figure 00090001
  • Im vorstehenden Beispiel wird die Aussprache von ”Indian Restaurant” der Grammatik des lokalen Spracherkennungssystems zusammen mit dem Ausdruck ”Palo Alto, California” hinzugefügt, der den Ort bezeichnet, in dem die Suche ausgeführt wurde. Das nächste Mal, wenn eine Suche ausgeführt wird, die mit der Aussprache ”Indian Restaurant” übereinstimmt und sich auf den Ort ”Palo Alto, California” bezieht (wenn sich das Fahrzeug beispielsweise in Palo Alto befindet), muss das System lediglich die gespeicherten kontextspezifischen Ergebnisse (von der Datenbank 270) zurücksenden.
  • Gemäß einem anderen Beispiel würde ein Benutzer das Spracherkennungssystem aktivieren und die Phrase ”Indian Food” sprechen. Das Audiosignal wird im fahrzeugeigenen System erfasst und codiert und dann für eine Übertragung über ein IP-Netzwerk formattiert. Beispielhafte Verbindungsverfahren sind sitzungsorientierte TCP- oder HTTP-Anfragen in einem Webdienstmodell. Am Off-Board-Spracherkennungssystem 10 empfangene Audiodaten werden dann hinsichtlich verschiedenartiger Informationsteile verarbeitet, z. B. Worterkennung, Sprachverständnis und datengetriebene (data driven) Anpassung oder Abstimmung. Außerdem können die extrahierten Wortbedeutungen, um das Nachschlagen und Suchen von Information im Internet selbst zu ermöglichen, zu Informationsabrufdiensten (Information Retrieval Services) weitergeleitet werden. Schließlich werden die Ergebnisse als Daten an das Fahrzeug übertragen (wie vorstehend erläutert wurde).
  • Die Ergebnisse beinhalten kontextspezifische Spracherkennungsdarstellungen von Wörtern und Phrasen vom Ergebnissatz. Das lokale fahrzeugeigene Spracherkennungssystem (On-Board-Spracherkennungssystem 27) interpretiert diese Information, führt gegebenenfalls Formatumwandlungen aus und fügt die spezifischen Wort- und Phrasendarstellungen für eine verfeinerte Suche seiner Grammatik hinzu. Das fahrzeugeigene System kann dann weitere Spracherkennungsfunktionen für eine verfeinerte Suche ausführen, die es dem Benutzer beispielsweise ermöglicht, kontextspezifische Wörter und Phrasen auszusprechen. Schließlich wird dem Benutzer die Gesamtergebnisinformation präsentiert. Eine beispielhafte Ergebnissatzdatendatei würde eine Liste indischer Restaurants und kontextspezifische Spracherfassungsdarstellungen geeigneter Namen vom Ergebnissatz aufweisen. Tabelle 2 zeigt ein Auflistungsbeispiel innerhalb des Ergebnissatzes.
  • Figure 00110001
  • Der Abschnitt ”<phonetic_format>basic</phonetic_format>” beschreibt das Format der phonetischen Darstellungen von Ergebniswörtern und -phrasen, die durch das Off-Board-Spracherkennungssystem 10 erzeugt werden. Die Abschnitte
    • – ”<phonetic string=”satkar” var=”1”>S AH T K AO R</phonetic>”
    • – ”<phonetic string=”satkar” var=”2”>S AA T K AA R</phonetic>” and
    • – ”<phonetic string=”los altos” var=”1”>L AA S | AE L T OW S</phonetic>”
    sind phonetische Darstellungen von Wörtern und Phrasen mit geeignetem Namen in einem Wörterbuchformat eines lokalen eingebetteten Spracherkennennungssystems (d. h. des On-Board-Spracherkennungssystems 27). Im vorstehenden Beispiel sind dem Wort ”Satkar” von der Liste mit der Bezeichnung ”Satkar Indian Cuisine” (”Indische Küche Satkar”) zwei mögliche Aussprachen zugeordnet, die das lokale eingebettete Spracherkennungssystem interpretieren kann. Die Wortphrase ”Los Altos” wird in Kombination mit einer Aussprache bereitgestellt. Das phonetische Transkriptionsformat ist als ”Basic” identifiziert. Beim Empfang dieser exemplarischen Ergebnisdatei zergliedert das lokale eingebettete Spracherkennungssystem (On-Board-Spracherkennungssystem 27) diese geeignet, fügt es seinem phonetischen Wörterbuch (in der Datenbank 270) hinzu und erstellt die kontextspezifische lokale Grammatik für einen nächsten Wechselwirkungsschritt mit dem System. An dieser Stelle würden die aussprechbaren Wörter alle oder Kombinationen der folgenden Wörter enthalten: ”Satkar Indian Cuisine” (”Indische Küche Satkar”) und ”Los Altos” (vorausgesetzt, dass ”Indian” (”Indisch”) und ”Cuisine” (”Küche”) bereits Teil eines lokalen Plain-English-Wörterbuchs sind).
  • Die folgende exemplarische Ausführungsform zeigt eine Gesamtübersicht einer Ende-zu-Ende-Suchaufgabe. Nach dem ersten Wechselwirkungsschritt, bei dem eine Sprachsuche bezüglich des IP-adressierbaren Servers ausgeführt wird, wird eine Grammatik in das lokale eingebettete Spracherkennungssystem geladen, die zum Erkennen von Sprachbefehlen für eine verfeinerte Suchaufgabe verwendet wird. Diese Grammatik beinhaltet nun kontextspezifische Wörter und Phrasen, wie beispielsweise ”Indische Küche Satkar” und ”Los Altos”. Sie könnte auch andere geeignete Namen und geeignete Teilnamen beinhalten, die mit einem Straßenort, einer Stadt und damit in Beziehung stehenden ”Schlüsselwörtern” in Beziehung stehen. Beim nächsten Wechselwirkungsschritt des Benutzers mit dem kombinierten Spracherkennungssystem kann das eingebettete System dann die aufgezeichnete Sprache unter Verwendung kontextspezifischer Wörter und Phrasen analysieren (bei mit der Liste übereinstimmenden Ergebnissen durch eine eingebettete G2P-Funktion oder Vernetzung), ohne dass für Sprachdienste eine erneute Kommunikation über das Netzwerk erforderlich ist.
  • 1
    Spracherkennungsanordnung
    2
    Kraftfahrzeug
    3
    Satellit
    7
    Kommunikationsverbindung
    10
    off-board-Spracherkennungssystem
    12
    Kommunikationsknoten
    15
    Internet
    16
    Terminal
    20
    Anzeigesteuerung
    21
    Mensch-Maschine-Schnittstelle
    22
    Internetschnittstelle
    23
    Navigationssystem
    24
    Infotainmentsystem
    25
    Telefon
    26
    Klimaautomatik
    27
    on-board-Spracherkennungssystem
    28
    Sprachschnittstelle
    29
    Mikrofon
    30
    Bussystem
    41, 43, 45, 47,
    48
    Schritt
    42, 44, 46
    Abfrage
    270
    Datenbasis
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - DE 19942869 A1 [0002]
    • - DE 102006006551 A1 [0003]
    • - DE 102004059372 A1 [0004]
    • - EP 1417456 B1 [0005]
    • - GB 2368441 A [0006]
    • - EP 1341363 A1 [0007]
    • - EP 1739546 A2 [0008]

Claims (12)

  1. Spracherkennungsanordnung (1) zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges (2), wobei die Spracherkennungsanordnung (1) ein in dem Kraftfahrzeug (2) angeordnetes Mikrofon zur Eingabe eines Sprachbefehls, eine in dem Kraftfahrzeug (2) angeordnete Datenbasis (270), in der phonetischen Repräsentationen von Sprachbefehlen jeweils zumindest eine Bedeutung zugeordnet ist, und ein in dem Kraftfahrzeug (2) angeordnetes on-board-Spracherkennungssystem (27) zur Ermittlung einer Bedeutung des Sprachbefehls unter Verwendung einer in der Datenbasis (270) gespeicherten Bedeutung einer phonetischen Repräsentation eines Sprachbefehls umfasst, wobei die Spracherkennungsanordnung (1) zudem ein räumlich von dem Kraftfahrzeug (2) getrenntes off-board-Spracherkennungssystem (10) Ermittlung einer Bedeutung des Sprachbefehls und ein Kommunikationssystem zur Übertragung eines Sprachbefehls von dem Kraftfahrzeug (2) an das off-board-Spracherkennungssystem (10) und zur Übertragung der von dem off-board-Spracherkennungssystem (10) ermittelten Bedeutung des an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls sowie insbesondere einer dem Sprachbefehl zugeordneten phonetische Repräsentation von dem off-board-Spracherkennungssystem (10) an das Kraftfahrzeug (2) aufweist, und wobei die phonetische Repräsentation des an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem (10) ermittelten Bedeutung in der Datenbasis (270) speicherbar ist.
  2. Spracherkennungsanordnung (1) nach Anspruch 1, dadurch gekennzeichnet, dass eine der Bedeutung des Sprachbefehls zugeordnete Position von dem off-board-Spracherkennungssystem (10) an das Kraftfahrzeug (2) übertragbar ist.
  3. Spracherkennungsanordnung (1) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die phonetische Repräsentation des an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem (10) ermittelten Bedeutung und der oder einer der Bedeutung zugeordneten Position in der Datenbasis (270) speicherbar ist.
  4. Spracherkennungsanordnung (1) nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, dass die Spracherkennungsanordnung (1) ein in dem Kraftfahrzeug (2) angeordnetes Navigationssystem zur Bestimmung der Position des Kraftfahrzeuges (2) umfasst.
  5. Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges (2), wobei ein Sprachbefehl mittels eines in dem Kraftfahrzeug (2) angeordneten Mikrofons eingegeben wird, wobei mittels eines in dem Kraftfahrzeug (2) angeordneten on-board-Spracherkennungssystems versucht wird, eine Bedeutung des Sprachbefehls unter Verwendung einer in dem Kraftfahrzeug (2) angeordneten Datenbasis (270) zu ermitteln, in der phonetischen Repräsentationen von Sprachbefehlen jeweils zumindest eine Bedeutung zugeordnet ist, wobei der Sprachbefehl von dem Kraftfahrzeug (2) an ein off-board-Spracherkennungssystem (10) übertragen wird, jedoch insbesondere nur dann, wenn die Bedeutung des Sprachbefehls nicht mittels des on-board-Spracherkennungssystems ermittelt werden konnte, wobei eine von dem off-board-Spracherkennungssystem (10) ermittelte Bedeutung des an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls sowie insbesondere eine dieser Bedeutung zugeordnete Position von dem off-board-Spracherkennungssystem (10) an das Kraftfahrzeug (2) übertragen werden, wobei die phonetische Repräsentation des an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem (10) ermittelten Bedeutung in der Datenbasis (270) gespeichert werden, und wobei die Funktion des Kraftfahrzeuges (2) gemäß der ermittelten Bedeutung des Sprachbefehls bedient bzw. ausgeführt wird.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die phonetische Repräsentation des an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem (10) ermittelten Bedeutung und der oder einer der Bedeutung zugeordneten Position in der Datenbasis (270) gespeichert wird.
  7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass die Position des Kraftfahrzeuges (2) bestimmt wird.
  8. Verfahren nach Anspruch 5, 6 oder 7, dadurch gekennzeichnet, dass die Bedeutung des Sprachbefehls mittels des on-board-Spracherkennungssystems in Abhängigkeit der Position des Kraftfahrzeuges (2) ermittelt wird.
  9. Kraftfahrzeug (2) mit einem Mikrofon (29) zur Eingabe eines Sprachbefehls, wobei das Kraftfahrzeug (2) eine Datenbasis (270), in der phonetischen Repräsentationen von Sprachbefehlen jeweils zumindest eine Bedeutung und eine Position zugeordnet ist, und ein on-board-Spracherkennungssystem (27) zur, insbesondere von der Position des Kraftfahrzeuges (2) abhängigen, Ermittlung einer Bedeutung des Sprachbefehls unter Verwendung einer in der Datenbasis (270) gespeicherten Bedeutung einer phonetischen Repräsentation eines Sprachbefehls umfasst.
  10. Kraftfahrzeug (2) nach Anspruch 9, dadurch gekennzeichnet, dass es eine Schnittstelle für einen drahtlosen Zugriff auf ein räumlich von dem Kraftfahrzeug (2) getrenntes off-board-Spracherkennungssystem (10) aufweist.
  11. Kraftfahrzeug (2) nach Anspruch 10, dadurch gekennzeichnet, dass die phonetische Repräsentation eines an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem (10) ermittelten Bedeutung und einer der Bedeutung zugeordneten Position in der Datenbasis (270) gespeichert ist.
  12. Kraftfahrzeug (2) nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass eine Funktion des Kraftfahrzeuges (2) gemäß der mittels des off-board-Spracherkennungssystems ermittelten Bedeutung des Sprachbefehls bedienbar bzw. ausführbar ist.
DE102009017177.0A 2008-04-23 2009-04-09 Spracherkennungsanordnung und Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges Active DE102009017177B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US12/108,264 US20090271106A1 (en) 2008-04-23 2008-04-23 Navigation configuration for a motor vehicle, motor vehicle having a navigation system, and method for determining a route
US12/108,264 2008-04-23
US12/410,430 US20090271200A1 (en) 2008-04-23 2009-03-24 Speech recognition assembly for acoustically controlling a function of a motor vehicle
US12/410,430 2009-03-24

Publications (2)

Publication Number Publication Date
DE102009017177A1 true DE102009017177A1 (de) 2009-10-29
DE102009017177B4 DE102009017177B4 (de) 2022-05-05

Family

ID=41112094

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102009017176A Pending DE102009017176A1 (de) 2008-04-23 2009-04-09 Navigationsanordnung für ein Kraftfahrzeug
DE102009017177.0A Active DE102009017177B4 (de) 2008-04-23 2009-04-09 Spracherkennungsanordnung und Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE102009017176A Pending DE102009017176A1 (de) 2008-04-23 2009-04-09 Navigationsanordnung für ein Kraftfahrzeug

Country Status (2)

Country Link
US (1) US20090271200A1 (de)
DE (2) DE102009017176A1 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009058151A1 (de) * 2009-12-12 2011-06-16 Volkswagen Ag Verfahren zum Betreiben eines Sprachdialogsystems mit semantischer Bewertung und Sprachdialogsystem dazu
DE102013012453B3 (de) * 2013-07-26 2014-10-16 Audi Ag Verfahren zum Betreiben eines Infotainment-Systems eines Kraftwagens und Infotainment-System für einen Kraftwagen
DE102013216427A1 (de) * 2013-08-20 2015-03-12 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zur fortbewegungsmittelbasierten Sprachverarbeitung
DE102013219649A1 (de) * 2013-09-27 2015-04-02 Continental Automotive Gmbh Verfahren und System zum Erstellen oder Ergänzen eines benutzerspezifischen Sprachmodells in einem mit einem Endgerät verbindbaren lokalen Datenspeicher
DE102014200570A1 (de) * 2014-01-15 2015-07-16 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Erzeugung eines Steuerungsbefehls
DE102015211101A1 (de) 2015-06-17 2016-12-22 Volkswagen Aktiengesellschaft Spracherkennungssystem sowie Verfahren zum Betreiben eines Spracherkennungssystems mit einer mobilen Einheit und einem externen Server
US9953643B2 (en) 2010-12-23 2018-04-24 Lenovo (Singapore) Pte. Ltd. Selective transmission of voice data

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8423353B2 (en) * 2009-03-25 2013-04-16 Microsoft Corporation Sharable distributed dictionary for applications
US9213776B1 (en) 2009-07-17 2015-12-15 Open Invention Network, Llc Method and system for searching network resources to locate content
US8868427B2 (en) * 2009-12-11 2014-10-21 General Motors Llc System and method for updating information in electronic calendars
US20110184740A1 (en) * 2010-01-26 2011-07-28 Google Inc. Integration of Embedded and Network Speech Recognizers
US20150279354A1 (en) * 2010-05-19 2015-10-01 Google Inc. Personalization and Latency Reduction for Voice-Activated Commands
US10115392B2 (en) * 2010-06-03 2018-10-30 Visteon Global Technologies, Inc. Method for adjusting a voice recognition system comprising a speaker and a microphone, and voice recognition system
US9786268B1 (en) * 2010-06-14 2017-10-10 Open Invention Network Llc Media files in voice-based social media
CN103038818B (zh) * 2010-06-24 2016-10-12 本田技研工业株式会社 在车载语音识别系统与车外语音识别系统之间的通信系统和方法
KR20130016644A (ko) * 2011-08-08 2013-02-18 삼성전자주식회사 음성인식장치, 음성인식서버, 음성인식시스템 및 음성인식방법
DE102012213668A1 (de) * 2012-08-02 2014-05-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines sprachgesteuerten Informationssystems für ein Fahrzeug
FR2996344B1 (fr) * 2012-10-03 2014-10-03 Peugeot Citroen Automobiles Sa Reconnaissance vocale multi-peripheriques integres en vehicule
KR20140089863A (ko) * 2013-01-07 2014-07-16 삼성전자주식회사 디스플레이 장치, 및 이의 제어 방법, 그리고 음성 인식 시스템의 디스플레이 장치 제어 방법
DE102013006173A1 (de) * 2013-04-10 2014-10-16 Audi Ag Verfahren und Vorrichtung zur proaktiven Dialogführung
US9997160B2 (en) 2013-07-01 2018-06-12 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for dynamic download of embedded voice components
KR102246893B1 (ko) * 2013-12-11 2021-04-30 삼성전자주식회사 대화형 시스템, 이의 제어 방법, 대화형 서버 및 이의 제어 방법
US10310808B2 (en) 2014-09-08 2019-06-04 Google Llc Systems and methods for simultaneously receiving voice instructions on onboard and offboard devices
US9628415B2 (en) * 2015-01-07 2017-04-18 International Business Machines Corporation Destination-configured topic information updates
CN105387862A (zh) * 2015-10-29 2016-03-09 桂林信通科技有限公司 一种车辆导航的方法和系统
US9619202B1 (en) 2016-07-07 2017-04-11 Intelligently Interactive, Inc. Voice command-driven database
US20180270343A1 (en) * 2017-03-20 2018-09-20 Motorola Mobility Llc Enabling event-driven voice trigger phrase on an electronic device
US10900800B2 (en) * 2017-04-18 2021-01-26 Garmin Switzerland Gmbh Mobile application interface device for vehicle navigation assistance
US10679620B2 (en) * 2018-03-06 2020-06-09 GM Global Technology Operations LLC Speech recognition arbitration logic
KR20200072907A (ko) * 2018-12-13 2020-06-23 현대자동차주식회사 대화 시스템이 구비된 차량 및 그 제어 방법
US11593447B2 (en) * 2019-01-25 2023-02-28 Ford Global Technologies, Llc Pre-fetch and lazy load results of in-vehicle digital assistant voice searches

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19942869A1 (de) 1999-09-08 2001-03-15 Volkswagen Ag Verfahren und Einrichtung zum Betrieb einer sprachgesteuerten Einrichtung bei Kraftfahrzeugen
GB2368441A (en) 2000-10-26 2002-05-01 Coles Joseph Tidbold Voice to voice data handling system
EP1341363A1 (de) 2002-03-01 2003-09-03 Robert Bosch Gmbh Verfahren und Vorrichtung für ein Fahrerauskunftsystem mittels eines Sprachportalservers
EP1417456B1 (de) 2001-07-23 2005-05-11 France Telecom Telekommunikationsdienstportal mit einem spracherkennungsserver und navigations- und führungsgeräte, die das portal benutzen
DE102004059372A1 (de) 2003-12-26 2005-07-28 Mitsubishi Denki K.K. Fahrzeugeinbaueinheit, Sprachkonversationsdokumenterzeugungs-Server und diese verwendendes Navigationssystem
EP1739546A2 (de) 2005-07-01 2007-01-03 Bose Corporation Automobilschnittstelle
DE102006006551A1 (de) 2006-02-13 2007-08-16 Siemens Ag Verfahren und System zum Bereitstellen von Sprachdialoganwendungen

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5752232A (en) * 1994-11-14 1998-05-12 Lucent Technologies Inc. Voice activated device and method for providing access to remotely retrieved data
DE19709518C5 (de) 1997-03-10 2006-05-04 Harman Becker Automotive Systems Gmbh Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
US6185535B1 (en) * 1998-10-16 2001-02-06 Telefonaktiebolaget Lm Ericsson (Publ) Voice control of a user interface to service applications
KR20010108402A (ko) 1999-03-26 2001-12-07 요트.게.아. 롤페즈 클라이언트 서버 음성 인식
US6463413B1 (en) 1999-04-20 2002-10-08 Matsushita Electrical Industrial Co., Ltd. Speech recognition training for small hardware devices
EP1215661A1 (de) 2000-12-14 2002-06-19 TELEFONAKTIEBOLAGET L M ERICSSON (publ) Sprachgesteuertes tragbares Endgerät
US6650997B2 (en) * 2001-09-28 2003-11-18 Robert Bosch Gmbh System and method for interfacing mobile units using a cellphone
JP2003295893A (ja) 2002-04-01 2003-10-15 Omron Corp 音声認識システム、装置、音声認識方法、音声認識プログラム及び音声認識プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004117063A (ja) 2002-09-24 2004-04-15 Seiko Epson Corp ナビゲーション装置
US7328155B2 (en) * 2002-09-25 2008-02-05 Toyota Infotechnology Center Co., Ltd. Method and system for speech recognition using grammar weighted based upon location information
DE10245331A1 (de) 2002-09-27 2004-04-08 Robert Bosch Gmbh Eingabevorrichtung
US20050043067A1 (en) 2003-08-21 2005-02-24 Odell Thomas W. Voice recognition in a vehicle radio system
US20050171685A1 (en) * 2004-02-02 2005-08-04 Terry Leung Navigation apparatus, navigation system, and navigation method
DE102004012148A1 (de) 2004-03-12 2005-10-06 Siemens Ag Spracherkennung unter Berücksichtigung einer geografischen Position
US20060129311A1 (en) * 2004-12-09 2006-06-15 Jason Bauman Remote navigation server interface
DE102005019591A1 (de) * 2005-04-27 2006-11-09 Siemens Ag Vorrichtung zum Navigieren eines Fahrzeugs und Server-System
TWI270488B (en) * 2005-12-06 2007-01-11 Sin Etke Technology Co Ltd Vehicular remote audio support service system and method
KR100819234B1 (ko) * 2006-05-25 2008-04-02 삼성전자주식회사 네비게이션 단말의 목적지 설정 방법 및 장치
US8423362B2 (en) * 2007-12-21 2013-04-16 General Motors Llc In-vehicle circumstantial speech recognition
CA2712673A1 (en) * 2008-02-04 2009-08-13 Tele Atlas North America Inc. Method for map matching with sensor detected objects

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19942869A1 (de) 1999-09-08 2001-03-15 Volkswagen Ag Verfahren und Einrichtung zum Betrieb einer sprachgesteuerten Einrichtung bei Kraftfahrzeugen
GB2368441A (en) 2000-10-26 2002-05-01 Coles Joseph Tidbold Voice to voice data handling system
EP1417456B1 (de) 2001-07-23 2005-05-11 France Telecom Telekommunikationsdienstportal mit einem spracherkennungsserver und navigations- und führungsgeräte, die das portal benutzen
EP1341363A1 (de) 2002-03-01 2003-09-03 Robert Bosch Gmbh Verfahren und Vorrichtung für ein Fahrerauskunftsystem mittels eines Sprachportalservers
DE102004059372A1 (de) 2003-12-26 2005-07-28 Mitsubishi Denki K.K. Fahrzeugeinbaueinheit, Sprachkonversationsdokumenterzeugungs-Server und diese verwendendes Navigationssystem
EP1739546A2 (de) 2005-07-01 2007-01-03 Bose Corporation Automobilschnittstelle
DE102006006551A1 (de) 2006-02-13 2007-08-16 Siemens Ag Verfahren und System zum Bereitstellen von Sprachdialoganwendungen

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009058151A1 (de) * 2009-12-12 2011-06-16 Volkswagen Ag Verfahren zum Betreiben eines Sprachdialogsystems mit semantischer Bewertung und Sprachdialogsystem dazu
DE102009058151B4 (de) * 2009-12-12 2020-08-20 Volkswagen Ag Verfahren zum Betreiben eines Sprachdialogsystems mit semantischer Bewertung und Sprachdialogsystem dazu
US9953643B2 (en) 2010-12-23 2018-04-24 Lenovo (Singapore) Pte. Ltd. Selective transmission of voice data
DE102011054197B4 (de) 2010-12-23 2019-06-06 Lenovo (Singapore) Pte. Ltd. Selektive Übertragung von Sprachdaten
DE102013012453B3 (de) * 2013-07-26 2014-10-16 Audi Ag Verfahren zum Betreiben eines Infotainment-Systems eines Kraftwagens und Infotainment-System für einen Kraftwagen
DE102013216427A1 (de) * 2013-08-20 2015-03-12 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zur fortbewegungsmittelbasierten Sprachverarbeitung
DE102013216427B4 (de) 2013-08-20 2023-02-02 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zur fortbewegungsmittelbasierten Sprachverarbeitung
DE102013219649A1 (de) * 2013-09-27 2015-04-02 Continental Automotive Gmbh Verfahren und System zum Erstellen oder Ergänzen eines benutzerspezifischen Sprachmodells in einem mit einem Endgerät verbindbaren lokalen Datenspeicher
DE102014200570A1 (de) * 2014-01-15 2015-07-16 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Erzeugung eines Steuerungsbefehls
DE102015211101A1 (de) 2015-06-17 2016-12-22 Volkswagen Aktiengesellschaft Spracherkennungssystem sowie Verfahren zum Betreiben eines Spracherkennungssystems mit einer mobilen Einheit und einem externen Server
US10170121B2 (en) 2015-06-17 2019-01-01 Volkswagen Ag Speech recognition system and method for operating a speech recognition system with a mobile unit and an external server

Also Published As

Publication number Publication date
US20090271200A1 (en) 2009-10-29
DE102009017177B4 (de) 2022-05-05
DE102009017176A1 (de) 2009-10-29

Similar Documents

Publication Publication Date Title
DE102009017177B4 (de) Spracherkennungsanordnung und Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges
DE102018128006B4 (de) Verfahren zum erzeugen von ausgaben natürlichsprachlicher generierung basierend auf dem benutzersprachstil
DE19709518C1 (de) Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
DE102019105269B4 (de) Verfahren zur spracherkennung mit spracherkennungs-arbitrierungslogik
DE102019111529A1 (de) Automatisierte spracherkennung unter verwendung einer dynamisch einstellbaren hörzeitüberschreitung
DE102018103188B4 (de) Verfahren zur spracherkennung in einem fahrzeug zur verbesserung der aufgabenerledigung
DE10036851A1 (de) Verfahren zur Auswahl einer Ortsbezeichnung in einem Navigationssystem durch Spracheingabe
DE102006006551B4 (de) Verfahren und System zum Bereitstellen von Sprachdialoganwendungen sowie mobiles Endgerät
WO2014060054A1 (de) Spracherkennung in einem kraftfahrzeug
DE102010034433B4 (de) Verfahren zum Erkennen von Sprache
EP1721245B1 (de) Verfahren zur auswahl eines listeneintrags und informations- oder unterhaltungssystem, insbesondere für kraftfahrzeuge
DE102005060072A1 (de) Verwaltung von mehrsprachigen Nametags für eingebettete Spracherkennung
DE102006029251B4 (de) Verfahren und System für einen Telefonbuchtransfer
DE102015117380B4 (de) Selektive Geräuschunterdrückung während automatischer Spracherkennung
EP3095114B1 (de) Verfahren und system zur erzeugung eines steuerungsbefehls
DE102018128003A1 (de) Neuronales netzwerk zum anwenden bei der spracherkennungsarbitrierung
WO2015185464A1 (de) Assistenzsystem, das mittels spracheingaben steuerbar ist, mit einer funktionseinrichtung und mehreren spracherkennungsmodulen
DE102015205044A1 (de) Eingabe von Navigationszieldaten in ein Navigationssystem
DE102017211447B4 (de) Verfahren zum Auswählen eines Listeneintrags aus einer Auswahlliste einer Bedienvorrichtung mittels Sprachbedienung sowie Bedienvorrichtung
DE19942869A1 (de) Verfahren und Einrichtung zum Betrieb einer sprachgesteuerten Einrichtung bei Kraftfahrzeugen
DE102016003903A1 (de) Verfahren zur Spracherkennung in einem Kraftfahrzeug
DE102015226408A1 (de) Verfahren und Vorrichtung zum Durchführen einer Spracherkennung zum Steuern zumindest einer Funktion eines Fahrzeugs
DE102018200088B3 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Verarbeiten einer Spracheingabe, Kraftfahrzeug und Nutzerendgerät mit einer Sprachverarbeitung
DE102009058151B4 (de) Verfahren zum Betreiben eines Sprachdialogsystems mit semantischer Bewertung und Sprachdialogsystem dazu
DE102013216427B4 (de) Vorrichtung und Verfahren zur fortbewegungsmittelbasierten Sprachverarbeitung

Legal Events

Date Code Title Description
OR8 Request for search as to paragraph 43 lit. 1 sentence 1 patent law
8105 Search report available
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G10L0015220000

Ipc: G10L0015300000

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R082 Change of representative