DE102010049869A1 - Verfahren zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug und Vorrichtung dazu - Google Patents

Verfahren zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug und Vorrichtung dazu Download PDF

Info

Publication number
DE102010049869A1
DE102010049869A1 DE102010049869A DE102010049869A DE102010049869A1 DE 102010049869 A1 DE102010049869 A1 DE 102010049869A1 DE 102010049869 A DE102010049869 A DE 102010049869A DE 102010049869 A DE102010049869 A DE 102010049869A DE 102010049869 A1 DE102010049869 A1 DE 102010049869A1
Authority
DE
Germany
Prior art keywords
input
category
voice input
assigned
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102010049869A
Other languages
English (en)
Other versions
DE102010049869B4 (de
Inventor
Dr. Neugebauer Moritz
Dr. Wäller Christoph
Gordon SEITZ
Linn Hackenberg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102010049869.6A priority Critical patent/DE102010049869B4/de
Publication of DE102010049869A1 publication Critical patent/DE102010049869A1/de
Application granted granted Critical
Publication of DE102010049869B4 publication Critical patent/DE102010049869B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug, in welchem Daten gespeichert sind, die eine Vielzahl von Informatio mit denen Fahrzeugeinrichtungen (8A, 8B) steuerbar sind, umfassen. Bei dem erfindungsgemäßen Verfahren wird eine Spracheingabe erfasst, die Spracheingabe wird analysiert und basierend auf dem Analyseergebnis wird die Spracheingabe einer Kategorie zugeordnet. Dabei wird die Spracheingabe einer ersten Kategorie zugeordnet, wenn die Spracheingabe als Funktionseingabe zum Steuern einer Fahrzeugeinrichtung (8A, 8B) identifiziert wurde, oder sie wird einer zweiten Kategorie zugeordnet, wenn die Spracheingabe als Sucheingabe zum Suchen in der Vielzahl von Informationen identifiziert wurde. Der Inhalt der Spracheingabe wird mit den datentechnisch gespeicherten Steuerbefehlen verglichen, wenn die Spracheingabe der ersten Kategorie zugeordnet wurde, und der Inhalt der Spracheingabe wird mit den gespeicherten Informationen verglichen, wenn die Spracheingabe der zweiten Kategorie zugeordnet wurde. In Abhängigkeit von der zugeordneten Kategorie und dem Vergleichsergebnis wird eine Treffermenge aus den gespeicherten Daten ermittelt. Die Erfindung betrifft ferner ein Fahrzeug mit einer solchen Sprachschnittstelle.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug. In dem Fahrzeug sind Daten gespeichert, die eine Vielzahl von Informationen und datentechnisch gespeicherte Steuerbefehle, mit denen Fahrzeugeinrichtungen steuerbar sind, umfassen. Die Erfindung betrifft ferner ein Fahrzeug mit einer solchen Sprachschnittstelle.
  • Sprachschnittstellen kommen zunehmend in Fahrzeugen zum Einsatz, um den Nutzungskomfort der zahlreichen Fahrzeugeinrichtungen zu verbessern, wie beispielsweise das Bedienen eines Navigationssystem, einer Telekommunikationseinrichtung oder einer Infotainmenteinrichtung. Dabei wird der Aufruf einer bestimmten Fahrzeugfunktion mittels eines Sprachkommandos ermöglicht, indem ein erfasstes Sprachkommando einem Steuerbefehl zugeordnet wird, durch dessen Auslösen die dazugehörige Fahrzeugfunktion ausgeführt wird. Die akustische Spracheingabe wird dazu zunächst in ein datentechnisches digitales Signal umgewandelt und durch einen Algorithmus einem ebenfalls datentechnisch gespeicherten Steuerbefehl zugeordnet, der wiederum in der Regel über einen elektrischen Steuerimpuls in ein physikalisches Signal umgewandelt wird. Über verschiedene Wandler können so insbesondere mechanische, akustische oder optische Ausgangsgrößen der verschiedenen Fahrzeugeinrichtungen gesteuert werden.
  • Bei Sprachschnittstellen ergibt sich das Problem, dass nicht eindeutige Sprachkommandos oder phonetisch mehrdeutige Spracheingaben auftreten können. Neben unvollständigen oder mehrdeutigen Eingaben seitens des Nutzers, z. B. ein mehrdeutiges Navigationsziel, kommt in einem Fahrzeug noch dazu, dass durch den erhöhten Geräuschpegel im Fahrzeuginnern Spracheingaben auch systemseitig nicht immer korrekt erfasst werden. Bei solchen Mehrdeutigkeiten wird dem Nutzer oft ein Dialog mit dem Sprachcomputer angeboten, beispielsweise ein graphischer Dialog auf einer Anzeigefläche, von der er mögliche Treffer manuell auswählen kann.
  • Die Informationsmenge und die Funktionsvielfalt in Fahrzeugen ist in den letzten Jahren stark angestiegen. Neben einer stetig steigenden Anzahl von datentechnisch gespeicherten Bedienmenüs zum Steuern von diversen Fahrzeugeinrichtungen, z. B. Navigationssystem oder Klimabedienung, ist insbesondere die Funktionsvielfalt in modernen Infotainmenteinrichtungen stark angestiegen. Dem Nutzer muss es ermöglicht werden, im Fahrzeug auch ohne Kenntnisse der Informationsarchitektur zielsicher eine Datei oder Funktion auffinden oder auslösen zu lassen. Dies ist insbesondere wichtig, wenn es sich bei dem Nutzer um den Fahrer des Fahrzeugs handelt, damit dieser durch die Bedienaktionen nicht vom Straßenverkehr abgelenkt wird.
  • Die US 7 216 080 B2 beschreibt ein Verfahren zur Sprachsteuerung von tragbaren Kleinstcomputern, sogenannten PDAs (Personal Digital Assistants), bei dem zu einer Spracheingabe zunächst ein Kontext ermittelt wird und einer konkreten Funktionsmenge zugeordnet wird, z. B. Kalender, Adressbuch oder Aufgabenliste. Die Spracheingaben können in eine andere Form transformiert werden, beispielsweise als Text dargestellt werden. Eine Spracheingabe kann grammatikalisch und semantisch analysiert werden und in einen Befehl zum Ausführen einer Funktion umgewandelt werden. Spracheingaben können einer Kategorie zugeteilt werden und ggf. disambiguiert werden.
  • Die WO 00/11571 A1 beschreibt ein Verfahren zum Betreiben einer Sprachschnittstelle, bei dem Spracheingaben semantisch interpretiert und in einen Befehl zum Ausführen einer Maschinenfunktion umgewandelt werden.
  • Es ist die Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug der eingangs genannten Art anzugeben, die einen hohen Nutzungskomfort für den Nutzer bieten und ein bequemes und intuitives Bedienen auch ohne genauere Kenntnisse der Informations- und Funktionsvielfalt der Fahrzeugeinrichtungen ermöglichen.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Anspruchs 1 sowie einer Vorrichtung mit den Merkmalen des Anspruchs 9 gelöst. Vorteilhafte Aus- und Weiterbildungen ergeben sich aus den abhängigen Ansprüchen.
  • Bei dem erfindungsgemäßen Verfahren wird eine Spracheingabe erfasst, die Spracheingabe wird analysiert und basierend auf dem Analyseergebnis wird die Spracheingabe einer Kategorie zugeordnet. Dabei wird die Spracheingabe einer ersten Kategorie zugeordnet, wenn die Spracheingabe als Funktionseingabe zum Steuern einer Fahrzeugeinrichtung identifiziert wurde, oder sie wird einer zweiten Kategorie zugeordnet, wenn die Spracheingabe als Sucheingabe zum Suchen in der Vielzahl von Informationen identifiziert wurde. Der Inhalt der Spracheingabe wird mit den datentechnisch gespeicherten Steuerbefehlen verglichen, wenn die Spracheingabe der ersten Kategorie zugeordnet wurde, und der Inhalt der Spracheingabe wird mit den gespeicherten Informationen verglichen, wenn die Spracheingabe der zweiten Kategorie zugeordnet wurde. In Abhängigkeit von der zugeordneten Kategorie und dem Vergleichsergebnis wird eine Treffermenge aus den gespeicherten Daten ermittelt. Die Unterscheidung zwischen einer Suche nach Informationen und einem Befehl zur Funktionsausführung einer Fahrzeugeinrichtung hat den Vorteil, dass die Intention des Nutzers automatisch systemseitig erkannt wird und der Nutzer somit diese vorher nicht erst explizit eingeben muss. Auf diese Weise kann der Sprachdialog vereinheitlicht und vereinfacht werden, so dass dem Nutzer überflüssige Rückfragen erspart bleiben. Diese effiziente Dialogführung verringert die Gefahr, dass der Nutzer, falls es sich dabei um den Fahrer des Fahrzeugs handelt, vom Straßenverkehr abgelenkt wird.
  • Die im Fahrzeug gespeicherten Daten umfassen einerseits datentechnisch gespeicherte Steuerbefehle sowie Informationen. Einzelne Steuerbefehle können mit wenigstens einem Teil der Informationen in Bezug stehen. So gehören zu jeder ausführbaren Funktion nicht nur ein Steuerbefehl zum Ansteuern eines physikalischen Geräts, sondern auch ein dazugehöriger Parametersatz oder assoziierte Informationen oder Datensätze, die typischerweise in einer Zuordnungstabelle abgespeichert sind. Beispielsweise wird ein Telefonanruf auf Basis eines Datensatzes „Telefonbuch” oder das Ermitteln einer Fahrtroute auf Basis eines Datensatzes „Navigationsinformationen” durchgeführt. Außerdem können einzelnen Datensätzen Medientypen zugeordnet sein, z. B. Text, Audio oder Video, und dazugehörige spezifische Funktionen zugeordnet sein, z. B. „Anzeigen” oder „Abspielen”. Ferner sind die Steuerbefehle selber häufig nicht nur als Steuerbefehle, sondern außerdem als recherchierbare Information, z. B. über ein datentechnisch abgelegtes Benutzermenü, verfügbar.
  • Unter Fahrzeugeinrichtungen werden im Sinne der Erfindung alle datentechnisch ansteuerbaren Geräte im Fahrzeug verstanden. Insbesondere sind dies ein Navigationssystem, eine Kommunikationseinrichtung, eine Infotainmenteinrichtung zum Wiedergeben diverser Medientypen, z. B. Radio- und CD-Spieler (CD = Compact Disc), DVD-Spieler (DVD = Digital Versatile Disc), die Klimatisierungsanlage im Fahrzeug insbesondere mit Temperatur- und Lüftungsreglern, sowie weiterer Fahrzeugsteuerungen, z. B. Licht, Scheibenwischer oder elektrischer Fensterheber oder Türöffner.
  • Die Zuordnung der Spracheingabe zu einer Kategorie kann insbesondere bei längeren Spracheingaben in einem iterativen Prozess erfolgen. Dabei wird die Spracheingabe in Fragmente zerlegt, auf Basis derer die Zuordnung der jeweiligen Kategorie durchgeführt wird und bei jeder Iteration mit einem neuen Fragment überprüft wird. Fragmente können beispielsweise Einzelwörter, Wortgruppen oder Halbsätze sein. Vorteilhafterweise werden in der Spracheingabe Schlüsselwörter und/oder grammatikalische Konstruktionen ermittelt und/oder analysiert, um die Spracheingabe der ersten Kategorie oder der zweiten Kategorie zuzuordnen.
  • Falls die Spracheingabe der ersten Kategorie zugeordnet wurde, kann idealer Weise ein eindeutiger Steuerbefehl gefunden werden. Dieser kann entweder per se eindeutig sein, wie z. B. „Radio Aus” oder „Kofferraum Zu”, oder aber aus dem jeweiligen Kontext zu einer eindeutig ausführbaren Funktion führen, z. B. „Licht An”, wenn gleichzeitig das Fahrzeug in einen Tunnel einfährt und das Einschalten des Abblendlichtes die einzig sinnvolle Funktion darstellt. Der Inhalt der Spracheingabe kann aber in diesem Falle zusätzlich mit Daten, die den identifizierten Steuerbefehlen zugeordnet sind, verglichen werden. Dies ist insbesondere dann sinnvoll, wenn zu einem erkannten Steuerbefehl im konkreten Kontext mehrere Funktionsausführungen möglich sind.
  • Vorteilhafterweise wird, wenn zu der Spracheingabe der ersten Kategorie ein Datensatz ermittelt wurde, der einen eindeutigen Steuerbefehl zum Ausführen einer zugeordneten Funktion einer Fahrzeugeinrichtung darstellt, dieser Steuerbefehl unmittelbar automatisch ausgeführt. Auf diese Weise erübrigt sich die nochmalige Bestätigung seitens des Nutzers, wodurch die Dialogeffizienz erhöht wird, und man eine schnellere Funktionsausführung erhält. Dies ist im Fahrzeug deshalb wichtig, um einerseits die Ablenkung des Fahrers, falls er der Nutzer ist, vom Straßenverkehr zu vermeiden, andererseits können sicherheitsrelevante Funktionen, z. B. das Bedienen von Lichtfunktionen, schneller ausgeführt werden, welches zur erhöhten Sicherheit im Straßenverkehr beiträgt.
  • Wenn der Inhalt der Spracheingabe der ersten Kategorie mehrdeutig ist, so dass die Treffermenge mehr als einen Datensatz umfasst und/oder die Spracheingabe der zweiten Kategorie zugeordnet wird, ist es zweckmäßig, zunächst eine Trefferliste anzuzeigen. Die Trefferliste wird beispielsweise auf einer Anzeigefläche angezeigt, die von Fahrer und/oder Beifahrer bequem einzusehen ist.
  • Die Trefferliste kann nach an sich bekannter Art erstellt werden. Insbesondere sind Trefferlisten geläufig, die eine bestimmte Anzahl an Treffern anzeigen, sogenannte N-Best-Listen. Alternativ oder auch zusätzlich ist es möglich, falls kein exakter Treffer gefunden wurde, dass systemseitig ein Vorschlag gemacht wird, beispielsweise durch einen Eintrag „Meinten Sie ...?”.
  • Es kann dazu ferner vorgesehen sein, dass zu der angezeigten Trefferliste eine weitere Nutzereingabe erfasst wird, durch welche ein Eintrag aus der Trefferliste ausgewählt wird, wobei, falls der ausgewählte Treffer einen eindeutigen Steuerbefehl zum Ausführen einer zugeordneten Funktion einer Fahrzeugeinrichtung darstellt, dieser Steuerbefehl unmittelbar auf diese weitere Nutzereingabe ausgeführt wird. Die weitere Nutzereingabe kann z. B. eine manuelle Eingabe sein, die von dem Nutzer über ein Bedienelement, z. B. einen Drehdrücksteller zum Auswählen von Einträgen auf der Anzeigefläche, eingegeben wird. Die Anzeigefläche kann auch mit einer berührungsempfindlichen Oberfläche ausgestattet sein, so dass der Nutzer den betreffenden Eintrag in der Trefferliste direkt auf der Anzeigefläche antippen kann. Die weitere Nutzereingabe kann auch durch eine weitere Spracheingabe oder eine andere Modalität erfasst werden.
  • In der Regel wird es aufgrund der semantischen Analyse der Spracheingabe möglich sein, zwischen einer Sucheingabe und einer Funktionseingabe zu differenzieren. Es kann jedoch zweckmäßig sein, dass, falls die Spracheingabe keiner Kategorie eindeutig zugeordnet werden kann, die Spracheingabe der zweiten Kategorie, die die Spracheingabe als Sucheingabe identifiziert, zugeordnet wird. Hierdurch wird der Sprachdialog weiter vereinfacht.
  • Das erfindungsgemäße Verfahren kann so ausgestaltet sein, dass die Zuordnung der Spracheingabe zu einer Kategorie unabhängig von der Art der Aktivierung der Sprachschnittstelle ist. Dadurch wird eine einheitliche Aktivierung des Sprachdialogs durch eine einzige Taste und eine einheitliche graphische Repräsentation des Sprachdialogs ermöglicht.
  • Die erfindungsgemäße Vorrichtung zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug umfasst eine Schnittstelle zu Fahrzeugeinrichtungen und einen Datenspeicher, in welchem Daten gespeichert sind, die eine Vielzahl von Informationen und datentechnisch gespeicherte Steuerbefehle, mit denen Funktionen der Fahrzeugeinrichtungen steuerbar sind, umfassen. Sie umfasst des Weiteren Mittel zum Erfassen einer Spracheingabe, Analysemittel zum Analysieren und Zuordnen der Spracheingaben in wenigstens zwei Kategorien und eine Steuereinheit, die mit dem Datenspeicher, der Schnittstelle und den Analysemitteln gekoppelt ist. Die erfindungsgemäße Vorrichtung zum Bereitstellen einer Sprachschnittstelle ist dadurch gekennzeichnet, dass mittels den Analysemitteln wenigstens zwischen einer Funktionseingabe und einer Sucheingabe unterscheidbar ist und basierend auf dem Analyseergebnis die Spracheingabe einer ersten Kategorie zuordenbar ist, wenn die Spracheingabe als Funktionseingabe zum Steuern einer Fahrzeugeinrichtung identifiziert wurde, oder einer zweiten Kategorie zuordenbar ist, wenn die Spracheingabe als Sucheingabe zum Suchen in der Vielzahl von Informationen identifiziert wurde. Außerdem ist mittels der Steuereinheit ein Vergleich des Inhalts der Spracheingabe mit im Datenspeicher gespeicherten Daten durchführbar, wobei der Inhalt der Spracheingabe mit den datentechnisch gespeicherten Steuerbefehlen verglichen wird, wenn die Spracheingabe der ersten Kategorie zugeordnet wurde, und wobei der Inhalt der Spracheingabe mit den gespeicherten Informationen verglichen wird, wenn die Spracheingabe der zweiten Kategorie zugeordnet wurde. Mittels der Steuereinheit ist in Abhängigkeit von der zugeordneten Kategorie und dem Vergleichsergebnis eine Treffermenge aus den gespeicherten Daten ermittelbar. Optional umfasst die Vorrichtung des Weiteren eine Anzeigefläche zum Anzeigen einer graphischen Dialogrepräsentation, insbesondere zum Anzeigen einer Trefferliste. Die erfindungsgemäße Vorrichtung ist insbesondere zum Durchführen des erfindungsgemäßen Verfahrens geeignet. Sie weist somit auch die Vorteile des erfindungsgemäßen Verfahrens auf.
  • Erfindungsgemäß ist des Weiteren ein Fahrzeug mit einer solchen Vorrichtung zum Bereitstellen einer Sprachschnittstelle ausgestattet.
  • Die Erfindung wird nun anhand eines Ausführungsbeispiels mit Bezug zu den Figuren näher erläutert.
  • 1 zeigt schematisch den Aufbau eines Ausführungsbeispiels der erfindungsgemäßen Vorrichtung zum Bereitstellen einer Sprachschnittstelle und
  • 2 zeigt ein Flussdiagramm zum Ausführen eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens zum Bereitstellen einer Sprachschnittstelle.
  • In 1 ist schematisch der Aufbau eines Ausführungsbeispiels der erfindungsgemäßen Vorrichtung zum Bereitstellen einer Sprachschnittstelle dargestellt. Eine Anzeigefläche 1 in einem Fahrzeug ist über eine Steuereinheit 4 mit einem Tastschalter 2A zur manuellen. Aktivierung der Sprachschnittstelle (eine sogenannte Push-To-Talk-Taste, kurz PTT-Taste) verbunden. Die Steuereinheit 4 ist ferner mit Mitteln 3 zum Erfassen einer Spracheingabe und dem Datenbus 6 im Fahrzeug verbunden, über den sie Zugriff auf eine oder mehrere Datenbanken 7, 7A, 7B hat. Dies kann eine übergreifende Datenbank 7 sein, in der alle im Fahrzeug anfallenden Daten und datentechnisch gespeicherten Steuerbefehle der diversen Fahrzeugeinrichtungen 8A, 8B abrufbar sind. Jede Fahrzeugeinrichtung 8A, 8B kann zusätzlich eine eigene Datenbank 7A, 7B umfassen, in der die zu der jeweiligen Fahrzeugeinrichtung 8A, 8B spezifischen Daten und datentechnisch gespeicherten Steuerbefehle gespeichert sind. Es sind beispielhaft zwei Fahrzeugeinrichtungen 8A, 8B dargestellt, es kann sich aber auch um nur eine oder eine Vielzahl solcher Einrichtungen handeln. Es handelt sich beispielsweise um eine Telefonanlage, ein Navigationssystem, eine Infotainmenteinrichtung oder die Klimatisierungsanlage im Fahrzeug.
  • Die Mittel 3 zum Erfassen einer Spracheingabe umfassen ein Mikrophon zum Empfang akustischer Signale, ein Softwaremodul zur Sprachaktivitätserkennung sowie einen adaptiven Filter zur Störgeräuschunterdrückung. Die Sprachaktivitätserkennung und der adaptive Filter können alternativ auch in anderer Hardware lokalisiert sein und beispielsweise über die Steuereinheit 4 mit den Mitteln 3 zum Erfassen der Spracheingabe in Verbindung stehen. Die Anzeigefläche 1 ist im gezeigten Beispiel ganz oder bereichsweise mit einer berührungsempfindlichen Oberfläche 2B ausgestattet, so dass über die Anzeigefläche 1 manuelle Eingaben getätigt werden können. Beispielsweise könnte auf einem Teilbereich der Anzeigefläche 10 eine Push-To-Talk-Taste (nicht dargestellt) als Schaltfläche angezeigt werden, sodass der Nutzer durch Berühren der entsprechenden Stelle auf der Anzeigefläche 1 die Sprachschnittstelle aktivieren kann.
  • Auf der Anzeigefläche 1 können verschiedene Informationen graphisch dargestellt werden. Insbesondere handelt es sich bei den Informationen um eine graphische Repräsentation des Sprachdialogs, die nach dem weiter unten noch im Detail beschriebenen erfindungsgemäßen Verfahren eine einheitliche Darstellungsform aufweist, unabhängig davon, ob der Nutzer eine Funktionseingabe zum Ausführen einer Fahrzeugfunktion oder eine Sucheingabe tätigen möchte. Durch die Darstellung einer virtuellen PTT-Taste als Schaltfläche auf der Anzeigefläche 1 kann sich der Nutzer beim Bedienen während des gesamtem Sprachdialogs räumlich auf die Anzeigefläche 1 konzentrieren.
  • Die graphische Repräsentation des Sprachdialogs umfasst einen einheitlichen Textprompt 10, der die zuletzt erfolgte Spracheingabe bzw. die zuletzt erfolgten Spracheingaben, falls es sich um mehrere zueinander gehörige, sich ergänzende oder sich korrigierende Spracheingaben handelt, auf der Anzeigefläche 1 anzeigt. Des Weiteren kann, falls der Spracheingabe eine eindeutige Funktionseingabe zugeordnet wurde, die graphische oder textliche Rückmeldung angezeigt werden, welche Funktion gerade ausgeführt wird, z. B. „Musiktitel XY wird abgespielt” (nicht dargestellt). Falls der Spracheingabe keine eindeutige Funktionseingabe zugeordnet werden konnte, wird eine Trefferliste 11 angezeigt. Die Trefferliste 11 kann einen konkreten Vorschlag 11A für ein systemseitig wahrscheinlich erscheinendes Suchergebnis umfassen. Ferner können die Einträge der Trefferliste 11 in verschiedene Klassen 11B, 11C eingeteilt und dargestellt werden, wobei Einträge verschiedener Klassen 11B, 11C beispielsweise zu verschiedene Funktionsgruppen oder Datentypen, z. B. zu verschiedenen Medientypen, gehören. Ferner kann, falls die Trefferliste 11 nicht komplett auf der Anzeigefläche 1 angezeigt werden kann, ein Rollbalken 12 angezeigt werden, über den der Nutzer den angezeigten Teil der Trefferliste 11 verändern kann.
  • Die Steuereinheit 4 umfasst Analysemittel 5, deren Funktionsweise in Zusammenhang mit dem erfindungsgemäßen Verfahren weiter unten näher erläutert wird. Sie umfasst beispielsweise einen Prozessor zum Ausführen eines Programms zur Durchführung einer Analyse von Spracheingaben und deren Zuordnung zu einer ersten Kategorie, falls die Spracheingabe als Funktionseingabe zum Ausführen einer Fahrzeugfunktion identifiziert wurde, und zu einer zweiten Kategorie, falls die Spracheingabe als eine Sucheingabe identifiziert wurde. Die Steuereinheit 4 umfasst ferner einen Datenspeicher zum Speichern der Ergebnisse der Analyse sowie zum Speichern einer Trefferliste, die sich aus dem Vergleich zwischen der Spracheingabe und den in den Datenspeichern 7, 7A und/oder 7B gespeicherten Daten ergibt.
  • Das erfindungsgemäße Verfahren wird nun anhand eines Flussdiagramms eines Ausführungsbeispiels mit Bezug zu der 2 generisch näher erläutert und anschließend mit Fallbeispielen unterlegt.
  • In einem Schritt 20 findet die Initiierung des Sprachdialogs über eine PTT-Taste oder eine PTT-Schaltfläche statt, durch deren Auslösung die Mittel 3 zum Erfassen von Spracheingaben eingeschaltet werden. Daraufhin wird in einem Schritt 21 die einheitliche Eingabemaske der graphischen Repräsentation des Sprachdialogs auf der Anzeigefläche 1 angezeigt. Diese kann neben dem zuvor erwähnten Textprompt 10 auch eine Auswahlliste vorheriger Suchbegriffe umfassen. Außerdem können beispielsweise Mittel zum Steuern der Eingabemodalitäten angezeigt werden, indem z. B. eine Schaltfläche zum Wechsel in einen Tastaturmodus und/oder in einen Handschriftmodus zur Eingabe von freihändigen Texteingaben per Handschrift auf der Anzeigefläche 1 angezeigt wird. Während in dem Schritt 22 eine Spracheingabe erfasst wird, kann auf der Eingabemaske eine graphische Signalisierung des Empfangs eines Sprachsignals visualisiert werden, um dem Nutzer die Rückmeldung zu geben, dass die Spracheingabe akustisch erfasst wurde. Für den Fall, dass die Spracheingabe systemseitig nicht störungsfrei empfangen werden konnte, z. B. wenn die Signalqualität mangelhaft war, kann dies dem Nutzer in einem Schritt 23 auf der Anzeigefläche 1 angezeigt werden. In diesem Falle wird der Nutzer zur erneuten Spracheingabe im Schritt 21 aufgefordert.
  • Falls die Spracheingabe systemseitig akustisch empfangen werden konnte, wird diese nun zunächst zur weiteren datentechnischen Verarbeitung digitalisiert und im Schritt 24 mittels der Steuereinheit 4 an die Analysemittel 5 weitergeleitet. Dort wird basierend auf der empfangenen Spracheingabe die Dialogintention geprüft. Dabei wird die Spracheingabe entweder der Kategorie „Funktionseingabe” zum Steuern einer Fahrzeugeinrichtung zugeordnet oder sie wird der Kategorie „Sucheingabe” zum Suchen einer Informationen zugeordnet. Dazu wird in der Spracheingabe nach Schlüsselwörtern gesucht, die auf eine der beiden Kategorien hinweisen. Zusätzlich oder insbesondere in Verbindung mit den Schlüsselwörtern kann in der Spracheingabe nach grammatikalischen Konstruktionen gesucht werden, z. B. Imperativformen. Die Analysemittel 5 zerlegen dabei die Spracheingabe in Fragmente und überprüfen in einem iterativen Prozess, welche der beiden Kategorien wahrscheinlicher ist. Dabei kann in einem zwei- oder mehrstufigen Prozess eine Hypothese aufgestellt werden, die in der darauffolgenden Iteration bestätigt oder verworfen werden kann. Es kann beispielsweise ein Punkte- oder Penalty-System eingerichtet sein, indem für bestimmte Merkmale in der Spracheingabe Plus- oder Minuspunkte vergeben werden und oberhalb eines bestimmten Grenzwerts eine Entscheidung für eine der beiden Kategorien getroffen wird. Insbesondere ist es zweckmäßig, nur für solche Fälle, in denen eindeutig ein Befehl zur Funktionsausführung erkannt wurde, die Spracheingabe als „Funktionseingabe” zu kategorisieren, und andernfalls die Spracheingabe als „Sucheingabe” zu werten. Funktionseingaben werden anschließend mit den in den Datenspeichern 7, 7A, 7B gespeicherten Steuerbefehlen im Fahrzeug verglichen, während Sucheingaben mit den in den Datenspeichern 7, 7A, 7B gespeicherten Informationen im Fahrzeug verglichen werden.
  • Konnte auf diese Weise der Spracheingabe ein eindeutiger Steuerbefehl zugeordnet werden, so erfolgt im Schritt 30 unmittelbar darauf automatisch die dazugehörige Funktionsausführung.
  • Für den Fall, dass die Spracheingabe eindeutig als Funktionseingabe erkannt wurde, aber noch nicht eindeutig einem Steuerbefehl zugeordnet werden konnte, kann im Schritt 25 eine Trefferliste auf der Anzeigefläche 1 angezeigt werden, aus der der Nutzer in einem Schritt 26 durch eine weitere Nutzereingabe, über Sprache oder über eine andere Modalität, z. B. durch Antippen eines auf der Trefferliste angezeigten Treffers, den gewünschten Treffer auswählen kann. Daraufhin erfolgt im Schritt 30 unmittelbar automatisch die dazugehörige Funktionsausführung.
  • Wurde die Spracheingabe als Sucheingabe interpretiert, so wird ausgehend vom Schritt 24 zunächst im Schritt 25 eine Trefferliste angezeigt. Die Trefferliste kann auch Verweise auf mögliche Steuerbefehle zur Ausführung von Funktionen umfassen, die im Rahmen der Suche ermittelt werden konnten. Der Nutzer hat nun die Möglichkeit, durch die Auswahl eines Treffers im Schritt 26 wie zuvor beschrieben zur direkten Funktionsausführung im Schritt 30 zu gelangen. Alternativ hat er die Möglichkeit, durch eine weitere Spracheingabe im Schritt 22 das Verfahren iterativ zu durchlaufen. Dabei werden dann der Inhalt beider oder, im Falle weiterer Iterationen, der Inhalt mehrerer Spracheingaben von den Analysemitteln 5 auf die Nutzerintention analysiert und der Schritt 24 sowie gegebenenfalls die Schritte 25 und 26 nochmals durchlaufen.
  • Falls es sich bei der Spracheingabe nur um eine Sucheingabe gehandelt hatte, zu der keine weitere unmittelbare Aktion ausgelöst werden sollte, so kann auf die Anzeige der Trefferliste im Schritt 25 das Verfahren auch mit dem Schritt 40 abgebrochen werden, wobei beispielsweise die Sprachschnittstelle wieder deaktiviert wird.
  • Fallbeispiel 1:
  • Der Fahrer des Fahrzeugs möchte einen Telefonanruf über die Freisprecheinrichtung seines Mobilfunkgeräts tätigen. Er aktiviert im Schritt 20 die PTT-Taste, woraufhin im Schritt 21 die Dialogmaske der graphischen Sprachdialogrepräsentation angezeigt wird. Er sagt daraufhin im Schritt 22 „Anna Müller anrufen”. Die Spracheingabe wird im Schritt 24 von den Analysemitteln 5 als eindeutige Funktionseingabe identifiziert und der Telefonanruf im Schritt 30 unmittelbar und automatisch ausgeführt.
  • Fallbeispiel 2:
  • Wie im Fallbeispiel 1 möchte der Fahrer des Fahrzeugs einen Telefonanruf tätigen. Die Spracheingabe wird im Schritt 24 von den Analysemitteln 5 zwar eindeutig als Funktionseingabe identifiziert, allerdings werden systemseitig mehrere mögliche Steuerbefehle gefunden. Beispielsweise findet das System zwei „Anna Müller” oder für „Anna Müller” eine private, eine geschäftliche und eine mobile Telefonnummer. Daraufhin wird im Schritt 25 eine entsprechende Trefferliste auf der Anzeigefläche 1 angezeigt, aus der der Fahrer im Schritt 26 durch Berühren des entsprechenden Anzeigebereichs den gewünschten Treffer auswählen kann. Daraufhin wird der Telefonanruf, im Schritt 30 unmittelbar und automatisch ausgeführt.
  • Fallbeispiel 3:
  • Wie im Fallbeispiel 1 möchte der Fahrer des Fahrzeugs einen Telefonanruf tätigen. Die Spracheingabe im Schritt 22 umfasst diesmal jedoch nur den Eigennamen „Bärbel”, der jedoch aufgrund von Störgeräuschen nicht fehlerfrei erfasst wurde. Die Analysemittel 5 können im Schritt 24 keine Intention seitens des Fahrers erkennen und ordnen die Spracheingabe einer Sucheingabe zu. Daraufhin werden alle möglichen Informationen, die mit der Spracheingabe in Zusammenhang stehen könnten, in den verschiedenen Datenbanken 7, 7A, 7B durchsucht und eine Treffermenge erstellt, von denen im Schritt 25 eine Teilmenge angezeigt wird. Die angezeigte Teilmenge umfasst als ersten Eintrag einen konkreten Vorschlag (z. B. Meinten Sie „Penny”?) und nachfolgend weitere Datensätze, die möglicherweise durch die Spracheingabe gesucht werden sollten. Der Fahrer gibt daraufhin in einer Iteration eine weitere Spracheingabe im Schritt 22 ein, indem er den Nachnamen „Müller” hinzufügt. Beim weiteren Durchlaufen der Iterationsschleife werden nun von den Analysemitteln beide Spracheingaben berücksichtigt. In einer erneuten Anzeige einer Trefferliste im Schritt 25 kann nun der Fahrer den gewünschten Dateneintrag heraussuchen oder gegebenenfalls in weiteren Iterationsschleifen weitere Spracheingaben machen. Je nachdem, was seine wahre Intention war, kann er entweder einen Datensatz zu „Bärbel Müller” anzeigen lassen, oder eine Anruf oder Navigationsfunktion, die mit dieser Person assoziiert ist, ausführen lassen.
  • Die gezeigten Fallbeispiele konzentrieren sich auf das Thema Telefonieren im Fahrzeug. Ohne die Erfindung hierauf zu beschränken, können ebenso andere Fahrzeugfunktionen hiermit bedient werden, wie z. B. das Bedienen eines Navigationsgeräts, eines Medienabspielgeräts und/oder einer Klimaanlage im Fahrzeug. Dabei wird eine Spracheingabe zunächst nicht in einem bestimmten Kontext behandelt und nicht auf eine einzelne Fahrzeugeinrichtung beschränkt. Der Nutzer muss vorher nicht explizit eine Fahrzeugeinrichtung auswählen. Dies erhöht den Nutzungskomfort und trägt zur Sicherheit beim Bedienen von Fahrzeugeinrichtungen in einem Fahrzeug bei.
  • Bezugszeichenliste
  • 1
    Anzeigefläche
    2A
    Tastschalter
    2B
    berührungsempfindliche Oberfläche
    3
    Mittel zum Erfassen einer Spracheingabe
    4
    Steuereinheit
    5
    Analysemittel
    6
    Datenbus im Fahrzeug
    7
    Datenspeicher
    7A, B
    Datenspeicher in den jeweiligen Fahrzeugeinrichtungen
    8A, B
    Fahrzeugeinrichtungen
    10
    Textprompt
    11
    Trefferliste
    11A
    Vorschlag
    11B, C
    Treffer verschiedener Klassen
    12
    Rollbalken
    20
    Initiierung des Sprachdialogs
    21
    Anzeige der Startmaske
    22
    Spracheingabe
    23
    Rückfrage bei mangelhaftem Sprachempfang
    24
    Analyse der Spracheingabe
    25
    Anzeige einer Trefferliste
    26
    Auswahl aus der Trefferliste
    30
    automatische Funktionsausführung
    40
    Dialogabbruch
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 7216080 B2 [0005]
    • WO 00/11571 A1 [0006]

Claims (10)

  1. Verfahren zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug, in welchem Daten gespeichert sind, die eine Vielzahl von Informationen und datentechnisch gespeicherte Steuerbefehle, mit denen Fahrzeugeinrichtungen (8A, 8B) steuerbar sind, umfassen, wobei bei dem Verfahren – eine Spracheingabe erfasst wird, – die Spracheingabe analysiert wird, – basierend auf dem Analyseergebnis die Spracheingabe einer Kategorie zugeordnet wird, wobei die Spracheingabe einer ersten Kategorie zugeordnet wird, wenn die Spracheingabe als Funktionseingabe zum Steuern einer Fahrzeugeinrichtung (8A, 8B) identifiziert wurde, oder einer zweiten Kategorie zugeordnet wird, wenn die Spracheingabe als Sucheingabe zum Suchen in der Vielzahl von Informationen identifiziert wurde, – der Inhalt der Spracheingabe mit den datentechnisch gespeicherten Steuerbefehlen verglichen wird, wenn die Spracheingabe der ersten Kategorie zugeordnet wurde, und der Inhalt der Spracheingabe mit den gespeicherten Informationen verglichen wird, wenn die Spracheingabe der zweiten Kategorie zugeordnet wurde, und – in Abhängigkeit von der zugeordneten Kategorie und dem Vergleichsergebnis eine Treffermenge aus den gespeicherten Daten ermittelt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in der Spracheingabe Schlüsselwörter und/oder grammatikalische Konstruktionen ermittelt und/oder analysiert werden, um die Spracheingabe der ersten Kategorie oder der zweiten Kategorie zuzuordnen,
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass, falls die Spracheingabe der ersten Kategorie zugeordnet wurde, der Inhalt der Spracheingabe zusätzlich mit Daten, die den Steuerbefehlen zugeordnet sind, verglichen wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass, wenn zu der Spracheingabe der ersten Kategorie ein Datensatz ermittelt wurde, der einen eindeutigen Steuerbefehl zum Ausführen einer zugeordneten Funktion einer Fahrzeugeinrichtung (8A, 8B) darstellt, dieser Steuerbefehl unmittelbar automatisch ausgeführt wird.
  5. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass, wenn der Inhalt der Spracheingabe der ersten Kategorie mehrdeutig ist, so dass die Treffermenge mehr als einen Datensatz umfasst und/oder die Spracheingabe der zweiten Kategorie zugeordnet wird, eine Trefferliste (11) angezeigt wird.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass zu der angezeigten Trefferliste (11) eine weitere Nutzereingabe erfasst wird, durch welche ein Eintrag aus der Trefferliste (11) ausgewählt wird, wobei, falls der ausgewählte Treffer einen eindeutigen Steuerbefehl zum Ausführen einer zugeordneten Funktion einer Fahrzeugeinrichtung (8A, 8B) darstellt, dieser Steuerbefehl unmittelbar auf diese weitere Nutzereingabe ausgeführt wird.
  7. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass, falls die Spracheingabe keiner Kategorie eindeutig zugeordnet werden kann, die Spracheingabe der zweiten Kategorie, die die Spracheingabe als Sucheingabe identifiziert, zugeordnet wird.
  8. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Zuordnung der Spracheingabe zu einer Kategorie unabhängig von der Art der Aktivierung der Sprachschnittstelle ist.
  9. Vorrichtung zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug mit – einer Schnittstelle (6) zu Fahrzeugeinrichtungen (8A, 8B), – einem Datenspeicher (7, 7A, 7B), in welchem Daten gespeichert sind, die eine Vielzahl von Informationen und datentechnisch gespeicherte Steuerbefehle, mit denen Funktionen der Fahrzeugeinrichtungen (8A, 8B) steuerbar sind, umfassen, – Mitteln (3) zum Erfassen einer Spracheingabe, – Analysemitteln (5) zum Analysieren und Zuordnen der Spracheingaben in wenigstens zwei Kategorien und – einer Steuereinheit (4), die mit dem Datenspeicher (7, 7A, 7B), der Schnittstelle (6) und den Analysemitteln (5) gekoppelt ist, dadurch gekennzeichnet, dass – mittels den Analysemitteln (5) wenigstens zwischen einer Funktionseingabe und einer Sucheingabe unterscheidbar ist und basierend auf dem Analyseergebnis die Spracheingabe einer ersten Kategorie zuordenbar ist, wenn die Spracheingabe als Funktionseingabe zum Steuern einer Fahrzeugeinrichtung (8A, 8B) identifiziert wurde, oder einer zweiten Kategorie zuordenbar ist, wenn die Spracheingabe als Sucheingabe zum Suchen in der Vielzahl von Informationen identifiziert wurde, – mittels der Steuereinheit (4) ein Vergleich des Inhalts der Spracheingabe mit im Datenspeicher (7, 7A, 7B) gespeicherten Daten durchführbar ist, wobei der Inhalt der Spracheingabe mit den datentechnisch gespeicherten Steuerbefehlen verglichen wird, wenn die Spracheingabe der ersten Kategorie zugeordnet wurde, und wobei der Inhalt der Spracheingabe mit den gespeicherten Informationen verglichen wird, wenn die Spracheingabe der zweiten Kategorie zugeordnet wurde, und – mittels der Steuereinheit (4) in Abhängigkeit von der zugeordneten Kategorie und dem Vergleichsergebnis eine Treffermenge aus den gespeicherten Daten ermittelbar ist.
  10. Fahrzeug mit einer Vorrichtung zum Bereitstellen einer Sprachschnittstelle nach Anspruch 9.
DE102010049869.6A 2010-10-28 2010-10-28 Verfahren zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug und Vorrichtung dazu Active DE102010049869B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102010049869.6A DE102010049869B4 (de) 2010-10-28 2010-10-28 Verfahren zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug und Vorrichtung dazu

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010049869.6A DE102010049869B4 (de) 2010-10-28 2010-10-28 Verfahren zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug und Vorrichtung dazu

Publications (2)

Publication Number Publication Date
DE102010049869A1 true DE102010049869A1 (de) 2012-05-03
DE102010049869B4 DE102010049869B4 (de) 2023-03-16

Family

ID=45935562

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010049869.6A Active DE102010049869B4 (de) 2010-10-28 2010-10-28 Verfahren zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug und Vorrichtung dazu

Country Status (1)

Country Link
DE (1) DE102010049869B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016218270A1 (de) 2016-09-22 2018-03-22 Audi Ag Verfahren zum Betreiben einer Kraftfahrzeug-Bedienvorrichtung mit Spracherkenner, Bedienvorrichtung und Kraftfahrzeug
US11535100B2 (en) 2016-07-12 2022-12-27 Audi Ag Control device and method for the voice-based operation of a motor vehicle
DE102023200302B3 (de) 2023-01-16 2024-06-06 Volkswagen Aktiengesellschaft Verfahren zur Interaktion mit einem Benutzer, Computerprogrammprodukt sowie Fahrzeug

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19709518C1 (de) * 1997-03-10 1998-03-05 Daimler Benz Aerospace Ag Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
WO2000011571A1 (en) 1998-08-24 2000-03-02 Bcl Computers, Inc. Adaptive natural language interface
WO2001001389A2 (de) * 1999-06-24 2001-01-04 Siemens Aktiengesellschaft Verfahren und vorrichtung zur spracherkennung
EP1589525A1 (de) * 2004-04-23 2005-10-26 Sap Ag Mehrere Spracherkennungs-Engine
DE60016722T2 (de) * 2000-06-07 2005-12-15 Sony International (Europe) Gmbh Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars
DE69634239T2 (de) * 1995-11-13 2006-01-12 Dragon Systems Inc., Newton Erkennung kontinuierlich gesprochener Texte und Befehle
DE102005030967A1 (de) * 2005-06-30 2007-01-04 Daimlerchrysler Ag Verfahren und Vorrichtung zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen
US7216080B2 (en) 2000-09-29 2007-05-08 Mindfabric Holdings Llc Natural-language voice-activated personal assistant
DE102006029755A1 (de) * 2006-06-27 2008-01-03 Deutsche Telekom Ag Verfahren und Vorrichtung zur natürlichsprachlichen Erkennung einer Sprachäußerung
DE102006057159A1 (de) * 2006-12-01 2008-06-05 Deutsche Telekom Ag Verfahren zur Klassifizierung der gesprochenen Sprache in Sprachdialogsystemen
DE60318544T2 (de) * 2002-11-15 2009-01-22 Scansoft, Inc., Peabody Sprachmodell für die Spracherkennung
DE102007033472A1 (de) * 2007-07-18 2009-01-29 Siemens Ag Verfahren zur Spracherkennung

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8688451B2 (en) 2006-05-11 2014-04-01 General Motors Llc Distinguishing out-of-vocabulary speech from in-vocabulary speech
JP2008064885A (ja) 2006-09-05 2008-03-21 Honda Motor Co Ltd 音声認識装置、音声認識方法、及び音声認識プログラム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69634239T2 (de) * 1995-11-13 2006-01-12 Dragon Systems Inc., Newton Erkennung kontinuierlich gesprochener Texte und Befehle
DE19709518C1 (de) * 1997-03-10 1998-03-05 Daimler Benz Aerospace Ag Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
WO2000011571A1 (en) 1998-08-24 2000-03-02 Bcl Computers, Inc. Adaptive natural language interface
WO2001001389A2 (de) * 1999-06-24 2001-01-04 Siemens Aktiengesellschaft Verfahren und vorrichtung zur spracherkennung
DE60016722T2 (de) * 2000-06-07 2005-12-15 Sony International (Europe) Gmbh Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars
US7216080B2 (en) 2000-09-29 2007-05-08 Mindfabric Holdings Llc Natural-language voice-activated personal assistant
DE60318544T2 (de) * 2002-11-15 2009-01-22 Scansoft, Inc., Peabody Sprachmodell für die Spracherkennung
EP1589525A1 (de) * 2004-04-23 2005-10-26 Sap Ag Mehrere Spracherkennungs-Engine
DE102005030967A1 (de) * 2005-06-30 2007-01-04 Daimlerchrysler Ag Verfahren und Vorrichtung zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen
DE102006029755A1 (de) * 2006-06-27 2008-01-03 Deutsche Telekom Ag Verfahren und Vorrichtung zur natürlichsprachlichen Erkennung einer Sprachäußerung
DE102006057159A1 (de) * 2006-12-01 2008-06-05 Deutsche Telekom Ag Verfahren zur Klassifizierung der gesprochenen Sprache in Sprachdialogsystemen
DE102007033472A1 (de) * 2007-07-18 2009-01-29 Siemens Ag Verfahren zur Spracherkennung

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11535100B2 (en) 2016-07-12 2022-12-27 Audi Ag Control device and method for the voice-based operation of a motor vehicle
DE102016218270A1 (de) 2016-09-22 2018-03-22 Audi Ag Verfahren zum Betreiben einer Kraftfahrzeug-Bedienvorrichtung mit Spracherkenner, Bedienvorrichtung und Kraftfahrzeug
DE102016218270B4 (de) 2016-09-22 2018-04-26 Audi Ag Verfahren zum Betreiben einer Kraftfahrzeug-Bedienvorrichtung mit Spracherkenner, Bedienvorrichtung und Kraftfahrzeug
DE102023200302B3 (de) 2023-01-16 2024-06-06 Volkswagen Aktiengesellschaft Verfahren zur Interaktion mit einem Benutzer, Computerprogrammprodukt sowie Fahrzeug

Also Published As

Publication number Publication date
DE102010049869B4 (de) 2023-03-16

Similar Documents

Publication Publication Date Title
DE19533541C1 (de) Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens
DE3238855C2 (de) Spracherkennungseinrichtung
EP2567194B1 (de) Verfahren und vorrichtung zum betreiben einer nutzerschnittstelle
EP1721245B1 (de) Verfahren zur auswahl eines listeneintrags und informations- oder unterhaltungssystem, insbesondere für kraftfahrzeuge
DE10122828A1 (de) Verfahren zum Training oder zur Adaption eines Spracherkenners
DE102014017384A1 (de) Kraftfahrzeug-Bedienvorrichtung mit Korrekturstrategie für Spracherkennung
DE102008008948A1 (de) Systemarchitektur und Verfahren zur multimodalen Informationseingabe
EP3152753B1 (de) Assistenzsystem, das mittels spracheingaben steuerbar ist, mit einer funktionseinrichtung und mehreren spracherkennungsmodulen
DE102010049869B4 (de) Verfahren zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug und Vorrichtung dazu
DE102011017261A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle, insbesondere in einem Fahrzeug
EP3735688B1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zum verarbeiten einer spracheingabe, kraftfahrzeug und nutzerendgerät mit einer sprachverarbeitung
DE102017211447B4 (de) Verfahren zum Auswählen eines Listeneintrags aus einer Auswahlliste einer Bedienvorrichtung mittels Sprachbedienung sowie Bedienvorrichtung
EP3115886B1 (de) Verfahren zum betreiben eines sprachsteuerungssystems und sprachsteuerungssystem
DE60125597T2 (de) Vorrichtung für die Dienstleistungsvermittlung
DE102009058151B4 (de) Verfahren zum Betreiben eines Sprachdialogsystems mit semantischer Bewertung und Sprachdialogsystem dazu
EP3074265A1 (de) Systemweite suche in fahrerinformationssystemen
DE102010026708A1 (de) Verfahren zum Betreiben eines Sprachdialogsystems und Sprachdialogsystem
DE102010054242A1 (de) Verfahren zum Bereitstellen einer Bedienvorrichtung in einem Fahrzeug und Bedienvorrichtung
DE102018221712B4 (de) Verfahren zum Betreiben eines interaktiven Informationssystems für ein Fahrzeug, sowie ein Fahrzeug
EP1433662B1 (de) Informationssystem für Fahrzeuge und Verfahren zur Sprachsteuerung
WO2018015041A1 (de) Verfahren zum konfigurieren einer sprachgesteuerten bedienvorrichtung, bedienvorrichtung mit sprachsteuerung und kraftfahrzeug
DE102010056174A1 (de) Verfahren zum Unterstützen einer Bedienperson beim Bedienen von Funktionseinheiten eines Kraftfahrzeugs mithilfe einer Spracherkennungseinrichtung und Fahrerassistenzsystem
DE102008025532B4 (de) Kommunikationssystem und Verfahren zum Durchführen einer Kommunikation zwischen einem Nutzer und einer Kommunikationseinrichtung
EP1083479A1 (de) Verfahren zum Betrieb einer sprachgesteuerten Befehlseingabeeinheit in einem Kraftfahrzeug
DE102016005731B4 (de) Verfahren zum Betreiben mehrerer Spracherkenner

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R082 Change of representative
R020 Patent grant now final