DE102011116460A1 - Verfahren für eine Benutzerschnittstelle - Google Patents

Verfahren für eine Benutzerschnittstelle Download PDF

Info

Publication number
DE102011116460A1
DE102011116460A1 DE102011116460A DE102011116460A DE102011116460A1 DE 102011116460 A1 DE102011116460 A1 DE 102011116460A1 DE 102011116460 A DE102011116460 A DE 102011116460A DE 102011116460 A DE102011116460 A DE 102011116460A DE 102011116460 A1 DE102011116460 A1 DE 102011116460A1
Authority
DE
Germany
Prior art keywords
word
user
input
confirmation
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102011116460A
Other languages
English (en)
Inventor
Christoph Wäller
Mark Peter Czelnik
Linn Hackenberg
Moritz Neugebauer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102011116460A priority Critical patent/DE102011116460A1/de
Publication of DE102011116460A1 publication Critical patent/DE102011116460A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Abstract

Die vorliegende Erfindung betrifft ein Verfahren für eine Benutzerschnittstelle. Bei dem Verfahren wird eine Folge von Benutzereingaben erfasst. Jede Benutzereingabe der Folge von Benutzereingaben umfasst einen Wortanteil, beispielsweise einen Buchstaben. Für jede Benutzereingabe der Folge von Benutzereingaben wird eine Wortanteilgruppe in Abhängigkeit von der Benutzereingabe bestimmt. Die Wortanteilgruppe umfasst ein oder mehrere möglicherweise gemeinte Wortanteile, beispielsweise ein oder mehrere möglicherweise gemeinte Buchstaben. Weiterhin wird für jede Benutzereingabe der Folge von Benutzereingaben eine Bestätigung an den Benutzer nach der Benutzereingabe ausgegeben. Die Bestätigung umfasst eine unspezifische Bestätigung, welche unabhängig von der bestimmten Wortanteilgruppe ist.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren für eine Benutzerschnittstelle und eine entsprechende Benutzerschnittstelle. Die vorliegende Erfindung betrifft insbesondere ein Verfahren, bei dem ein Benutzer eine Eingabe in Form einer Folge von Benutzereingaben, wie z. B. Buchstaben, Ziffern oder Silben, bereitstellt.
  • In Fahrzeugen, wie z. B. Personenkraftwagen oder Lastkraftwagen, können für verschiedene Zwecke Benutzereingaben erforderlich sein, welche Wort- oder Texteingaben umfassen. So kann beispielsweise bei einer Programmierung eines Navigationssystems des Fahrzeugs eine Eingabe einer Zieladresse erforderlich sein oder bei einer Auswahl eines Musikstücks einer Multimediawiedergabevorrichtung des Fahrzeugs eine Eingabe eines Musiktitels oder eines Musikinterpreten erforderlich sein. Eine derartige Texteingabe kann beispielsweise über eine sogenannte Spracheingabe der gesprochenen Sprache eines Benutzers oder über eine Tastatur, welche beispielsweise auf einer berührungssensitiven Oberfläche dargestellt wird, oder über eine Handschrifteingabe beispielsweise mittels einer berührungssensitiven Oberfläche erfolgen. Insbesondere die Spracheingabe wird zur Vermeidung von einer Ablenkung des Fahrers während der Fahrt als ein Eingabemedium mit großem Potenzial angesehen. Ein bekannter Nachteil der Spracheingabe ist jedoch die unsichere Erkennung, so dass Fehltreffer zustande kommen können oder der Benutzer aus einer Vielzahl möglicher Treffer zusätzlich auswählen muss. Eine bessere Erkennung kann beispielsweise durch eine buchstabenbasierte Spracheingabe, sogenanntes Buchstabieren, erfolgen, da die Menge der möglichen Treffer hier auf das Alphabet beschränkt ist. Dennoch können auch bei einer buchstabenbasierten Spracheingabe ähnlich klingende Zeichen fehlerhaft erkannt werden. Auch bei einer Texteingabe über eine Tastatur oder über eine Handschrifterkennung können Fehltreffer zustande kommen.
  • In diesem Zusammenhang ist aus der EP 0 994 461 A2 ein Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äußerung bekannt. Bei dem Verfahren wird nach einer Eingabe einer wenigstens teilweise buchstabierten sprachlichen Äußerung ein erstes Erkennungsergebnis für die gesamte sprachliche Äußerung ermittelt und einzelne Buchstaben an den Benutzer zur Bestätigung oder Ablehnung ausgegeben. Nach einer Bestätigung eines Buchstabens ist eine Anpassung eines linguistischen Sprachmodells vorgesehen, welches nach seiner Anpassung die Menge solcher Buchstaben festlegt, die als Nachfolger für den bestätigten Buchstaben zulässig sind, und welches die Richtigkeit des bereits bestätigten Buchstabens voraussetzt. Mittels des angepassten linguistischen Sprachmodells wird ein weiteres Erkennungsergebnis für die sprachliche Äußerung ermittelt, aus welchem der nächste an den Benutzer zur Bestätigung auszugebende Buchstabe bestimmt wird.
  • Weiterhin ist aus der WO 2006/053800 A1 ein Verfahren zur Spracherkennung aus einem aufgeteilten Vokabular bekannt. Bei dem Verfahren wird zur Erkennung eines Wortes ein vorgebbares Vokabular in Abschnitte mit phonetisch ähnlichen Wörtern geteilt. Die gesprochene Eingabe wird in einem ersten Erkennungsschritt einem der Abschnitte zugeteilt und in einem zweiten Erkennungsschritt aus einem Vokabular des zugeteilten Abschnitts ermittelt.
  • Die EP 2 006 835 A1 betrifft ein Verfahren zur Ermittlung einer Hypothesenliste aus einem Vokabular eines Spracherkennungssystems. Durch einen Benutzer wird ein Beginn eines zu erkennenden Wortes durch einzelne Buchstabenfolgen und durch Teilworte eingegeben. Die erkannte Buchstabenfolge und Teilwörter werden in der Reihenfolge ihrer Eingabe zu einer erkannten Eingabe zusammengesetzt. Abstandsmaße für eine Ähnlichkeit zwischen der erkannten Eingabe und Einträgen des Vokabulars des Spracherkennungssystems werden ermittelt. Schließlich wird dem Benutzer eine Hypothesenliste mit den ermittelten Einträgen auf einem Anzeigemittel zur Auswahl gestellt.
  • Die DE 10 2008 021 954 A1 betrifft ein Verfahren zum Betrieb eines elektronischen Assistenzsystems mit einer akustischen Aufnahmeeinrichtung, an welcher gesprochene Bedieneranweisungen aufgenommen werden können und mit einem Spracherkennungsmodul weiter verarbeitet werden. In einer ersten Verarbeitungsstufe des Spracherkennungsmoduls werden die gesprochenen Bedieneranweisungen mit in einer Datenbank gespeicherten Phonem-Datensätzen verglichen und die Phonem-Datensätze entsprechend ihrer jeweiligen akustischen Übereinstimmungsrate mit einem Übereinstimmungswert bewertet. In einer zweiten Verarbeitungsstufe des Spracherkennungsmoduls werden zumindest für einen Teil der Phonem-Datensätze die Inhalte der Phonem-Datensätze mit den in einer Kontextdatenbank gespeicherten Kontextdaten verglichen. Der in der ersten Verarbeitungsstufe ermittelte Übereinstimmungswert wird in Abhängigkeit vom Ergebnis des inhaltlichen Kontextvergleichs modifiziert und der Phonem-Datensatz mit dem besten modifizierten Übereinstimmungswert wird zur Weiterverarbeitung weitergegeben.
  • Die DE 10 2008 062 923 A1 betrifft ein Verfahren und eine Vorrichtung zur Erzeugung einer Trefferliste bei einer automatischen Spracherkennung. Die Trefferliste umfasst mindestens eine Trefferlisten-Wortgruppe, welche ausgehend von einer gesprochenen Wortgruppe von der Spracherkennung als mögliche Treffer erzeugt werden. Die Trefferliste wird ausgehend von mindestens einer Ausgangs-Wortgruppe, welche von der Spracherkennung als Treffer bestimmt wird, mittels des Levenshtein-Verfahrens erzeugt. Dabei umfasst die Trefferliste mindestens eine Ausgangs-Wortgruppe.
  • Schließlich betrifft die DE 10 2005 030 380 A1 ein Verfahren zur Ermittlung einer Hypothesenliste aus einem Vokabular eines Spracherkennungssystems. Zur Ermittlung einer Hypothesenlisten aus einem Vokabular eines Spracherkennungssystems wird durch einen Benutzer ein zu erkennendes Wort anbuchstabiert. Abstandsmaße für eine Ähnlichkeit zwischen der erkannten Buchstabenfolge und Einträgen des Vokabulars des Spracherkennungssystems werden ermittelt. Wenn Differenzen zwischen einer Anzahl ermittelter Abstandsmaße einen vorgebbaren ersten Wert unterschreiten, erfolgt eine Aufforderung an den Benutzer, die Buchstabierung des zu erkennenden Wortes fortzusetzen. Wenn ein vorgebbares Abstandsmaß einen vorgebbaren zweiten Wert überschreitet, erfolgt eine Aufforderung an den Benutzer, die Anbuchstabierung des zu erkennenden Wortes zu wiederholen. Wenn Differenzen zwischen einer Anzahl ermittelter Abstandsmaße den vorgebbaren ersten Wert überschreiten und/oder ein vorgebbares Abstandsmaß den vorgebbaren zweiten Wert unterschreitet, wird dem Benutzer eine Hypothesenliste mit den ermittelten Einträgen zur Auswahl gestellt.
  • Bei den zuvor referenzierten Verfahren gemäß dem Stand der Technik werden die erkannten Eingaben, beispielsweise Wortanteile oder Buchstaben, auf einer Anzeigevorrichtung dargestellt und/oder eine Trefferliste mit zu den erkannten Wortanteilen oder Buchstaben passenden Treffern dargestellt. Bei einer Fehleingabe durch den Benutzer oder bei einem Fehltreffer bei beispielsweise der Interpretation einer Spracheingabe oder eine Handschrifteingabe, kann sich die Trefferliste von der eigentlich gewünschten Eingabe zunächst entfernen und würde sich erst nach einer Eingabe weiterer Wortanteile oder Buchstaben dem gewünschten Ergebnis annähern. In dieser Situation erkennt der Benutzer häufig nicht die Möglichkeit, mit der Eingabe fortzufahren, bis die Trefferliste sich dem gewünschten Ergebnis annähert, sondern der Benutzer bricht in dieser Situation häufig den Eingabevorgang ab, um ihn neu zu beginnen. Dadurch wird der Eingabevorgang unnötig verlängert und ein Fahrer des Fahrzeugs kann von dem Verkehrsgeschehen unnötig abgelenkt werden.
  • Aufgabe der vorliegenden Erfindung ist es daher, eine verbesserte Benutzerschnittstelle zur Eingabe eines Textes oder Wortes bereitzustellen.
  • Gemäß der vorliegenden Erfindung wird diese Aufgabe durch ein Verfahren für eine Benutzerschnittstelle nach Anspruch 1, eine Benutzerschnittstelle nach Anspruch 10, eine Vorrichtung nach Anspruch 12 und ein Fahrzeug nach Anspruch 13 gelöst. Die abhängigen Ansprüche definieren bevorzugte und vorteilhafte Ausführungsformen der Erfindung.
  • Gemäß der vorliegenden Erfindung wird ein Verfahren für eine Benutzerschnittstelle bereitgestellt. Bei dem Verfahren wird eine Folge von Benutzereingaben erfasst. Jede Benutzereingabe der Folge von Benutzereingaben umfasst einen Wortanteil. Für jede Benutzereingabe dieser Folge von Benutzereingaben wird in Abhängigkeit von der jeweiligen Benutzereingabe eine Wortanteilgruppe bestimmt. Die Wortanteilgruppe umfasst ein oder mehrere möglicherweise gemeinte Wortanteile. Nach jeder Benutzereingabe wird an den Benutzer eine Bestätigung ausgegeben. Die Bestätigung ist eine „unspezifische Bestätigung”. Eine unspezifische Bestätigung bedeutet in diesem Zusammenhang, dass die Bestätigung unabhängig von der zu der Benutzereingabe bestimmten Wortanteilgruppe ist. Somit wird einem Benutzer lediglich eine unspezifische Bestätigung seiner Eingabe ausgegeben. Somit kann eine fehlerhafte Ausgabe aufgrund eines Fehltreffers an den Benutzer vermieden werden und dem Benutzer trotzdem eine Rückmeldung gegeben werden, dass seine Eingabe erfasst wurde. Dadurch kann beispielsweise vermieden werden, dass ein Benutzer aufgrund einer fehlerhaften Ausgabe aufgrund eines Fehltreffers den Eingabevorgang unnötigerweise vorzeitig abbricht.
  • Gemäß einer Ausführungsform umfasst die Wortanteilgruppe für jeden möglicherweise gemeinten Wortanteil eine zugeordnete Wahrscheinlichkeit. Die zugeordnete Wahrscheinlichkeit, die einem der möglicherweise gemeinten Wortanteile zugeordnet ist, gibt eine Wahrscheinlichkeit an, dass der möglicherweise gemeinte Wortanteil dem Wortanteil der Benutzereingabe entspricht. Die Bestätigung umfasst die unspezifische Bestätigung, wenn keine der möglicherweise gemeinten Wortanteile der Wortanteilgruppe eine Wahrscheinlichkeit über einem vorbestimmten Wahrscheinlichkeitsschwellenwert aufweist. Eine spezifische Bestätigung wird ausgegeben, wenn eine Wahrscheinlichkeit eines möglicherweise gemeinten Wortanteils der Wortanteilgruppe größer als der vorbestimmte Wahrscheinlichkeitsschwellenwert ist. Die spezifische Bestätigung ist eine Bestätigung, welche von der Wortanteilgruppe abhängig ist. Beispielsweise kann als spezifische Bestätigung der möglicherweise gemeinte Wortanteil ausgegeben werden, welcher den größten Wahrscheinlichkeitswert verglichen mit dem Wahrscheinlichkeitswerten der übrigen möglicherweise gemeinten Wortanteile der Wortanteilgruppe aufweist. Anders ausgedrückt erhält der Benutzer bei einer hohen Treffersicherheit, einer sogenannten hohen Konfidenz, bei der Erkennung der Benutzereingabe eine spezifische Bestätigung und bei einer eher geringen Konfidenz eine unspezifische Bestätigung. Durch diese optimierte Rückmeldung an den Benutzer kann verhindert werden, dass der Benutzer die Eingabe aufgrund von Erkennungsfehlern vorzeitig abbricht. Der vorbestimmte Wahrscheinlichkeitsschwellenwert kann beispielsweise in einem Wert von 50% aufweisen. Dadurch kann beispielsweise erreicht werden, dass eine unspezifische Bestätigung ausgegeben wird, wenn zwei oder mehr möglicherweise gemeinte Wortanteile eine gleich hohe Wahrscheinlichkeit besitzen. Der. vorbestimmte Wahrscheinlichkeitsschwellenwert kann beispielsweise auch auf 100% gesetzt werden, so dass auf jeden Fall eine unspezifische Bestätigung ausgegeben wird.
  • Der Wortanteil kann beispielsweise einen Buchstaben, eine Ziffer, ein Satzzeichen, eine Silbe oder ein ganzes Wort umfassen. Wenn der Benutzer eine Folge von Buchstaben, Ziffern oder Satzzeichen eingibt, erhält er für jeden Buchstaben, jede Ziffer bzw. jedes Satzzeichen eine entsprechende Bestätigung. Erfolgt die Eingabe hingegen als Folge von Silben oder ganzen Worten, so erhält der Benutzer für jede Silbe oder für jedes Wort eine entsprechende Bestätigung. Durch die Bestätigungen erhält der Benutzer eine Rückmeldung, dass seine Eingabe unabhängig davon, ob es sich um einen Buchstaben, eine Ziffer, ein Satzzeichen, eine Silbe oder ein ganzes Wort handelt, erfasst und ausgewertet wurde. Somit ist das Verfahren sowohl für einfache Systeme, welche nur auf Buchstaben, Ziffern und Satzzeichen basieren, als auch für komplexere Systeme, welche auf Silben- oder Wortbasis basieren, verwendbar. Darüber hinaus kann die Benutzereingabe auch gemischt erfolgen, d. h. der Benutzer kann auch abwechselnd ganze Worte und einzelne Buchstaben oder Ziffern eingeben.
  • Die Benutzereingabe kann handschriftlich, beispielsweise mit einem Stift oder mit dem Finger auf einer berührungssensitiven Oberfläche, akustisch als Spracheingabe, gestenbasiert, beispielsweise mit Hilfe von mit einer Kamera erfassten Gebärden oder mittels auf einer berührungssensitiven Oberfläche erfasster Symbole, sogenannter Graffities, oder über eine Tastatureingabe erfolgen. Die Tastatureingabe kann beispielsweise über eine echte Tastatur mit einer Vielzahl von Tasten oder über eine auf einer berührungssensitiven Oberfläche dargestellten Tastatur erfolgen.
  • Der Begriff „möglicherweise gemeinter Wortanteil” wird nachfolgend unter Bezugnahme auf die zuvor beschriebenen möglichen Benutzereingaben verdeutlicht. Bei einer handschriftlichen Eingabe von beispielsweise einzelnen Buchstaben mit einem Stift oder Finger auf einer berührungssensitiven Oberfläche können durch ein unsauberes Schriftbild zu einem eingegebenen Buchstaben mehrere möglicherweise gemeinte Buchstaben erkannt werden. Beispielsweise kann bei einer Eingabe des Buchstabens „A” einerseits der Buchstabe „A” und andererseits der Buchstabe „H” gemeint sein. Ebenso kann bei einer akustischen Eingabe des Buchstabens „A” auch der Buchstabe „H” oder „K” gemeint sein. Bei gestenbasierten Eingaben sind Verwechslungen ebenso wie bei der handschriftlichen Eingabe möglich. Bei einer Tastatureingabe, insbesondere bei einer auf einer berührungssensitiven Oberfläche dargestellten Tastatur, kann bei einer Erfassung von beispielsweise einem Buchstaben auch einer der auf der Tastatur umliegenden Buchstaben gemeint sein, beispielsweise kann bei einer Erfassung einer Betätigung des Buchstabens „F” auch einer Buchstaben „R”, „T”, „G”, „V”, „C” oder „D” gemeint sein. Die Wahrscheinlichkeit für jeden der möglicherweise gemeinten Buchstaben kann bei der Tastatureingabe über die berührungssensitive Oberfläche beispielsweise anhand der tatsächlichen Berührposition bestimmt werden.
  • Gemäß einer Ausführungsform umfasst die Bestätigung ein optisches Bestätigungssignal, ein akustisches Bestätigungssignal und/oder ein haptisches Bestätigungssignal. Als optisches Bestätigungssignal kann beispielsweise bei einer Buchstabeneingabe als spezifische Bestätigung der Buchstabe mit dem größten Wahrscheinlichkeitswert auf einer Anzeigeeinheit ausgegeben werden. Als unspezifisches Bestätigungssignal kann beispielsweise ein Sternchen oder ein Punkt auf einer Anzeigeeinheit ausgegeben werden oder ein Fortschrittbalken auf einer Anzeigeeinheit verlängert werden. Als spezifisches akustisches Bestätigungssignal kann beispielsweise eine Sprachausgabe des erkannten Buchstabens, der erkannten Ziffer, des erkannten Satzzeichens usw. ausgegeben werden und als unspezifisches akustisches Bestätigungssignal ein Piepton oder dergleichen. Als haptisches unspezifisches Bestätigungssignal kann beispielsweise eine Vibration des Lenkrads des Fahrzeugs oder eine Vibration der berührungssensitiven Oberfläche verwendet werden.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung wird bei dem Verfahren weiterhin eine Folge von Wortanteilgruppen gebildet. Die Folge von Wortanteilgruppen umfasst die aus der Folge von Benutzereingaben bestimmten Wortanteilgruppen. In Abhängigkeit von dieser Folge von Wortanteilgruppen wird mindestens ein Wort aus einem vorbestimmten Wortschatz, einem sogenannten Vokabular, bestimmt. Da beispielsweise bei einer Buchstabeneingabe, jede Wortanteilgruppe neben dem Buchstaben mit der höchsten Trefferwahrscheinlichkeit auch weitere Buchstaben mit geringerer Trefferwahrscheinlichkeit aufweist, werden aus dem vorbestimmten Wortschatz nicht nur diejenigen Worte herausgesucht, welche den Buchstaben mit der höchsten Trefferwahrscheinlichkeit an entsprechender Stelle aufweisen, sondern auch Worte, welche sich aus den Buchstaben mit geringerer Trefferwahrscheinlichkeit bilden lassen. Jedem so bestimmten Wort kann beispielsweise anhand der den einzelnen Buchstaben zugeordneten Wahrscheinlichkeiten eine sogenannte Verbundwahrscheinlichkeit zugeordnet werden, so dass es durchaus sein kann, dass das Wort mit der höchsten Verbundwahrscheinlichkeit aus Buchstaben zusammengesetzt ist, welche nicht unbedingt jeweils die höchste Wahrscheinlichkeit in ihren entsprechenden Wortanteilgruppen aufweisen. Durch diese statistische Auswertung der Eingabe kann auch bei einer schlechten Erkennung das gewünschte Wort mit hoher Wahrscheinlichkeit aus dem vorbestimmten Wortschatz bestimmt werden.
  • Gemäß einer weiteren Ausführungsform wird das mindestens eine Wort aus dem vorbestimmten Wortschatz in Abhängigkeit von nur einer vorbestimmten Anzahl der mehreren möglicherweise gemeinten Wortanteile aus jeder Wortanteilgruppe der Folge der Wortanteilgruppen bestimmt. Die vorbestimmte Anzahl der mehreren möglicherweise gemeinten Wortanteile aus jeder Wortanteilgruppe umfasst die möglicherweise gemeinten Wortanteile mit den größten Wahrscheinlichkeiten. Dies soll nachfolgend anhand einer Buchstabenerkennung kurz erläutert werden. Für jeden von dem Benutzer eingegebenen Buchstaben weist die entsprechende Wortanteilgruppe einen oder mehrere möglicherweise gemeinte Buchstaben auf. Gemäß dieser Ausführungsform werden beispielsweise nur zwei Buchstaben aus jeder Wortanteilgruppe berücksichtigt, und zwar die beiden Buchstaben mit den größten Wahrscheinlichkeiten. Umfasst eine Wortanteilgruppe beispielsweise vier Buchstaben, so werden nur zwei Buchstaben aus dieser Wortanteilgruppe zum Bestimmen des Wortes aus dem vorbestimmten Wortschatz verwendet. Dadurch kann der Rechenaufwand zum Bestimmen des Wortes aus dem vorbestimmten Wortschatz erheblich verringert werden.
  • Gemäß einer weiteren Ausführungsform werden die aus dem vorbestimmten Wortschatz bestimmten Worte an den Benutzer ausgegeben, wobei die Worte erst ausgegeben werden, wenn die Folge von Benutzereingaben eine vorbestimmte Anzahl von Benutzereingaben überschreitet. Beispielsweise werden die aus dem vorbestimmten Wortschatz auf der Grundlage der Benutzereingaben gefundenen Worte erst ausgegeben, wenn der Benutzer mindestens drei oder vier Wortanteile, beispielsweise Buchstaben, eingegeben hat. Somit wird vermieden, dass bereits nach der ersten oder zweiten Benutzereingabe eine Ergebnisliste an den Benutzer ausgegeben wird, welche üblicherweise sehr viele Fehltreffer enthält und somit zur Verwirrung des Benutzers beiträgt. Wird die Ergebnisliste hingegen erst nach dem dritten, vierten oder fünften Buchstaben ausgegeben, so befinden sich erheblich weniger Fehltreffer in der Ergebnisliste. Darüber hinaus ist die Ergebnisliste in diesem Fall üblicherweise erheblich kürzer als nach der ersten oder zweiten Eingabe.
  • Gemäß einer weiteren Ausführungsform wird das mindestens eine Wort aus dem vorbestimmten Wortschatz, d. h. die Ergebnisliste, erst ausgegeben, wenn die Anzahl von Worten in der Ergebnisliste eine vorbestimmte Anzahl unterschreitet. Beispielsweise kann die Ergebnisliste erst dann ausgegeben werden, wenn sie nur noch maximal zehn oder zwanzig Treffer enthält. Dadurch kann vermieden werden, dass unnötige Fehltreffer an den Benutzer ausgegeben werden.
  • Gemäß der vorliegenden Erfindung wird weiterhin eine Benutzerschnittstelle bereitgestellt. Die Benutzerschnittstelle umfasst eine Eingabeeinheit zum Erfassen einer Folge von Benutzereingaben, eine Ausgabeeinheit zum Ausgeben von Informationen an den Benutzer und eine Verarbeitungseinheit. Jede Benutzereingabe der Folge von Benutzereingaben umfasst einen Wortanteil. Die Verarbeitungseinheit ist ausgestaltet, für jede Benutzereingabe der Folge von Benutzereingaben eine Wortanteilgruppe in Abhängigkeit von der Benutzereingabe zu bestimmen. Die Wortanteilgruppe umfasst ein oder mehrere möglicherweise gemeinte Wortanteile. Weiterhin ist die Verarbeitungseinheit ausgestaltet, nach jeder Benutzereingabe eine Bestätigung über die Ausgabeeinheit auszugeben. Die Ausgabe der Bestätigung erfolgt nach jeder Benutzereingabe, d. h. zwischen zwei Benutzereingaben wird jeweils eine Bestätigung der letzten Benutzereingabe ausgegeben. Die Bestätigung umfasst eine unspezifische Bestätigung. Eine unspezifische Bestätigung ist eine Bestätigung, welche unabhängig von der Wortanteilgruppe ist.
  • Die Benutzerschnittstelle kann ferner zur Durchführung des zuvor beschriebenen Verfahrens in der Lage sein und umfasst daher auch die im Zusammenhang mit dem Verfahren zuvor beschriebenen Vorteile.
  • Die vorliegende Erfindung stellt weiterhin eine Vorrichtung mit der zuvor beschriebenen Benutzerschnittstelle bereit. Die Vorrichtung kann ein Navigationssystem, ein Mobilfunktelefon, ein Medienwiedergabesystem oder ein Bediensystem für ein Fahrzeug umfassen. Durch die Benutzerschnittstelle können die zuvor genannten Vorrichtungen zuverlässiger und komfortabler bedient werden.
  • Schließlich wird gemäß der vorliegenden Erfindung ein Fahrzeug mit der zuvor beschriebenen Vorrichtung bereitgestellt. Durch die Verwendung der zuvor beschriebenen Vorrichtung in dem Fahrzeug wird ein Fahrer des Fahrzeugs weniger vom Verkehrsgeschehen abgelenkt, wodurch ein Betrieb des Fahrzeugs sicherer wird.
  • Die vorliegende Erfindung wird nachfolgend unter Bezugnahme auf die beigefügten Zeichnungen im Detail beschrieben werden.
  • 1 zeigt ein Fahrzeug mit einer Vorrichtung und einer Benutzerschnittstelle gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 2 zeigt Eingaben und Ausgaben einer Benutzerschnittstelle gemäß dem Stand der Technik.
  • 3 zeigt Eingaben und Ausgaben einer Benutzerschnittstelle gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 4 zeigt Eingaben und Ausgaben einer Benutzerschnittstelle gemäß einer weiteren Ausführungsform der vorliegenden Erfindung.
  • 1 zeigt schematisch ein Fahrzeug 1 mit einer Vorrichtung 2. Die Vorrichtung 2 kann beispielsweise ein Navigationssystem, ein Medienwiedergabesystem oder ein sonstiges Bediensystem, beispielsweise ein Bediensystem für ein Mobilfunktelefon, des Fahrzeugs umfassen. Die Vorrichtung 2 umfasst als Benutzerschnittstelle eine Eingabeeinheit 3, eine Ausgabeeinheit 4 und eine Verarbeitungseinheit 5. Die Eingabeeinheit 3 kann beispielsweise ein Mikrofon zur Erfassung gesprochener Sprache, eine Kamera zur Erfassung von Gesten eines Benutzers oder eine berührungssensitive Oberfläche eines sogenannten Touchscreens zur Erfassung von handschriftlich eingegebenen Buchstaben, Ziffern und Satzzeichen oder zur Erfassung von Tastatureingaben einer auf dem Touchscreen dargestellten Tastatur umfassen. Die Ausgabeeinheit 4 kann beispielsweise einen Lautsprecher zur Ausgabe von akustischen Signalen an den Benutzer, eine Anzeige zur Ausgabe optischer Informationen, wie z. B. eine Flüssigkristallanzeige, oder eine Vorrichtung zur Ausgabe haptischer Informationen, beispielsweise zur Ausgabe einer Vibration an einem Lenkrad des Fahrzeugs umfassen. Die Ausgabeeinheit 4 kann auch mit der Eingabeeinheit 3 zu einem Touchscreen kombiniert werden. die Verarbeitungseinheit 5 ist mit der Eingabeeinheit 3 und der Ausgabeeinheit 4 gekoppelt und in der Lage, Benutzereingaben über die Eingabeeinheit 3 zu empfangen.
  • Die Benutzereingabe erfolgt als eine Folge von einzelnen Benutzereingaben, wobei jede einzelne Benutzereingabe der Folge von Benutzereingaben einen Wortanteil, beispielsweise einen Buchstaben, umfasst. Für jede Benutzereingabe, beispielsweise für jeden Buchstaben, welche über die Eingabeeinheit 4 erfasst wird, bestimmt die Verarbeitungseinheit 5 eine Wortanteilgruppe, welche ein oder mehrere möglicherweise gemeinte Wortanteile umfasst. Im Falle einer buchstabenweisen Eingabe wird für jeden von dem Benutzer eingegebenen Buchstaben eine Buchstabengruppe bestimmt, welche ein oder mehrere möglicherweise gemeinte Buchstaben umfasst. Zusätzlich wird für jeden von dem Benutzer eingegebenen Buchstaben eine unspezifische Bestätigung ausgegeben. Eine unspezifische Bestätigung bezeichnet eine Bestätigung, welche unabhängig von den Buchstaben der bestimmten Buchstabengruppe ist. Wenn die Benutzereingabe beispielsweise über eine Spracheingabe erfolgt, kann für jeden eingegebenen Buchstaben beispielsweise über einen Lautsprecher jeweils ein Piepton ausgegeben werden und/oder auf einer Anzeige für jeden Buchstaben beispielsweise ein Punkt oder ein Stern ausgegeben werden. Darüber hinaus kann über eine haptische Ausgabe nach jedem erfassten Buchstaben beispielsweise eine kurze Vibration in dem Lenkrad des Fahrzeugs erzeugt werden, Bei einer handschriftlichen Eingabe, über beispielsweise den Touchscreen, kann nach jedem erfassten Buchstaben ebenfalls eine akustische Ausgabe, beispielsweise ein Piepton, eine optische Ausgabe oder eine haptische Ausgabe beispielsweise im Lenkrad des Fahrzeugs oder über den Touchscreen ausgegeben werden. Weiterhin kann beim Bestimmen der Buchstabengruppe jedem der möglicherweise gemeinten Buchstaben eine Wahrscheinlichkeit zugeordnet werden, wobei die einem möglicherweise gemeinten Buchstaben zugeordnete Wahrscheinlichkeit eine Wahrscheinlichkeit angibt, dass der möglicherweise gemeinte Buchstabe dem Buchstaben der Benutzereingabe entspricht. In Abhängigkeit dieser Wahrscheinlichkeiten der Buchstaben der Buchstabengruppe kann neben der unspezifischen Bestätigung auch wahlweise eine spezifische Bestätigung ausgegeben werden. Die spezifische Bestätigung ist eine Bestätigung, welche von der Wortanteilgruppe abhängig ist. Beispielsweise kann die spezifische Bestätigung ausgegeben werden, wenn mindestens einer der Buchstaben der Buchstabengruppe eine Wahrscheinlichkeit über einem vorbestimmten Wahrscheinlichkeitsschwellenwert aufweist. Als spezifische Bestätigung kann in diesem Fall beispielsweise derjenige Buchstabe aus der Buchstabengruppe ausgegeben werden, welcher die größte Wahrscheinlichkeit innerhalb der Buchstabengruppe aufweist. Die Ausgabe der spezifischen Bestätigung kann akustisch als gesprochene Ausgabe des jeweiligen Buchstaben oder optisch durch Anzeigen des jeweiligen Buchstaben erfolgen.
  • Zur weiteren Darstellung der vorliegenden Erfindung wird das erfindungsgemäße Verfahren nachfolgend unter Bezugnahme auf die 3 und 4 im Vergleich zu einem Verfahren gemäß dem Stand der Technik (2) anhand einer buchstabenbasierten Eingabe beschrieben werden. Durch eine buchstabenbasierte Eingabe kann prinzipiell eine bessere Erkennung eines Wortes aus einem vorgegebenen Vokabular erfolgen, da die Menge der möglichen Treffer für jede einzelne Buchstabeneingabe auf das Alphabet beschränkt ist. Zur Disambiguierung von ähnlichen Zeichen, wie z. B. „A” und „H”, kann bei einer Eingabe mehrerer Zeichen eine Verbundwahrscheinlichkeit in Bezug auf die Menge der möglichen semantischen Treffer erfolgen.
  • Das nachfolgend beschriebene Verfahren wird anhand einer Eingabe eines Navigationsziels für ein Navigationssystem eines Fahrzeugs beschrieben werden. Durch die Verfügbarkeit der großen Datenmengen von Navigationszielen ist eine textbasiertes Suchfunktion bei Navigationssystemen vorteilhaft. Eine textbasierte Suchfunktion kann aufgrund der großen Datenmengen aber auch in anderen Bereichen vorteilhaft sein, beispielsweise bei Multimediasystemen des Fahrzeugs, um beispielsweise einen Musiktitel zu suchen.
  • Bei einem herkömmlichen System werden, wie es in 2 dargestellt ist, beispielsweise in vier aufeinanderfolgenden Schritten vier Eingaben des Benutzers (gemeinte Eingabe) erfasst. In dem in 2 gezeigten Beispiel möchte der Benutzer beispielsweise als Ziel für das Navigationssystem des Fahrzeugs die Stadt „Hannover” eingeben. Die ersten vier Buchstaben seiner gemeinten Eingabe sind daher H, A, N und N. Bei einer Spracheingabe kann aufgrund der ähnlich klingenden Zeichen A und H im Schritt 1 beispielsweise statt H ein A erkannt werden und im Schritt 2 statt des Buchstabens A der Buchstabe H. Aufgrund der ähnlich klingenden Zeichen M und N kann im Schritt 3 beispielsweise statt dem gemeinten Buchstaben N der Buchstabe M erkannt werden. In dem in 2 gezeigten Beispiel wird in Schritt 4 der Buchstabe N richtig erkannt. Parallel zur Eingabe der Schritte 1–4 erfolgt auf einer Anzeige die bis dahin erkannte Eingabe. Zusätzlich kann eine akustische Ausgabe des jeweils erkannten Zeichens erfolgen. Weiterhin kann eine Trefferliste von Worten aus einem vorgegebenen Vokabular, welches beispielsweise eine Liste von möglichen Fahrtzielen umfasst, auf einer Trefferliste des Navigationssystems ausgegeben werden. Aufgrund der fehlerhaften Erkennung der Eingabe ist der gesuchte Begriff „Hannover” zu keinem Schritt in der ausgegebenen Trefferliste. Der Benutzer ist daher gezwungen, die gesamte Eingabe zu wiederholen.
  • 3 zeigt den Eingabevorgang der 2 in Verbindung mit dem erfindungsgemäßen Verfahren. Im Schritt 1 wird nach der von dem Benutzer gemeinten Eingabe H eine möglicherweise gemeinte Eingabe bestimmt. Die möglicherweise gemeinte Eingabe umfasst beispielsweise die Buchstaben A und H, welche bei einer Spracheingabe ähnlich klingende Buchstaben sind und bei einer handschriftlichen Eingabe bei einem oben geöffneten A ebenfalls sehr ähnlich sind. Auf der Ausgabeeinheit 3, beispielsweise eine Anzeige, wird beispielsweise ein Stern ausgegeben und zusätzlich eine akustische Rückmeldung in Form eines Pieptons ausgegeben. Dadurch erhält der Benutzer eine Rückmeldung, dass seine Eingabe erfasst wurde. Zusätzlich wird bereits eine Trefferliste ausgegeben, in welcher der Begriff „Hannover” zwar vorhanden ist, jedoch an verhältnismäßig weit hinten stehender Position, da beispielsweise Treffer, welche mit dem Buchstaben A beginnen, weiter vorne in der Trefferliste sind. Im Schritt 2 gibt der Benutzer den zweiten Buchstaben A ein. Wiederum werden die Buchstaben H und A als möglicherweise gemeinte Eingaben bestimmt. Zusätzlich wird ein weiteres Sternchen auf der Anzeige als Feedback für den Benutzer neben einem weiteren Piepton ausgegeben. Die Trefferliste wird aktualisiert, wobei jedoch der Begriff „Hannover” immer noch verhältnismäßig weit hinten stehen kann, da nach wie vor andere Ziele, wie z. B. „Aachen” weiter vorne stehen. Im Schritt 3 gibt der Benutzer den Buchstaben N ein. Als möglicherweise gemeinte Eingaben werden die Buchstaben M und N bestimmt. Wiederum erhält der Benutzer aufgrund seiner Eingabe eine Rückmeldung in Form eines weiteren Sternchens auf der Anzeige und eines weiteren Pieptons. Die Trefferliste wird wiederum aktualisiert und der Begriff „Hannover” taucht beispielsweise nun bereits unter den ersten fünf Treffern auf. Nach der Eingabe eines weiteren Buchstabens N durch den Benutzer in Schritt 4, welcher als möglicherweise gemeinte Eingabe N oder M bestimmt Wird, wird nach einer Quittierung der Eingabe durch ein weiteres Sternchen und einen weiteren Piepton die Trefferliste wiederum aktualisiert, wodurch der Begriff „Hannover” auf die vorderste Position in der Trefferliste rückt. Der Benutzer kann beispielsweise mit Hilfe einer Bestätigungstaste den Begriff „Hannover” als Fahrtziel für das Navigationssystem festlegen.
  • Bei der in 3 dargestellten Ausführungsform besteht die Möglichkeit, dass der Benutzer die Trefferliste, welche bereits in Schritt 1 oder in Schritt 2 ausgegeben wurde, als Feedback für seine Eingabe auffasst und daher bereits in Schritt 1 oder Schritt 2 eine Diskrepanz zwischen seiner Eingabe und der Trefferliste erkennt, so dass er trotz der unspezifischen Rückmeldung, also trotz der verdeckten Eingabe, der einzelnen Buchstaben in Form der Sternchen mit der Eingabe abbricht. Um dies zu vermeiden, kann die Trefferliste beispielsweise erst ab einer bestimmten Zuverlässigkeit, einer sogenannten Konfidenz der Ergebnisse dargestellt werden, oder erst nach einer kurzen Pause nach der letzten Eingabe. Darüber hinaus kann die Trefferliste auch beispielsweise erst nach einer Eingabe von einer vorbestimmten Mindestanzahl von eingegebenen Buchstaben ausgegeben werden. Eine derartige Vorgehensweise ist in 4 dargestellt. Die Vorgehensweise in 4 unterscheidet sich von der Vorgehensweise in 3 dadurch, dass nach der Eingabe in Schritt 1 und der Eingabe in Schritt 2 noch keine Trefferliste ausgegeben wird. In Schritt 3 wird zum ersten Mal eine Trefferliste ausgegeben, in welcher der Begriff „Hannover” bereits unter den ersten fünf Einträgen zu finden ist. Dadurch kann vermieden werden, dass der Benutzer seine Eingabe vorzeitig abbricht.
  • Für die Darstellung der verdeckten Eingabe auf der Anzeige sind verschiedene Darstellungsvarianten denkbar, beispielsweise die in 3 und 4 gezeigten Sterne oder Punkte oder ein Fortschrittsbalken. Erkennt das System bei der Bestimmung der möglicherweise gemeinten Eingabe einen Buchstaben mit einer sehr hohen Sicherheit, kann die Anzeige oder die akustische Ausgabe auch eine spezifische Ausgabe sein, d. h. der erkannte Buchstabe wird angezeigt und/oder als gesprochener Buchstabe über die akustische Ausgabe ausgegeben. Wenn das System hingegen bei der möglicherweise gemeinten Eingabe keine hohe Sicherheit für einen der möglicherweise gemeinten Buchstaben bestimmen kann, wird die in den 3 und 4 dargestellte unspezifische Ausgabe ausgegeben, d. h. der Stern und der Piepton.
  • Obwohl in der vorhergehenden Beschreibung eine buchstabenweise Eingabe beschrieben wurde, ist das Verfahren gleichermaßen für beispielsweise eine silbenweise Eingabe oder eine wortweise Eingabe verwendbar. Eine buchstabenbasierte Eingabe per Sprache, Tastatur oder Handschrift weist jedoch folgende vorteilhafte Eigenschaften auf. Durch das sukzessive Eingeben einzelner Zeichen kann die Länge der Trefferliste kontinuierlich bis auf ein gewünschtes Maß verringert werden, so dass nicht immer ein vollständiger Begriff eingegeben werden muss. Außerdem ermöglicht die sukzessive Eingabe eine sogenannte automatische Vervollständigungsfunktion, bei der mögliche Vervollständigungen der Eingabe angeboten werden und mit einer einfachen Bedienhandlung direkt ausgewählt werden können. Darüber hinaus erlaubt die buchstabenbasierte Texteingabe eine statistische Auswertung der Eingaben, so dass die zu jeder Eingabe vom Erkennersystem an einen Suchalgorithmus ausgegebene Gruppe von möglicherweise gemeinten Zeichen kontinuierlich in die Filterung der Suchtreffer einfließen kann. Beispielsweise wird bei einer handschriftlichen Eingabe eines oben geöffneten „A” auch ein Treffer mit dem Buchstaben „H” in Betracht gezogen. Durch die Eingabe mehrerer Zeichen ändern sich die Verbundwahrscheinlichkeiten der Zeichen, so dass eine Rückwärtskorrektur möglich wird. Der Benutzer erhält somit auch bei von dem Erkennersystem nicht eindeutig zuzuweisenden Eingaben mit hoher Wahrscheinlichkeit das gewünschte Suchergebnis, wohingegen ein normaler Suchalgorithmus nur das Zeichen mit der höchsten Konfidenz verwenden würde und alle anderen Zeichen ausschließt.
  • Dadurch wird eine im Fahrzeugbereich besonders vorteilhafte blickabwendungsfreie Eingabe zur schnellen Suche in umfangreichen Datenmengen ermöglicht und Korrekturen von Eingaben oder Neueingaben vermieden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 0994461 A2 [0003]
    • WO 2006/053800 A1 [0004]
    • EP 2006835 A1 [0005]
    • DE 102008021954 A1 [0006]
    • DE 102008062923 A1 [0007]
    • DE 102005030380 A1 [0008]

Claims (13)

  1. Verfahren für eine Benutzerschnittstelle, umfassend: – Erfassen einer Folge von Benutzereingaben, wobei jede Benutzereingabe der Folge von Benutzereingaben einen Wortanteil umfasst, und für jede Benutzereingabe der Folge von Benutzereingaben: – Bestimmen einer Wortanteilgruppe in Abhängigkeit von der Benutzereingabe, wobei die Wortanteilgruppe ein oder mehrere möglicherweise gemeinte Wortanteile umfasst, und – Ausgeben einer Bestätigung an den Benutzer nach der Benutzereingabe, wobei die Bestätigung eine unspezifische Bestätigung, welche unabhängig von der Wortanteilgruppe ist, umfasst.
  2. Verfahren nach Anspruch 1, wobei die Wortanteilgruppe ferner für jeden möglicherweise gemeinten Wortanteil eine zugeordnete Wahrscheinlichkeit umfasst, wobei die einem möglicherweise gemeinten Wortanteil zugeordnete Wahrscheinlichkeit eine Wahrscheinlichkeit angibt, dass der möglicherweise gemeinte Wortanteil dem Wortanteil der Benutzereingabe entspricht, und wobei die Bestätigung die unspezifische Bestätigung umfasst, wenn keine der möglicherweise gemeinten Wortanteile der Wortanteilgruppe eine Wahrscheinlichkeit über einem vorbestimmten Wahrscheinlichkeitsschwellenwert aufweist, und wobei die Bestätigung eine spezifische Bestätigung, welche von der Wortanteilgruppe abhängig ist, umfasst, wenn eine Wahrscheinlichkeit eines möglicherweise gemeinten Wortanteils der Wortanteilgruppe größer als der vorbestimmte Wahrscheinlichkeitsschwellenwert ist.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Wortanteil einen Buchstaben, – eine Ziffer, – ein Satzzeichen, – eine Silbe, und/oder – ein ganzes Wort umfasst.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Benutzereingabe – eine handschriftliche Eingabe des Wortanteils, – eine akustische Eingabe des Wortanteils, – eine gestenbasierte Eingabe des Wortanteils, und/oder – eine Tastatureingabe des Wortanteils umfasst.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Bestätigung – ein optisches Bestätigungssignal, – ein akustisches Bestätigungssignal, und/oder – ein haptisches Bestätigungssignal umfasst.
  6. Verfahren nach einem der vorhergehenden Ansprüche, ferner umfassend: – Bilden einer Folge von Wortanteilgruppen in Abhängigkeit von der Folge von Benutzereingaben und den daraus bestimmten Wortanteilgruppen, – Bestimmen Von mindestens einem Wort aus einem vorbestimmten Wortschatz in Abhängigkeit von der Folge der Wortanteilgruppen.
  7. Verfahren nach einem der Ansprüche 1–5, ferner umfassend: – Bilden einer Folge von Wortanteilgruppen in Abhängigkeit von der Folge von Benutzereingaben und den daraus bestimmten Wortanteilgruppen, – Bestimmen von mindestens einem Wort aus einem vorbestimmten Wortschatz in Abhängigkeit von nur einer vorbestimmten Anzahl der mehreren möglicherweise gemeinten Wortanteile aus jeder Wortanteilgruppe der Folge der Wortanteilgruppen, wobei die vorbestimmte Anzahl der mehreren möglicherweise gemeinten Wortanteile aus jeder Wortanteilgruppe die möglicherweise gemeinten Wortanteile mit den größten Wahrscheinlichkeiten umfasst.
  8. Verfahren nach einem der Ansprüche 6 oder 7, ferner umfassend: – Ausgeben des mindestens einen Worts aus dem vorbestimmten Wortschatz, wobei das mindestens eine Wort erst ausgegeben wird, wenn die Folge von Benutzereingaben eine vorbestimmte Anzahl von Benutzereingaben überschreitet.
  9. Verfahren nach einem der Ansprüche 6 oder 7, ferner umfassend: – Ausgeben des mindestens einen Worts aus dem vorbestimmten Wortschatz, wobei das mindestens eine Wort erst ausgegeben wird, wenn eine Anzahl von Worten, welche aus dem vorbestimmten Wortschatz bestimmt werden, eine vorbestimmte Anzahl unterschreitet.
  10. Benutzerschnittstelle, umfassend: – eine Eingabeeinheit (3) zum Erfassen einer Folge von Benutzereingaben, wobei jede Benutzereingabe der Folge von Benutzereingaben einen Wortanteil umfasst, – eine Ausgabeeinheit (4) zum Ausgeben von Informationen an den Benutzer, und – eine Verarbeitungseinheit (5), welche ausgestaltet ist, für jede Benutzereingabe der Folge von Benutzereingaben: eine Wortanteilgruppe in Abhängigkeit von der Benutzereingabe zu bestimmen, wobei die Wortanteilgruppe ein oder mehrere möglicherweise gemeinte Wortanteile umfasst, und eine Bestätigung nach der Benutzereingabe über die Ausgabeeinheit auszugeben, wobei die Bestätigung eine unspezifische Bestätigung, welche unabhängig der Wortanteilgruppe ist, umfasst.
  11. Benutzerschnittstelle nach Anspruch 10, wobei die Benutzerschnittstelle zur Durchführung des Verfahrens nach einem der Ansprüche 1–9 ausgestaltet ist,
  12. Vorrichtung mit einer Benutzerschnittstelle nach Anspruch 10 oder 11, wobei die Vorrichtung (2) ein Navigationssystem, ein Mobilfunktelefon, ein Medienwiedergabesystem oder ein Bediensystem für ein Fahrzeug (1) umfasst.
  13. Fahrzeug mit einer Vorrichtung (2) nach Anspruch 12.
DE102011116460A 2011-10-20 2011-10-20 Verfahren für eine Benutzerschnittstelle Ceased DE102011116460A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102011116460A DE102011116460A1 (de) 2011-10-20 2011-10-20 Verfahren für eine Benutzerschnittstelle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011116460A DE102011116460A1 (de) 2011-10-20 2011-10-20 Verfahren für eine Benutzerschnittstelle

Publications (1)

Publication Number Publication Date
DE102011116460A1 true DE102011116460A1 (de) 2013-04-25

Family

ID=48051245

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011116460A Ceased DE102011116460A1 (de) 2011-10-20 2011-10-20 Verfahren für eine Benutzerschnittstelle

Country Status (1)

Country Link
DE (1) DE102011116460A1 (de)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0994461A2 (de) 1998-10-14 2000-04-19 Philips Corporate Intellectual Property GmbH Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äusserung
WO2006053800A1 (de) 2004-11-16 2006-05-26 Siemens Aktiengesellschaft Verfahren zur spracherkennung aus einem aufgeteilten vokabular
DE112005000198T5 (de) * 2004-01-20 2006-11-30 Xanavi Informatics Corp., Zama Suchdatenaktualisierungsverfahren und Suchdatenaktualisierungssystem
DE102005030380A1 (de) 2005-06-29 2007-01-04 Siemens Ag Verfahren zur Ermittlung einer Hypothesenliste aus einem Vokabular eines Spracherkennungssystems
DE102007028235A1 (de) * 2007-06-20 2008-12-24 Siemens Ag Verfahren zur Ermittlung einer Hypothesenliste aus einem Vokabular eines Spracherkennungssystems
DE102008021954A1 (de) 2008-02-29 2009-09-03 Navigon Ag Verfahren zum Betrieb eines elektronischen Assistenzsystems
DE102008062923A1 (de) 2008-12-23 2010-06-24 Volkswagen Ag Verfahren und Vorrichtung zur Erzeugung einer Trefferliste bei einer automatischen Spracherkennung
DE102009021124A1 (de) * 2009-05-13 2010-09-23 Audi Ag Bediensystem für ein Fahrzeug

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0994461A2 (de) 1998-10-14 2000-04-19 Philips Corporate Intellectual Property GmbH Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äusserung
DE112005000198T5 (de) * 2004-01-20 2006-11-30 Xanavi Informatics Corp., Zama Suchdatenaktualisierungsverfahren und Suchdatenaktualisierungssystem
WO2006053800A1 (de) 2004-11-16 2006-05-26 Siemens Aktiengesellschaft Verfahren zur spracherkennung aus einem aufgeteilten vokabular
DE102005030380A1 (de) 2005-06-29 2007-01-04 Siemens Ag Verfahren zur Ermittlung einer Hypothesenliste aus einem Vokabular eines Spracherkennungssystems
DE102007028235A1 (de) * 2007-06-20 2008-12-24 Siemens Ag Verfahren zur Ermittlung einer Hypothesenliste aus einem Vokabular eines Spracherkennungssystems
EP2006835A1 (de) 2007-06-20 2008-12-24 Siemens Aktiengesellschaft Verfahren zur Ermittlung einer Hypothesenliste aus einem Vokabular eines Spracherkennungssystems
DE102008021954A1 (de) 2008-02-29 2009-09-03 Navigon Ag Verfahren zum Betrieb eines elektronischen Assistenzsystems
DE102008062923A1 (de) 2008-12-23 2010-06-24 Volkswagen Ag Verfahren und Vorrichtung zur Erzeugung einer Trefferliste bei einer automatischen Spracherkennung
DE102009021124A1 (de) * 2009-05-13 2010-09-23 Audi Ag Bediensystem für ein Fahrzeug

Similar Documents

Publication Publication Date Title
DE102020205786B4 (de) Spracherkennung unter verwendung von nlu (natural language understanding)-bezogenem wissen über tiefe vorwärtsgerichtete neuronale netze
EP1793371B1 (de) Verfahren zur Spracherkennung
DE69721939T2 (de) Verfahren und System zur Auswahl alternativer Wörter während der Spracherkennung
DE60215272T2 (de) Verfahren und Vorrichtung zur sprachlichen Dateneingabe bei ungünstigen Bedingungen
EP3224831B1 (de) Kraftfahrzeug-bedienvorrichtung mit korrekturstrategie für spracherkennung
DE60207742T2 (de) Korrektur eines von einer spracherkennung erkannten textes mittels vergleich der phonemfolgen des erkannten textes mit einer phonetischen transkription eines manuell eingegebenen korrekturwortes
DE69914131T2 (de) Positionshandhabung bei der Spracherkennung
EP2909584B1 (de) Kraftwagen mit einer eingabevorrichtung zur handschrifterkennung
DE69923379T2 (de) Nicht-interaktive Registrierung zur Spracherkennung
EP1892700A1 (de) Verfahren zur Spracherkennung und Sprachwiedergabe
DE112012007103B4 (de) Spracherkennungsvorrichtung
DE102005030380B4 (de) Verfahren zur Ermittlung einer Hypothesenliste aus einem Vokabular eines Spracherkennungssystems
DE102005018174A1 (de) Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11
DE60318385T2 (de) Sprachverarbeitungseinrichtung und -verfahren, aufzeichnungsmedium und programm
DE102009021124A1 (de) Bediensystem für ein Fahrzeug
EP1238250B1 (de) Spracherkennungsverfahren und -einrichtung
DE112015003357B4 (de) Verfahren und System zum Erkennen einer eine Wortabfolge enthaltenden Sprachansage
DE102005030965B4 (de) Erweiterung des dynamischen Vokabulars eines Spracherkennungssystems um weitere Voiceenrollments
DE60312963T2 (de) Methode und gerät zur schnellen, durch mustererkennung gestützen transkription von gesprochenen und geschriebenen äusserungen
DE102017211447B4 (de) Verfahren zum Auswählen eines Listeneintrags aus einer Auswahlliste einer Bedienvorrichtung mittels Sprachbedienung sowie Bedienvorrichtung
DE102011116460A1 (de) Verfahren für eine Benutzerschnittstelle
DE102017216571B4 (de) Kraftfahrzeug
EP3115886A1 (de) Verfahren zum betreiben eines sprachsteuerungssystems und sprachsteuerungssystem
DE102011015693A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle, insbesondere in einem Fahrzeug
DE10122087C1 (de) Verfahren zum Training und Betrieb eines Spracherkenners, Spracherkenner und Spracherkenner-Trainingssystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R006 Appeal filed
R008 Case pending at federal patent court
R003 Refusal decision now final
R011 All appeals rejected, refused or otherwise settled
R082 Change of representative