DE19709518C1 - Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb - Google Patents

Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb

Info

Publication number
DE19709518C1
DE19709518C1 DE19709518A DE19709518A DE19709518C1 DE 19709518 C1 DE19709518 C1 DE 19709518C1 DE 19709518 A DE19709518 A DE 19709518A DE 19709518 A DE19709518 A DE 19709518A DE 19709518 C1 DE19709518 C1 DE 19709518C1
Authority
DE
Germany
Prior art keywords
input
destination
speech
lexicon
dialog
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE19709518A
Other languages
English (en)
Other versions
DE19709518C5 (de
Inventor
Fritz Dr Class
Thomas Dr Kuhn
Carsten-Uwe Dipl Ing Moeller
Frank Dipl Ing Reh
Gerhard Dipl Ing Nuesle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harman Becker Automotive Systems GmbH
Original Assignee
Daimler Benz AG
Daimler Benz Aerospace AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=7822659&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE19709518(C1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Daimler Benz AG, Daimler Benz Aerospace AG filed Critical Daimler Benz AG
Priority to DE19709518A priority Critical patent/DE19709518C5/de
Priority to DE59813027T priority patent/DE59813027D1/de
Priority to EP98103662A priority patent/EP0865014B1/de
Priority to AT98103662T priority patent/ATE303580T1/de
Publication of DE19709518C1 publication Critical patent/DE19709518C1/de
Application granted granted Critical
Priority to JP10096532A priority patent/JPH1115493A/ja
Priority to CA002231851A priority patent/CA2231851C/en
Priority to US09/038,147 priority patent/US6230132B1/en
Publication of DE19709518C5 publication Critical patent/DE19709518C5/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Machine Translation (AREA)
  • Traffic Control Systems (AREA)
  • Train Traffic Observation, Control, And Security (AREA)

Description

Die Erfindung betrifft ein Verfahren zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb gemäß dem Oberbegriff des Patentanspruchs 1 sowie eine Vorrichtung zum Ausführen des Verfahrens gemäß Oberbegriff des Patentan­ spruchs 12.
Die DE 196 00 700 A1 beschreibt ein Zielführungssystem für ein Kraftfahrzeug, bei welchem als Eingabevorrichtung ein fest montierter Schalter, ein Berührfeldschalter oder ein Spracherkennungsgerät verwendet werden kann. Das Dokument geht aber nicht auf die Spracheingabe einer Zieladresse in ein Zielführungssystem ein.
Die EP 0 736 853 A1 beschreibt ebenfalls ein Zielführungssystem für ein Kraftfahrzeug. Die Spracheingabe einer Zieladresse in ein Zielführungssystem ist aber nicht Gegenstand dieses Dokuments.
Die DE 36 08 497 A1 beschreibt ein Verfahren zum sprachgesteuerten Bedienen eines Fernmeldeendgerätes, insbesondere eines Autotelefons. Als nachteilig wird an dem Verfahren angesehen, daß nicht auf die speziellen Probleme bei der Spracheingabe einer Zieladresse in ein Zielführungssystem eingegangen wird.
Die ältere noch nicht vorveröffentlichte Patentanmeldung P 195 33 541.4-52 der Anmelderin offenbart ein gattungsgemäßes Ver­ fahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und eine Vorrichtung zum Ausführen des Verfahrens. Gemäß diesem Verfahren werden die eingegebenen Sprachkommandos mittels einer Spracherkennungseinrichtung, welche einen sprecherunabhängigen Spracherkenner und einen sprecherabhängigen Zusatz-Spracher­ kenner umfaßt, erkannt und gemäß ihrer Erkennungswahrschein­ lichkeit als das eingegebene Sprachkommando identifiziert und die diesem Sprachkommando zugeordneten Funktionen des oder der Geräte initiiert. Die Sprachkommandos bzw. die Sprachdialoge werden dabei auf der Basis von mindestens einer Synataxstruk­ tur, mindestens einem Basiskommandovokabular und bei Bedarf mindestens einem sprecherspezifischen Zusatzkommandovokabular gebildet. Die Syntaxstrukturen und die Basiskommandovokabula­ rien werden in sprecherunabhängiger Form vorgegeben und sind während des Echtzeitbetriebs fixiert. Das sprecherspezifische Zusatzvokabular wird vom jeweiligen Sprecher eingegeben und/oder geändert, indem in Trainingsphasen innerhalb und au­ ßerhalb des Echtzeitbetriebs ein nach einem sprecherabhängigen Erkennungsverfahren arbeitender Zusatz-Spracherkenner vom je­ weiligen Sprecher durch eine mindestens einmalige Eingabe der Zusatzkommandos auf die sprecherspezifischen Merkmale des je­ weiligen Sprechers trainiert wird. Im Echtzeitbetrieb erfolgt die Abwicklung des Sprachdialogs und/oder die Steuerung der Ge­ räte wie folgt:
  • - vom Benutzer eingegebene Sprachkommandos werden einem spre­ cherunabhängigen und auf der Basis von Phonemen arbeitenden Spracherkenner und dem sprecherabhängigen Zusatz-Spracherkenner zugeleitet und dort einer Merkmalextraktion unterzogen und im sprecherabhängigen Zusatz-Spracherkenner anhand der dort extra­ hierten Merkmale auf das Vorliegen von Zusatzkommandos aus dem Zusatzkommandovokabular untersucht und klassifiziert.
  • - anschließend werden die als mit einer bestimmten Wahrschein­ lichkeit erkannt klassifizierten Kommandos und Syntaxstrukturen der beiden Spracherkenner zu hypothetischen Sprachkommandos zu­ sammengefügt und diese gemäß der vorgegebenen Syntaxstruktur auf ihre Zulässigkeit und Erkennungswahrscheinlichkeit unter­ sucht und klassifiziert.
  • - anschließend werden die zulässigen hypothetischen Sprachkom­ mandos nach vorgegebenen Kriterien auf ihre Plausibilität un­ tersucht und von den als plausibel erkannten hypothetischen Sprachkommandos dasjenige mit der höchsten Erkennungswahr­ scheinlichkeit ausgewählt und als das vom Benutzer eingegebene Sprachkommando identifiziert.
  • - anschließend werden die dem identifizierten Sprachkommando zugeordneten Funktionen der zu steuernden Geräte initiiert und/oder Antworten gemäß einer vorgegebenen Sprachdialogstruk­ tur zur Fortführung des Sprachdialogs generiert. Gemäß dieses Dokuments kann das beschriebene Verfahren auch zur Bedienung eines Zielführungssystems eingesetzt werden, wobei die Eingabe einer Zieladresse durch die Eingabe von Buchstaben oder von Buchstabengruppen in einem Buchstabiermodus erfolgt und wobei vom Benutzer eine Liste zur Speicherung von Zieladressen für das Zielführungssystem unter vorgebbaren Namen/Abkürzungen an­ gelegt werden kann.
Als nachteilig kann bei diesem beschriebenen Verfahren angese­ hen werden, daß auf die speziellen Eigenschaften eines Zielfüh­ rungssystems nicht eingegangen wird und nur die Spracheingabe eines Zielortes mittels einem Buchstabiermodus angegeben wird.
Aufgabe der Erfindung ist es, ein gattungsgemäßes Verfahren so weiterzubilden, daß die besonderen Eigenschaften eines Zielfüh­ rungssystems berücksichtigt werden und eine vereinfachte schnellere Spracheingabe einer Zieladresse in ein Zielführungs­ system möglich ist und dadurch der Bedienkomfort verbessert wird. Ferner soll eine geeignete Vorrichtung zur Durchführung des Verfahrens angegeben werden.
Diese Aufgabe wird erfindungsgemäß mit den Merkmalen des An­ spruches 1 oder 12 gelöst, wobei die Merkmale der Unteransprü­ che vorteilhafte Ausgestaltungen und Weiterbildungen kenn­ zeichnen.
Das erfindungsgemäße Verfahren zur Spracheingabe von Zieladres­ sen in ein Zielführungssystem verwendet zur Spracherkennung eine aus dem Stand der Technik bekannte Spracherkennungsein­ richtung wie sie beispielsweise in dem in der Beschreibungs­ einleitung gewürdigten Dokument beschrieben wird, wobei die Spracherkennungseinrichtung wenigstens einen sprecherunabhän­ gigen Spracherkenner und wenigstens einen sprecherabhängigen Zusatz-Spracherkenner umfaßt. Das erfindungsgemäße Verfahren ermöglicht verschiedene Eingabedialoge zur Spracheingabe von Zieladressen. In einem ersten Eingabedialog, im weiteren "Ziel­ orteingabe" genannt, wird der sprecherunabhängige Spra­ cherkenner zur Erkennung von isoliert gesprochenen Zielorten und, wenn der isoliert gesprochene Zielort nicht erkannt wurde, zur Erkennung von verbunden gesprochenen Buchstaben und/oder Buchstabengruppen benutzt. In einem zweiten Eingabedialog, im weiteren "Zielort buchstabieren" genannt, wird der sprecherunabhängige Spracherkenner zur Erkennung von verbunden gesprochenen Buchstaben und/oder Buchstabengruppen benutzt. In einem dritten Eingabedialog, im weiteren "Grobzieleingabe" ge­ nannt, wird der sprecherunabhängige Spracherkenner zur Er­ kennung von isoliert gesprochenen Zielorten und, wenn der iso­ liert gesprochene Zielort nicht erkannt wurde, zur Erkennung von verbunden gesprochenen Buchstaben und/oder Buchstabengrup­ pen benutzt. In einem vierten Eingabedialog, im weiteren "In­ direkte Eingabe" genannt, wird der sprecherunabhängige Spra­ cherkenner zur Erkennung von verbunden gesprochenen Ziffern und/oder Zifferngruppen benutzt. Bei einem fünften Eingabedia­ log, im weiteren "Straßeneingabe" genannt, wird der spreche­ runabhängige Spracherkenner zur Erkennung von isoliert gespro­ chenen Straßennamen und, wenn der isoliert gesprochene Stra­ ßenname nicht erkannt wird, zur Erkennung von verbunden gespro­ chenen Buchstaben und/oder Buchstabengruppen benutzt. Durch die bisher beschriebenen Eingabedialoge werden dem Zielfüh­ rungssystem verifizierte Zieladressen, welche jeweils einen Zielort und eine Straße umfassen, übergeben. Bei einem sechsten Eingabedialog, im weiteren "Adresse abrufen" genannt, wird zusätzlich zum sprecherunabhängigen Spracherkenner der spre­ cherabhängige Zusatz-Spracherkenner zur Erkennung von isoliert gesprochenen Schlüsselworten benutzt. Bei einem siebten Eingabedialog, im weiteren "Adresse speichern" genannt, wird einem vom Benutzer isoliert gesprochenem Schlüsselwort eine vom Benutzer eingegebene Zieladresse zugewiesen, wobei während des Eingabedialogs "Adresse abrufen" ein dem entsprechenden er­ kannten Schlüsselwort zugewiesene Zieladresse an das Zielfüh­ rungssystem übergeben wird.
Das erfindungsgemäße Verfahren beruht hauptsächlich darauf, daß nicht das gesamte zulässige Vokabular für eine Spracherken­ nungseinrichtung zum Zeitpunkt ihrer Aktivierung in der Spra­ cherkennungseinrichtung geladen ist, sondern daß in Abhängig­ keit der notwendigen Eingabedialoge zur Ausführung einer Bedi­ enfunktion, zumindest ein notwendiges Lexikon aus dem gesamten möglichen Vokabular während des Echtzeitbetriebs generiert und in die Spracherkennungseinrichtung geladen wird. In der Bundes­ republik Deutschland gibt es über 100.000 Orte, die als Vokabu­ lar für das Zielführungssystem in Frage kommen. Würde dieses Vokabular in die Spracherkennungseinrichtung geladen werden, so wäre der Erkennungsvorgang extrem langsam und fehlerbehaftet. Ein aus diesem Vokabular generiertes Lexikon umfaßt nur ca. 1500 Worte, dadurch wird der Erkennungsvorgang wesentlich schneller und die Erkennungsrate wird größer. Als Datengrund­ lage für das erfindungsgemäße Verfahren wird wenigstens eine Zieldatei, welche alle möglichen Zieladressen und bestimmte Zusatzinformationen zu den möglichen Zieladressen eines Ziel­ führungssystems umfaßt und auf mindestens einer Datenbasis gespeichert ist, verwendet. Aus dieser Zieldatei werden Lexika generiert, welche wenigstens Teile der Zieldatei umfassen, wobei wenigstens ein Lexikon in Abhängigkeit von wenigstens einem aktivierten Eingabedialog in Echtzeit generiert wird. Besonders vorteilhaft ist es wenn die Zieldatei zu jedem gespeicherten Zielort zusätzliche Informationen, beispielsweise Politische Zugehörigkeit bzw. Namenszusatz, Postleitzahl bzw. Postleitzahlenbereich, Ortsnetzkennzahl, Bundesland, Einwoh­ nerzahl, Geographische Codierung, Phonetische Beschreibung oder Lexikonzugehörigkeit enthält. Diese Zusatzinformationen können dann zur Auflösung von Mehrdeutigkeiten bzw. zur Beschleunigung der Auffindung des gewünschten Zielortes herangezogen werden. Anstelle der phonetischen Beschreibung kann für die Spracher­ kennungseinrichtung eine Transkription der phonetischen Be­ schreibung in Form von einer Kette von Indizes, je nach Reali­ sierung der Transkription, verwendet werden. Ferner kann eine sogenannte automatische phonetische Transkription, welche eine regelbasierende Umwandlung von orthographisch vorliegenden Na­ men unter Einbeziehung einer Ausnahmetabelle in eine phonetische Beschreibung durchführt, vorgesehen werden. Die Eintragung der Lexikonzugehörigkeit ist nur dann möglich, wenn die entsprechenden Lexika in einem "Off-Line-Editiermodus", außerhalb des eigentlichen Betriebs des Zielführungssystems, aus der Zieldatei generiert wurden und auf der mindestens einen Datenbasis, beispielsweise einer CD-ROM oder einer externen Datenbank in einer Zentrale, auf die über entsprechende Kommunikationseinrichtungen, beispielsweise Mobilfunknetz, zugegriffen werden kann, gespeichert wurden. Die Generierung der Lexika im "Off-Line-Editiermodus" ist nur sinnvoll, wenn genügend Speicherplatz auf der mindestens einen Datenbasis vorhanden ist, und bietet sich besonders für Lexika an, welche besonders häufig benötigt werden. Als Datenbasis für die Zieldatei bietet sich besonders eine CD-Rom oder eine externe Datenbank an, da dadurch die Zieldatei immer auf dem aktuell­ sten Stand gehalten werden kann. Im Augenblick sind noch nicht alle möglichen Ortsnamen der Bundesrepublik Deutschland digita­ lisiert und auf einer Datenbasis abgelegt. Desgleichen ist nicht für alle Orte eine entsprechende Straßenliste vorhanden. Deshalb ist es wichtig, die Datengrundlage jederzeit aktuali­ sieren zu können. Als Datenbasis für das mindestens eine im "Off-Line-Editiermodus" generierte Lexikon kann auch ein in­ terner nicht flüchtiger Speicherbereich des Zielführungssystems benutzt werden.
Um die Spracheingabe einer gewünschten Zieladresse an das Ziel­ führungssystem schneller durchführen zu können, wird nach der Initialisierungsphase des Zielführungssystems bzw. bei einem genügend großen nicht flüchtigen internen Speicherbereich nach jedem Wechsel der Datenbasis, ein Grundvokabular geladen, wel­ ches wenigstens ein aus der Zieldatei generiertes Grund-Lexikon umfaßt. Die Generierung dieses Grund-Lexikons kann bereits im "Off-Line-Editiermodus" erfolgt sein. Das Grund-Lexikon kann zusätzlich zu der Zieldatei auf der Datenbasis gespeichert sein oder im nicht flüchtigen internen Speicherbereich des Zielführungssystems abgelegt sein. Als Alternative kann die Generierung des Grund-Lexikons erst nach der Initialisierungs­ phase erfolgen. Das dynamische Generieren von Lexika während des Echtzeitbetriebs des Zielführungssystems, d. h. während der Laufzeit, bringt zwei wesentliche Vorteile mit sich. Zum einen besteht dadurch die Möglichkeit beliebige Lexika aus der auf der mindestens einen Datenbasis abgelegten Datengrundlage zusammenzustellen und zum zweiten spart man erheblichen Spei­ cherplatz auf der mindestens einen Datenbasis, da nicht alle für die verschiedenen Eingabedialoge benötigten Lexika auf der mindestens einen Datenbasis vor der Aktivierung des Spracher­ kenners abgelegt sein müssen.
Bei der nachfolgend beschriebenen Ausführungsform umfaßt das Grundvokabular zwei im "Off-Line-Editiermodus" generierte und auf der mindestens einen Datenbasis gespeicherte Lexika und zwei Lexika, welche nach der Initialisierungsphase generiert werden. Besitzt die Spracherkennungseinrichtung genügend Ar­ beitsspeicher, so wird das Grundvokabular nach der Initiali­ sierungsphase zusätzlich zu den zulässigen Sprachkommandos für das Sprachdialogsystem gemäß der P 195 33 541.4-52 in die Spra­ cherkennungseinrichtung geladen. Das Sprachdialogsystem erlaubt dann nach der Initialisierungsphase und dem Betätigen der PTT-Taste die Eingabe von verschiedenen Informationen mit der Ab­ sicht die an das Sprachdialogsystem angeschlossenen Geräte zu steuern sowie die Grundfunktionen eines Zielführungssystems zu bedienen und einen Zielort und/oder eine Straße als Zieladresse für das Zielführungssystem einzugeben. Besitzt die Spracherkennungseinrichtung zu wenig Arbeitsspeicher so wird das Grundvokabular erst in die Spracherkennungseinrichtung ge­ laden, wenn eine entsprechende Bedienfunktion, welche auf das Grundvokabular zurückgreift, aktiviert wurde. Das auf der min­ destens einen Datenbasis gespeichertes Grund-Lexikon umfaßt die "p" größten Städte der Bundesrepublik Deutschland, wobei der Parameter "p" bei der beschriebenen Ausführung auf 1000 gesetzt ist. Damit werden ca. 53 Mio. Bundesbürger oder 65% der Bevöl­ kerung direkt erfaßt. Das Grund-Lexikon umfaßt alle Orte mit mehr als 15.000 Einwohnern. Ein ebenfalls auf der Datenbasis gespeichertes Region-Lexikon umfaßt "z" Namen von Regionen und Gebieten wie z. B. Bodensee, Schwäbische Alb usw., wobei bei der beschriebenen Ausführung das Region-Lexikon ca. 100 Namen umfaßt. Das Region-Lexikon dient zur Erfassung von bekannten Gebieten und gebräuchlichen Regionsnamen. Hinter diesen Namen verstecken sich Zusammenfassungen von Ortsnamen, die nach dem Einsprechen des Gebiets- oder Regionsnamens als neues Ge­ biets-Lexikon generiert und geladen werden können. Ein Umge­ bungs-Lexikon, welches erst nach der Initialisierung generiert wird, umfaßt "a" dynamisch nachgeladene Ortsnamen rund um den aktuel­ len Fahrzeugstandort, dadurch können auch kleinere Orte in der unmittelbaren Umgebung direkt angesprochen werden, wobei der Parameter "a" bei der beschriebenen Ausführungsform auf 400 gesetzt ist. Dieses Umgebungs-Lexikon wird auch während der Fahrt in bestimmten Abständen immer wieder aktualisiert, damit es immer möglich ist, Orte in der unmittelbaren Umgebung direkt einzusprechen. Der aktuelle Fahrzeugstandort wird dem Zielführungssystem von einem aus dem Stand der Technik bekann­ ten Ortungsverfahren, beispielsweise mittels einem Global Po­ sitioning System (GPS), mitgeteilt. Die bisher beschriebenen Lexika sind dem sprecherunabhängigen Spacherkenner zugeordnet. Ein Namen-Lexikon, welches nicht aus der Zieldatei generiert wird und dem sprecherabhängigen Spracherkenner zugeordnet ist, umfaßt ca. 150 vom Benutzer gesprochene Schlüsselworte aus dem persönlichen Adreßregister des Benutzers. Jedem Schlüsselwort wird dabei mittels dem Eingabedialog "Adresse speichern" eine bestimmte Zieladresse aus der Zieldatei zugeordnet. Diese bestimmte Zieladresse wird durch die Spracheingabe des zugeord­ neten Schlüsselworts mittels dem Eingabedialog "Adresse abru­ fen" an das Zielführungssystem übergeben. Damit ergibt sich ein Grundvokabular von ca. 1650 Wörtern, die der Spracherkennungs­ einrichtung bekannt sind und als isoliert gesprochenes Wort (Ortsnamen, Straßennamen, Schlüsselwort) eingegeben werden kön­ nen.
Zusätzlich kann vorgesehen werden, Adressen aus einer externen Datenquelle, beispielsweise einem persönlichen elektronischen Datensystem oder einem tragbaren Kleinrechner (Laptop), mittels einer Datenübertragung an das Sprachdialogsystem bzw. an das Zielführungssystem zu übertragen und als Adressen-Lexikon in das Grundvokabular zu integrieren. Normalerweise sind auf den externen Datenquellen keine phonetischen Beschreibungen für die Adreßdaten (Namen, Zielort, Straße) abgelegt. Um diese Daten trotzdem in das Vokabular für eine Spracherkennungseinrichtung übernehmen zu können, muß eine automatische phonetische Transkription dieser Adreßdaten, insbesondere der Namen durch­ geführt werden. Über eine Tabelle wird anschließend eine Zu­ weisung zum richtigen Zielort realisiert.
Für die im folgenden beschriebenen Dialogbeispiele muß auf der mindestens einen Datenbasis des Zielführungssystems eine Zieldatei abgelegt werden, welche für jeden im Zielführungssy­ stem erfaßten Ort einen Datensatz gemäß Tabelle 1 enthält. Je nach Speicherplatz und Verfügbarkeit können von den angegebenen Informationen auch Teile fehlen. Dies betrifft aber nur Daten, die zur Auflösung von Mehrdeutigkeiten herangezogen werden wie z. B. Namenszusatz, Kreiszugehörigkeit, Vorwahlnummern usw. Werden Adreßdaten von einer externen Datenquelle verwendet, so müssen die Adreßdaten entsprechend ergänzt werden. Von besonderer Bedeutung sind die Wortuntereinheiten für die Spracherkennungseinrichtung, welche als Hidden-Markov-Model- Spracherkenner arbeitet (HMM-Erkenner)
Beschreibung des Eintrags
Beispiel
Ortsnamen
Flensburg
Politische Zugehörigkeit bzw. Namenszusatz -
Postleitzahl bzw. Postleitzahlenbereich 24900-24999
Vorwahlnummer 0461
Stadt- bzw. Landkreiszugehörigkeit Flensburg, Stadtkreis
Bundesland Schleswig-Holstein
Einwohnerzahl 87526
Geographische Codierung 9.43677, 54.78204
Phonetische Beschreibung f′EnsbUrk
Wortuntereinheiten für den HMM-Spracherkenner f[LN]le E[LN] n[C] s b[Vb] U[Vb]r k. bzw. 101 79 124 117 12 39 35 82 68
Lexikonzugehörigkeit 3, 4, 78 . . .
Die Erfindung ist im Folgenden anhand von Ausführungsbeispielen in Verbindung mit den Zeichnungen näher erläutert. Es zeigen:
Fig. 1 in schematischer Darstellung eine Übersicht über die möglichen Eingabedialoge zur Spracheingabe einer Ziel­ adresse für ein Zielführungssystem;
Fig. 2 in schematischer Darstellung ein Ablaufdiagramm eines ersten Ausführungsbeispiels für den Eingabedialog "Zielorteingabe";
Fig. 3 in schematischer Darstellung ein Ablaufdiagramm eines zweiten Ausführungsbeispiels für den Eingabedialog "Zielorteingabe";
Fig. 4 in schematischer Darstellung ein Ablaufdiagramm für den Eingabedialog "Aus Liste auswählen";
Fig. 5 in schematischer Darstellung ein Ablaufdiagramm für den Eingabedialog "Mehrdeutigkeit auflösen";
Fig. 6 in schematischer Darstellung ein Ablaufdiagramm für den Eingabedialog "Zielort buchstabieren";
Fig. 7 in schematischer Darstellung ein Ablaufdiagramm für den Eingabedialog "Grobzieleingabe";
Fig. 8 in schematischer Darstellung ein Ablaufdiagramm für den Eingabedialog "Adresse speichern";
Fig. 9 in schematischer Darstellung ein Ablaufdiagramm für den Eingabedialog "Straßeneingabe";
Fig. 10 in schematischer Darstellung ein Blockschaltbild einer Vorrichtung zur Durchführung des erfindungsgemäßen Verfahrens.
Fig. 1 zeigt eine Übersicht über die möglichen Eingabedialoge zur Spracheingabe einer Zieladresse für ein Zielführungssystem. Ein Sprachdialog zwischen einem Benutzer und einem Sprachdia­ logsystem gemäß Fig. 1 beginnt nach der Initialisierungsphase mit einem Wartezustand 0, indem das Sprachdialogsystem ver­ bleibt, bis die PTT-Taste (Push-to-Talk-Taste) betätigt wird und in den das Sprachdialogsystem nach Beendigung des Sprach­ dialogs zurückkehrt. Der Benutzer aktiviert das Sprachdialog­ system durch Betätigen der PTT-Taste im Schritt 100. Das Sprachdialogsystem antwortet im Schritt 200 mit einer akusti­ schen Ausgabe, beispielsweise durch einen Signalton oder durch eine Sprachausgabe, welche dem Benutzer anzeigt, daß das Sprachdialogsystem bereit ist ein Sprachkommando entgegenzu­ nehmen. Im Schritt 300 wartet das Sprachdialogsystem nun auf ein zulässiges Sprachkommando, um mittels einer Dialog- und Ab­ laufsteuerung die verschiedenen mit dem Sprachdialogsystem verbundenen Geräte zu steuern oder einen entsprechenden Ein­ gabedialog zu starten. Im Einzelnen wird hier aber nur auf die zulässigen Sprachkommandos näher eingegangen, welche das Zielführungssystem betreffen. Es können an dieser Stelle fol­ gende, die verschiedenen Eingabedialoge des Zielführungssystem betreffenden Sprachkommandos eingegeben werden:
  • - "Zielorteingabe" E1: Durch dieses Sprachkommando wird der Eingabedialog "Zielorteingabe" aktiviert.
  • - "Zielort buchstabieren" E2: Durch dieses Sprachkommando wird der Eingabedialog "Zielort buchstabieren" aktiviert.
  • - "Grobzieleingabe" E3: Durch dieses Sprachkommando wird der Eingabedialog "Grobzieleingabe" aktiviert.
  • - "Postleitzahl" E4 oder "Ortsnetzkennzahl" ES: Durch diese beiden Sprachkommandos wird der Eingabedialog "Indirekte Eingabe" aktiviert.
  • - "Straßeneingabe" E6: Durch dieses Sprachkommando wird der Eingabedialog "Straßeneingabe" aktiviert.
  • - "Adresse speichern" E7: Durch dieses Sprachkommando wird der Eingabedialog "Adresse speichern" aktiviert.
  • - "Adresse abrufen" E8: Durch dieses Sprachkommando wird der Eingabedialog "Adresse abrufen" aktiviert.
Anstelle der o. a. können natürlich auch andere Begriffe zur Aktivierung der verschiedenen Eingabedialoge verwendet werden.
Zusätzlich zu den o. a. Sprachkommandos können auch allgemeine Sprachkommandos zur Steuerung des Zielführungssystems, bei­ spielsweise "Zielführungsinformation", "Zielführung start/stop" usw., eingegeben werden.
Nach dem Starten eines Eingabedialogs durch das Sprechen des entsprechenden Sprachkommandos werden die entsprechenden Lexika als Vokabular in die Spracherkennungseinrichtung geladen. Bei einer erfolgreich durchgeführten Spracheingabe des Zielortes als Teil der Zieladresseneingabe mittels einem der Eingabedia­ loge "Zielorteingabe" im Schritt 1000, "Zielort buchstabieren" im Schritt 2000, "Grobzieleingabe" im Schritt 3000 oder "In­ direkte Eingabe" im Schritt 4000 wird anschließend im Schritt 350 überprüft, ob für den erkannten Zielort eine entsprechende Straßenliste vorhanden ist oder nicht. Ergibt die Überprüfung ein negatives Ergebnis, dann wird zum Schritt 450 verzweigt. Gelangt die Überprüfung zu einem positiven Ergebnis, so wird im Schritt 400 abgefragt, ob der Benutzer einen Straßennamen ein­ geben will oder nicht. Beantwortet der Benutzer die Abfrage 400 mit "Ja", so wird der Eingabedialog "Straßeneingabe" aufgeru­ fen. Beantwortet der Benutzer die Abfrage 400 mit "Nein" so wird zum Schritt 450 verzweigt. Die Abfrage 400 wird also nur dann durchgeführt, wenn für den entsprechenden Zielort auch die Straßennamen im Zielführungssystem erfaßt sind. Im Schritt 450 wird der erkannte gewünschte Zielort automatisch durch die Angabe Zentrum, oder Stadtmitte als Straßeneingabe ergänzt, da an das Zielführungssystem nur eine vollständige Zieladresse übergeben werden kann, wobei die Zieladresse neben dem Zielort auch eine Straße oder ein Sonderziel, beispielsweise Bahnhof, Flughafen, Stadtmitte usw., umfaßt. Im Schritt 500 wird die Zieladresse an das Zielführungssystem übergeben. Anschließend wird der Sprachdialog beendet und das Sprachdialogsystem kehrt in den Wartezustand 0 zurück. Wurde zu Beginn des Sprachdialogs im Schritt 300 das Sprachkommando "Straßeneingabe" E6 vom Be­ nutzer gesprochen und von der Spracherkennungseinrichtung er­ kannt, dann wird im Schritt 5000 der Eingabedialog "Straßen­ eingabe" aktiviert. Anschließend wird nach der erfolgreichen Eingabe des gewünschten Zielortes und der Straße, die Ziel­ adresse im Schritt 500 an das Zielführungssystem übergeben. Wurde zu Beginn des Sprachdialogs im Schritt 300 das Sprach­ kommando "Adresse abrufen" E8 vom Benutzer gesprochen und von der Spracherkennungseinrichtung erkannt, dann wird im Schritt 6000 der Eingabedialog "Adresse abrufen" aktiviert. Im Einga­ bedialog "Adresse abrufen" wird ein Schlüsselwort durch den Benutzer gesprochen und die dem gesprochenen Schlüsselwort zugeordnete Adresse wird im Schritt 500 als Zieladresse dem Zielführungssystem übergeben. Wurde zu Beginn des Sprachdialogs im Schritt 300 das Sprachkommando "Adresse speichern" E7 vom Benutzer gesprochen und von der Spracherkennungseinrichtung erkannt, dann wird im Schritt 7000 der Eingabedialog "Adresse speichern" aktiviert. Mittels dem Eingabedialog "Adresse speichern" wird eine eingegebene Zieladresse unter einem vom Benutzer gesprochenen Schlüsselwort im persönlichen Adreßre­ gister abgelegt. Anschließend wird der Eingabedialog "Adresse abrufen" beendet und das System kehrt in den Wartezustand 0 zu­ rück.
Die Fig. 2 zeigt in schematischer Darstellung eine erste Aus­ führungsform des Eingabedialogs "Zielorteingabe". Nach der Ak­ tivierung des Eingabedialogs "Zielorteingabe" im Schritt 1000 durch das im Schritt 300 vom Benutzer gesprochene und von der Spracherkennungseinrichtung erkannte Sprachkommando "Zielorteingabe" E1 wird, wie aus der Fig. 2 ersichtlich ist, im Schritt 1010 das Grundvokabular in die Spracherkennungsein­ richtung geladen. Das Laden des Grundvokabulars in die Spra­ cherkennungseinrichtung kann grundsätzlich auch an einer ande­ ren Stelle, beispielsweise nach der Initialisierungsphase oder nach der Betätigung der PTT-Taste, erfolgen. Dies ist von der Geschwindigkeit des Ladevorgangs abhängig und von der Art der verwendeten Spracherkennungseinrichtung. Anschließend wird im Schritt 1020 der Benutzer aufgefordert einen Zielort einzuge­ ben. Der Benutzer gibt im Schritt 1030 mittels Spracheingabe den gewünschten Zielort ein. Diese Spracheingabe wird im Schritt 1040 als akustischer Wert <Zielort_1< an die Spracher­ kennungseinrichtung übergeben und dort mit dem geladenen Grund­ vokabular verglichen, wobei als akustischer Wert Abtastwerte im Zeit- oder Frequenzbereich oder Merkmalsvektoren an die Spra­ cherkennungseinrichtung übergeben werden können. Die Art des übergebenen akustischen Wert ist ebenfalls von der Art des ver­ wendeten Spracherkenners abhängig. Als Ergebnis liefert der Spracherkenner eine erste Hypothesenliste hypo.1 mit Ortsnamen, welche nach Erkennungswahrscheinlichkeit sortiert sind. Enthält die Hypothesenliste hypo.1 homophone Ortsnamen, d. h. Ortsnamen, welche identisch ausgesprochen, aber unterschiedlich geschrieben werden, beispielsweise Ahlen und Aalen, so erhalten beide Ortsnamen die gleiche Erkennungswahrscheinlichkeit und beide Ortsnamen werden bei der Fortsetzung des Eingabedialogs berücksichtigt. Anschließend wird im Schritt 1050 der Ortsname mit der größten Erkennungswahrscheinlichkeit als Sprachausgabe <hypo.1.1< an den Benutzer mit der Frage ausgegeben, ob <hypo.1.1< dem gewünschten eingegebenen Zielort <Zielort_1< entspricht oder nicht. Hier ist es noch unerheblich, ob an der ersten Stelle der Hypothesenliste mehrere Einträge stehen oder nicht, da die Ortsnamen identisch gesprochen werden. Wird die Abfrage 1050 mit "Ja" beantwortet, so wird zum Schritt 1150 gesprungen. Beantwortet der Benutzer die Frage mit "Nein" so wird der akustische Wert <Zielort_1< des eingegebenen Zielortes im Schritt 1060 für einen eventuellen späteren Erkennungs­ vorgang mit einem anderen Lexikon gespeichert. Anschließend wird der Benutzer im Schritt 1070 aufgefordert den Zielort nochmals zu sprechen. Der Benutzer gibt im Schritt 1080 mittels Spracheingabe den Zielort nochmals ein. Diese Spracheingabe wird im Schritt 1090 als akustischer Wert <Zielort_2< an die Spracherkennungseinrichtung übergeben und dort mit dem ge­ ladenen Grundvokabular verglichen. Als Ergebnis liefert die Spracherkennungseinrichtung eine zweite Hypothesenliste hypo.2 mit Ortsnamen, welche nach Erkennungswahrscheinlichkeit sortiert sind. Im Schritt 1100 wird überprüft, ob der ASCII-Wert des Ortsnamens, bzw. bei homophonen Ortsnamen die ASCII-Werte der Ortsnamen, mit der größten Erkennungswahrscheinlichkeit hypo.1.1 der Hypothesenliste hypo.1 mit dem ASCII-Wert des Ortsnamen, bzw. bei homophonen Ortsnamen die ASCII-Werte der Ortsnamen, mit der größten Erkennungswahrscheinlichkeit hypo.2.1 übereinstimmt bzw. übereinstimmen. Ist dies der Fall, so wird im Schritt 1110 der Ortsnamen mit der zweitgrößten Erkennungswahrscheinlichkeit aus der zweiten Hypothesenliste hypo.2 als Sprachausgabe <hypo.2.2< mit der Frage an den Be­ nutzer ausgegeben, ob <hypo.2.2< der gewünschte Zielort ist oder nicht. Gelangt die Überprüfung 1100 zu einem negativen Ergebnis, so wird im Schritt 1120 der Ortsname mit der größten Erkennungswahrscheinlichkeit aus der zweiten Hypothesenliste hypo.2 als Sprachausgabe <hypo.2.1< an den Benutzer mit der Frage ausgegeben, ob <hypo.2.1< der gewünschte Zielort ist oder nicht. Ergibt die Antwort des Benutzers, daß der gewünschte Zielort immer noch nicht erkannt wurde, so wird im Schritt 1140 der Eingabedialog "Zielort buchstabieren" aufgerufen. Ergibt die Antwort des Benutzers, daß ein Zielort erkannt wurde, so wird im Schritt 1150, zum Schritt 1150 gelangt man auch, wenn die Abfrage 1050 mit "Ja" beantwortet wurde, der ASCII-Wert des erkannten Zielorts, bzw. bei homophonen Ortsnamen die ASCII-Werte der erkannten Ortsnamen, (entweder hypo.1.1, hypo.2.1 oder hypo.2.2) mit den ASCII-Werten der in den Datensätzen der Zieldatei gespeicherten Ortsnamen verglichen. Aus allen Orts­ namen in denen einer der erkannten Zielorte in der Orthographie ganz enthalten ist wird dann eine Mehrdeutigkeitsliste erzeugt. Bei homophonen Ortsnamen enthält die Mehrdeutigkeitsliste immer mehrere Einträge, und das Ergebnis ist deshalb nicht eindeutig.
Es kann an dieser Stelle aber auch bei nicht homophonen Ortsnamen zu einer Mehrdeutigkeitsliste mit mehreren Einträgen, dem sogenannten "Neustadt-Problem", kommen, wenn die orthographische Schreibweise des eingegebenen Zielorts mehrfach in der Zieldatei vorhanden ist. Deshalb wird im Schritt 1160 überprüft, ob der Zielort eindeutig erkannt wurde oder nicht. Ist der Zielort nicht eindeutig, so wird zum Schritt 1170 verzweigt. Dort wird ein achter Eingabedialog, im weiteren "Mehrdeutigkeit auflösen" genannt, aufgerufen. Ist der Zielort eindeutig, so wird durch die Sprachausgabe im Schritt 1180 der gefundene Zielort mit bestimmten Zusatzinformationen, beispielsweise Postleitzahl, Ortsname und Bundesland, mit der Frage an den Benutzer ausgegeben, ob es sich um den gewünschten Zielort handelt oder nicht. Beantwortet der Benutzer die Frage mit "Nein", so wird zum Schritt 1140, welcher den Eingabedialog "Zielort buchstabieren" aufruft, verzweigt. Beantwortet der Benutzer die Frage mit "Ja" so wird im Schritt 1190 der Zielort zwischengespeichert und zum Schritt 350 (siehe Beschreibung zu Fig. 1) gesprungen.
Die Fig. 3 zeigt in schematischer Darstellung eine zweite Aus­ führungsform des Eingabedialogs "Zielorteingabe". Die Verfah­ rensschritte 1000 bis 1060 wurden bereits in der Beschreibung zur Fig. 2 abgehandelt. Im Unterschied zur ersten Ausführungs­ form des Eingabedialogs wird nach dem Schritt 1060 der Eingabe­ dialog "Zielorteingabe" mit dem Schritt 1075 und nicht mit dem Schritt 1070 fortgesetzt. Im Schritt 1075 wird der Ortsnamen mit der zweitgrößten Erkennungswahrscheinlichkeit der ersten Hypothesenliste hypo.1 als Sprachausgabe <hypo.1.2< mit der Frage an den Benutzer ausgegeben, ob <hypo.1.2< dem gewünschten eingegebenen Zielort <Zielort_1< entspricht oder nicht. Wird die Abfrage 1075 mit "Ja" beantwortet, so wird zum Schritt 1150 gesprungen. Beantwortet der Benutzer die Frage mit "Nein" so wird zum Schritt 1140 verzweigt. Im Schritt 1140 wird der Ein­ gabedialog "Zielort buchstabieren" aufgerufen. Die Verfahrens­ schritte ab Schritt 1150 wurden bereits in der Beschreibung zur Fig. 2 abgehandelt und werden deshalb hier nicht mehr be­ schrieben.
Fig. 4 zeigt in schematischer Darstellung eine Ausführungsform eines Ablaufdiagramms für einen achten Eingabedialog, im wei­ teren "Aus Liste auswählen" genannt, zur Auswahl eines Eintrags aus einer Liste. Nach der Aktivierung des Eingabedialogs "Aus Liste auswählen" im Schritt 1430 durch einen anderen Eingabe­ dialog wird der Benutzer im Schritt 1440 über die Anzahl der Einträge in der Liste informiert und im Schritt 1445 gefragt, ob die Liste vorgelesen werden soll oder nicht. Beantwortet der Benutzer die Frage mit "Ja" so wird im Schritt 1450 ein Vorleseflag gesetzt und anschließend zum Schritt 1460 ver­ zweigt. Beantwortet der Benutzer die Frage mit "Nein", so wird der Ablauf direkt mit dem Schritt 1460 fortgeführt. Im Schritt 1460 wird dem Benutzer die Liste mit der Aufforderung ange­ zeigt, einen Eintrag von der Liste auszuwählen, wobei die An­ zeige der Liste bei nicht gesetztem Vorleseflag nur auf einer Anzeigeeinrichtung des Zielführungssystems erfolgt. Ist das Vorleseflag gesetzt wird die Liste zusätzlich mittels Sprach­ ausgabe vorgelesen. Die Liste wird dabei in Seiten aufgeteilt, die beispielsweise bis zu vier Einträge umfassen, wobei die Einträge auf jeder Seite wieder fortlaufend beginnend mit eins durchnumerieret werden. Im Schritt 1460 kann der Benutzer ver­ schiedene Sprachkommandos zur Weiterführung des Eingabedialogs sprechen. Mit einem ersten Sprachkommando E9, beispielsweise "weiter", kann der Benutzer im Schritt 1470 zur nächsten Seite der Liste umblättern und anschließend zum Schritt 1460 zurück­ kehren. Mit einem zweiten Sprachkommando E10, beispielsweise "zurück", kann der Benutzer im Schritt 1475 zur vorherigen Seite der Liste zurückblättern und ebenfalls zum Schritt 1460 zurückkehren. Mit einem dritten Sprachkommando E11, beispiels­ weise "Nummer X", kann der Benutzer einen bestimmten Eintrag aus der Liste auswählen, wobei X für die Nummer des gewünschten Eintrags steht. Nach dem Sprechen des dritten Sprachkommandos E11 wird zum Schritt 1480 verzweigt. Mit einem vierten Sprachkommando E12, beispielsweise "Abbruch" kann der Benutzer, wenn er beispielsweise den gewünschten Eintrag nicht gefunden hat, den Eingabedialog "Aus Liste auswählen" beenden. Deshalb wird nach Eingabe des vierten Sprachkommandos zum Schritt 1500 verzweigt. Im Schritt 1500 wird abhängig davon, ob die Einträge in der Liste aus Straßennamen oder Ortsnamen bestehen, der Benutzer durch eine Sprachausgabe darüber informiert, daß der Straßenname bzw. der Ortsname nicht gefunden werden konnte. An­ schließend kehrt das System in den Wartezustand 0 zurück. Im Schritt 1480 wird durch eine Abfrage an den Benutzer nochmals überprüft, ob der <Eintrag_X< richtig ist oder nicht. Um die Auswahl des gewünschten Eintrages aus der Liste komfortabler zu gestalten, kann auch vorgesehen werden, daß die entsprechende Liste als Listen-Lexikon generiert und in die Spracherkennungseinrichtung geladen wird. Dadurch kann der Be­ nutzer die Auswahl des Eintrags wie oben beschrieben durch die Sprechen der entsprechenden Nummer als drittes Sprachkommando E11 durchführen oder er kann den entsprechenden Eintrag von der Liste ablesen und als drittes Sprachkommando E11 eingeben. In der Liste steht beispielsweise der gewünschte Eintrag: 4. Neu­ stadt an der Weinstraße, so kann der Benutzer entweder "Nummer 4" oder "Neustadt an der Weinstraße" als drittes Sprachkommando E11 sprechen und das System erkennt in beiden Fällen den gewünschten Eintrag. Beantwortet der Benutzer die Abfrage 1480 mit "Ja" so wird im Schritt 1490 der Eingabedialog "Aus Liste auswählen" beendet und der ausgewählte "Eintrag_X" als Ergebnis an den aufrufenden Eingabedialog übergeben. Beantwortet der Be­ nutzer die Abfrage 1480 mit "Nein", so wird zum Schritt 1500 verzweigt.
Fig. 5 zeigt in schematischer Darstellung eine Ausführungsform eines Ablaufdiagramms für einen neunten Eingabedialog, im wei­ teren "Mehrdeutigkeit auflösen" genannt, zur Auflösung von Mehrdeutigkeiten, beispielsweise für das sogenannte "Neu­ stadt-Problem" oder für homophone Ortsnamen. Nach dem Aktivieren des Eingabedialogs "Mehrdeutigkeit auflösen" im Schritt 1170 durch einen anderen Eingabedialog wird der Benutzer im Schritt 1200 darüber informiert, wieviele Ortsnamen in der Mehrdeutigkeits­ liste eingetragen sind. Anschließend wird im Schritt 1210 der Ort mit der größten Einwohnerzahl gesucht und im Schritt 1220 als akustischer Wert <größter_Ort< mit der Abfrage ausgegeben, ob der Benutzer <größter_Ort< als Zielort wünscht oder nicht. Beantwortet der Benutzer die Abfrage 1220 mit "Ja" so wird zum Schritt 1410 gesprungen. Im Schritt 1410 wird "größter Ort" als Ergebnis an den aufrufenden Eingabedialog übergeben und der Eingabedialog "Mehrdeutigkeit auflösen" beendet. Beantwortet der Benutzer die Abfrage 1220 mit "Nein", so wird im Schritt 1230 überprüft, ob die Mehrdeutigkeitsliste mehr als k Einträge
umfaßt oder nicht. Umfaßt die Mehrdeutigkeitsliste k oder weni­ ger Einträge so wird im Schritt 1240 der Eingabedialog "Aus Li­ ste auswählen" aufgerufen. Der Parameter k sollte nicht zu groß gewählt werden, da sonst der Eingabedialog "Aus Liste auswäh­ len" zu lange dauert. Als günstiger Wert hat sich bei der Er­ probung k = 5 erwiesen. Ergibt die Überprüfung 1230 ein positi­ ves Ergebnis, so wird im Schritt 1250 mit einem ersten Abfra­ gedialog versucht, die Anzahl der Einträge in die Mehrdeutig­ keitsliste zu verkleinern. Nach dem ersten Abfragedialog wird
im Schritt 1260 überprüft, ob der Zielort eindeutig ist oder nicht. Kommt die Überprüfung 1260 zu einem positiven Ergebnis, dann wird zum Schritt 1410 verzweigt, kommt die Überprüfung 1260 zu einem negativen Ergebnis so wird analog zum Schritt 1230 im Schritt 1270 überprüft ob die Mehrdeutigkeitsliste mehr als k Einträge umfaßt oder nicht. Umfaßt die Mehrdeutigkeitsli­ ste k oder weniger Einträge so wird zum Schritt 1240 verzweigt, umfaßt die Mehrdeutigkeitsliste mehr als k Einträge, so wird mit einem zweiten Abfragedialog im Schritt 1280 versucht die Anzahl der Einträge in der Mehrdeutigkeitsliste zu verkleinern. Die beschriebenen Vorgänge wiederholen sich bis zu einem n-ten Abfragedialog im Schritt 1290. Nach dem n-ten Abfragedialog wird im Schritt 1300 analog zum Schritt 1260 überprüft ob der Zielort eindeutig ist oder nicht. Ist der Zielort eindeutig, so wird zum Schritt 1410 verzweigt, wenn nicht, dann wird zum Schritt 1240 verzweigt. Der im Schritt 1240 aufgerufene Eingabedialog "Aus Liste auswählen" liefert als Ergebnis einen eindeutigen Zielort an den Eingabedialog "Mehrdeutigkeit auflösen" zurück. Im Schritt 1410 wird als Ergebnis des Eingabedia­ logs "Mehrdeutigkeit auflösen" ein eindeutiger Zielort an den aufrufenden Eingabedialog weitergegeben und der Eingabedialog "Mehrdeutigkeit auflösen" beendet. Als Abfragedialoge können beispielsweise die Abfragen nach der Postleitzahl, der Orts­ netzkennzahl, dem Bundesland oder der nächstgrößten Stadt ver­ wendet werden. Die Abfragedialoge beginnen mit einer Überprü­ fung, ob die entsprechende Abfrage sinnvoll ist oder nicht. Be­ finden sich beispielsweise alle Ortsnamen auf der Mehrdeutig­ keitsliste in einem Bundesland, so ist die Abfrage nach dem Bundesland sinnlos und der Bundesland-Abfragdialog wird been­ det. Zur Bewertung ob eine Abfrage sinnvoll ist oder nicht kön­ nen verschiedene Kriterien herangezogen werden. So kann bei­ spielsweise ein absoluter Schwellwert, beispielsweise 8 Ein­ träge besitzen das Abfragekriterium oder 80% der Einträge be­ sitzen das Abfragekriterium, gewählt werden. Nach der Überprü­ fung, ob der aktivierte Abfragedialog sinnvoll ist oder nicht, wird die Abfrage an den Benutzer ausgegeben, beispielsweise "Kennen Sie das Bundesland in dem der Zielort liegt?" oder "Kennen Sie die Postleitzahl (bzw. Ortsnetzkennzahl, bzw. die nächstgrößte Stadt) des Zielortes?". Entsprechend der Antwort des Benutzers, wird dann der Eingabedialog fortgeführt. Kennt der Benutzer das Abfragekriterium nicht, so wird zur nächsten Abt rage verzweigt. Kennt der Benutzer das Abfragekriterium, so wird er aufgefordert eine Spracheingabe vorzunehmen. Bei der Bundeslandabfrage kann hierfür ein Bundesland-Lexikon, falls noch nicht vorhanden, generiert und als Vokabular in die Spra­ cherkennungseinrichtung geladen werden. Neben der korrekten Bezeichnung der Bundesländer können auch gebräuchliche Abkür­ zungen, z. B. Württemberg statt Baden Württemberg, im Bundes­ land-Lexikon enthalten sein. Ergibt eine Abfrage keine Verklei­ nerung der Einträge in der Mehrdeutigkeitsliste, so wird die ursprüngliche Mehrdeutigkeitsliste für den weiteren Eingabe­ dialog "Mehrdeutigkeit auflösen" verwendet. Ergibt eine Abfrage eine Verkleinerung der Einträge in der Mehrdeutigkeitsliste, so wird die verkleinerte Mehrdeutigkeitsliste für den weiteren Eingabedialog "Mehrdeutigkeit auflösen" verwendet. Besonders vorteilhaft ist es, wenn die Abfrage nach der Postleitzahl als erster Abfragedialog durchgeführt wird, da dieses Kriterium in den meisten Anwendungsfällen zu einem eindeutigen Ergebnis führt. Dies gilt auch für die Abfrage nach der Orts­ netzkennzahl.
Fig. 6 zeigt in schematischer Darstellung eine Ausführungsform des Eingabedialogs "Zielort buchstabieren". Nach der Aktivie­ rung des Eingabedialogs "Zielort buchstabieren" im Schritt 2000 wird der Benutzer im Schritt 2010 aufgefordert den Zielort zu buchstabieren. Im Schritt 2020 erfolgt die Spracheingabe durch den Benutzer, wobei die Buchstaben des Zielorts am Stück oder in Buchstabengruppen, getrennt durch kurze Pausen, gesprochen werden können. Zusätzlich kann vorgesehen werden bestimmte Wortendungen wie -heim, -berg, -burg, -hausen, -tal usw. bzw. Wortanfänge wie Ober-, Unter-, Frei-, Neu-, Bad- usw. als Wort­ eingabe zuzulassen, wobei die Wortanfänge und/oder die Wort­ endungen gemeinsam mit den zulässigen Buchstaben in einem Teil­ wort-Lexikon enthalten sind, wobei das Teilwort-Lexikon zu Be­ ginn des Eingabedialogs "Zielort buchstabieren" in den Spra­ cherkenner geladen oder aktiviert wird. Die eingegebenen Wortanfänge, Buchstaben oder Wortendungen werden dem sprecher­ unabhängigen Spracherkenner zur Buchstabiererkennung zugeführt. Im Schritt 2030 wird als Ergebnis eine dritte Hypothesenliste hypo.3 mit Worten, welche aus den erkannten Buchstaben gebildet wurden, vom Spracherkenner zurückgegeben. Danach wird im Schritt 2040 die Hypothese mit der größten Er­ kennungswahrscheinlichkeit hypo.3.1 aus der dritten Hypothesen­ liste hypo.3 mit der Zieldatei abgeglichen. Als Ergebnis ent­ steht eine neue Ortsliste, welche ebenfalls nach Erkennungs­ wahrscheinlichkeit sortiert ist. Anschließend wird durch den Schritt 2050 überprüft, ob ein akustischer Wert für den Zielort gespeichert ist oder nicht, d. h. es wird überprüft ob der Eingabedialog "Zielort buchstabieren" von einem anderen Einga­ bedialog, beispielsweise "Zielorteingabe", aufgerufen wurde oder nicht. Ist kein akustischer Wert des Zielorts vorhanden, so wird im Schritt 2075 die neue Ortsliste als vierte Hy­ pothesenliste hypo.4 zur Weiterführung des Eingabedialogs übernommen und es wird zum Schritt 2080 gesprungen. Liefert die Abfrage 2050 ein positives Ergebnis, so wird im Schritt 2060 aus der neuen Ortsliste ein Ganzwort-Lexikon generiert und zur Ganzworterkennung in die Spracherkennungseinrichtung geladen. Dort wird anschließend im Schritt 2070 der gespeicherte aku­ stische Wert des gewünschten Zielortes mit dem aus der Ortsliste generierten Ganzwort-Lexikon verglichen. Der Spra­ cherkennungseinrichtung liefert als Ergebnis im Schritt 2075 eine nach der Erkennungswahrscheinlichkeit sortierte vierte Hypothesenliste hypo.4. Diese vierte Hypothesenliste hypo.4 wird zur Weiterführung des Eingabedialogs übernommen und es wird der Schritt 2080 durchgeführt. Im Schritt 2080 wird die Hypothese mit der größten Erkennungswahrscheinlichkeit hypo.4.1 aus der vierten Hypothesenliste hypo.4 mit der Abfrage an den Benutzer ausgegeben, ob die Hypothese hypo.4.1 dem gewünschten Zielort entspricht oder nicht. Beantwortet der Benutzer die Abfrage mit "Nein", so wird im Schritt 2090 der Eingabedialog "Aus Liste auswählen" aufgerufen. Das Ergebnis des Eingabedialogs "Aus Liste auswählen", bei welchem es sich um einen eindeutigen Zielort handelt, wird dann zur Durchführung des Schrittes 2100 benutzt. Im Schritt 2100 ermittelt das Sy­ stem aus der Zieldatei aller möglichen Orte eine Mehrdeu­ tigkeitsliste, in welcher alle Orte aus der Zieldatei, welche in der Orthographie der Hypothese hypo.4.1 aus der vierten Hy­ pothesenliste hypo.4 bzw. dem Ergebnis des Eingabedialogs "Aus Liste auswählen" entsprechen, aufgenommen sind. Hier kann es nun vorkommen, daß der eingegebene Zielort in der Liste mehr­ fach vorkommt, beispielsweise aufgrund des "Neustadt-Problems", und somit nicht eindeutig ist. Deshalb wird im Schritt 2110 überprüft, ob der Zielort eindeutig ist oder nicht. Kommt der Zielort nur einmal vor, so wird der Eingabedialog mit dem Schritt 2130 fortgeführt. Ist der Zielort nicht eindeutig so wird gemäß Schritt 2120 der Eingabedialog "Mehrdeutigkeit auf­ lösen" aufgerufen. Das Ergebnis des Eingabedialogs "Mehrdeu­ tigkeit auflösen" wird danach an den Schritt 2130 übergeben. Im Schritt 2130 wird der Erkannte Zielort mit bestimmten Zusat­ zinformationen, beispielsweise Postleitzahl und Bundesland, verifiziert, in dem der Benutzer gefragt wird, ob der eingege­ bene Zielort richtig ist oder nicht. Beantwortet der Benutzer die Abfrage 2130 mit "Nein", so wird der Benutzer im Schritt 2150 darüber informiert, daß der Zielort nicht gefunden werden konnte und der Eingabedialog wird beendet. Beantwortet der Be­ nutzer die Abfrage 2130 mit "Ja", so wird der erkannte Zielort im Schritt 2140 zwischengespeichert und zur Überprüfung 350 gemäß Fig. 1 verzweigt.
Fig. 7 zeigt in schematischer Darstellung eine Ausführungsform des Eingabedialogs "Grobzieleingabe". In diesem Eingabedialog wird der Benutzer aufgefordert eine ihm bekannte größere Stadt in der Nähe des eigentlichen Zielortes als Grobziel zu spre­ chen, wobei das Grobziel im Grund-Lexikon enthalten sein sollte. Nach der Aktivierung des Eingabedialogs "Grobzieleinga­ be" im Schritt 3000 wird im Schritt 3010 ein Eingabedialog "Grobziel eingeben" aufgerufen. Für den Eingabedialog "Grobziel eingeben" im Schritt 3010 ergibt sich nahezu der gleiche Ablauf wie beim Eingabedialog "Zielorteingabe". Bei der Eingabe­ aufforderung wird jedoch im Gegensatz zum Schritt 1020 gemäß Fig. 2 oder Fig. 3 der Benutzer nicht zur Eingabe des Zielortes sondern zur Eingabe des Grobziels aufgefordert. Nach der Durchführung des Teileingabedialogs "Grobziel eingeben" gemäß Schritt 3010 wird das Ergebnis des Eingabedialogs "Grobziel eingeben" zur Fortführung des Eingabedialogs "Grobzieleingabe" an den Schritt 3300 übergeben. Im Schritt 3300 werden m Ortsna­ men im Umkreis des als Ergebnis des Eingabedialog "Grobziel eingeben" übergebenen Grobziels berechnet. Der Parameter m ist abhängig von der Leistungsfähigkeit der verwendeten Spracher­ kennungseinrichtung und der Übertragungskapazität zwischen der mindestens einen Datenbasis und der Spracherkennungseinrich­ tung. Bei dem beschriebenen Ausführungsbeispiel wird der Para­ meter m auf 1500 gesetzt. Aus diesen 1500 Ortsnamen, welche Teil dem Zieldatei sind, wird im Schritt 3310 ein Feinziel-Le­ xikon generiert und als Vokabular in die Spracherkennungsein­ richtung geladen. Anschließend wird im Schritt 3320 der Einga­ bedialog "Zielorteingabe" gemäß Fig. 2 oder Fig. 3 durchge­ führt. Mit dem Unterschied, daß der Schritt 1010 nicht ausge­ führt wird, da das notwendige Vokabular zur Erkennung des Zielortes schon in der Spracherkennungseinrichtung geladen ist.
Zur Abkürzung des Eingabedialogs "Grobzieleingabe" ist es aber auch vorstellbar, daß im Eingabedialog "Grobziel eingeben" eine verkürzte Ausführung des Eingabedialogs "Zielorteingabe" gemäß Fig. 3 durchgeführt wird. In der verkürzten Ausführung des Ein­ gabedialogs "Zielorteingabe" gemäß Fig. 3 wird auf den Eingabe­ dialog "Zielort buchstabieren" verzichtet und nach der Abfrage 1075 gemäß Fig. 3 nicht der Eingabedialog "Zielort buchstabie­ ren" aufgerufen sondern dem Benutzer mittels Sprachausgabe mit­ geteilt, daß das Grobziel nicht gefunden werden konnte und der Eingabedialog "Grobzieleingabe" wird beendet. Zur Beschleuni­ gung des Eingabedialogs kann für den Eingabedialog "Grobziel eingeben" ein Grobziel-Lexikon generiert werden und anschließend als Vokabular in die Spracherkennungseinrichtung geladen oder aktiviert werden, wobei das Grobziel-Lexikon anstelle der 1000 größten Orte des Grund-Lexikons nur die 400 größten Orten der Bundesrepublik enthält. Dadurch ergibt sich im Schritt 1150 gemäß Fig. 3 in den meisten Anwendungsfällen eine wesentlich kürzere Mehrdeutigkeitsliste. Zusätzlich kann auch auf den Eingabedialog "Mehrdeutigkeit auflösen" verzichtet werden. Anstelle des Eingabedialogs "Mehrdeutigkeit auflösen" wird der Eingabedialog "Aus Liste auswählen" aufgerufen um den Benutzer das gewünschte Grobziel auswählen zu lassen oder es werden nur die beiden Orte mit der größten Einwohnerzahl in der Mehrdeutigkeitsliste an den Benutzer zur endgültigen Auswahl des Grobziels ausgegeben. Wurde das gewünschte Grobziel nicht gefunden, so wird der Eingabedialog "Grobzieleingabe" beendet und in den Wartezustand 0 zurückgekehrt.
Fig. 8 zeigt in schematischer Darstellung eine Ausführungsform des Eingabedialogs "Adresse speichern". Nach der Aktivierung des Eingabedialogs "Adresse speichern" im Schritt 7000 wird im Schritt 7010 überprüft, ob bereits eine Zieladresse eingegeben wurde. Ergibt die Überprüfung 7010 ein positives Ergebnis, so wird zur Abfrage 7020 verzweigt. Ergibt die Überprüfung 7010 ein negatives Ergebnis, so wird zum Schritt 7030 verzweigt. Im Schritt 7020 wird eine Abfrage an den Benutzer ausgegeben, ob er die aktuelle Zieladresse speichern will oder nicht. Beant­ wortet der Benutzer die Abfrage mit "Ja", so wird zum Schritt 7040 verzweigt. Beantwortet der Benutzer die Abfrage mit "Nein", so wird zum Schritt 7030 verzweigt. Im Schritt 7030 wird ein Eingabedialog "Adresse eingeben" aufgerufen. Der Ein­ gabedialog "Adresse eingeben" gibt eine Abfrage an den Benutzer aus, welchen der vier Eingabedialoge "Zielorteingabe", "Grob­ zieleingabe", "Zielort buchstabieren" oder "Indirekte Eingabe" der Benutzer zur Eingabe der Zieladresse, welche gespeichert werden soll, durchführen möchte. Die Auswahl des gewünschten Eingabedialogs kann dabei analog zum Eingabedialog "Aus Liste auswählen" durchgeführt werden. Zudem ist es vorstellbar, daß der Eingabedialog "Adresse eingeben" direkt nach der Aktivie­ rung einen der vier Eingabedialoge zur Spracheingabe eines Zielortes ("Zielorteingabe", "Zielort buchstabieren", "Grobzie­ leingabe" oder "Indirekte Eingabe") aufruft, ohne eine Abfrage an den Benutzer auszugeben. Nach der Spracheingabe eines Ziel­ ortes wird analog zu den Schritten 350 und 400 gemäß Fig. 1 überprüft ob, ein Straßenname eingegeben werden kann und wenn ja, ob ein Straßenname eingegeben werden soll oder nicht. Wird kein Straßenname eingegeben, so wird der Schritt 450 gemäß Fig. 1 durchgeführt. Anschließend wird die eingegebene Zieladresse als Ergebnis des Eingabedialogs "Adresse eingeben" zur Weiter­ führung des Eingabedialogs "Adresse speichern" zwischengespei­ chert. Im Schritt 7040 wird der Benutzer aufgefordert ein Schlüsselwort zu sprechen, welches der eingegebenen Zieladresse zugeordnet werden soll und unter welchem die Zieladresse im persönlichen Adreßregister abgelegt werden soll. Das vom Be­ nutzer im Schritt 7050 gesprochene Schlüsselwort wird im Schritt 7060 als akustischer Wert <Schlüsselwort< dem sprecher­ abhängigen Zusatz-Spracherkenner zugeführt und gegebenenfalls durch mehrmaliges, insbesondere zweimaliges, Sprechen verifi­ ziert. Anschließend wird im Schritt 7070 die eingegebene Ziela­ dresse dem Schlüsselwort zugeordnet und der akustische Wert <Schlüsselwort< im persönlichen Adreßregister gespeichert. Der Benutzer wird mittels einer Sprachausgabe im Schritt 7080 in­ formiert, daß die Zieladresse unter dem eingegebenen <Schlüsselwort< gespeichert wurde. Anschließend wird im Schritt 7090 der Eingabedialog "Adresse speichern" beendet und zum Wartezustand 0 gemäß Fig. 1 verzweigt. Mittels dem nicht detailliert dargestellten Eingabedialog "Adresse abrufen", kann die gespeicherte Zieladresse durch eine Spracheingabe des zu­ geordneten Schlüsselwortes, welches zur Erkennung dem spre­ cherabhängigen Spracherkenner zugeführt wird, abgerufen und an das Zielführungssystem übergeben werden. Wurde die Schlüssel­ worte in die Ortsliste aufgenommen, dann ist auch ein Buchsta­ bieren des Schlüsselwortes möglich, wenn das Schlüsselwort als Ganzworteingabe nicht erkannt wurde.
Fig. 9 zeigt in schematischer Darstellung eine Ausführungsform des Eingabedialogs "Straßeneingabe". Nach der Aktivierung des Eingabedialogs "Straßeneingabe" im Schritt 5000 wird im Schritt 5010 überprüft, ob bereits ein Zielort eingegeben wurde oder nicht. Ergibt die Überprüfung 5010 ein positives Ergebnis, so wird der eingegebene Zielort zur Weiterführung des Eingabedia­ logs "Straßeneingabe" verwendet und zum Schritt 5040 verzweigt. Ergibt die Überprüfung 5010 ein negatives Ergebnis, so wird im Schritt 5020 eine Abfrage an den Benutzer ausgegeben, ob sich die Straße in dem aktuellen Ort befindet oder nicht. Den aktu­ ellen Ort ermittelt das Zielführungssystem mit Hilfe eines aus dem Stand der Technik bekannten Ortungsverfahren, beispiels­ weise mittels dem Global Positioning System (GPS). Beantwortet der Benutzer die Abfrage mit "Ja", so wird der aktuelle Ort als Zielort zur Weiterführung des Eingabedialogs "Straßeneingabe" verwendet und zum Schritt 5040 verzweigt. Beantwortet der Be­ nutzer die Abfrage mit "Nein" so wird zum Schritt 5030 ver­ zweigt. Im Schritt 5030 wird ein Eingabedialog "Zielort einge­ ben" aufgerufen. Der Eingabedialog "Zielort eingeben" gibt analog zum Eingabedialog "Adresse eingeben" eine Abfrage an den Benutzer aus, welchen der vier Eingabedialoge "Zielorteingabe", "Grobzieleingabe", "Zielort buchstabieren" oder "Indirekte Eingabe" der Benutzer zur Eingabe der Zieladresse, welche ge­ speichert werden soll, durchführen möchte. Die Auswahl des ge­ wünschten Eingabedialogs kann dabei analog zum Eingabedialog "Aus Liste auswählen" durchgeführt werden. Zudem ist es vor­ stellbar, daß der Eingabedialog "Zielort eingeben" direkt nach der Aktivierung, ohne eine Abfrage an den Benutzer aus zugeben, einen der vier Eingabedialoge zur Spracheingabe eines Zielortes aufruft. Nach der Durchführung des Eingabedialogs "Zielort ein­ geben" wird als Ergebnis der eingegebene Zielort zur Weiterfüh­ rung des Eingabedialogs "Straßeneingabe" verwendet und zum Schritt 5040 verzweigt. Im Schritt 5040 wird überprüft, ob die Anzahl der Straßen des gewünschten Zielortes größer als m ist oder nicht. Der Parameter m ist dabei von der Art der Spracher­ kennungseinrichtung abhängig. Bei dem beschriebenen Ausfüh­ rungsbeispiel, wurde m = 1500 gesetzt. Ist die Anzahl der Stra­ ßen des gewünschten Zielortes kleiner als m, so wird eine Stra­ ßenliste des gewünschten Zielortes zur Weiterführung des Einga­ bedialogs "Straßeneingabe" an den Schritt 5060 übergeben. Ist die Anzahl der Straßen des gewünschten Zielortes größer als m, so wird zum Schritt 5050 verzweigt. Im Schritt 5050 wird ein Eingabedialog "Umfang begrenzen" aktiviert, mit dem Ziel den Umfang der Straßenliste auf weniger als m Einträge von Straßen­ namen zu reduzieren. Zu diesem Zweck kann der Benutzer aufge­ fordert werden verschiedene Auswahlkriterien, beispielsweise den Namen eines Stadtteils, die Postleitzahl oder den Anfangs­ buchstaben des gewünschten Straßennamens, mittels Spracheingabe einzugeben. Analog zum Eingabedialog "Mehrdeutigkeit auflösen" können die Auswahlkriterien beliebig kombiniert werden. Der Eingabedialog "Umfang begrenzen" wird beendet, wenn der Umfang auf m oder weniger Straßennamen reduziert wurde. Als Ergebnis des Eingabedialogs wird die reduzierte Straßenliste an den Schritt 5060 übergeben. Im Schritt 5060 wird aus der übergebe­ nen Straßenliste ein Straßen-Lexikon generiert und in die Spra­ cherkennungseinrichtung geladen. Im Schritt 5070 wird der Be­ nutzer aufgefordert den Straßennamen zu sprechen. Die Weiter­ führung des Eingabedialogs "Straßenname" ist nun analog zum Eingabedialog "Zielorteingabe" gemäß Fig. 3. Die vom Benutzer gesprochene "Straße_1" (Schritt 5080) wird als akustische Wert <Straße_1< an die Spracherkennungseinrichtung übergeben. Als Ergebnis liefert die Spracherkennungseinrichtung eine fünfte Hypothesenliste hypo.5 zur Weiterführung des Eingabedialogs "Straßeneingabe" zurück (Schritt 5090). Im Schritt 5100 wird der Straßenname mit der größten Erkennungswahrscheinlichkeit hypo.5.1 an den Benutzer mit der Abfrage ausgegeben, ob <hypo.5.1< der gewünschte Straßenname ist oder nicht. Beantwor­ tet der Benutzer die Abfrage 5100 mit "Ja", so wird zum Schritt 5140 verzweigt. Beantwortet der Benutzer die Abfrage 5100 mit "Nein", so wird der akustische Wert <Straße_1< im Schritt 5110 gespeichert. Anschließend wird im Schritt 5120 der Straßenname mit der zweitgrößten Erkennungswahrscheinlichkeit hypo.5.2 an den Benutzer mit der Abfrage ausgegeben, ob <hypo.5.2< der ge­ wünschte Straßenname ist oder nicht. Wird die Abfrage 5120 mit "Ja" beantwortet, so wird zum Schritt 5140 verzweigt. Beantwor­ tet der Benutzer die Abfrage mit "Nein" so wird im Schritt 5130 ein Eingabedialog "Straße buchstabieren" aufgerufen. Der Einga­ bedialog "Straße buchstabieren" ist bis zum Schritt 2100 analog zum Eingabedialog "Zielort buchstabieren" und wurde in der Be­ schreibung zur Fig. 6 bereits abgehandelt. Es müssen nur die in der Beschreibung verwendeten Begriffe, Zielort, neue Ortsliste, sinngemäß durch die Begriffe Straßenname, neue Straßenliste er­ setzt werden. Anstelle des Schritts 2100 gemäß dem Eingabedia­ log "Zielort buchstabieren" wird der Eingabedialog "Straße buchstabieren" beendet und das Ergebnis des Eingabedialogs "Straße buchstabieren" zur Weiterführung des Eingabedialogs "Straßeneingabe" an den Schritt 5140 übergeben. Im Schritt 5140 ermittelt das System aus der Straßenliste, welche alle mögli­ chen Straßennamen des gewünschten Zielortes enthält, eine Mehr­ deutigkeitsliste, in welcher alle Straßennamen aus der Stra­ ßenliste, welche in der Orthographie der Hypothese hypo.5.1 bzw. der Hypothese hypo.5.2 aus der fünften Hypothesenliste hypo.5 bzw. dem Ergebnis des Eingabedialogs "Straße buchstabie­ ren" entsprechen, aufgenommen sind. Im Schritt 5150 wird über­ prüft, ob der eingegebene Straßenname eindeutig ist oder nicht. Ist der eingegebene Straßenname eindeutig, so wird zum Schritt 5200 verzweigt. Ergibt die Abfrage ein negatives Ergebnis, so wird zum Schritt 5160 verzweigt. Im Schritt 5160 wird überprüft ob die Mehrdeutigkeitsliste mehr als k Einträge umfaßt oder nicht. Umfaßt die Mehrdeutigkeitsliste k oder weniger Einträge, so wird zum Schritt 5190 verzweigt. Umfaßt die Mehrdeutigkeits­ liste mehr als k Einträge so wird zum Schritt 5170 verzweigt. Im Schritt 5170 wird überprüft ob die Mehrdeutigkeit durch Ein­ gabe von zusätzlichen Abfragekriterien, beispielsweise der Postleitzahl oder des Stadtteils, aufgelöst werden kann. Ergibt die Überprüfung 5170 ein positives Ergebnis, so wird im Schritt 5180 ein Eingabedialog "Straßenmehrdeutigkeit auflösen" aufge­ rufen. Dieser Eingabedialog verläuft analog zum Eingabedialog "Mehrdeutigkeit auflösen" gemäß Fig. 5. Als Abfragekriterien kann die Postleitzahl oder der Stadtteil eingegeben werden. An­ schließend wird das Ergebnis des Eingabedialogs "Straßenmehr­ deutigkeit auflösen" zur Weiterführung des Eingabedialogs "Straßeneingabe" an den Schritt 5200 übergeben. Ergibt die Überprüfung 5170 ein negatives Ergebnis, so wird zum Schritt 5190 verzweigt. Im Schritt 5190 wird der Eingabedialog "Aus Li­ ste auswählen" aktiviert und durchgeführt. Das Ergebnis des Eingabedialogs "Aus Liste auswählen" wird zur Weiterführung des Eingabedialogs "Straßeneingabe" an den Schritt 5200 übergeben. Im Schritt 5200 wird der Eingabedialog "Straßeneingabe" beendet und das Ergebnis gemeinsam mit dem gewünschten Zielort als Zieladresse an den Schritt 500 gemäß Fig. 1 übergeben.
Fig. 10 zeigt in schematischer Darstellung ein Blockschaltbild einer Vorrichtung zur Durchführung des erfindungsgemäßen Ver­ fahrens. Wie aus der Fig. 10 ersichtlich ist umfaßt die Vor­ richtung zur Durchführung des erfindungsgemäßen Verfahrens ein Sprachdialogsystem 1, ein Zielführungssystem 2 und eine externe Datenbasis 4, auf welcher beispielsweise die Zieldatei abge­ speichert ist. Das Sprachdialogsystem 1 umfaßt eine Spracher­ kennungseinrichtung 7 zum Erkennen und Klassifizieren von mit­ tels einem Mikrophon 5 von einem Benutzer eingegebenen Sprachäußerungen, eine Sprachausgabeeinrichtung 10 die mittels einem Lautsprecher 6 Sprachäußerungen an einen Benutzer ausge­ ben kann, eine Dialog- und Ablaufsteuerung 8 und eine interne Datenbasis 9, in welcher beispielsweise alle Sprachkommandos gespeichert sind. Das Zielführungssystem 2 umfaßt einen inter­ nen nicht flüchtigen Speicher 3, in dem beispielsweise das Grundlexikon abgelegt ist, und eine optische Anzeigevorrichtung 11. Mittels der Dialog- und Ablaufsteuerung 8 können über ent­ sprechende Verbindungen 12, welche auch als Datenbus ausgeführt sein können, Daten zwischen den einzelnen Komponenten der Vor­ richtung ausgetauscht werden.
Zur Verdeutlichung der beschriebenen Eingabedialoge werden in den Tabellen 2 bis 6 verschiedene Eingabedialoge dargestellt.
Tabelle 2
Dialogbeispiel "Zielorteingabe mit Auflösung von Mehrdeutigkeiten"
Tabelle 2a
Mehrdeutigkeitsliste
Tabelle 3
Dialogbeispiel "Kombination aus "Zielorteingabe" und "Zielort buchstabieren" ohne Mehrdeutigkeit"
Tabelle 4
Dialogbeispiel "Grobzieleingabe" ohne Mehrdeutigkeit
Tabelle 5
Dialogbeispiel 5 "Straßeneingabe"
Tabelle 6
Alternativer Eingabedialog "Straßeneingabe"

Claims (13)

1. Verfahren zur Spracheingabe einer Zieladresse in ein Ziel­ führungssystem im Echtzeitbetrieb, bei welchem eingegebene Sprachäußerungen eines Benutzers mittels einer Spracherken­ nungseinrichtung erkannt und gemäß ihrer Erkennungswahrschein­ lichkeit klassifiziert werden und diejenige Sprachäußerung mit der größten Erkennungswahrscheinlichkeit als die eingegebene Sprachäußerung identifiziert wird, wobei mindestens eine Sprachäußerung ein zulässiges Sprachkommando ist, welches die diesem Sprachkommando zugeordneten Bedienfunktionen des Ziel­ führungssystems aktiviert, wobei alle zulässigen Sprachäußerun­ gen auf mindestens einer Datenbasis gespeichert sind, dadurch gekennzeichnet, daß wenigstens eine Bedienfunktion des Zielführungssystems mindestens einen Eingabedialog umfaßt, wobei nach der Aktivie­ rung der wenigstens einen Bedienfunktion des Zielführungssy­ stems in Abhängigkeit des mindestens einen Eingabedialogs aus den auf mindestens einer Datenbasis gespeicherten zulässigen Sprachäußerungen in Echtzeit mindestens ein Lexikon generiert und anschließend das mindestens eine Lexikon als Vokabular in die Spracherkennungseinrichtung geladen wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß mindestens ein Lexikon aus den auf mindestens einer Daten­ basis gespeicherten zulässigen Sprachäußerungen in einem "Off-Line-Editiermodus" generiert wird, wobei nach der Aktivierung der wenigstens einen Bedienfunktion des Zielführungssystems in Abhängigkeit des mindestens einen Eingabedialogs das mindestens eine im "Off-Line-Editiermodus" generierte Lexikon in Echtzeit als Vokabular in die Spracherkennungseinrichtung geladen wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß mindestens eine Sprachäußerung ein Ortsnamen und/oder ein Straßennamen ist, wobei alle zulässigen Ortsnamen in einer Zieldatei abgelegt sind, wobei für wenigstens einen zulässigen Ortsnamen alle zulässigen Straßennamen in einer Straßenliste abgelegt sind.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Spracherkennungseinrichtung mindestens einen sprecher­ unabhängigen Spracherkenner und mindestens einen sprecherabhän­ gigen Zusatz-Spracherkenner umfaßt, wobei abhängig von dem min­ destens einen Eingabedialog der sprecherunabhängige Spracher­ kenner zur Erkennung von einzeln gesprochenen Ortsnamen und/oder Straßennamen und/oder von einzeln und/oder in Gruppen gesprochenen Buchstaben und/oder von Wortteilen verwendet wird und der sprecherabhängige Zusatz-Spracherkenner zur Erkennung von mindestens einem gesprochenen Schlüsselwort verwendet wird.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß dem mindestens einen Schlüsselwort eine bestimmte Ziel­ adresse zugeordnet wird, wobei das mindestens eine gesprochene Schlüsselwort in einem persönlichen Adreßregister gespeichert wird, und wobei aus dem persönlichen Adreßregister ein Namen-Lexikon generiert und in die Spracherkennungseinrichtung geladen wird.
6. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß ein Grund-Lexikon, welches im "Off-Line-Editiermodus" gene­ riert wurde, die "p" größten Orte eines Staates enthält.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß das Grund-Lexikon in einem internen nicht flüchtigen Spei­ cher des Zielführungssystems gespeichert ist.
8. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß ein Umgebungs-Lexikon, welches in Echtzeit generiert wird, "a" Orte im Umkreis des aktuellen Fahrzeugstandortes enthält, wobei das Umgebungs-Lexikon in regelmäßigen Abständen aktuali­ siert wird.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß das Umgebungs-Lexikon in einem internen nicht flüchtigen Speicher des Zielführungssystems gespeichert ist.
10. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß nach der Aktivierung eines Eingabedialogs "Zielort buchsta­ bieren" ein Teilwort-Lexikon zur Buchstabiererkennung in die Spracherkennungseinrichtung geladen wird, daß anschließend der Benutzer einzelne Buchstaben und/oder Buchstabengruppen als Sprachäußerungen eingibt, welche anschließend in der Spracher­ kennungseinrichtung mit dem Teilwort-Lexikon verglichen werden, wobei aus den erkannten Buchstaben und/oder Buchstabengruppen eine Hypothesenliste mit Worthypothesen gebildet wird, daß da­ nach die ersten "n" Worthypothesen mit der Zieldatei abgeglichen werden und aus dem Ergebnis des Abgleichs ein Ganzwort-Lexikon generiert und zur Ganzworterkennung in die Spracherkennungseinrichtung geladen wird, und daß anschließend ein gespeicherter akustischer Wert in der Spracherkennungseinrichtung zur Ganzworterkennung mit dem Ganzwort-Lexikon verglichen wird, wobei dieser akustische Wert aus einer als Ganzwort gesprochenen Sprachäußerung vor dem Laden des Teilwort-Lexikons erzeugt wurde.
11. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß nach dem Erkennen eines durch einen Eingabedialog "Grobziel eingeben" eingegebenen "Grobziels", durch das Zielführungssy­ stem in Echtzeit "m" Orte im Umkreis um den Ort "Grobziel" be­ rechnet werden und aus diesen "m" Orten ein Feinziel-Lexikon generiert und in die Spracherkennungseinrichtung geladen wird.
12. Vorrichtung zum Ausführen des Verfahrens nach einem der vorhergehenden Ansprüche, bei welcher ein Zielführungssystem (2) über entsprechende Verbindungen (12) mit einem Sprachdia­ logsystem (1) verbunden ist, wobei abhängig von mindestens ei­ ner von einem Benutzer in eine Spracheingabeeinrichtung (5) ge­ sprochene Sprachäußerung, wenn die gesprochene Sprachäußerung als ein zulässiges Sprachkommando von einer Spracherkennungs­ einrichtung (7) erkannt wird, mittels einer Dialog- und Ablauf­ steuerung (8) eine dem Sprachkommando zugeordnete Bedienfunk­ tion des Zielführungssystems (2) aktivierbar ist, wobei alle zulässigen Sprachäußerungen auf mindestens einer Datenbasis (9; 4; 3) speicherbar sind, dadurch gekennzeichnet, daß mittels der Dialog- und Ablaufsteuerung (8) in Abhängigkeit von mindestens einem Eingabedialog, welcher Teil mindestens ei­ ner Bedienfunktion ist, in Echtzeit wenigstens ein Lexikon aus den auf der mindestens einen Datenbasis (9; 4; 3) gespeicherten zulässigen Sprachäußerungen generierbar und als Vokabular in die Spracherkennungseinrichtung (7) ladbar ist.
13. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, daß mittels der Dialog- und Ablaufsteuerung (8) in Abhängigkeit von mindestens einem Eingabedialog mindestens ein im "Off-Line-Editiermodus" generiertes Lexikon, welches auf mindestens einer Datenbasis (9; 4; 3) gespeichert ist, in Echtzeit als Vokabular in die Spracherkennungseinrichtung (7) ladbar ist.
DE19709518A 1997-03-10 1997-03-10 Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb Expired - Lifetime DE19709518C5 (de)

Priority Applications (7)

Application Number Priority Date Filing Date Title
DE19709518A DE19709518C5 (de) 1997-03-10 1997-03-10 Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
DE59813027T DE59813027D1 (de) 1997-03-10 1998-03-03 Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
EP98103662A EP0865014B1 (de) 1997-03-10 1998-03-03 Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
AT98103662T ATE303580T1 (de) 1997-03-10 1998-03-03 Verfahren und vorrichtung zur spracheingabe einer zieladresse in ein zielführungssystem im echtzeitbetrieb
JP10096532A JPH1115493A (ja) 1997-03-10 1998-03-06 実時間動作において目標案内システムに目標アドレスを音声入力する方法及び装置
CA002231851A CA2231851C (en) 1997-03-10 1998-03-10 Method and device for real-time speech input of a destination address into a navigation system
US09/038,147 US6230132B1 (en) 1997-03-10 1998-03-10 Process and apparatus for real-time verbal input of a target address of a target address system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19709518A DE19709518C5 (de) 1997-03-10 1997-03-10 Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb

Publications (2)

Publication Number Publication Date
DE19709518C1 true DE19709518C1 (de) 1998-03-05
DE19709518C5 DE19709518C5 (de) 2006-05-04

Family

ID=7822659

Family Applications (2)

Application Number Title Priority Date Filing Date
DE19709518A Expired - Lifetime DE19709518C5 (de) 1997-03-10 1997-03-10 Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
DE59813027T Expired - Lifetime DE59813027D1 (de) 1997-03-10 1998-03-03 Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE59813027T Expired - Lifetime DE59813027D1 (de) 1997-03-10 1998-03-03 Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb

Country Status (6)

Country Link
US (1) US6230132B1 (de)
EP (1) EP0865014B1 (de)
JP (1) JPH1115493A (de)
AT (1) ATE303580T1 (de)
CA (1) CA2231851C (de)
DE (2) DE19709518C5 (de)

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0945705A2 (de) * 1998-03-27 1999-09-29 DaimlerChrysler Aerospace AG Erkennungssystem
DE19907759A1 (de) * 1999-02-23 2000-08-31 Siemens Ag Verfahren und Einrichtung zur Buchstabiererkennung
DE10003617A1 (de) * 2000-01-28 2001-08-02 Volkswagen Ag Verfahren und Vorrichtung zur Spracheingabe bei Autoradios
WO2001069592A1 (de) * 2000-03-15 2001-09-20 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem
DE10015960A1 (de) * 2000-03-30 2001-10-11 Micronas Munich Gmbh Spracherkennungsverfahren und Spracherkennungsvorrichtung
EP1176395A1 (de) * 2000-07-28 2002-01-30 Siemens Aktiengesellschaft Verfahren zur Auswahl einer Ortsbezeichnung in einem Navigationssystem durch Spracheingabe
DE10104902A1 (de) * 2001-02-03 2002-08-08 Abb Research Ltd System und Verfahren zur sprachgesteuerten Fehlerdiagnose
DE10129005A1 (de) * 2001-06-15 2003-01-02 Temic Sprachverarbeitung Gmbh Verfahren zur Spracherkennung und Spracherkennungssystem
DE10140097A1 (de) * 2001-08-16 2003-02-27 Conti Temic Microelectronic Verfahren zur Unterstützung eines Bedieners eines Gerätes beim Auffinden eines Bedienelements
FR2830647A1 (fr) * 2001-10-08 2003-04-11 France Telecom Procede d'evaluation par geocodage de la distance entre deux sites geographiques
EP1403618A2 (de) * 2002-09-27 2004-03-31 Robert Bosch Gmbh Eingabevorrichtung
EP1455163A2 (de) 2003-03-07 2004-09-08 Robert Bosch Gmbh Verfahren zur Eingabe von Zielen in ein Navigationssystem
DE10328200A1 (de) * 2003-06-24 2005-02-10 Audi Ag Navigationsgerät für ein Kraftfahrzeug
DE102004012148A1 (de) * 2004-03-12 2005-10-06 Siemens Ag Spracherkennung unter Berücksichtigung einer geografischen Position
WO2006111230A1 (de) * 2005-04-19 2006-10-26 Daimlerchrysler Ag Verfahren zur gezielten ermittlung eines vollständigen eingabedatensatzes in einem sprachdialogsystem
WO2007062820A1 (de) * 2005-12-01 2007-06-07 Daimler Ag Verfahren und vorrichtung zum auffinden und ausgeben eines datensatzes aus einem speicher
DE102005059390A1 (de) * 2005-12-09 2007-06-14 Volkswagen Ag Spracherkennung im Kraftfahrzeug
DE102005030963B4 (de) * 2005-06-30 2007-07-19 Daimlerchrysler Ag Verfahren und Vorrichtung zur Bestätigung und/oder Korrektur einer einem Spracherkennungssystems zugeführten Spracheingabe
DE102006057921A1 (de) * 2006-12-08 2008-06-12 Volkswagen Ag Verfahren und Vorrichtung zur Auswahl eines Ziels, insbesondere bei einem Navigationssystem
US7392182B2 (en) 2002-12-18 2008-06-24 Harman International Industries, Inc. Speech recognition system
US7392189B2 (en) 2002-02-23 2008-06-24 Harman Becker Automotive Systems Gmbh System for speech recognition with multi-part recognition
EP1939860A1 (de) * 2006-11-30 2008-07-02 Harman Becker Automotive Systems GmbH Interaktives Spracherkennungssystem
DE102007037567A1 (de) * 2007-08-09 2009-02-12 Volkswagen Ag Verfahren zur multimodalen Bedienung mindestens eines Gerätes in einem Kraftfahrzeug
DE102008028090A1 (de) * 2008-02-29 2009-09-10 Navigon Ag Verfahren zum Betrieb eines Navigationssystems
DE102008027958A1 (de) * 2008-03-03 2009-10-08 Navigon Ag Verfahren zum Betrieb eines Navigationssystems
DE102009025530A1 (de) * 2009-06-19 2010-12-23 Volkswagen Ag Verfahren zur Bedienung eines Fahrzeugs mittels eines automatisierten Sprachdialogs sowie entsprechend ausgestaltetes Sprachdialogsystem und Fahrzeug
WO2011059781A1 (en) * 2009-10-28 2011-05-19 Google Inc. Voice actions on computing devices
DE102010026708A1 (de) * 2010-07-10 2012-01-12 Volkswagen Ag Verfahren zum Betreiben eines Sprachdialogsystems und Sprachdialogsystem
DE102010049869A1 (de) * 2010-10-28 2012-05-03 Volkswagen Ag Verfahren zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug und Vorrichtung dazu
DE102004017158B4 (de) * 2003-04-08 2013-06-06 Denso Corporation Routenführungssystem mit Stimmführungsfähigkeit
DE10125825B4 (de) * 2001-05-26 2014-09-11 Robert Bosch Gmbh Verfahren zur Spracheingabe und Datenträger
US9299053B2 (en) 2003-12-17 2016-03-29 West View Research, Llc Portable computerized wireless apparatus
US9412367B2 (en) 1999-06-10 2016-08-09 West View Research, Llc Computerized information and display apparatus
US9772739B2 (en) 2000-05-03 2017-09-26 Nokia Technologies Oy Method for controlling a system, especially an electrical and/or electronic system comprising at least one application device
DE19937490B4 (de) 1999-08-07 2018-11-29 Volkswagen Ag Verfahren und Vorrichtung zur Eingabe von Steuerungsbefehlen für Komfortgeräte, insbesondere in Kraftfahrzeugen
DE102009017177B4 (de) 2008-04-23 2022-05-05 Volkswagen Ag Spracherkennungsanordnung und Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6775264B1 (en) 1997-03-03 2004-08-10 Webley Systems, Inc. Computer, internet and telecommunications based network
DE60033733T2 (de) 1999-05-31 2007-12-06 Nippon Telegraph And Telephone Corp. Datenbankabfragesystem basierend auf Spracherkennung
DE50008703D1 (de) 1999-06-10 2004-12-23 Infineon Technologies Ag Spracherkennungsverfahren und -einrichtung
DE19933524A1 (de) * 1999-07-16 2001-01-18 Nokia Mobile Phones Ltd Verfahren zur Eingabe von Daten in ein System
US6707889B1 (en) * 1999-08-24 2004-03-16 Microstrategy Incorporated Multiple voice network access provider system and method
EP1083545A3 (de) * 1999-09-09 2001-09-26 Xanavi Informatics Corporation Eigennamen Spracherkennung in einem Navigationssystem
JP4790956B2 (ja) * 1999-09-29 2011-10-12 ニュアンス コミュニケーションズ オーストリア ゲーエムベーハー 音声認識器における綴りモード
US6587818B2 (en) * 1999-10-28 2003-07-01 International Business Machines Corporation System and method for resolving decoding ambiguity via dialog
US6424945B1 (en) * 1999-12-15 2002-07-23 Nokia Corporation Voice packet data network browsing for mobile terminals system and method using a dual-mode wireless connection
US6721705B2 (en) 2000-02-04 2004-04-13 Webley Systems, Inc. Robust voice browser system and voice activated device controller
US7516190B2 (en) 2000-02-04 2009-04-07 Parus Holdings, Inc. Personal voice-based information retrieval system
EP1126660B1 (de) * 2000-02-15 2004-12-01 Siemens Aktiengesellschaft Verfahren zur Uebermittlung einer Nachricht sowie Gateway
US6385306B1 (en) * 2000-03-02 2002-05-07 John Francis Baxter, Jr. Audio file transmission method
WO2002005264A1 (de) * 2000-07-07 2002-01-17 Siemens Aktiengesellschaft Sprachgesteuerte anordnung und verfahren zur spracheingabe und -erkennung
DE10037023A1 (de) * 2000-07-29 2002-02-21 Bosch Gmbh Robert Verfahren und System zur akustischen Funktionssteuerung im Kraftfahrzeug
US20020116175A1 (en) * 2000-12-15 2002-08-22 Stouffer Scott Allen Method and system for using a voice channel with a data service
US6490521B2 (en) * 2000-12-28 2002-12-03 Intel Corporation Voice-controlled navigation device utilizing wireless data transmission for obtaining maps and real-time overlay information
US20020099544A1 (en) * 2001-01-24 2002-07-25 Levitt Benjamin J. System, method and computer program product for damage control during large-scale address speech recognition
US20020111810A1 (en) * 2001-02-15 2002-08-15 Khan M. Salahuddin Spatially built word list for automatic speech recognition program and method for formation thereof
US20030149565A1 (en) * 2001-03-09 2003-08-07 Chang Steve S. System, method and computer program product for spelling fallback during large-scale speech recognition
DE10115051A1 (de) * 2001-03-27 2002-10-10 Bosch Gmbh Robert Vorrichtung und Verfahren zur Spracherkennung
DE10132887A1 (de) * 2001-07-06 2003-01-16 Bosch Gmbh Robert System und Verfahren zum Navigieren eines Fortbewegungsmittels
MY141150A (en) * 2001-11-02 2010-03-15 Panasonic Corp Channel selecting apparatus utilizing speech recognition, and controling method thereof
US7177814B2 (en) * 2002-02-07 2007-02-13 Sap Aktiengesellschaft Dynamic grammar for voice-enabled applications
EP1363271A1 (de) * 2002-05-08 2003-11-19 Sap Ag Verfahren und System zur Verarbeitung und Speicherung von Sprachinformationen eines Dialogs
EP1361740A1 (de) * 2002-05-08 2003-11-12 Sap Ag Verfahren und System zur Verarbeitung von Sprachinformationen eines Dialogs
DE10220522B4 (de) * 2002-05-08 2005-11-17 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten mittels Spracherkennung und Frequenzanalyse
DE10220524B4 (de) * 2002-05-08 2006-08-10 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten und zur Erkennung einer Sprache
DE10220521B4 (de) * 2002-05-08 2005-11-24 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten und Klassifizierung von Gesprächen
DE10227518A1 (de) * 2002-06-20 2004-01-08 Robert Bosch Gmbh Verfahren zur Zieleingabe an einem Navigationsgerät und Navigationsdatenbasis
JP2004037998A (ja) * 2002-07-05 2004-02-05 Denso Corp 音声制御装置
FR2844590A1 (fr) * 2002-09-13 2004-03-19 Marques Et De Droits Derives I Systeme de navigation utilisant la reconnaissance vocale
JP2007505365A (ja) * 2003-05-26 2007-03-08 コニンクリユケ フィリップス エレクトロニクス エヌ.ブイ. 音声制御ナビゲーションシステムの操作方法
JP4012143B2 (ja) * 2003-12-16 2007-11-21 キヤノン株式会社 情報処理装置およびデータ入力方法
JP2005189667A (ja) * 2003-12-26 2005-07-14 Mitsubishi Electric Corp 車載機器、音声対話ドキュメント作成サーバ及びこれらを用いたナビゲーションシステム
US20060074660A1 (en) * 2004-09-29 2006-04-06 France Telecom Method and apparatus for enhancing speech recognition accuracy by using geographic data to filter a set of words
JP2006170769A (ja) * 2004-12-15 2006-06-29 Aisin Aw Co Ltd 案内情報提供方法、案内情報提供システム、ナビゲーション装置及び入出力装置
US20060136195A1 (en) * 2004-12-22 2006-06-22 International Business Machines Corporation Text grouping for disambiguation in a speech application
JP2007271901A (ja) * 2006-03-31 2007-10-18 Xanavi Informatics Corp ナビゲーション装置及びその住所入力方法
US7831431B2 (en) * 2006-10-31 2010-11-09 Honda Motor Co., Ltd. Voice recognition updates via remote broadcast signal
EP1933302A1 (de) * 2006-12-12 2008-06-18 Harman Becker Automotive Systems GmbH Spracherkennungsverfahren
US20080228397A1 (en) * 2007-03-15 2008-09-18 Motorola, Inc. Reverse map determination of locations and addresses
US8909528B2 (en) * 2007-05-09 2014-12-09 Nuance Communications, Inc. Method and system for prompt construction for selection from a list of acoustically confusable items in spoken dialog systems
US7437291B1 (en) * 2007-12-13 2008-10-14 International Business Machines Corporation Using partial information to improve dialog in automatic speech recognition systems
US20090271106A1 (en) * 2008-04-23 2009-10-29 Volkswagen Of America, Inc. Navigation configuration for a motor vehicle, motor vehicle having a navigation system, and method for determining a route
US9286893B2 (en) * 2008-05-30 2016-03-15 International Business Machines Corporation Pre-processed annotation of street grammar in speech enabled navigation systems
JP5334178B2 (ja) * 2009-01-21 2013-11-06 クラリオン株式会社 音声認識装置およびデータ更新方法
JP2011118755A (ja) * 2009-12-04 2011-06-16 Sony Corp 学習装置、学習方法、およびプログラム
US8315799B2 (en) * 2010-05-11 2012-11-20 International Business Machines Corporation Location based full address entry via speech recognition
KR101283210B1 (ko) * 2010-11-09 2013-07-05 기아자동차주식회사 카오디오 장치를 이용한 주행 경로 안내 시스템 및 그 카오디오 장치, 이를 이용한 경로 안내 방법
US9368107B2 (en) * 2011-04-20 2016-06-14 Nuance Communications, Inc. Permitting automated speech command discovery via manual event to command mapping
CN103376115A (zh) * 2012-04-13 2013-10-30 上海博泰悦臻电子设备制造有限公司 车载导航装置及其导航方法
US10824310B2 (en) * 2012-12-20 2020-11-03 Sri International Augmented reality virtual personal assistant for external representation
US20150100240A1 (en) * 2013-10-08 2015-04-09 Toyota Jidosha Kabushiki Kaisha Generating Dynamic Vocabulary for Personalized Speech Recognition
US9484025B2 (en) 2013-10-15 2016-11-01 Toyota Jidosha Kabushiki Kaisha Configuring dynamic custom vocabulary for personalized speech recognition
JP2015129672A (ja) * 2014-01-07 2015-07-16 アルパイン株式会社 施設検索装置および方法
DE102014017385B4 (de) * 2014-11-24 2016-06-23 Audi Ag Kraftfahrzeug-Gerätebedienung mit Bedienkorrektur
CN110335595A (zh) * 2019-06-06 2019-10-15 平安科技(深圳)有限公司 基于语音识别的插问对话方法、装置及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3608497A1 (de) * 1986-03-14 1987-09-17 Standard Elektrik Lorenz Ag Verfahren fuer und einrichtung zum sprachgesteuerten bedienen eines fernmeldeendgeraetes
DE19600700A1 (de) * 1995-01-20 1996-08-08 Mitsubishi Electric Corp Navigationsgerät
EP0736853A1 (de) * 1995-04-04 1996-10-09 Aisin Aw Co., Ltd. Fahrzeugnavigationsanlage
DE19533541C1 (de) * 1995-09-11 1997-03-27 Daimler Benz Aerospace Ag Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61147298A (ja) * 1984-12-20 1986-07-04 富士通株式会社 音声認識制御方式
US4866778A (en) * 1986-08-11 1989-09-12 Dragon Systems, Inc. Interactive speech recognition apparatus
JP2680317B2 (ja) * 1987-12-05 1997-11-19 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置
US5054082A (en) * 1988-06-30 1991-10-01 Motorola, Inc. Method and apparatus for programming devices to recognize voice commands
US5165095A (en) * 1990-09-28 1992-11-17 Texas Instruments Incorporated Voice telephone dialing
US5172321A (en) * 1990-12-10 1992-12-15 Motorola, Inc. Vehicle route planning system
JPH0642154A (ja) * 1992-07-20 1994-02-15 Itooki:Kk フリ−アクセスフロア用パネルとその脚支持部材の固定方法
JPH0654440A (ja) * 1992-07-27 1994-02-25 Yashima Denki Co Ltd 回転機の異常検出装置
JP3337083B2 (ja) * 1992-08-20 2002-10-21 株式会社リコー 車載用ナビゲート装置
JPH06318977A (ja) * 1993-03-03 1994-11-15 Nippon Telegr & Teleph Corp <Ntt> 音声対話装置
JPH06261126A (ja) * 1993-03-08 1994-09-16 Nippon Telegr & Teleph Corp <Ntt> オペレータ支援型音声対話装置
JP2946269B2 (ja) * 1993-08-25 1999-09-06 本田技研工業株式会社 車載情報処理用音声認識装置
JP3454897B2 (ja) * 1994-01-31 2003-10-06 株式会社日立製作所 音声対話システム
JPH07219590A (ja) * 1994-01-31 1995-08-18 Canon Inc 音声情報検索装置及び方法
JP2775140B2 (ja) * 1994-03-18 1998-07-16 株式会社エイ・ティ・アール人間情報通信研究所 パターン認識方法、音声認識方法および音声認識装置
JPH07319383A (ja) * 1994-05-25 1995-12-08 Sony Corp 地図表示装置
KR100383352B1 (ko) * 1994-10-25 2003-10-17 브리티쉬 텔리커뮤니케이션즈 파블릭 리미티드 캄퍼니 음성작동서비스
JPH08166797A (ja) * 1994-12-14 1996-06-25 Sony Corp 音声対話型制御システム
JPH08202386A (ja) * 1995-01-23 1996-08-09 Sony Corp 音声認識方法、音声認識装置、およびナビゲーション装置
US5677990A (en) * 1995-05-05 1997-10-14 Panasonic Technologies, Inc. System and method using N-best strategy for real time recognition of continuously spelled names
JPH08328584A (ja) * 1995-05-29 1996-12-13 Sony Corp 音声認識装置、音声認識方法及びナビゲーション装置
JP3462322B2 (ja) * 1995-11-30 2003-11-05 沖電気工業株式会社 テキスト音声読み上げシステム
US5832429A (en) * 1996-09-11 1998-11-03 Texas Instruments Incorporated Method and system for enrolling addresses in a speech recognition database

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3608497A1 (de) * 1986-03-14 1987-09-17 Standard Elektrik Lorenz Ag Verfahren fuer und einrichtung zum sprachgesteuerten bedienen eines fernmeldeendgeraetes
DE19600700A1 (de) * 1995-01-20 1996-08-08 Mitsubishi Electric Corp Navigationsgerät
EP0736853A1 (de) * 1995-04-04 1996-10-09 Aisin Aw Co., Ltd. Fahrzeugnavigationsanlage
DE19533541C1 (de) * 1995-09-11 1997-03-27 Daimler Benz Aerospace Ag Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens

Cited By (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0945705A3 (de) * 1998-03-27 2001-03-07 DaimlerChrysler AG Erkennungssystem
EP0945705A2 (de) * 1998-03-27 1999-09-29 DaimlerChrysler Aerospace AG Erkennungssystem
DE19907759A1 (de) * 1999-02-23 2000-08-31 Siemens Ag Verfahren und Einrichtung zur Buchstabiererkennung
DE19907759C2 (de) * 1999-02-23 2002-05-23 Infineon Technologies Ag Verfahren und Einrichtung zur Buchstabiererkennung
US9412367B2 (en) 1999-06-10 2016-08-09 West View Research, Llc Computerized information and display apparatus
US9710225B2 (en) 1999-06-10 2017-07-18 West View Research, Llc Computerized information and display apparatus with automatic context determination
US9709972B2 (en) 1999-06-10 2017-07-18 West View Research, Llc Computerized information and display apparatus with remote environment control
US9715368B2 (en) 1999-06-10 2017-07-25 West View Research, Llc Computerized information and display apparatus with rapid convergence algorithm
DE19937490B4 (de) 1999-08-07 2018-11-29 Volkswagen Ag Verfahren und Vorrichtung zur Eingabe von Steuerungsbefehlen für Komfortgeräte, insbesondere in Kraftfahrzeugen
DE10003617A1 (de) * 2000-01-28 2001-08-02 Volkswagen Ag Verfahren und Vorrichtung zur Spracheingabe bei Autoradios
US7209884B2 (en) 2000-03-15 2007-04-24 Bayerische Motoren Werke Aktiengesellschaft Speech input into a destination guiding system
DE10012572C2 (de) * 2000-03-15 2003-03-27 Bayerische Motoren Werke Ag Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem
DE10012572A1 (de) * 2000-03-15 2001-09-27 Bayerische Motoren Werke Ag Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem
WO2001069592A1 (de) * 2000-03-15 2001-09-20 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem
DE10015960A1 (de) * 2000-03-30 2001-10-11 Micronas Munich Gmbh Spracherkennungsverfahren und Spracherkennungsvorrichtung
DE10015960C2 (de) * 2000-03-30 2003-01-16 Micronas Munich Gmbh Spracherkennungsverfahren und Spracherkennungsvorrichtung
US9772739B2 (en) 2000-05-03 2017-09-26 Nokia Technologies Oy Method for controlling a system, especially an electrical and/or electronic system comprising at least one application device
EP1176395A1 (de) * 2000-07-28 2002-01-30 Siemens Aktiengesellschaft Verfahren zur Auswahl einer Ortsbezeichnung in einem Navigationssystem durch Spracheingabe
DE10104902A1 (de) * 2001-02-03 2002-08-08 Abb Research Ltd System und Verfahren zur sprachgesteuerten Fehlerdiagnose
DE10125825B4 (de) * 2001-05-26 2014-09-11 Robert Bosch Gmbh Verfahren zur Spracheingabe und Datenträger
DE10129005B4 (de) * 2001-06-15 2005-11-03 Harman Becker Automotive Systems Gmbh Verfahren zur Spracherkennung und Spracherkennungssystem
DE10129005A1 (de) * 2001-06-15 2003-01-02 Temic Sprachverarbeitung Gmbh Verfahren zur Spracherkennung und Spracherkennungssystem
DE10140097B4 (de) * 2001-08-16 2005-04-28 Guenter Fendt Verfahren zur Unterstützung eines Bedieners eines Gerätes beim Auffinden der Position eines Bedienelements
DE10140097A1 (de) * 2001-08-16 2003-02-27 Conti Temic Microelectronic Verfahren zur Unterstützung eines Bedieners eines Gerätes beim Auffinden eines Bedienelements
FR2830647A1 (fr) * 2001-10-08 2003-04-11 France Telecom Procede d'evaluation par geocodage de la distance entre deux sites geographiques
US7392189B2 (en) 2002-02-23 2008-06-24 Harman Becker Automotive Systems Gmbh System for speech recognition with multi-part recognition
EP1403618A3 (de) * 2002-09-27 2006-04-05 Robert Bosch Gmbh Eingabevorrichtung
EP1403618A2 (de) * 2002-09-27 2004-03-31 Robert Bosch Gmbh Eingabevorrichtung
US7392182B2 (en) 2002-12-18 2008-06-24 Harman International Industries, Inc. Speech recognition system
EP1455163A3 (de) * 2003-03-07 2007-11-07 Robert Bosch Gmbh Verfahren zur Eingabe von Zielen in ein Navigationssystem
EP1455163A2 (de) 2003-03-07 2004-09-08 Robert Bosch Gmbh Verfahren zur Eingabe von Zielen in ein Navigationssystem
DE102004017158B4 (de) * 2003-04-08 2013-06-06 Denso Corporation Routenführungssystem mit Stimmführungsfähigkeit
DE10328200B4 (de) * 2003-06-24 2007-08-30 Audi Ag Navigationsgerät für ein Kraftfahrzeug
DE10328200A1 (de) * 2003-06-24 2005-02-10 Audi Ag Navigationsgerät für ein Kraftfahrzeug
US9424547B2 (en) 2003-12-17 2016-08-23 West View Research, Llc Methods of transport of one or more items between locations
US9781110B2 (en) 2003-12-17 2017-10-03 West View Research, Llc Computerized methods for location-based service provision
US11870778B2 (en) 2003-12-17 2024-01-09 West View Research, Llc Computerized apparatus and methods for user authentication and object handling
US11240238B2 (en) 2003-12-17 2022-02-01 West View Research, Llc Computerized apparatus and methods for location-based service provision
US10686784B2 (en) 2003-12-17 2020-06-16 West View Research, Llc Computerized apparatus and methods for location-based service provision
US9607280B2 (en) 2003-12-17 2017-03-28 West View Research, Llc Methods for shipping element processing
US10057265B2 (en) 2003-12-17 2018-08-21 West View Research, Llc Computerized vehicular apparatus for location-based service provision
US9396450B2 (en) 2003-12-17 2016-07-19 West View Research, Llc Computerized apparatus and methods for transfer between locations
US9349112B2 (en) 2003-12-17 2016-05-24 West View Research, Llc Computerized apparatus for transfer between locations
US9299053B2 (en) 2003-12-17 2016-03-29 West View Research, Llc Portable computerized wireless apparatus
DE102004012148A1 (de) * 2004-03-12 2005-10-06 Siemens Ag Spracherkennung unter Berücksichtigung einer geografischen Position
DE102005018174A1 (de) * 2005-04-19 2006-11-02 Daimlerchrysler Ag Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11
WO2006111230A1 (de) * 2005-04-19 2006-10-26 Daimlerchrysler Ag Verfahren zur gezielten ermittlung eines vollständigen eingabedatensatzes in einem sprachdialogsystem
DE102005030963B4 (de) * 2005-06-30 2007-07-19 Daimlerchrysler Ag Verfahren und Vorrichtung zur Bestätigung und/oder Korrektur einer einem Spracherkennungssystems zugeführten Spracheingabe
WO2007062820A1 (de) * 2005-12-01 2007-06-07 Daimler Ag Verfahren und vorrichtung zum auffinden und ausgeben eines datensatzes aus einem speicher
DE102005059390A1 (de) * 2005-12-09 2007-06-14 Volkswagen Ag Spracherkennung im Kraftfahrzeug
EP1939860A1 (de) * 2006-11-30 2008-07-02 Harman Becker Automotive Systems GmbH Interaktives Spracherkennungssystem
US9805722B2 (en) 2006-11-30 2017-10-31 Nuance Communications, Inc. Interactive speech recognition system
DE102006057921A1 (de) * 2006-12-08 2008-06-12 Volkswagen Ag Verfahren und Vorrichtung zur Auswahl eines Ziels, insbesondere bei einem Navigationssystem
DE102007037567A1 (de) * 2007-08-09 2009-02-12 Volkswagen Ag Verfahren zur multimodalen Bedienung mindestens eines Gerätes in einem Kraftfahrzeug
DE102008028090A1 (de) * 2008-02-29 2009-09-10 Navigon Ag Verfahren zum Betrieb eines Navigationssystems
DE102008027958A1 (de) * 2008-03-03 2009-10-08 Navigon Ag Verfahren zum Betrieb eines Navigationssystems
DE102009017177B4 (de) 2008-04-23 2022-05-05 Volkswagen Ag Spracherkennungsanordnung und Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges
DE102009025530A1 (de) * 2009-06-19 2010-12-23 Volkswagen Ag Verfahren zur Bedienung eines Fahrzeugs mittels eines automatisierten Sprachdialogs sowie entsprechend ausgestaltetes Sprachdialogsystem und Fahrzeug
DE102009025530B4 (de) * 2009-06-19 2019-05-23 Volkswagen Ag Verfahren zur Bedienung eines Fahrzeugs mittels eines automatisierten Sprachdialogs sowie entsprechend ausgestaltetes Sprachdialogsystem und Fahrzeug
US9766088B2 (en) 2009-10-28 2017-09-19 Google Inc. Social messaging user interface
US8200847B2 (en) 2009-10-28 2012-06-12 Google Inc. Voice actions on computing devices
US10578450B2 (en) 2009-10-28 2020-03-03 Google Llc Navigation queries
EP3621284A1 (de) * 2009-10-28 2020-03-11 Google LLC Sprachaktionen bei computervorrichtungen
WO2011059781A1 (en) * 2009-10-28 2011-05-19 Google Inc. Voice actions on computing devices
US8700300B2 (en) 2009-10-28 2014-04-15 Google Inc. Navigation queries
US9239603B2 (en) 2009-10-28 2016-01-19 Google Inc. Voice actions on computing devices
US11768081B2 (en) 2009-10-28 2023-09-26 Google Llc Social messaging user interface
US9405343B2 (en) 2009-10-28 2016-08-02 Google Inc. Social messaging user interface
DE102010026708A1 (de) * 2010-07-10 2012-01-12 Volkswagen Ag Verfahren zum Betreiben eines Sprachdialogsystems und Sprachdialogsystem
DE102010049869A1 (de) * 2010-10-28 2012-05-03 Volkswagen Ag Verfahren zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug und Vorrichtung dazu
DE102010049869B4 (de) 2010-10-28 2023-03-16 Volkswagen Ag Verfahren zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug und Vorrichtung dazu

Also Published As

Publication number Publication date
US6230132B1 (en) 2001-05-08
CA2231851C (en) 2002-10-22
EP0865014A3 (de) 2000-05-24
EP0865014B1 (de) 2005-08-31
EP0865014A2 (de) 1998-09-16
CA2231851A1 (en) 1998-09-10
ATE303580T1 (de) 2005-09-15
JPH1115493A (ja) 1999-01-22
DE59813027D1 (de) 2005-10-06
DE19709518C5 (de) 2006-05-04

Similar Documents

Publication Publication Date Title
DE19709518C1 (de) Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
EP1176395B1 (de) Verfahren zur Auswahl einer Ortsbezeichnung in einem Navigationssystem durch Spracheingabe
DE102009017177B4 (de) Spracherkennungsanordnung und Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges
EP0905662B1 (de) Eingabesystem wenigstens für Orts- und/oder Strassennamen
DE60032193T2 (de) Verfahren und System zur Auswahl erkannter Wörter bei der Korrektur erkannter Sprache
EP1264302B1 (de) Verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem
DE19533541C1 (de) Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens
DE102007033472A1 (de) Verfahren zur Spracherkennung
EP1071075B1 (de) Verfahren und Vorrichtung zur Eingabe von Daten
DE102015213722B4 (de) Verfahren zum Betreiben eines Spracherkennungssystems in einem Fahrzeug und Spracherkennungssystem
DE102005018174A1 (de) Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11
DE19914631A1 (de) Eingabeverfahren in ein Fahrerinformationssystem
WO2015185464A1 (de) Assistenzsystem, das mittels spracheingaben steuerbar ist, mit einer funktionseinrichtung und mehreren spracherkennungsmodulen
EP2087317B1 (de) Verfahren zur auswahl eines fahrziels
DE102017211447B4 (de) Verfahren zum Auswählen eines Listeneintrags aus einer Auswahlliste einer Bedienvorrichtung mittels Sprachbedienung sowie Bedienvorrichtung
DE10327943B4 (de) Unterschiedliche Zahlenleseweisen zulassendes Spracherkennungssystem
DE10129005B4 (de) Verfahren zur Spracherkennung und Spracherkennungssystem
DE10125825B4 (de) Verfahren zur Spracheingabe und Datenträger
EP0671840A2 (de) Verfahren zur Erkennung von buchstabierten Namen oder Begriffen für Kommunikations-Vermittlungsanlagen
EP1403618A2 (de) Eingabevorrichtung
DE102013216427B4 (de) Vorrichtung und Verfahren zur fortbewegungsmittelbasierten Sprachverarbeitung
DE19962048A1 (de) Zielführungssystem
DE19937490A1 (de) Verfahren und Vorrichtung zur Eingabe von Steuerungsbefehlen für Komfortgeräte, insbesondere in Kraftfahrzeugen
DE10206734A1 (de) Verfahren und Vorrichtung zur automatischen Ortsbestimmung mittels einer Suchmaschine
DE102005057312A1 (de) Verfahren und Vorrichtung zum Auffinden und Ausgeben eines Datensatzes aus einem Speicher

Legal Events

Date Code Title Description
8100 Publication of patent without earlier publication of application
D1 Grant (no unexamined application published) patent law 81
8363 Opposition against the patent
8327 Change in the person/name/address of the patent owner

Owner name: DAIMLERCHRYSLER AEROSPACE AKTIENGESELLSCHAFT, 8099

8327 Change in the person/name/address of the patent owner

Owner name: DAIMLERCHRYSLER AG, 70567 STUTTGART, DE

8327 Change in the person/name/address of the patent owner

Owner name: HARMAN BECKER AUTOMOTIVE SYSTEMS GMBH, 76307 KARLS

8366 Restricted maintained after opposition proceedings
8392 Publication of changed patent specification
R071 Expiry of right