DE19709518C1 - Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb - Google Patents
Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im EchtzeitbetriebInfo
- Publication number
- DE19709518C1 DE19709518C1 DE19709518A DE19709518A DE19709518C1 DE 19709518 C1 DE19709518 C1 DE 19709518C1 DE 19709518 A DE19709518 A DE 19709518A DE 19709518 A DE19709518 A DE 19709518A DE 19709518 C1 DE19709518 C1 DE 19709518C1
- Authority
- DE
- Germany
- Prior art keywords
- input
- destination
- speech
- lexicon
- dialog
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000001419 dependent effect Effects 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 12
- 230000003213 activating effect Effects 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 6
- 108090000623 proteins and genes Proteins 0.000 claims 1
- 230000008569 process Effects 0.000 description 19
- 238000001514 detection method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 238000013518 transcription Methods 0.000 description 4
- 230000035897 transcription Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 241000252073 Anguilliformes Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 210000002105 tongue Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Navigation (AREA)
- Machine Translation (AREA)
- Traffic Control Systems (AREA)
- Train Traffic Observation, Control, And Security (AREA)
Description
Die Erfindung betrifft ein Verfahren zur Spracheingabe einer
Zieladresse in ein Zielführungssystem im Echtzeitbetrieb gemäß
dem Oberbegriff des Patentanspruchs 1 sowie eine Vorrichtung
zum Ausführen des Verfahrens gemäß Oberbegriff des Patentan
spruchs 12.
Die DE 196 00 700 A1 beschreibt ein Zielführungssystem für ein
Kraftfahrzeug, bei welchem als Eingabevorrichtung ein fest
montierter Schalter, ein Berührfeldschalter oder ein
Spracherkennungsgerät verwendet werden kann. Das Dokument geht
aber nicht auf die Spracheingabe einer Zieladresse in ein
Zielführungssystem ein.
Die EP 0 736 853 A1 beschreibt ebenfalls ein Zielführungssystem
für ein Kraftfahrzeug. Die Spracheingabe einer Zieladresse in
ein Zielführungssystem ist aber nicht Gegenstand dieses
Dokuments.
Die DE 36 08 497 A1 beschreibt ein Verfahren zum
sprachgesteuerten Bedienen eines Fernmeldeendgerätes,
insbesondere eines Autotelefons. Als nachteilig wird an dem
Verfahren angesehen, daß nicht auf die speziellen Probleme bei
der Spracheingabe einer Zieladresse in ein Zielführungssystem
eingegangen wird.
Die ältere noch nicht vorveröffentlichte Patentanmeldung P 195
33 541.4-52 der Anmelderin offenbart ein gattungsgemäßes Ver
fahren zur automatischen Steuerung eines oder mehrerer Geräte
durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb
und eine Vorrichtung zum Ausführen des Verfahrens. Gemäß diesem
Verfahren werden die eingegebenen Sprachkommandos mittels einer
Spracherkennungseinrichtung, welche einen sprecherunabhängigen
Spracherkenner und einen sprecherabhängigen Zusatz-Spracher
kenner umfaßt, erkannt und gemäß ihrer Erkennungswahrschein
lichkeit als das eingegebene Sprachkommando identifiziert und
die diesem Sprachkommando zugeordneten Funktionen des oder der
Geräte initiiert. Die Sprachkommandos bzw. die Sprachdialoge
werden dabei auf der Basis von mindestens einer Synataxstruk
tur, mindestens einem Basiskommandovokabular und bei Bedarf
mindestens einem sprecherspezifischen Zusatzkommandovokabular
gebildet. Die Syntaxstrukturen und die Basiskommandovokabula
rien werden in sprecherunabhängiger Form vorgegeben und sind
während des Echtzeitbetriebs fixiert. Das sprecherspezifische
Zusatzvokabular wird vom jeweiligen Sprecher eingegeben
und/oder geändert, indem in Trainingsphasen innerhalb und au
ßerhalb des Echtzeitbetriebs ein nach einem sprecherabhängigen
Erkennungsverfahren arbeitender Zusatz-Spracherkenner vom je
weiligen Sprecher durch eine mindestens einmalige Eingabe der
Zusatzkommandos auf die sprecherspezifischen Merkmale des je
weiligen Sprechers trainiert wird. Im Echtzeitbetrieb erfolgt
die Abwicklung des Sprachdialogs und/oder die Steuerung der Ge
räte wie folgt:
- - vom Benutzer eingegebene Sprachkommandos werden einem spre cherunabhängigen und auf der Basis von Phonemen arbeitenden Spracherkenner und dem sprecherabhängigen Zusatz-Spracherkenner zugeleitet und dort einer Merkmalextraktion unterzogen und im sprecherabhängigen Zusatz-Spracherkenner anhand der dort extra hierten Merkmale auf das Vorliegen von Zusatzkommandos aus dem Zusatzkommandovokabular untersucht und klassifiziert.
- - anschließend werden die als mit einer bestimmten Wahrschein lichkeit erkannt klassifizierten Kommandos und Syntaxstrukturen der beiden Spracherkenner zu hypothetischen Sprachkommandos zu sammengefügt und diese gemäß der vorgegebenen Syntaxstruktur auf ihre Zulässigkeit und Erkennungswahrscheinlichkeit unter sucht und klassifiziert.
- - anschließend werden die zulässigen hypothetischen Sprachkom mandos nach vorgegebenen Kriterien auf ihre Plausibilität un tersucht und von den als plausibel erkannten hypothetischen Sprachkommandos dasjenige mit der höchsten Erkennungswahr scheinlichkeit ausgewählt und als das vom Benutzer eingegebene Sprachkommando identifiziert.
- - anschließend werden die dem identifizierten Sprachkommando zugeordneten Funktionen der zu steuernden Geräte initiiert und/oder Antworten gemäß einer vorgegebenen Sprachdialogstruk tur zur Fortführung des Sprachdialogs generiert. Gemäß dieses Dokuments kann das beschriebene Verfahren auch zur Bedienung eines Zielführungssystems eingesetzt werden, wobei die Eingabe einer Zieladresse durch die Eingabe von Buchstaben oder von Buchstabengruppen in einem Buchstabiermodus erfolgt und wobei vom Benutzer eine Liste zur Speicherung von Zieladressen für das Zielführungssystem unter vorgebbaren Namen/Abkürzungen an gelegt werden kann.
Als nachteilig kann bei diesem beschriebenen Verfahren angese
hen werden, daß auf die speziellen Eigenschaften eines Zielfüh
rungssystems nicht eingegangen wird und nur die Spracheingabe
eines Zielortes mittels einem Buchstabiermodus angegeben wird.
Aufgabe der Erfindung ist es, ein gattungsgemäßes Verfahren so
weiterzubilden, daß die besonderen Eigenschaften eines Zielfüh
rungssystems berücksichtigt werden und eine vereinfachte
schnellere Spracheingabe einer Zieladresse in ein Zielführungs
system möglich ist und dadurch der Bedienkomfort verbessert
wird. Ferner soll eine geeignete Vorrichtung zur Durchführung
des Verfahrens angegeben werden.
Diese Aufgabe wird erfindungsgemäß mit den Merkmalen des An
spruches 1 oder 12 gelöst, wobei die Merkmale der Unteransprü
che vorteilhafte Ausgestaltungen und Weiterbildungen kenn
zeichnen.
Das erfindungsgemäße Verfahren zur Spracheingabe von Zieladres
sen in ein Zielführungssystem verwendet zur Spracherkennung
eine aus dem Stand der Technik bekannte Spracherkennungsein
richtung wie sie beispielsweise in dem in der Beschreibungs
einleitung gewürdigten Dokument beschrieben wird, wobei die
Spracherkennungseinrichtung wenigstens einen sprecherunabhän
gigen Spracherkenner und wenigstens einen sprecherabhängigen
Zusatz-Spracherkenner umfaßt. Das erfindungsgemäße Verfahren
ermöglicht verschiedene Eingabedialoge zur Spracheingabe von
Zieladressen. In einem ersten Eingabedialog, im weiteren "Ziel
orteingabe" genannt, wird der sprecherunabhängige Spra
cherkenner zur Erkennung von isoliert gesprochenen Zielorten
und, wenn der isoliert gesprochene Zielort nicht erkannt wurde,
zur Erkennung von verbunden gesprochenen Buchstaben und/oder
Buchstabengruppen benutzt. In einem zweiten Eingabedialog, im
weiteren "Zielort buchstabieren" genannt, wird der
sprecherunabhängige Spracherkenner zur Erkennung von verbunden
gesprochenen Buchstaben und/oder Buchstabengruppen benutzt. In
einem dritten Eingabedialog, im weiteren "Grobzieleingabe" ge
nannt, wird der sprecherunabhängige Spracherkenner zur Er
kennung von isoliert gesprochenen Zielorten und, wenn der iso
liert gesprochene Zielort nicht erkannt wurde, zur Erkennung
von verbunden gesprochenen Buchstaben und/oder Buchstabengrup
pen benutzt. In einem vierten Eingabedialog, im weiteren "In
direkte Eingabe" genannt, wird der sprecherunabhängige Spra
cherkenner zur Erkennung von verbunden gesprochenen Ziffern
und/oder Zifferngruppen benutzt. Bei einem fünften Eingabedia
log, im weiteren "Straßeneingabe" genannt, wird der spreche
runabhängige Spracherkenner zur Erkennung von isoliert gespro
chenen Straßennamen und, wenn der isoliert gesprochene Stra
ßenname nicht erkannt wird, zur Erkennung von verbunden gespro
chenen Buchstaben und/oder Buchstabengruppen benutzt. Durch die
bisher beschriebenen Eingabedialoge werden dem Zielfüh
rungssystem verifizierte Zieladressen, welche jeweils einen
Zielort und eine Straße umfassen, übergeben. Bei einem sechsten
Eingabedialog, im weiteren "Adresse abrufen" genannt, wird
zusätzlich zum sprecherunabhängigen Spracherkenner der spre
cherabhängige Zusatz-Spracherkenner zur Erkennung von isoliert
gesprochenen Schlüsselworten benutzt. Bei einem siebten
Eingabedialog, im weiteren "Adresse speichern" genannt, wird
einem vom Benutzer isoliert gesprochenem Schlüsselwort eine vom
Benutzer eingegebene Zieladresse zugewiesen, wobei während des
Eingabedialogs "Adresse abrufen" ein dem entsprechenden er
kannten Schlüsselwort zugewiesene Zieladresse an das Zielfüh
rungssystem übergeben wird.
Das erfindungsgemäße Verfahren beruht hauptsächlich darauf, daß
nicht das gesamte zulässige Vokabular für eine Spracherken
nungseinrichtung zum Zeitpunkt ihrer Aktivierung in der Spra
cherkennungseinrichtung geladen ist, sondern daß in Abhängig
keit der notwendigen Eingabedialoge zur Ausführung einer Bedi
enfunktion, zumindest ein notwendiges Lexikon aus dem gesamten
möglichen Vokabular während des Echtzeitbetriebs generiert und
in die Spracherkennungseinrichtung geladen wird. In der Bundes
republik Deutschland gibt es über 100.000 Orte, die als Vokabu
lar für das Zielführungssystem in Frage kommen. Würde dieses
Vokabular in die Spracherkennungseinrichtung geladen werden, so
wäre der Erkennungsvorgang extrem langsam und fehlerbehaftet.
Ein aus diesem Vokabular generiertes Lexikon umfaßt nur ca.
1500 Worte, dadurch wird der Erkennungsvorgang wesentlich
schneller und die Erkennungsrate wird größer. Als Datengrund
lage für das erfindungsgemäße Verfahren wird wenigstens eine
Zieldatei, welche alle möglichen Zieladressen und bestimmte
Zusatzinformationen zu den möglichen Zieladressen eines Ziel
führungssystems umfaßt und auf mindestens einer Datenbasis
gespeichert ist, verwendet. Aus dieser Zieldatei werden Lexika
generiert, welche wenigstens Teile der Zieldatei umfassen,
wobei wenigstens ein Lexikon in Abhängigkeit von wenigstens
einem aktivierten Eingabedialog in Echtzeit generiert wird.
Besonders vorteilhaft ist es wenn die Zieldatei zu jedem
gespeicherten Zielort zusätzliche Informationen, beispielsweise
Politische Zugehörigkeit bzw. Namenszusatz, Postleitzahl bzw.
Postleitzahlenbereich, Ortsnetzkennzahl, Bundesland, Einwoh
nerzahl, Geographische Codierung, Phonetische Beschreibung oder
Lexikonzugehörigkeit enthält. Diese Zusatzinformationen können
dann zur Auflösung von Mehrdeutigkeiten bzw. zur Beschleunigung
der Auffindung des gewünschten Zielortes herangezogen werden.
Anstelle der phonetischen Beschreibung kann für die Spracher
kennungseinrichtung eine Transkription der phonetischen Be
schreibung in Form von einer Kette von Indizes, je nach Reali
sierung der Transkription, verwendet werden. Ferner kann eine
sogenannte automatische phonetische Transkription, welche eine
regelbasierende Umwandlung von orthographisch vorliegenden Na
men unter Einbeziehung einer Ausnahmetabelle in eine
phonetische Beschreibung durchführt, vorgesehen werden. Die
Eintragung der Lexikonzugehörigkeit ist nur dann möglich, wenn
die entsprechenden Lexika in einem "Off-Line-Editiermodus",
außerhalb des eigentlichen Betriebs des Zielführungssystems,
aus der Zieldatei generiert wurden und auf der mindestens einen
Datenbasis, beispielsweise einer CD-ROM oder einer externen
Datenbank in einer Zentrale, auf die über entsprechende
Kommunikationseinrichtungen, beispielsweise Mobilfunknetz,
zugegriffen werden kann, gespeichert wurden. Die Generierung
der Lexika im "Off-Line-Editiermodus" ist nur sinnvoll, wenn
genügend Speicherplatz auf der mindestens einen Datenbasis
vorhanden ist, und bietet sich besonders für Lexika an, welche
besonders häufig benötigt werden. Als Datenbasis für die
Zieldatei bietet sich besonders eine CD-Rom oder eine externe
Datenbank an, da dadurch die Zieldatei immer auf dem aktuell
sten Stand gehalten werden kann. Im Augenblick sind noch nicht
alle möglichen Ortsnamen der Bundesrepublik Deutschland digita
lisiert und auf einer Datenbasis abgelegt. Desgleichen ist
nicht für alle Orte eine entsprechende Straßenliste vorhanden.
Deshalb ist es wichtig, die Datengrundlage jederzeit aktuali
sieren zu können. Als Datenbasis für das mindestens eine im
"Off-Line-Editiermodus" generierte Lexikon kann auch ein in
terner nicht flüchtiger Speicherbereich des Zielführungssystems
benutzt werden.
Um die Spracheingabe einer gewünschten Zieladresse an das Ziel
führungssystem schneller durchführen zu können, wird nach der
Initialisierungsphase des Zielführungssystems bzw. bei einem
genügend großen nicht flüchtigen internen Speicherbereich nach
jedem Wechsel der Datenbasis, ein Grundvokabular geladen, wel
ches wenigstens ein aus der Zieldatei generiertes Grund-Lexikon
umfaßt. Die Generierung dieses Grund-Lexikons kann bereits im
"Off-Line-Editiermodus" erfolgt sein. Das Grund-Lexikon kann
zusätzlich zu der Zieldatei auf der Datenbasis gespeichert sein
oder im nicht flüchtigen internen Speicherbereich des
Zielführungssystems abgelegt sein. Als Alternative kann die
Generierung des Grund-Lexikons erst nach der Initialisierungs
phase erfolgen. Das dynamische Generieren von Lexika während
des Echtzeitbetriebs des Zielführungssystems, d. h. während der
Laufzeit, bringt zwei wesentliche Vorteile mit sich. Zum einen
besteht dadurch die Möglichkeit beliebige Lexika aus der auf
der mindestens einen Datenbasis abgelegten Datengrundlage
zusammenzustellen und zum zweiten spart man erheblichen Spei
cherplatz auf der mindestens einen Datenbasis, da nicht alle
für die verschiedenen Eingabedialoge benötigten Lexika auf der
mindestens einen Datenbasis vor der Aktivierung des Spracher
kenners abgelegt sein müssen.
Bei der nachfolgend beschriebenen Ausführungsform umfaßt das
Grundvokabular zwei im "Off-Line-Editiermodus" generierte und
auf der mindestens einen Datenbasis gespeicherte Lexika und
zwei Lexika, welche nach der Initialisierungsphase generiert
werden. Besitzt die Spracherkennungseinrichtung genügend Ar
beitsspeicher, so wird das Grundvokabular nach der Initiali
sierungsphase zusätzlich zu den zulässigen Sprachkommandos für
das Sprachdialogsystem gemäß der P 195 33 541.4-52 in die Spra
cherkennungseinrichtung geladen. Das Sprachdialogsystem erlaubt
dann nach der Initialisierungsphase und dem Betätigen der
PTT-Taste die Eingabe von verschiedenen Informationen mit der Ab
sicht die an das Sprachdialogsystem angeschlossenen Geräte zu
steuern sowie die Grundfunktionen eines Zielführungssystems zu
bedienen und einen Zielort und/oder eine Straße als Zieladresse
für das Zielführungssystem einzugeben. Besitzt die
Spracherkennungseinrichtung zu wenig Arbeitsspeicher so wird
das Grundvokabular erst in die Spracherkennungseinrichtung ge
laden, wenn eine entsprechende Bedienfunktion, welche auf das
Grundvokabular zurückgreift, aktiviert wurde. Das auf der min
destens einen Datenbasis gespeichertes Grund-Lexikon umfaßt die
"p" größten Städte der Bundesrepublik Deutschland, wobei der
Parameter "p" bei der beschriebenen Ausführung auf 1000 gesetzt
ist. Damit werden ca. 53 Mio. Bundesbürger oder 65% der Bevöl
kerung direkt erfaßt. Das Grund-Lexikon umfaßt alle Orte mit
mehr als 15.000 Einwohnern. Ein ebenfalls auf der Datenbasis
gespeichertes Region-Lexikon umfaßt "z" Namen von Regionen und
Gebieten wie z. B. Bodensee, Schwäbische Alb usw., wobei bei der
beschriebenen Ausführung das Region-Lexikon ca. 100 Namen
umfaßt. Das Region-Lexikon dient zur Erfassung von bekannten
Gebieten und gebräuchlichen Regionsnamen. Hinter diesen Namen
verstecken sich Zusammenfassungen von Ortsnamen, die nach dem
Einsprechen des Gebiets- oder Regionsnamens als neues Ge
biets-Lexikon generiert und geladen werden können. Ein Umge
bungs-Lexikon, welches erst nach der Initialisierung generiert wird,
umfaßt "a" dynamisch nachgeladene Ortsnamen rund um den aktuel
len Fahrzeugstandort, dadurch können auch kleinere Orte in der
unmittelbaren Umgebung direkt angesprochen werden, wobei der
Parameter "a" bei der beschriebenen Ausführungsform auf 400
gesetzt ist. Dieses Umgebungs-Lexikon wird auch während der
Fahrt in bestimmten Abständen immer wieder aktualisiert, damit
es immer möglich ist, Orte in der unmittelbaren Umgebung direkt
einzusprechen. Der aktuelle Fahrzeugstandort wird dem
Zielführungssystem von einem aus dem Stand der Technik bekann
ten Ortungsverfahren, beispielsweise mittels einem Global Po
sitioning System (GPS), mitgeteilt. Die bisher beschriebenen
Lexika sind dem sprecherunabhängigen Spacherkenner zugeordnet.
Ein Namen-Lexikon, welches nicht aus der Zieldatei generiert
wird und dem sprecherabhängigen Spracherkenner zugeordnet ist,
umfaßt ca. 150 vom Benutzer gesprochene Schlüsselworte aus dem
persönlichen Adreßregister des Benutzers. Jedem Schlüsselwort
wird dabei mittels dem Eingabedialog "Adresse speichern" eine
bestimmte Zieladresse aus der Zieldatei zugeordnet. Diese
bestimmte Zieladresse wird durch die Spracheingabe des zugeord
neten Schlüsselworts mittels dem Eingabedialog "Adresse abru
fen" an das Zielführungssystem übergeben. Damit ergibt sich ein
Grundvokabular von ca. 1650 Wörtern, die der Spracherkennungs
einrichtung bekannt sind und als isoliert gesprochenes Wort
(Ortsnamen, Straßennamen, Schlüsselwort) eingegeben werden kön
nen.
Zusätzlich kann vorgesehen werden, Adressen aus einer externen
Datenquelle, beispielsweise einem persönlichen elektronischen
Datensystem oder einem tragbaren Kleinrechner (Laptop), mittels
einer Datenübertragung an das Sprachdialogsystem bzw. an das
Zielführungssystem zu übertragen und als Adressen-Lexikon in
das Grundvokabular zu integrieren. Normalerweise sind auf den
externen Datenquellen keine phonetischen Beschreibungen für die
Adreßdaten (Namen, Zielort, Straße) abgelegt. Um diese Daten
trotzdem in das Vokabular für eine Spracherkennungseinrichtung
übernehmen zu können, muß eine automatische phonetische
Transkription dieser Adreßdaten, insbesondere der Namen durch
geführt werden. Über eine Tabelle wird anschließend eine Zu
weisung zum richtigen Zielort realisiert.
Für die im folgenden beschriebenen Dialogbeispiele muß auf der
mindestens einen Datenbasis des Zielführungssystems eine
Zieldatei abgelegt werden, welche für jeden im Zielführungssy
stem erfaßten Ort einen Datensatz gemäß Tabelle 1 enthält. Je
nach Speicherplatz und Verfügbarkeit können von den angegebenen
Informationen auch Teile fehlen. Dies betrifft aber nur Daten,
die zur Auflösung von Mehrdeutigkeiten herangezogen werden wie
z. B. Namenszusatz, Kreiszugehörigkeit, Vorwahlnummern usw.
Werden Adreßdaten von einer externen Datenquelle verwendet, so
müssen die Adreßdaten entsprechend ergänzt werden. Von
besonderer Bedeutung sind die Wortuntereinheiten für die
Spracherkennungseinrichtung, welche als Hidden-Markov-Model-
Spracherkenner arbeitet (HMM-Erkenner)
Beschreibung des Eintrags | |
Beispiel | |
Ortsnamen | |
Flensburg | |
Politische Zugehörigkeit bzw. Namenszusatz | - |
Postleitzahl bzw. Postleitzahlenbereich | 24900-24999 |
Vorwahlnummer | 0461 |
Stadt- bzw. Landkreiszugehörigkeit | Flensburg, Stadtkreis |
Bundesland | Schleswig-Holstein |
Einwohnerzahl | 87526 |
Geographische Codierung | 9.43677, 54.78204 |
Phonetische Beschreibung | f′EnsbUrk |
Wortuntereinheiten für den HMM-Spracherkenner | f[LN]le E[LN] n[C] s b[Vb] U[Vb]r k. bzw. 101 79 124 117 12 39 35 82 68 |
Lexikonzugehörigkeit | 3, 4, 78 . . . |
Die Erfindung ist im Folgenden anhand von Ausführungsbeispielen
in Verbindung mit den Zeichnungen näher erläutert. Es zeigen:
Fig. 1 in schematischer Darstellung eine Übersicht über
die möglichen Eingabedialoge zur Spracheingabe einer Ziel
adresse für ein Zielführungssystem;
Fig. 2 in schematischer Darstellung ein Ablaufdiagramm
eines ersten Ausführungsbeispiels für den Eingabedialog
"Zielorteingabe";
Fig. 3 in schematischer Darstellung ein Ablaufdiagramm
eines zweiten Ausführungsbeispiels für den Eingabedialog
"Zielorteingabe";
Fig. 4 in schematischer Darstellung ein Ablaufdiagramm
für den Eingabedialog "Aus Liste auswählen";
Fig. 5 in schematischer Darstellung ein Ablaufdiagramm
für den Eingabedialog "Mehrdeutigkeit auflösen";
Fig. 6 in schematischer Darstellung ein Ablaufdiagramm
für den Eingabedialog "Zielort buchstabieren";
Fig. 7 in schematischer Darstellung ein Ablaufdiagramm
für den Eingabedialog "Grobzieleingabe";
Fig. 8 in schematischer Darstellung ein Ablaufdiagramm
für den Eingabedialog "Adresse speichern";
Fig. 9 in schematischer Darstellung ein Ablaufdiagramm
für den Eingabedialog "Straßeneingabe";
Fig. 10 in schematischer Darstellung ein Blockschaltbild
einer Vorrichtung zur Durchführung des erfindungsgemäßen
Verfahrens.
Fig. 1 zeigt eine Übersicht über die möglichen Eingabedialoge
zur Spracheingabe einer Zieladresse für ein Zielführungssystem.
Ein Sprachdialog zwischen einem Benutzer und einem Sprachdia
logsystem gemäß Fig. 1 beginnt nach der Initialisierungsphase
mit einem Wartezustand 0, indem das Sprachdialogsystem ver
bleibt, bis die PTT-Taste (Push-to-Talk-Taste) betätigt wird
und in den das Sprachdialogsystem nach Beendigung des Sprach
dialogs zurückkehrt. Der Benutzer aktiviert das Sprachdialog
system durch Betätigen der PTT-Taste im Schritt 100. Das
Sprachdialogsystem antwortet im Schritt 200 mit einer akusti
schen Ausgabe, beispielsweise durch einen Signalton oder durch
eine Sprachausgabe, welche dem Benutzer anzeigt, daß das
Sprachdialogsystem bereit ist ein Sprachkommando entgegenzu
nehmen. Im Schritt 300 wartet das Sprachdialogsystem nun auf
ein zulässiges Sprachkommando, um mittels einer Dialog- und Ab
laufsteuerung die verschiedenen mit dem Sprachdialogsystem
verbundenen Geräte zu steuern oder einen entsprechenden Ein
gabedialog zu starten. Im Einzelnen wird hier aber nur auf die
zulässigen Sprachkommandos näher eingegangen, welche das
Zielführungssystem betreffen. Es können an dieser Stelle fol
gende, die verschiedenen Eingabedialoge des Zielführungssystem
betreffenden Sprachkommandos eingegeben werden:
- - "Zielorteingabe" E1: Durch dieses Sprachkommando wird der Eingabedialog "Zielorteingabe" aktiviert.
- - "Zielort buchstabieren" E2: Durch dieses Sprachkommando wird der Eingabedialog "Zielort buchstabieren" aktiviert.
- - "Grobzieleingabe" E3: Durch dieses Sprachkommando wird der Eingabedialog "Grobzieleingabe" aktiviert.
- - "Postleitzahl" E4 oder "Ortsnetzkennzahl" ES: Durch diese beiden Sprachkommandos wird der Eingabedialog "Indirekte Eingabe" aktiviert.
- - "Straßeneingabe" E6: Durch dieses Sprachkommando wird der Eingabedialog "Straßeneingabe" aktiviert.
- - "Adresse speichern" E7: Durch dieses Sprachkommando wird der Eingabedialog "Adresse speichern" aktiviert.
- - "Adresse abrufen" E8: Durch dieses Sprachkommando wird der Eingabedialog "Adresse abrufen" aktiviert.
Anstelle der o. a. können natürlich auch andere Begriffe zur
Aktivierung der verschiedenen Eingabedialoge verwendet werden.
Zusätzlich zu den o. a. Sprachkommandos können auch allgemeine
Sprachkommandos zur Steuerung des Zielführungssystems, bei
spielsweise "Zielführungsinformation", "Zielführung start/stop"
usw., eingegeben werden.
Nach dem Starten eines Eingabedialogs durch das Sprechen des
entsprechenden Sprachkommandos werden die entsprechenden Lexika
als Vokabular in die Spracherkennungseinrichtung geladen. Bei
einer erfolgreich durchgeführten Spracheingabe des Zielortes
als Teil der Zieladresseneingabe mittels einem der Eingabedia
loge "Zielorteingabe" im Schritt 1000, "Zielort buchstabieren"
im Schritt 2000, "Grobzieleingabe" im Schritt 3000 oder "In
direkte Eingabe" im Schritt 4000 wird anschließend im Schritt
350 überprüft, ob für den erkannten Zielort eine entsprechende
Straßenliste vorhanden ist oder nicht. Ergibt die Überprüfung
ein negatives Ergebnis, dann wird zum Schritt 450 verzweigt.
Gelangt die Überprüfung zu einem positiven Ergebnis, so wird im
Schritt 400 abgefragt, ob der Benutzer einen Straßennamen ein
geben will oder nicht. Beantwortet der Benutzer die Abfrage 400
mit "Ja", so wird der Eingabedialog "Straßeneingabe" aufgeru
fen. Beantwortet der Benutzer die Abfrage 400 mit "Nein" so
wird zum Schritt 450 verzweigt. Die Abfrage 400 wird also nur
dann durchgeführt, wenn für den entsprechenden Zielort auch die
Straßennamen im Zielführungssystem erfaßt sind. Im Schritt 450
wird der erkannte gewünschte Zielort automatisch durch die
Angabe Zentrum, oder Stadtmitte als Straßeneingabe ergänzt, da
an das Zielführungssystem nur eine vollständige Zieladresse
übergeben werden kann, wobei die Zieladresse neben dem Zielort
auch eine Straße oder ein Sonderziel, beispielsweise Bahnhof,
Flughafen, Stadtmitte usw., umfaßt. Im Schritt 500 wird die
Zieladresse an das Zielführungssystem übergeben. Anschließend
wird der Sprachdialog beendet und das Sprachdialogsystem kehrt
in den Wartezustand 0 zurück. Wurde zu Beginn des Sprachdialogs
im Schritt 300 das Sprachkommando "Straßeneingabe" E6 vom Be
nutzer gesprochen und von der Spracherkennungseinrichtung er
kannt, dann wird im Schritt 5000 der Eingabedialog "Straßen
eingabe" aktiviert. Anschließend wird nach der erfolgreichen
Eingabe des gewünschten Zielortes und der Straße, die Ziel
adresse im Schritt 500 an das Zielführungssystem übergeben.
Wurde zu Beginn des Sprachdialogs im Schritt 300 das Sprach
kommando "Adresse abrufen" E8 vom Benutzer gesprochen und von
der Spracherkennungseinrichtung erkannt, dann wird im Schritt
6000 der Eingabedialog "Adresse abrufen" aktiviert. Im Einga
bedialog "Adresse abrufen" wird ein Schlüsselwort durch den
Benutzer gesprochen und die dem gesprochenen Schlüsselwort
zugeordnete Adresse wird im Schritt 500 als Zieladresse dem
Zielführungssystem übergeben. Wurde zu Beginn des Sprachdialogs
im Schritt 300 das Sprachkommando "Adresse speichern" E7 vom
Benutzer gesprochen und von der Spracherkennungseinrichtung
erkannt, dann wird im Schritt 7000 der Eingabedialog "Adresse
speichern" aktiviert. Mittels dem Eingabedialog "Adresse
speichern" wird eine eingegebene Zieladresse unter einem vom
Benutzer gesprochenen Schlüsselwort im persönlichen Adreßre
gister abgelegt. Anschließend wird der Eingabedialog "Adresse
abrufen" beendet und das System kehrt in den Wartezustand 0 zu
rück.
Die Fig. 2 zeigt in schematischer Darstellung eine erste Aus
führungsform des Eingabedialogs "Zielorteingabe". Nach der Ak
tivierung des Eingabedialogs "Zielorteingabe" im Schritt 1000
durch das im Schritt 300 vom Benutzer gesprochene und von der
Spracherkennungseinrichtung erkannte Sprachkommando
"Zielorteingabe" E1 wird, wie aus der Fig. 2 ersichtlich ist,
im Schritt 1010 das Grundvokabular in die Spracherkennungsein
richtung geladen. Das Laden des Grundvokabulars in die Spra
cherkennungseinrichtung kann grundsätzlich auch an einer ande
ren Stelle, beispielsweise nach der Initialisierungsphase oder
nach der Betätigung der PTT-Taste, erfolgen. Dies ist von der
Geschwindigkeit des Ladevorgangs abhängig und von der Art der
verwendeten Spracherkennungseinrichtung. Anschließend wird im
Schritt 1020 der Benutzer aufgefordert einen Zielort einzuge
ben. Der Benutzer gibt im Schritt 1030 mittels Spracheingabe
den gewünschten Zielort ein. Diese Spracheingabe wird im
Schritt 1040 als akustischer Wert <Zielort_1< an die Spracher
kennungseinrichtung übergeben und dort mit dem geladenen Grund
vokabular verglichen, wobei als akustischer Wert Abtastwerte im
Zeit- oder Frequenzbereich oder Merkmalsvektoren an die Spra
cherkennungseinrichtung übergeben werden können. Die Art des
übergebenen akustischen Wert ist ebenfalls von der Art des ver
wendeten Spracherkenners abhängig. Als Ergebnis liefert der
Spracherkenner eine erste Hypothesenliste hypo.1 mit Ortsnamen,
welche nach Erkennungswahrscheinlichkeit sortiert sind. Enthält
die Hypothesenliste hypo.1 homophone Ortsnamen, d. h.
Ortsnamen, welche identisch ausgesprochen, aber unterschiedlich
geschrieben werden, beispielsweise Ahlen und Aalen, so erhalten
beide Ortsnamen die gleiche Erkennungswahrscheinlichkeit und
beide Ortsnamen werden bei der Fortsetzung des Eingabedialogs
berücksichtigt. Anschließend wird im Schritt 1050 der Ortsname
mit der größten Erkennungswahrscheinlichkeit als Sprachausgabe
<hypo.1.1< an den Benutzer mit der Frage ausgegeben, ob
<hypo.1.1< dem gewünschten eingegebenen Zielort <Zielort_1<
entspricht oder nicht. Hier ist es noch unerheblich, ob an der
ersten Stelle der Hypothesenliste mehrere Einträge stehen oder
nicht, da die Ortsnamen identisch gesprochen werden. Wird die
Abfrage 1050 mit "Ja" beantwortet, so wird zum Schritt 1150
gesprungen. Beantwortet der Benutzer die Frage mit "Nein" so
wird der akustische Wert <Zielort_1< des eingegebenen Zielortes
im Schritt 1060 für einen eventuellen späteren Erkennungs
vorgang mit einem anderen Lexikon gespeichert. Anschließend
wird der Benutzer im Schritt 1070 aufgefordert den Zielort
nochmals zu sprechen. Der Benutzer gibt im Schritt 1080 mittels
Spracheingabe den Zielort nochmals ein. Diese Spracheingabe
wird im Schritt 1090 als akustischer Wert <Zielort_2< an die
Spracherkennungseinrichtung übergeben und dort mit dem ge
ladenen Grundvokabular verglichen. Als Ergebnis liefert die
Spracherkennungseinrichtung eine zweite Hypothesenliste hypo.2
mit Ortsnamen, welche nach Erkennungswahrscheinlichkeit sortiert
sind. Im Schritt 1100 wird überprüft, ob der ASCII-Wert des
Ortsnamens, bzw. bei homophonen Ortsnamen die ASCII-Werte der
Ortsnamen, mit der größten Erkennungswahrscheinlichkeit
hypo.1.1 der Hypothesenliste hypo.1 mit dem ASCII-Wert des
Ortsnamen, bzw. bei homophonen Ortsnamen die ASCII-Werte der
Ortsnamen, mit der größten Erkennungswahrscheinlichkeit
hypo.2.1 übereinstimmt bzw. übereinstimmen. Ist dies der Fall,
so wird im Schritt 1110 der Ortsnamen mit der zweitgrößten
Erkennungswahrscheinlichkeit aus der zweiten Hypothesenliste
hypo.2 als Sprachausgabe <hypo.2.2< mit der Frage an den Be
nutzer ausgegeben, ob <hypo.2.2< der gewünschte Zielort ist
oder nicht. Gelangt die Überprüfung 1100 zu einem negativen
Ergebnis, so wird im Schritt 1120 der Ortsname mit der größten
Erkennungswahrscheinlichkeit aus der zweiten Hypothesenliste
hypo.2 als Sprachausgabe <hypo.2.1< an den Benutzer mit der
Frage ausgegeben, ob <hypo.2.1< der gewünschte Zielort ist oder
nicht. Ergibt die Antwort des Benutzers, daß der gewünschte
Zielort immer noch nicht erkannt wurde, so wird im Schritt 1140
der Eingabedialog "Zielort buchstabieren" aufgerufen. Ergibt
die Antwort des Benutzers, daß ein Zielort erkannt wurde, so
wird im Schritt 1150, zum Schritt 1150 gelangt man auch, wenn
die Abfrage 1050 mit "Ja" beantwortet wurde, der ASCII-Wert des
erkannten Zielorts, bzw. bei homophonen Ortsnamen die
ASCII-Werte der erkannten Ortsnamen, (entweder hypo.1.1, hypo.2.1
oder hypo.2.2) mit den ASCII-Werten der in den Datensätzen der
Zieldatei gespeicherten Ortsnamen verglichen. Aus allen Orts
namen in denen einer der erkannten Zielorte in der Orthographie
ganz enthalten ist wird dann eine Mehrdeutigkeitsliste erzeugt.
Bei homophonen Ortsnamen enthält die Mehrdeutigkeitsliste immer
mehrere Einträge, und das Ergebnis ist deshalb nicht eindeutig.
Es kann an dieser Stelle aber auch bei nicht homophonen
Ortsnamen zu einer Mehrdeutigkeitsliste mit mehreren Einträgen,
dem sogenannten "Neustadt-Problem", kommen, wenn die
orthographische Schreibweise des eingegebenen Zielorts mehrfach
in der Zieldatei vorhanden ist. Deshalb wird im Schritt 1160
überprüft, ob der Zielort eindeutig erkannt wurde oder nicht.
Ist der Zielort nicht eindeutig, so wird zum Schritt 1170
verzweigt. Dort wird ein achter Eingabedialog, im weiteren
"Mehrdeutigkeit auflösen" genannt, aufgerufen. Ist der Zielort
eindeutig, so wird durch die Sprachausgabe im Schritt 1180 der
gefundene Zielort mit bestimmten Zusatzinformationen,
beispielsweise Postleitzahl, Ortsname und Bundesland, mit der
Frage an den Benutzer ausgegeben, ob es sich um den gewünschten
Zielort handelt oder nicht. Beantwortet der Benutzer die Frage
mit "Nein", so wird zum Schritt 1140, welcher den Eingabedialog
"Zielort buchstabieren" aufruft, verzweigt. Beantwortet der
Benutzer die Frage mit "Ja" so wird im Schritt 1190 der Zielort
zwischengespeichert und zum Schritt 350 (siehe Beschreibung zu
Fig. 1) gesprungen.
Die Fig. 3 zeigt in schematischer Darstellung eine zweite Aus
führungsform des Eingabedialogs "Zielorteingabe". Die Verfah
rensschritte 1000 bis 1060 wurden bereits in der Beschreibung
zur Fig. 2 abgehandelt. Im Unterschied zur ersten Ausführungs
form des Eingabedialogs wird nach dem Schritt 1060 der Eingabe
dialog "Zielorteingabe" mit dem Schritt 1075 und nicht mit dem
Schritt 1070 fortgesetzt. Im Schritt 1075 wird der Ortsnamen
mit der zweitgrößten Erkennungswahrscheinlichkeit der ersten
Hypothesenliste hypo.1 als Sprachausgabe <hypo.1.2< mit der
Frage an den Benutzer ausgegeben, ob <hypo.1.2< dem gewünschten
eingegebenen Zielort <Zielort_1< entspricht oder nicht. Wird
die Abfrage 1075 mit "Ja" beantwortet, so wird zum Schritt 1150
gesprungen. Beantwortet der Benutzer die Frage mit "Nein" so
wird zum Schritt 1140 verzweigt. Im Schritt 1140 wird der Ein
gabedialog "Zielort buchstabieren" aufgerufen. Die Verfahrens
schritte ab Schritt 1150 wurden bereits in der Beschreibung zur
Fig. 2 abgehandelt und werden deshalb hier nicht mehr be
schrieben.
Fig. 4 zeigt in schematischer Darstellung eine Ausführungsform
eines Ablaufdiagramms für einen achten Eingabedialog, im wei
teren "Aus Liste auswählen" genannt, zur Auswahl eines Eintrags
aus einer Liste. Nach der Aktivierung des Eingabedialogs "Aus
Liste auswählen" im Schritt 1430 durch einen anderen Eingabe
dialog wird der Benutzer im Schritt 1440 über die Anzahl der
Einträge in der Liste informiert und im Schritt 1445 gefragt,
ob die Liste vorgelesen werden soll oder nicht. Beantwortet der
Benutzer die Frage mit "Ja" so wird im Schritt 1450 ein
Vorleseflag gesetzt und anschließend zum Schritt 1460 ver
zweigt. Beantwortet der Benutzer die Frage mit "Nein", so wird
der Ablauf direkt mit dem Schritt 1460 fortgeführt. Im Schritt
1460 wird dem Benutzer die Liste mit der Aufforderung ange
zeigt, einen Eintrag von der Liste auszuwählen, wobei die An
zeige der Liste bei nicht gesetztem Vorleseflag nur auf einer
Anzeigeeinrichtung des Zielführungssystems erfolgt. Ist das
Vorleseflag gesetzt wird die Liste zusätzlich mittels Sprach
ausgabe vorgelesen. Die Liste wird dabei in Seiten aufgeteilt,
die beispielsweise bis zu vier Einträge umfassen, wobei die
Einträge auf jeder Seite wieder fortlaufend beginnend mit eins
durchnumerieret werden. Im Schritt 1460 kann der Benutzer ver
schiedene Sprachkommandos zur Weiterführung des Eingabedialogs
sprechen. Mit einem ersten Sprachkommando E9, beispielsweise
"weiter", kann der Benutzer im Schritt 1470 zur nächsten Seite
der Liste umblättern und anschließend zum Schritt 1460 zurück
kehren. Mit einem zweiten Sprachkommando E10, beispielsweise
"zurück", kann der Benutzer im Schritt 1475 zur vorherigen
Seite der Liste zurückblättern und ebenfalls zum Schritt 1460
zurückkehren. Mit einem dritten Sprachkommando E11, beispiels
weise "Nummer X", kann der Benutzer einen bestimmten Eintrag
aus der Liste auswählen, wobei X für die Nummer des gewünschten
Eintrags steht. Nach dem Sprechen des dritten Sprachkommandos
E11 wird zum Schritt 1480 verzweigt. Mit einem vierten
Sprachkommando E12, beispielsweise "Abbruch" kann der Benutzer,
wenn er beispielsweise den gewünschten Eintrag nicht gefunden
hat, den Eingabedialog "Aus Liste auswählen" beenden. Deshalb
wird nach Eingabe des vierten Sprachkommandos zum Schritt 1500
verzweigt. Im Schritt 1500 wird abhängig davon, ob die Einträge
in der Liste aus Straßennamen oder Ortsnamen bestehen, der
Benutzer durch eine Sprachausgabe darüber informiert, daß der
Straßenname bzw. der Ortsname nicht gefunden werden konnte. An
schließend kehrt das System in den Wartezustand 0 zurück. Im
Schritt 1480 wird durch eine Abfrage an den Benutzer nochmals
überprüft, ob der <Eintrag_X< richtig ist oder nicht. Um die
Auswahl des gewünschten Eintrages aus der Liste komfortabler zu
gestalten, kann auch vorgesehen werden, daß die entsprechende
Liste als Listen-Lexikon generiert und in die
Spracherkennungseinrichtung geladen wird. Dadurch kann der Be
nutzer die Auswahl des Eintrags wie oben beschrieben durch die
Sprechen der entsprechenden Nummer als drittes Sprachkommando
E11 durchführen oder er kann den entsprechenden Eintrag von der
Liste ablesen und als drittes Sprachkommando E11 eingeben. In
der Liste steht beispielsweise der gewünschte Eintrag: 4. Neu
stadt an der Weinstraße, so kann der Benutzer entweder "Nummer
4" oder "Neustadt an der Weinstraße" als drittes Sprachkommando
E11 sprechen und das System erkennt in beiden Fällen den
gewünschten Eintrag. Beantwortet der Benutzer die Abfrage 1480
mit "Ja" so wird im Schritt 1490 der Eingabedialog "Aus Liste
auswählen" beendet und der ausgewählte "Eintrag_X" als Ergebnis
an den aufrufenden Eingabedialog übergeben. Beantwortet der Be
nutzer die Abfrage 1480 mit "Nein", so wird zum Schritt 1500
verzweigt.
Fig. 5 zeigt in schematischer Darstellung eine Ausführungsform
eines Ablaufdiagramms für einen neunten Eingabedialog, im wei
teren "Mehrdeutigkeit auflösen" genannt, zur Auflösung von
Mehrdeutigkeiten, beispielsweise für das sogenannte "Neu
stadt-Problem" oder für homophone Ortsnamen. Nach dem Aktivieren des
Eingabedialogs "Mehrdeutigkeit auflösen" im Schritt 1170 durch
einen anderen Eingabedialog wird der Benutzer im Schritt 1200
darüber informiert, wieviele Ortsnamen in der Mehrdeutigkeits
liste eingetragen sind. Anschließend wird im Schritt 1210 der
Ort mit der größten Einwohnerzahl gesucht und im Schritt 1220
als akustischer Wert <größter_Ort< mit der Abfrage ausgegeben,
ob der Benutzer <größter_Ort< als Zielort wünscht oder nicht.
Beantwortet der Benutzer die Abfrage 1220 mit "Ja" so wird zum
Schritt 1410 gesprungen. Im Schritt 1410 wird "größter Ort" als
Ergebnis an den aufrufenden Eingabedialog übergeben und der
Eingabedialog "Mehrdeutigkeit auflösen" beendet. Beantwortet
der Benutzer die Abfrage 1220 mit "Nein", so wird im Schritt
1230 überprüft, ob die Mehrdeutigkeitsliste mehr als k Einträge
umfaßt oder nicht. Umfaßt die Mehrdeutigkeitsliste k oder weni ger Einträge so wird im Schritt 1240 der Eingabedialog "Aus Li ste auswählen" aufgerufen. Der Parameter k sollte nicht zu groß gewählt werden, da sonst der Eingabedialog "Aus Liste auswäh len" zu lange dauert. Als günstiger Wert hat sich bei der Er probung k = 5 erwiesen. Ergibt die Überprüfung 1230 ein positi ves Ergebnis, so wird im Schritt 1250 mit einem ersten Abfra gedialog versucht, die Anzahl der Einträge in die Mehrdeutig keitsliste zu verkleinern. Nach dem ersten Abfragedialog wird
im Schritt 1260 überprüft, ob der Zielort eindeutig ist oder nicht. Kommt die Überprüfung 1260 zu einem positiven Ergebnis, dann wird zum Schritt 1410 verzweigt, kommt die Überprüfung 1260 zu einem negativen Ergebnis so wird analog zum Schritt 1230 im Schritt 1270 überprüft ob die Mehrdeutigkeitsliste mehr als k Einträge umfaßt oder nicht. Umfaßt die Mehrdeutigkeitsli ste k oder weniger Einträge so wird zum Schritt 1240 verzweigt, umfaßt die Mehrdeutigkeitsliste mehr als k Einträge, so wird mit einem zweiten Abfragedialog im Schritt 1280 versucht die Anzahl der Einträge in der Mehrdeutigkeitsliste zu verkleinern. Die beschriebenen Vorgänge wiederholen sich bis zu einem n-ten Abfragedialog im Schritt 1290. Nach dem n-ten Abfragedialog wird im Schritt 1300 analog zum Schritt 1260 überprüft ob der Zielort eindeutig ist oder nicht. Ist der Zielort eindeutig, so wird zum Schritt 1410 verzweigt, wenn nicht, dann wird zum Schritt 1240 verzweigt. Der im Schritt 1240 aufgerufene Eingabedialog "Aus Liste auswählen" liefert als Ergebnis einen eindeutigen Zielort an den Eingabedialog "Mehrdeutigkeit auflösen" zurück. Im Schritt 1410 wird als Ergebnis des Eingabedia logs "Mehrdeutigkeit auflösen" ein eindeutiger Zielort an den aufrufenden Eingabedialog weitergegeben und der Eingabedialog "Mehrdeutigkeit auflösen" beendet. Als Abfragedialoge können beispielsweise die Abfragen nach der Postleitzahl, der Orts netzkennzahl, dem Bundesland oder der nächstgrößten Stadt ver wendet werden. Die Abfragedialoge beginnen mit einer Überprü fung, ob die entsprechende Abfrage sinnvoll ist oder nicht. Be finden sich beispielsweise alle Ortsnamen auf der Mehrdeutig keitsliste in einem Bundesland, so ist die Abfrage nach dem Bundesland sinnlos und der Bundesland-Abfragdialog wird been det. Zur Bewertung ob eine Abfrage sinnvoll ist oder nicht kön nen verschiedene Kriterien herangezogen werden. So kann bei spielsweise ein absoluter Schwellwert, beispielsweise 8 Ein träge besitzen das Abfragekriterium oder 80% der Einträge be sitzen das Abfragekriterium, gewählt werden. Nach der Überprü fung, ob der aktivierte Abfragedialog sinnvoll ist oder nicht, wird die Abfrage an den Benutzer ausgegeben, beispielsweise "Kennen Sie das Bundesland in dem der Zielort liegt?" oder "Kennen Sie die Postleitzahl (bzw. Ortsnetzkennzahl, bzw. die nächstgrößte Stadt) des Zielortes?". Entsprechend der Antwort des Benutzers, wird dann der Eingabedialog fortgeführt. Kennt der Benutzer das Abfragekriterium nicht, so wird zur nächsten Abt rage verzweigt. Kennt der Benutzer das Abfragekriterium, so wird er aufgefordert eine Spracheingabe vorzunehmen. Bei der Bundeslandabfrage kann hierfür ein Bundesland-Lexikon, falls noch nicht vorhanden, generiert und als Vokabular in die Spra cherkennungseinrichtung geladen werden. Neben der korrekten Bezeichnung der Bundesländer können auch gebräuchliche Abkür zungen, z. B. Württemberg statt Baden Württemberg, im Bundes land-Lexikon enthalten sein. Ergibt eine Abfrage keine Verklei nerung der Einträge in der Mehrdeutigkeitsliste, so wird die ursprüngliche Mehrdeutigkeitsliste für den weiteren Eingabe dialog "Mehrdeutigkeit auflösen" verwendet. Ergibt eine Abfrage eine Verkleinerung der Einträge in der Mehrdeutigkeitsliste, so wird die verkleinerte Mehrdeutigkeitsliste für den weiteren Eingabedialog "Mehrdeutigkeit auflösen" verwendet. Besonders vorteilhaft ist es, wenn die Abfrage nach der Postleitzahl als erster Abfragedialog durchgeführt wird, da dieses Kriterium in den meisten Anwendungsfällen zu einem eindeutigen Ergebnis führt. Dies gilt auch für die Abfrage nach der Orts netzkennzahl.
umfaßt oder nicht. Umfaßt die Mehrdeutigkeitsliste k oder weni ger Einträge so wird im Schritt 1240 der Eingabedialog "Aus Li ste auswählen" aufgerufen. Der Parameter k sollte nicht zu groß gewählt werden, da sonst der Eingabedialog "Aus Liste auswäh len" zu lange dauert. Als günstiger Wert hat sich bei der Er probung k = 5 erwiesen. Ergibt die Überprüfung 1230 ein positi ves Ergebnis, so wird im Schritt 1250 mit einem ersten Abfra gedialog versucht, die Anzahl der Einträge in die Mehrdeutig keitsliste zu verkleinern. Nach dem ersten Abfragedialog wird
im Schritt 1260 überprüft, ob der Zielort eindeutig ist oder nicht. Kommt die Überprüfung 1260 zu einem positiven Ergebnis, dann wird zum Schritt 1410 verzweigt, kommt die Überprüfung 1260 zu einem negativen Ergebnis so wird analog zum Schritt 1230 im Schritt 1270 überprüft ob die Mehrdeutigkeitsliste mehr als k Einträge umfaßt oder nicht. Umfaßt die Mehrdeutigkeitsli ste k oder weniger Einträge so wird zum Schritt 1240 verzweigt, umfaßt die Mehrdeutigkeitsliste mehr als k Einträge, so wird mit einem zweiten Abfragedialog im Schritt 1280 versucht die Anzahl der Einträge in der Mehrdeutigkeitsliste zu verkleinern. Die beschriebenen Vorgänge wiederholen sich bis zu einem n-ten Abfragedialog im Schritt 1290. Nach dem n-ten Abfragedialog wird im Schritt 1300 analog zum Schritt 1260 überprüft ob der Zielort eindeutig ist oder nicht. Ist der Zielort eindeutig, so wird zum Schritt 1410 verzweigt, wenn nicht, dann wird zum Schritt 1240 verzweigt. Der im Schritt 1240 aufgerufene Eingabedialog "Aus Liste auswählen" liefert als Ergebnis einen eindeutigen Zielort an den Eingabedialog "Mehrdeutigkeit auflösen" zurück. Im Schritt 1410 wird als Ergebnis des Eingabedia logs "Mehrdeutigkeit auflösen" ein eindeutiger Zielort an den aufrufenden Eingabedialog weitergegeben und der Eingabedialog "Mehrdeutigkeit auflösen" beendet. Als Abfragedialoge können beispielsweise die Abfragen nach der Postleitzahl, der Orts netzkennzahl, dem Bundesland oder der nächstgrößten Stadt ver wendet werden. Die Abfragedialoge beginnen mit einer Überprü fung, ob die entsprechende Abfrage sinnvoll ist oder nicht. Be finden sich beispielsweise alle Ortsnamen auf der Mehrdeutig keitsliste in einem Bundesland, so ist die Abfrage nach dem Bundesland sinnlos und der Bundesland-Abfragdialog wird been det. Zur Bewertung ob eine Abfrage sinnvoll ist oder nicht kön nen verschiedene Kriterien herangezogen werden. So kann bei spielsweise ein absoluter Schwellwert, beispielsweise 8 Ein träge besitzen das Abfragekriterium oder 80% der Einträge be sitzen das Abfragekriterium, gewählt werden. Nach der Überprü fung, ob der aktivierte Abfragedialog sinnvoll ist oder nicht, wird die Abfrage an den Benutzer ausgegeben, beispielsweise "Kennen Sie das Bundesland in dem der Zielort liegt?" oder "Kennen Sie die Postleitzahl (bzw. Ortsnetzkennzahl, bzw. die nächstgrößte Stadt) des Zielortes?". Entsprechend der Antwort des Benutzers, wird dann der Eingabedialog fortgeführt. Kennt der Benutzer das Abfragekriterium nicht, so wird zur nächsten Abt rage verzweigt. Kennt der Benutzer das Abfragekriterium, so wird er aufgefordert eine Spracheingabe vorzunehmen. Bei der Bundeslandabfrage kann hierfür ein Bundesland-Lexikon, falls noch nicht vorhanden, generiert und als Vokabular in die Spra cherkennungseinrichtung geladen werden. Neben der korrekten Bezeichnung der Bundesländer können auch gebräuchliche Abkür zungen, z. B. Württemberg statt Baden Württemberg, im Bundes land-Lexikon enthalten sein. Ergibt eine Abfrage keine Verklei nerung der Einträge in der Mehrdeutigkeitsliste, so wird die ursprüngliche Mehrdeutigkeitsliste für den weiteren Eingabe dialog "Mehrdeutigkeit auflösen" verwendet. Ergibt eine Abfrage eine Verkleinerung der Einträge in der Mehrdeutigkeitsliste, so wird die verkleinerte Mehrdeutigkeitsliste für den weiteren Eingabedialog "Mehrdeutigkeit auflösen" verwendet. Besonders vorteilhaft ist es, wenn die Abfrage nach der Postleitzahl als erster Abfragedialog durchgeführt wird, da dieses Kriterium in den meisten Anwendungsfällen zu einem eindeutigen Ergebnis führt. Dies gilt auch für die Abfrage nach der Orts netzkennzahl.
Fig. 6 zeigt in schematischer Darstellung eine Ausführungsform
des Eingabedialogs "Zielort buchstabieren". Nach der Aktivie
rung des Eingabedialogs "Zielort buchstabieren" im Schritt 2000
wird der Benutzer im Schritt 2010 aufgefordert den Zielort zu
buchstabieren. Im Schritt 2020 erfolgt die Spracheingabe durch
den Benutzer, wobei die Buchstaben des Zielorts am Stück oder
in Buchstabengruppen, getrennt durch kurze Pausen, gesprochen
werden können. Zusätzlich kann vorgesehen werden bestimmte
Wortendungen wie -heim, -berg, -burg, -hausen, -tal usw. bzw.
Wortanfänge wie Ober-, Unter-, Frei-, Neu-, Bad- usw. als Wort
eingabe zuzulassen, wobei die Wortanfänge und/oder die Wort
endungen gemeinsam mit den zulässigen Buchstaben in einem Teil
wort-Lexikon enthalten sind, wobei das Teilwort-Lexikon zu Be
ginn des Eingabedialogs "Zielort buchstabieren" in den Spra
cherkenner geladen oder aktiviert wird. Die eingegebenen
Wortanfänge, Buchstaben oder Wortendungen werden dem sprecher
unabhängigen Spracherkenner zur Buchstabiererkennung zugeführt.
Im Schritt 2030 wird als Ergebnis eine dritte Hypothesenliste
hypo.3 mit Worten, welche aus den erkannten Buchstaben gebildet
wurden, vom Spracherkenner zurückgegeben. Danach wird im
Schritt 2040 die Hypothese mit der größten Er
kennungswahrscheinlichkeit hypo.3.1 aus der dritten Hypothesen
liste hypo.3 mit der Zieldatei abgeglichen. Als Ergebnis ent
steht eine neue Ortsliste, welche ebenfalls nach Erkennungs
wahrscheinlichkeit sortiert ist. Anschließend wird durch den
Schritt 2050 überprüft, ob ein akustischer Wert für den Zielort
gespeichert ist oder nicht, d. h. es wird überprüft ob der
Eingabedialog "Zielort buchstabieren" von einem anderen Einga
bedialog, beispielsweise "Zielorteingabe", aufgerufen wurde
oder nicht. Ist kein akustischer Wert des Zielorts vorhanden,
so wird im Schritt 2075 die neue Ortsliste als vierte Hy
pothesenliste hypo.4 zur Weiterführung des Eingabedialogs
übernommen und es wird zum Schritt 2080 gesprungen. Liefert die
Abfrage 2050 ein positives Ergebnis, so wird im Schritt 2060
aus der neuen Ortsliste ein Ganzwort-Lexikon generiert und zur
Ganzworterkennung in die Spracherkennungseinrichtung geladen.
Dort wird anschließend im Schritt 2070 der gespeicherte aku
stische Wert des gewünschten Zielortes mit dem aus der
Ortsliste generierten Ganzwort-Lexikon verglichen. Der Spra
cherkennungseinrichtung liefert als Ergebnis im Schritt 2075
eine nach der Erkennungswahrscheinlichkeit sortierte vierte
Hypothesenliste hypo.4. Diese vierte Hypothesenliste hypo.4
wird zur Weiterführung des Eingabedialogs übernommen und es
wird der Schritt 2080 durchgeführt. Im Schritt 2080 wird die
Hypothese mit der größten Erkennungswahrscheinlichkeit hypo.4.1
aus der vierten Hypothesenliste hypo.4 mit der Abfrage an den
Benutzer ausgegeben, ob die Hypothese hypo.4.1 dem gewünschten
Zielort entspricht oder nicht. Beantwortet der Benutzer die
Abfrage mit "Nein", so wird im Schritt 2090 der Eingabedialog
"Aus Liste auswählen" aufgerufen. Das Ergebnis des
Eingabedialogs "Aus Liste auswählen", bei welchem es sich um
einen eindeutigen Zielort handelt, wird dann zur Durchführung
des Schrittes 2100 benutzt. Im Schritt 2100 ermittelt das Sy
stem aus der Zieldatei aller möglichen Orte eine Mehrdeu
tigkeitsliste, in welcher alle Orte aus der Zieldatei, welche
in der Orthographie der Hypothese hypo.4.1 aus der vierten Hy
pothesenliste hypo.4 bzw. dem Ergebnis des Eingabedialogs "Aus
Liste auswählen" entsprechen, aufgenommen sind. Hier kann es
nun vorkommen, daß der eingegebene Zielort in der Liste mehr
fach vorkommt, beispielsweise aufgrund des "Neustadt-Problems",
und somit nicht eindeutig ist. Deshalb wird im Schritt 2110
überprüft, ob der Zielort eindeutig ist oder nicht. Kommt der
Zielort nur einmal vor, so wird der Eingabedialog mit dem
Schritt 2130 fortgeführt. Ist der Zielort nicht eindeutig so
wird gemäß Schritt 2120 der Eingabedialog "Mehrdeutigkeit auf
lösen" aufgerufen. Das Ergebnis des Eingabedialogs "Mehrdeu
tigkeit auflösen" wird danach an den Schritt 2130 übergeben. Im
Schritt 2130 wird der Erkannte Zielort mit bestimmten Zusat
zinformationen, beispielsweise Postleitzahl und Bundesland,
verifiziert, in dem der Benutzer gefragt wird, ob der eingege
bene Zielort richtig ist oder nicht. Beantwortet der Benutzer
die Abfrage 2130 mit "Nein", so wird der Benutzer im Schritt
2150 darüber informiert, daß der Zielort nicht gefunden werden
konnte und der Eingabedialog wird beendet. Beantwortet der Be
nutzer die Abfrage 2130 mit "Ja", so wird der erkannte Zielort
im Schritt 2140 zwischengespeichert und zur Überprüfung 350
gemäß Fig. 1 verzweigt.
Fig. 7 zeigt in schematischer Darstellung eine Ausführungsform
des Eingabedialogs "Grobzieleingabe". In diesem Eingabedialog
wird der Benutzer aufgefordert eine ihm bekannte größere Stadt
in der Nähe des eigentlichen Zielortes als Grobziel zu spre
chen, wobei das Grobziel im Grund-Lexikon enthalten sein
sollte. Nach der Aktivierung des Eingabedialogs "Grobzieleinga
be" im Schritt 3000 wird im Schritt 3010 ein Eingabedialog
"Grobziel eingeben" aufgerufen. Für den Eingabedialog "Grobziel
eingeben" im Schritt 3010 ergibt sich nahezu der gleiche Ablauf
wie beim Eingabedialog "Zielorteingabe". Bei der Eingabe
aufforderung wird jedoch im Gegensatz zum Schritt 1020 gemäß
Fig. 2 oder Fig. 3 der Benutzer nicht zur Eingabe des Zielortes
sondern zur Eingabe des Grobziels aufgefordert. Nach der
Durchführung des Teileingabedialogs "Grobziel eingeben" gemäß
Schritt 3010 wird das Ergebnis des Eingabedialogs "Grobziel
eingeben" zur Fortführung des Eingabedialogs "Grobzieleingabe"
an den Schritt 3300 übergeben. Im Schritt 3300 werden m Ortsna
men im Umkreis des als Ergebnis des Eingabedialog "Grobziel
eingeben" übergebenen Grobziels berechnet. Der Parameter m ist
abhängig von der Leistungsfähigkeit der verwendeten Spracher
kennungseinrichtung und der Übertragungskapazität zwischen der
mindestens einen Datenbasis und der Spracherkennungseinrich
tung. Bei dem beschriebenen Ausführungsbeispiel wird der Para
meter m auf 1500 gesetzt. Aus diesen 1500 Ortsnamen, welche
Teil dem Zieldatei sind, wird im Schritt 3310 ein Feinziel-Le
xikon generiert und als Vokabular in die Spracherkennungsein
richtung geladen. Anschließend wird im Schritt 3320 der Einga
bedialog "Zielorteingabe" gemäß Fig. 2 oder Fig. 3 durchge
führt. Mit dem Unterschied, daß der Schritt 1010 nicht ausge
führt wird, da das notwendige Vokabular zur Erkennung des
Zielortes schon in der Spracherkennungseinrichtung geladen ist.
Zur Abkürzung des Eingabedialogs "Grobzieleingabe" ist es aber
auch vorstellbar, daß im Eingabedialog "Grobziel eingeben" eine
verkürzte Ausführung des Eingabedialogs "Zielorteingabe" gemäß
Fig. 3 durchgeführt wird. In der verkürzten Ausführung des Ein
gabedialogs "Zielorteingabe" gemäß Fig. 3 wird auf den Eingabe
dialog "Zielort buchstabieren" verzichtet und nach der Abfrage
1075 gemäß Fig. 3 nicht der Eingabedialog "Zielort buchstabie
ren" aufgerufen sondern dem Benutzer mittels Sprachausgabe mit
geteilt, daß das Grobziel nicht gefunden werden konnte und der
Eingabedialog "Grobzieleingabe" wird beendet. Zur Beschleuni
gung des Eingabedialogs kann für den Eingabedialog "Grobziel
eingeben" ein Grobziel-Lexikon generiert werden und
anschließend als Vokabular in die Spracherkennungseinrichtung
geladen oder aktiviert werden, wobei das Grobziel-Lexikon
anstelle der 1000 größten Orte des Grund-Lexikons nur die 400
größten Orten der Bundesrepublik enthält. Dadurch ergibt sich
im Schritt 1150 gemäß Fig. 3 in den meisten Anwendungsfällen
eine wesentlich kürzere Mehrdeutigkeitsliste. Zusätzlich kann
auch auf den Eingabedialog "Mehrdeutigkeit auflösen" verzichtet
werden. Anstelle des Eingabedialogs "Mehrdeutigkeit auflösen"
wird der Eingabedialog "Aus Liste auswählen" aufgerufen um den
Benutzer das gewünschte Grobziel auswählen zu lassen oder es
werden nur die beiden Orte mit der größten Einwohnerzahl in der
Mehrdeutigkeitsliste an den Benutzer zur endgültigen Auswahl
des Grobziels ausgegeben. Wurde das gewünschte Grobziel nicht
gefunden, so wird der Eingabedialog "Grobzieleingabe" beendet
und in den Wartezustand 0 zurückgekehrt.
Fig. 8 zeigt in schematischer Darstellung eine Ausführungsform
des Eingabedialogs "Adresse speichern". Nach der Aktivierung
des Eingabedialogs "Adresse speichern" im Schritt 7000 wird im
Schritt 7010 überprüft, ob bereits eine Zieladresse eingegeben
wurde. Ergibt die Überprüfung 7010 ein positives Ergebnis, so
wird zur Abfrage 7020 verzweigt. Ergibt die Überprüfung 7010
ein negatives Ergebnis, so wird zum Schritt 7030 verzweigt. Im
Schritt 7020 wird eine Abfrage an den Benutzer ausgegeben, ob
er die aktuelle Zieladresse speichern will oder nicht. Beant
wortet der Benutzer die Abfrage mit "Ja", so wird zum Schritt
7040 verzweigt. Beantwortet der Benutzer die Abfrage mit
"Nein", so wird zum Schritt 7030 verzweigt. Im Schritt 7030
wird ein Eingabedialog "Adresse eingeben" aufgerufen. Der Ein
gabedialog "Adresse eingeben" gibt eine Abfrage an den Benutzer
aus, welchen der vier Eingabedialoge "Zielorteingabe", "Grob
zieleingabe", "Zielort buchstabieren" oder "Indirekte Eingabe"
der Benutzer zur Eingabe der Zieladresse, welche gespeichert
werden soll, durchführen möchte. Die Auswahl des gewünschten
Eingabedialogs kann dabei analog zum Eingabedialog "Aus Liste
auswählen" durchgeführt werden. Zudem ist es vorstellbar, daß
der Eingabedialog "Adresse eingeben" direkt nach der Aktivie
rung einen der vier Eingabedialoge zur Spracheingabe eines
Zielortes ("Zielorteingabe", "Zielort buchstabieren", "Grobzie
leingabe" oder "Indirekte Eingabe") aufruft, ohne eine Abfrage
an den Benutzer auszugeben. Nach der Spracheingabe eines Ziel
ortes wird analog zu den Schritten 350 und 400 gemäß Fig. 1
überprüft ob, ein Straßenname eingegeben werden kann und wenn
ja, ob ein Straßenname eingegeben werden soll oder nicht. Wird
kein Straßenname eingegeben, so wird der Schritt 450 gemäß Fig.
1 durchgeführt. Anschließend wird die eingegebene Zieladresse
als Ergebnis des Eingabedialogs "Adresse eingeben" zur Weiter
führung des Eingabedialogs "Adresse speichern" zwischengespei
chert. Im Schritt 7040 wird der Benutzer aufgefordert ein
Schlüsselwort zu sprechen, welches der eingegebenen Zieladresse
zugeordnet werden soll und unter welchem die Zieladresse im
persönlichen Adreßregister abgelegt werden soll. Das vom Be
nutzer im Schritt 7050 gesprochene Schlüsselwort wird im
Schritt 7060 als akustischer Wert <Schlüsselwort< dem sprecher
abhängigen Zusatz-Spracherkenner zugeführt und gegebenenfalls
durch mehrmaliges, insbesondere zweimaliges, Sprechen verifi
ziert. Anschließend wird im Schritt 7070 die eingegebene Ziela
dresse dem Schlüsselwort zugeordnet und der akustische Wert
<Schlüsselwort< im persönlichen Adreßregister gespeichert. Der
Benutzer wird mittels einer Sprachausgabe im Schritt 7080 in
formiert, daß die Zieladresse unter dem eingegebenen
<Schlüsselwort< gespeichert wurde. Anschließend wird im Schritt
7090 der Eingabedialog "Adresse speichern" beendet und zum
Wartezustand 0 gemäß Fig. 1 verzweigt. Mittels dem nicht
detailliert dargestellten Eingabedialog "Adresse abrufen", kann
die gespeicherte Zieladresse durch eine Spracheingabe des zu
geordneten Schlüsselwortes, welches zur Erkennung dem spre
cherabhängigen Spracherkenner zugeführt wird, abgerufen und an
das Zielführungssystem übergeben werden. Wurde die Schlüssel
worte in die Ortsliste aufgenommen, dann ist auch ein Buchsta
bieren des Schlüsselwortes möglich, wenn das Schlüsselwort als
Ganzworteingabe nicht erkannt wurde.
Fig. 9 zeigt in schematischer Darstellung eine Ausführungsform
des Eingabedialogs "Straßeneingabe". Nach der Aktivierung des
Eingabedialogs "Straßeneingabe" im Schritt 5000 wird im Schritt
5010 überprüft, ob bereits ein Zielort eingegeben wurde oder
nicht. Ergibt die Überprüfung 5010 ein positives Ergebnis, so
wird der eingegebene Zielort zur Weiterführung des Eingabedia
logs "Straßeneingabe" verwendet und zum Schritt 5040 verzweigt.
Ergibt die Überprüfung 5010 ein negatives Ergebnis, so wird im
Schritt 5020 eine Abfrage an den Benutzer ausgegeben, ob sich
die Straße in dem aktuellen Ort befindet oder nicht. Den aktu
ellen Ort ermittelt das Zielführungssystem mit Hilfe eines aus
dem Stand der Technik bekannten Ortungsverfahren, beispiels
weise mittels dem Global Positioning System (GPS). Beantwortet
der Benutzer die Abfrage mit "Ja", so wird der aktuelle Ort als
Zielort zur Weiterführung des Eingabedialogs "Straßeneingabe"
verwendet und zum Schritt 5040 verzweigt. Beantwortet der Be
nutzer die Abfrage mit "Nein" so wird zum Schritt 5030 ver
zweigt. Im Schritt 5030 wird ein Eingabedialog "Zielort einge
ben" aufgerufen. Der Eingabedialog "Zielort eingeben" gibt
analog zum Eingabedialog "Adresse eingeben" eine Abfrage an den
Benutzer aus, welchen der vier Eingabedialoge "Zielorteingabe",
"Grobzieleingabe", "Zielort buchstabieren" oder "Indirekte
Eingabe" der Benutzer zur Eingabe der Zieladresse, welche ge
speichert werden soll, durchführen möchte. Die Auswahl des ge
wünschten Eingabedialogs kann dabei analog zum Eingabedialog
"Aus Liste auswählen" durchgeführt werden. Zudem ist es vor
stellbar, daß der Eingabedialog "Zielort eingeben" direkt nach
der Aktivierung, ohne eine Abfrage an den Benutzer aus zugeben,
einen der vier Eingabedialoge zur Spracheingabe eines Zielortes
aufruft. Nach der Durchführung des Eingabedialogs "Zielort ein
geben" wird als Ergebnis der eingegebene Zielort zur Weiterfüh
rung des Eingabedialogs "Straßeneingabe" verwendet und zum
Schritt 5040 verzweigt. Im Schritt 5040 wird überprüft, ob die
Anzahl der Straßen des gewünschten Zielortes größer als m ist
oder nicht. Der Parameter m ist dabei von der Art der Spracher
kennungseinrichtung abhängig. Bei dem beschriebenen Ausfüh
rungsbeispiel, wurde m = 1500 gesetzt. Ist die Anzahl der Stra
ßen des gewünschten Zielortes kleiner als m, so wird eine Stra
ßenliste des gewünschten Zielortes zur Weiterführung des Einga
bedialogs "Straßeneingabe" an den Schritt 5060 übergeben. Ist
die Anzahl der Straßen des gewünschten Zielortes größer als m,
so wird zum Schritt 5050 verzweigt. Im Schritt 5050 wird ein
Eingabedialog "Umfang begrenzen" aktiviert, mit dem Ziel den
Umfang der Straßenliste auf weniger als m Einträge von Straßen
namen zu reduzieren. Zu diesem Zweck kann der Benutzer aufge
fordert werden verschiedene Auswahlkriterien, beispielsweise
den Namen eines Stadtteils, die Postleitzahl oder den Anfangs
buchstaben des gewünschten Straßennamens, mittels Spracheingabe
einzugeben. Analog zum Eingabedialog "Mehrdeutigkeit auflösen"
können die Auswahlkriterien beliebig kombiniert werden. Der
Eingabedialog "Umfang begrenzen" wird beendet, wenn der Umfang
auf m oder weniger Straßennamen reduziert wurde. Als Ergebnis
des Eingabedialogs wird die reduzierte Straßenliste an den
Schritt 5060 übergeben. Im Schritt 5060 wird aus der übergebe
nen Straßenliste ein Straßen-Lexikon generiert und in die Spra
cherkennungseinrichtung geladen. Im Schritt 5070 wird der Be
nutzer aufgefordert den Straßennamen zu sprechen. Die Weiter
führung des Eingabedialogs "Straßenname" ist nun analog zum
Eingabedialog "Zielorteingabe" gemäß Fig. 3. Die vom Benutzer
gesprochene "Straße_1" (Schritt 5080) wird als akustische Wert
<Straße_1< an die Spracherkennungseinrichtung übergeben. Als
Ergebnis liefert die Spracherkennungseinrichtung eine fünfte
Hypothesenliste hypo.5 zur Weiterführung des Eingabedialogs
"Straßeneingabe" zurück (Schritt 5090). Im Schritt 5100 wird
der Straßenname mit der größten Erkennungswahrscheinlichkeit
hypo.5.1 an den Benutzer mit der Abfrage ausgegeben, ob
<hypo.5.1< der gewünschte Straßenname ist oder nicht. Beantwor
tet der Benutzer die Abfrage 5100 mit "Ja", so wird zum Schritt
5140 verzweigt. Beantwortet der Benutzer die Abfrage 5100 mit
"Nein", so wird der akustische Wert <Straße_1< im Schritt 5110
gespeichert. Anschließend wird im Schritt 5120 der Straßenname
mit der zweitgrößten Erkennungswahrscheinlichkeit hypo.5.2 an
den Benutzer mit der Abfrage ausgegeben, ob <hypo.5.2< der ge
wünschte Straßenname ist oder nicht. Wird die Abfrage 5120 mit
"Ja" beantwortet, so wird zum Schritt 5140 verzweigt. Beantwor
tet der Benutzer die Abfrage mit "Nein" so wird im Schritt 5130
ein Eingabedialog "Straße buchstabieren" aufgerufen. Der Einga
bedialog "Straße buchstabieren" ist bis zum Schritt 2100 analog
zum Eingabedialog "Zielort buchstabieren" und wurde in der Be
schreibung zur Fig. 6 bereits abgehandelt. Es müssen nur die in
der Beschreibung verwendeten Begriffe, Zielort, neue Ortsliste,
sinngemäß durch die Begriffe Straßenname, neue Straßenliste er
setzt werden. Anstelle des Schritts 2100 gemäß dem Eingabedia
log "Zielort buchstabieren" wird der Eingabedialog "Straße
buchstabieren" beendet und das Ergebnis des Eingabedialogs
"Straße buchstabieren" zur Weiterführung des Eingabedialogs
"Straßeneingabe" an den Schritt 5140 übergeben. Im Schritt 5140
ermittelt das System aus der Straßenliste, welche alle mögli
chen Straßennamen des gewünschten Zielortes enthält, eine Mehr
deutigkeitsliste, in welcher alle Straßennamen aus der Stra
ßenliste, welche in der Orthographie der Hypothese hypo.5.1
bzw. der Hypothese hypo.5.2 aus der fünften Hypothesenliste
hypo.5 bzw. dem Ergebnis des Eingabedialogs "Straße buchstabie
ren" entsprechen, aufgenommen sind. Im Schritt 5150 wird über
prüft, ob der eingegebene Straßenname eindeutig ist oder nicht.
Ist der eingegebene Straßenname eindeutig, so wird zum Schritt 5200
verzweigt. Ergibt die Abfrage ein negatives Ergebnis, so
wird zum Schritt 5160 verzweigt. Im Schritt 5160 wird überprüft
ob die Mehrdeutigkeitsliste mehr als k Einträge umfaßt oder
nicht. Umfaßt die Mehrdeutigkeitsliste k oder weniger Einträge,
so wird zum Schritt 5190 verzweigt. Umfaßt die Mehrdeutigkeits
liste mehr als k Einträge so wird zum Schritt 5170 verzweigt.
Im Schritt 5170 wird überprüft ob die Mehrdeutigkeit durch Ein
gabe von zusätzlichen Abfragekriterien, beispielsweise der
Postleitzahl oder des Stadtteils, aufgelöst werden kann. Ergibt
die Überprüfung 5170 ein positives Ergebnis, so wird im Schritt
5180 ein Eingabedialog "Straßenmehrdeutigkeit auflösen" aufge
rufen. Dieser Eingabedialog verläuft analog zum Eingabedialog
"Mehrdeutigkeit auflösen" gemäß Fig. 5. Als Abfragekriterien
kann die Postleitzahl oder der Stadtteil eingegeben werden. An
schließend wird das Ergebnis des Eingabedialogs "Straßenmehr
deutigkeit auflösen" zur Weiterführung des Eingabedialogs
"Straßeneingabe" an den Schritt 5200 übergeben. Ergibt die
Überprüfung 5170 ein negatives Ergebnis, so wird zum Schritt
5190 verzweigt. Im Schritt 5190 wird der Eingabedialog "Aus Li
ste auswählen" aktiviert und durchgeführt. Das Ergebnis des
Eingabedialogs "Aus Liste auswählen" wird zur Weiterführung des
Eingabedialogs "Straßeneingabe" an den Schritt 5200 übergeben.
Im Schritt 5200 wird der Eingabedialog "Straßeneingabe" beendet
und das Ergebnis gemeinsam mit dem gewünschten Zielort als
Zieladresse an den Schritt 500 gemäß Fig. 1 übergeben.
Fig. 10 zeigt in schematischer Darstellung ein Blockschaltbild
einer Vorrichtung zur Durchführung des erfindungsgemäßen Ver
fahrens. Wie aus der Fig. 10 ersichtlich ist umfaßt die Vor
richtung zur Durchführung des erfindungsgemäßen Verfahrens ein
Sprachdialogsystem 1, ein Zielführungssystem 2 und eine externe
Datenbasis 4, auf welcher beispielsweise die Zieldatei abge
speichert ist. Das Sprachdialogsystem 1 umfaßt eine Spracher
kennungseinrichtung 7 zum Erkennen und Klassifizieren von mit
tels einem Mikrophon 5 von einem Benutzer eingegebenen
Sprachäußerungen, eine Sprachausgabeeinrichtung 10 die mittels
einem Lautsprecher 6 Sprachäußerungen an einen Benutzer ausge
ben kann, eine Dialog- und Ablaufsteuerung 8 und eine interne
Datenbasis 9, in welcher beispielsweise alle Sprachkommandos
gespeichert sind. Das Zielführungssystem 2 umfaßt einen inter
nen nicht flüchtigen Speicher 3, in dem beispielsweise das
Grundlexikon abgelegt ist, und eine optische Anzeigevorrichtung
11. Mittels der Dialog- und Ablaufsteuerung 8 können über ent
sprechende Verbindungen 12, welche auch als Datenbus ausgeführt
sein können, Daten zwischen den einzelnen Komponenten der Vor
richtung ausgetauscht werden.
Zur Verdeutlichung der beschriebenen Eingabedialoge werden in
den Tabellen 2 bis 6 verschiedene Eingabedialoge dargestellt.
Claims (13)
1. Verfahren zur Spracheingabe einer Zieladresse in ein Ziel
führungssystem im Echtzeitbetrieb, bei welchem eingegebene
Sprachäußerungen eines Benutzers mittels einer Spracherken
nungseinrichtung erkannt und gemäß ihrer Erkennungswahrschein
lichkeit klassifiziert werden und diejenige Sprachäußerung mit
der größten Erkennungswahrscheinlichkeit als die eingegebene
Sprachäußerung identifiziert wird, wobei mindestens eine
Sprachäußerung ein zulässiges Sprachkommando ist, welches die
diesem Sprachkommando zugeordneten Bedienfunktionen des Ziel
führungssystems aktiviert, wobei alle zulässigen Sprachäußerun
gen auf mindestens einer Datenbasis gespeichert sind,
dadurch gekennzeichnet,
daß wenigstens eine Bedienfunktion des Zielführungssystems
mindestens einen Eingabedialog umfaßt, wobei nach der Aktivie
rung der wenigstens einen Bedienfunktion des Zielführungssy
stems in Abhängigkeit des mindestens einen Eingabedialogs aus
den auf mindestens einer Datenbasis gespeicherten zulässigen
Sprachäußerungen in Echtzeit mindestens ein Lexikon generiert
und anschließend das mindestens eine Lexikon als Vokabular in
die Spracherkennungseinrichtung geladen wird.
2. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
daß mindestens ein Lexikon aus den auf mindestens einer Daten
basis gespeicherten zulässigen Sprachäußerungen in einem
"Off-Line-Editiermodus" generiert wird, wobei nach der Aktivierung
der wenigstens einen Bedienfunktion des Zielführungssystems in
Abhängigkeit des mindestens einen Eingabedialogs das mindestens
eine im "Off-Line-Editiermodus" generierte Lexikon in Echtzeit
als Vokabular in die Spracherkennungseinrichtung geladen wird.
3. Verfahren nach Anspruch 1 oder 2,
dadurch gekennzeichnet,
daß mindestens eine Sprachäußerung ein Ortsnamen und/oder ein
Straßennamen ist, wobei alle zulässigen Ortsnamen in einer
Zieldatei abgelegt sind, wobei für wenigstens einen zulässigen
Ortsnamen alle zulässigen Straßennamen in einer Straßenliste
abgelegt sind.
4. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
daß die Spracherkennungseinrichtung mindestens einen sprecher
unabhängigen Spracherkenner und mindestens einen sprecherabhän
gigen Zusatz-Spracherkenner umfaßt, wobei abhängig von dem min
destens einen Eingabedialog der sprecherunabhängige Spracher
kenner zur Erkennung von einzeln gesprochenen Ortsnamen
und/oder Straßennamen und/oder von einzeln und/oder in Gruppen
gesprochenen Buchstaben und/oder von Wortteilen verwendet wird
und der sprecherabhängige Zusatz-Spracherkenner zur Erkennung
von mindestens einem gesprochenen Schlüsselwort verwendet wird.
5. Verfahren nach Anspruch 4,
dadurch gekennzeichnet,
daß dem mindestens einen Schlüsselwort eine bestimmte Ziel
adresse zugeordnet wird, wobei das mindestens eine gesprochene
Schlüsselwort in einem persönlichen Adreßregister gespeichert
wird, und wobei aus dem persönlichen Adreßregister ein
Namen-Lexikon generiert und in die Spracherkennungseinrichtung
geladen wird.
6. Verfahren nach Anspruch 2,
dadurch gekennzeichnet,
daß ein Grund-Lexikon, welches im "Off-Line-Editiermodus" gene
riert wurde, die "p" größten Orte eines Staates enthält.
7. Verfahren nach Anspruch 6,
dadurch gekennzeichnet,
daß das Grund-Lexikon in einem internen nicht flüchtigen Spei
cher des Zielführungssystems gespeichert ist.
8. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
daß ein Umgebungs-Lexikon, welches in Echtzeit generiert wird,
"a" Orte im Umkreis des aktuellen Fahrzeugstandortes enthält,
wobei das Umgebungs-Lexikon in regelmäßigen Abständen aktuali
siert wird.
9. Verfahren nach Anspruch 8,
dadurch gekennzeichnet,
daß das Umgebungs-Lexikon in einem internen nicht flüchtigen
Speicher des Zielführungssystems gespeichert ist.
10. Verfahren nach Anspruch 3,
dadurch gekennzeichnet,
daß nach der Aktivierung eines Eingabedialogs "Zielort buchsta
bieren" ein Teilwort-Lexikon zur Buchstabiererkennung in die
Spracherkennungseinrichtung geladen wird, daß anschließend der
Benutzer einzelne Buchstaben und/oder Buchstabengruppen als
Sprachäußerungen eingibt, welche anschließend in der Spracher
kennungseinrichtung mit dem Teilwort-Lexikon verglichen werden,
wobei aus den erkannten Buchstaben und/oder Buchstabengruppen
eine Hypothesenliste mit Worthypothesen gebildet wird, daß da
nach die ersten "n" Worthypothesen mit der Zieldatei
abgeglichen werden und aus dem Ergebnis des Abgleichs ein
Ganzwort-Lexikon generiert und zur Ganzworterkennung in die
Spracherkennungseinrichtung geladen wird, und daß anschließend
ein gespeicherter akustischer Wert in der
Spracherkennungseinrichtung zur Ganzworterkennung mit dem
Ganzwort-Lexikon verglichen wird, wobei dieser akustische Wert
aus einer als Ganzwort gesprochenen Sprachäußerung vor dem
Laden des Teilwort-Lexikons erzeugt wurde.
11. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
daß nach dem Erkennen eines durch einen Eingabedialog "Grobziel
eingeben" eingegebenen "Grobziels", durch das Zielführungssy
stem in Echtzeit "m" Orte im Umkreis um den Ort "Grobziel" be
rechnet werden und aus diesen "m" Orten ein Feinziel-Lexikon
generiert und in die Spracherkennungseinrichtung geladen wird.
12. Vorrichtung zum Ausführen des Verfahrens nach einem der
vorhergehenden Ansprüche, bei welcher ein Zielführungssystem
(2) über entsprechende Verbindungen (12) mit einem Sprachdia
logsystem (1) verbunden ist, wobei abhängig von mindestens ei
ner von einem Benutzer in eine Spracheingabeeinrichtung (5) ge
sprochene Sprachäußerung, wenn die gesprochene Sprachäußerung
als ein zulässiges Sprachkommando von einer Spracherkennungs
einrichtung (7) erkannt wird, mittels einer Dialog- und Ablauf
steuerung (8) eine dem Sprachkommando zugeordnete Bedienfunk
tion des Zielführungssystems (2) aktivierbar ist, wobei alle
zulässigen Sprachäußerungen auf mindestens einer Datenbasis (9;
4; 3) speicherbar sind,
dadurch gekennzeichnet,
daß mittels der Dialog- und Ablaufsteuerung (8) in Abhängigkeit
von mindestens einem Eingabedialog, welcher Teil mindestens ei
ner Bedienfunktion ist, in Echtzeit wenigstens ein Lexikon aus
den auf der mindestens einen Datenbasis (9; 4; 3) gespeicherten
zulässigen Sprachäußerungen generierbar und als Vokabular in
die Spracherkennungseinrichtung (7) ladbar ist.
13. Vorrichtung nach Anspruch 12,
dadurch gekennzeichnet,
daß mittels der Dialog- und Ablaufsteuerung (8) in Abhängigkeit
von mindestens einem Eingabedialog mindestens ein im
"Off-Line-Editiermodus" generiertes Lexikon, welches auf mindestens einer
Datenbasis (9; 4; 3) gespeichert ist, in Echtzeit als Vokabular
in die Spracherkennungseinrichtung (7) ladbar ist.
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19709518A DE19709518C5 (de) | 1997-03-10 | 1997-03-10 | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb |
DE59813027T DE59813027D1 (de) | 1997-03-10 | 1998-03-03 | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb |
EP98103662A EP0865014B1 (de) | 1997-03-10 | 1998-03-03 | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb |
AT98103662T ATE303580T1 (de) | 1997-03-10 | 1998-03-03 | Verfahren und vorrichtung zur spracheingabe einer zieladresse in ein zielführungssystem im echtzeitbetrieb |
JP10096532A JPH1115493A (ja) | 1997-03-10 | 1998-03-06 | 実時間動作において目標案内システムに目標アドレスを音声入力する方法及び装置 |
CA002231851A CA2231851C (en) | 1997-03-10 | 1998-03-10 | Method and device for real-time speech input of a destination address into a navigation system |
US09/038,147 US6230132B1 (en) | 1997-03-10 | 1998-03-10 | Process and apparatus for real-time verbal input of a target address of a target address system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19709518A DE19709518C5 (de) | 1997-03-10 | 1997-03-10 | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19709518C1 true DE19709518C1 (de) | 1998-03-05 |
DE19709518C5 DE19709518C5 (de) | 2006-05-04 |
Family
ID=7822659
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19709518A Expired - Lifetime DE19709518C5 (de) | 1997-03-10 | 1997-03-10 | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb |
DE59813027T Expired - Lifetime DE59813027D1 (de) | 1997-03-10 | 1998-03-03 | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE59813027T Expired - Lifetime DE59813027D1 (de) | 1997-03-10 | 1998-03-03 | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb |
Country Status (6)
Country | Link |
---|---|
US (1) | US6230132B1 (de) |
EP (1) | EP0865014B1 (de) |
JP (1) | JPH1115493A (de) |
AT (1) | ATE303580T1 (de) |
CA (1) | CA2231851C (de) |
DE (2) | DE19709518C5 (de) |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0945705A2 (de) * | 1998-03-27 | 1999-09-29 | DaimlerChrysler Aerospace AG | Erkennungssystem |
DE19907759A1 (de) * | 1999-02-23 | 2000-08-31 | Siemens Ag | Verfahren und Einrichtung zur Buchstabiererkennung |
DE10003617A1 (de) * | 2000-01-28 | 2001-08-02 | Volkswagen Ag | Verfahren und Vorrichtung zur Spracheingabe bei Autoradios |
WO2001069592A1 (de) * | 2000-03-15 | 2001-09-20 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung und verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem |
DE10015960A1 (de) * | 2000-03-30 | 2001-10-11 | Micronas Munich Gmbh | Spracherkennungsverfahren und Spracherkennungsvorrichtung |
EP1176395A1 (de) * | 2000-07-28 | 2002-01-30 | Siemens Aktiengesellschaft | Verfahren zur Auswahl einer Ortsbezeichnung in einem Navigationssystem durch Spracheingabe |
DE10104902A1 (de) * | 2001-02-03 | 2002-08-08 | Abb Research Ltd | System und Verfahren zur sprachgesteuerten Fehlerdiagnose |
DE10129005A1 (de) * | 2001-06-15 | 2003-01-02 | Temic Sprachverarbeitung Gmbh | Verfahren zur Spracherkennung und Spracherkennungssystem |
DE10140097A1 (de) * | 2001-08-16 | 2003-02-27 | Conti Temic Microelectronic | Verfahren zur Unterstützung eines Bedieners eines Gerätes beim Auffinden eines Bedienelements |
FR2830647A1 (fr) * | 2001-10-08 | 2003-04-11 | France Telecom | Procede d'evaluation par geocodage de la distance entre deux sites geographiques |
EP1403618A2 (de) * | 2002-09-27 | 2004-03-31 | Robert Bosch Gmbh | Eingabevorrichtung |
EP1455163A2 (de) | 2003-03-07 | 2004-09-08 | Robert Bosch Gmbh | Verfahren zur Eingabe von Zielen in ein Navigationssystem |
DE10328200A1 (de) * | 2003-06-24 | 2005-02-10 | Audi Ag | Navigationsgerät für ein Kraftfahrzeug |
DE102004012148A1 (de) * | 2004-03-12 | 2005-10-06 | Siemens Ag | Spracherkennung unter Berücksichtigung einer geografischen Position |
WO2006111230A1 (de) * | 2005-04-19 | 2006-10-26 | Daimlerchrysler Ag | Verfahren zur gezielten ermittlung eines vollständigen eingabedatensatzes in einem sprachdialogsystem |
WO2007062820A1 (de) * | 2005-12-01 | 2007-06-07 | Daimler Ag | Verfahren und vorrichtung zum auffinden und ausgeben eines datensatzes aus einem speicher |
DE102005059390A1 (de) * | 2005-12-09 | 2007-06-14 | Volkswagen Ag | Spracherkennung im Kraftfahrzeug |
DE102005030963B4 (de) * | 2005-06-30 | 2007-07-19 | Daimlerchrysler Ag | Verfahren und Vorrichtung zur Bestätigung und/oder Korrektur einer einem Spracherkennungssystems zugeführten Spracheingabe |
DE102006057921A1 (de) * | 2006-12-08 | 2008-06-12 | Volkswagen Ag | Verfahren und Vorrichtung zur Auswahl eines Ziels, insbesondere bei einem Navigationssystem |
US7392182B2 (en) | 2002-12-18 | 2008-06-24 | Harman International Industries, Inc. | Speech recognition system |
US7392189B2 (en) | 2002-02-23 | 2008-06-24 | Harman Becker Automotive Systems Gmbh | System for speech recognition with multi-part recognition |
EP1939860A1 (de) * | 2006-11-30 | 2008-07-02 | Harman Becker Automotive Systems GmbH | Interaktives Spracherkennungssystem |
DE102007037567A1 (de) * | 2007-08-09 | 2009-02-12 | Volkswagen Ag | Verfahren zur multimodalen Bedienung mindestens eines Gerätes in einem Kraftfahrzeug |
DE102008028090A1 (de) * | 2008-02-29 | 2009-09-10 | Navigon Ag | Verfahren zum Betrieb eines Navigationssystems |
DE102008027958A1 (de) * | 2008-03-03 | 2009-10-08 | Navigon Ag | Verfahren zum Betrieb eines Navigationssystems |
DE102009025530A1 (de) * | 2009-06-19 | 2010-12-23 | Volkswagen Ag | Verfahren zur Bedienung eines Fahrzeugs mittels eines automatisierten Sprachdialogs sowie entsprechend ausgestaltetes Sprachdialogsystem und Fahrzeug |
WO2011059781A1 (en) * | 2009-10-28 | 2011-05-19 | Google Inc. | Voice actions on computing devices |
DE102010026708A1 (de) * | 2010-07-10 | 2012-01-12 | Volkswagen Ag | Verfahren zum Betreiben eines Sprachdialogsystems und Sprachdialogsystem |
DE102010049869A1 (de) * | 2010-10-28 | 2012-05-03 | Volkswagen Ag | Verfahren zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug und Vorrichtung dazu |
DE102004017158B4 (de) * | 2003-04-08 | 2013-06-06 | Denso Corporation | Routenführungssystem mit Stimmführungsfähigkeit |
DE10125825B4 (de) * | 2001-05-26 | 2014-09-11 | Robert Bosch Gmbh | Verfahren zur Spracheingabe und Datenträger |
US9299053B2 (en) | 2003-12-17 | 2016-03-29 | West View Research, Llc | Portable computerized wireless apparatus |
US9412367B2 (en) | 1999-06-10 | 2016-08-09 | West View Research, Llc | Computerized information and display apparatus |
US9772739B2 (en) | 2000-05-03 | 2017-09-26 | Nokia Technologies Oy | Method for controlling a system, especially an electrical and/or electronic system comprising at least one application device |
DE19937490B4 (de) | 1999-08-07 | 2018-11-29 | Volkswagen Ag | Verfahren und Vorrichtung zur Eingabe von Steuerungsbefehlen für Komfortgeräte, insbesondere in Kraftfahrzeugen |
DE102009017177B4 (de) | 2008-04-23 | 2022-05-05 | Volkswagen Ag | Spracherkennungsanordnung und Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges |
Families Citing this family (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6775264B1 (en) | 1997-03-03 | 2004-08-10 | Webley Systems, Inc. | Computer, internet and telecommunications based network |
DE60033733T2 (de) | 1999-05-31 | 2007-12-06 | Nippon Telegraph And Telephone Corp. | Datenbankabfragesystem basierend auf Spracherkennung |
DE50008703D1 (de) | 1999-06-10 | 2004-12-23 | Infineon Technologies Ag | Spracherkennungsverfahren und -einrichtung |
DE19933524A1 (de) * | 1999-07-16 | 2001-01-18 | Nokia Mobile Phones Ltd | Verfahren zur Eingabe von Daten in ein System |
US6707889B1 (en) * | 1999-08-24 | 2004-03-16 | Microstrategy Incorporated | Multiple voice network access provider system and method |
EP1083545A3 (de) * | 1999-09-09 | 2001-09-26 | Xanavi Informatics Corporation | Eigennamen Spracherkennung in einem Navigationssystem |
JP4790956B2 (ja) * | 1999-09-29 | 2011-10-12 | ニュアンス コミュニケーションズ オーストリア ゲーエムベーハー | 音声認識器における綴りモード |
US6587818B2 (en) * | 1999-10-28 | 2003-07-01 | International Business Machines Corporation | System and method for resolving decoding ambiguity via dialog |
US6424945B1 (en) * | 1999-12-15 | 2002-07-23 | Nokia Corporation | Voice packet data network browsing for mobile terminals system and method using a dual-mode wireless connection |
US6721705B2 (en) | 2000-02-04 | 2004-04-13 | Webley Systems, Inc. | Robust voice browser system and voice activated device controller |
US7516190B2 (en) | 2000-02-04 | 2009-04-07 | Parus Holdings, Inc. | Personal voice-based information retrieval system |
EP1126660B1 (de) * | 2000-02-15 | 2004-12-01 | Siemens Aktiengesellschaft | Verfahren zur Uebermittlung einer Nachricht sowie Gateway |
US6385306B1 (en) * | 2000-03-02 | 2002-05-07 | John Francis Baxter, Jr. | Audio file transmission method |
WO2002005264A1 (de) * | 2000-07-07 | 2002-01-17 | Siemens Aktiengesellschaft | Sprachgesteuerte anordnung und verfahren zur spracheingabe und -erkennung |
DE10037023A1 (de) * | 2000-07-29 | 2002-02-21 | Bosch Gmbh Robert | Verfahren und System zur akustischen Funktionssteuerung im Kraftfahrzeug |
US20020116175A1 (en) * | 2000-12-15 | 2002-08-22 | Stouffer Scott Allen | Method and system for using a voice channel with a data service |
US6490521B2 (en) * | 2000-12-28 | 2002-12-03 | Intel Corporation | Voice-controlled navigation device utilizing wireless data transmission for obtaining maps and real-time overlay information |
US20020099544A1 (en) * | 2001-01-24 | 2002-07-25 | Levitt Benjamin J. | System, method and computer program product for damage control during large-scale address speech recognition |
US20020111810A1 (en) * | 2001-02-15 | 2002-08-15 | Khan M. Salahuddin | Spatially built word list for automatic speech recognition program and method for formation thereof |
US20030149565A1 (en) * | 2001-03-09 | 2003-08-07 | Chang Steve S. | System, method and computer program product for spelling fallback during large-scale speech recognition |
DE10115051A1 (de) * | 2001-03-27 | 2002-10-10 | Bosch Gmbh Robert | Vorrichtung und Verfahren zur Spracherkennung |
DE10132887A1 (de) * | 2001-07-06 | 2003-01-16 | Bosch Gmbh Robert | System und Verfahren zum Navigieren eines Fortbewegungsmittels |
MY141150A (en) * | 2001-11-02 | 2010-03-15 | Panasonic Corp | Channel selecting apparatus utilizing speech recognition, and controling method thereof |
US7177814B2 (en) * | 2002-02-07 | 2007-02-13 | Sap Aktiengesellschaft | Dynamic grammar for voice-enabled applications |
EP1363271A1 (de) * | 2002-05-08 | 2003-11-19 | Sap Ag | Verfahren und System zur Verarbeitung und Speicherung von Sprachinformationen eines Dialogs |
EP1361740A1 (de) * | 2002-05-08 | 2003-11-12 | Sap Ag | Verfahren und System zur Verarbeitung von Sprachinformationen eines Dialogs |
DE10220522B4 (de) * | 2002-05-08 | 2005-11-17 | Sap Ag | Verfahren und System zur Verarbeitung von Sprachdaten mittels Spracherkennung und Frequenzanalyse |
DE10220524B4 (de) * | 2002-05-08 | 2006-08-10 | Sap Ag | Verfahren und System zur Verarbeitung von Sprachdaten und zur Erkennung einer Sprache |
DE10220521B4 (de) * | 2002-05-08 | 2005-11-24 | Sap Ag | Verfahren und System zur Verarbeitung von Sprachdaten und Klassifizierung von Gesprächen |
DE10227518A1 (de) * | 2002-06-20 | 2004-01-08 | Robert Bosch Gmbh | Verfahren zur Zieleingabe an einem Navigationsgerät und Navigationsdatenbasis |
JP2004037998A (ja) * | 2002-07-05 | 2004-02-05 | Denso Corp | 音声制御装置 |
FR2844590A1 (fr) * | 2002-09-13 | 2004-03-19 | Marques Et De Droits Derives I | Systeme de navigation utilisant la reconnaissance vocale |
JP2007505365A (ja) * | 2003-05-26 | 2007-03-08 | コニンクリユケ フィリップス エレクトロニクス エヌ.ブイ. | 音声制御ナビゲーションシステムの操作方法 |
JP4012143B2 (ja) * | 2003-12-16 | 2007-11-21 | キヤノン株式会社 | 情報処理装置およびデータ入力方法 |
JP2005189667A (ja) * | 2003-12-26 | 2005-07-14 | Mitsubishi Electric Corp | 車載機器、音声対話ドキュメント作成サーバ及びこれらを用いたナビゲーションシステム |
US20060074660A1 (en) * | 2004-09-29 | 2006-04-06 | France Telecom | Method and apparatus for enhancing speech recognition accuracy by using geographic data to filter a set of words |
JP2006170769A (ja) * | 2004-12-15 | 2006-06-29 | Aisin Aw Co Ltd | 案内情報提供方法、案内情報提供システム、ナビゲーション装置及び入出力装置 |
US20060136195A1 (en) * | 2004-12-22 | 2006-06-22 | International Business Machines Corporation | Text grouping for disambiguation in a speech application |
JP2007271901A (ja) * | 2006-03-31 | 2007-10-18 | Xanavi Informatics Corp | ナビゲーション装置及びその住所入力方法 |
US7831431B2 (en) * | 2006-10-31 | 2010-11-09 | Honda Motor Co., Ltd. | Voice recognition updates via remote broadcast signal |
EP1933302A1 (de) * | 2006-12-12 | 2008-06-18 | Harman Becker Automotive Systems GmbH | Spracherkennungsverfahren |
US20080228397A1 (en) * | 2007-03-15 | 2008-09-18 | Motorola, Inc. | Reverse map determination of locations and addresses |
US8909528B2 (en) * | 2007-05-09 | 2014-12-09 | Nuance Communications, Inc. | Method and system for prompt construction for selection from a list of acoustically confusable items in spoken dialog systems |
US7437291B1 (en) * | 2007-12-13 | 2008-10-14 | International Business Machines Corporation | Using partial information to improve dialog in automatic speech recognition systems |
US20090271106A1 (en) * | 2008-04-23 | 2009-10-29 | Volkswagen Of America, Inc. | Navigation configuration for a motor vehicle, motor vehicle having a navigation system, and method for determining a route |
US9286893B2 (en) * | 2008-05-30 | 2016-03-15 | International Business Machines Corporation | Pre-processed annotation of street grammar in speech enabled navigation systems |
JP5334178B2 (ja) * | 2009-01-21 | 2013-11-06 | クラリオン株式会社 | 音声認識装置およびデータ更新方法 |
JP2011118755A (ja) * | 2009-12-04 | 2011-06-16 | Sony Corp | 学習装置、学習方法、およびプログラム |
US8315799B2 (en) * | 2010-05-11 | 2012-11-20 | International Business Machines Corporation | Location based full address entry via speech recognition |
KR101283210B1 (ko) * | 2010-11-09 | 2013-07-05 | 기아자동차주식회사 | 카오디오 장치를 이용한 주행 경로 안내 시스템 및 그 카오디오 장치, 이를 이용한 경로 안내 방법 |
US9368107B2 (en) * | 2011-04-20 | 2016-06-14 | Nuance Communications, Inc. | Permitting automated speech command discovery via manual event to command mapping |
CN103376115A (zh) * | 2012-04-13 | 2013-10-30 | 上海博泰悦臻电子设备制造有限公司 | 车载导航装置及其导航方法 |
US10824310B2 (en) * | 2012-12-20 | 2020-11-03 | Sri International | Augmented reality virtual personal assistant for external representation |
US20150100240A1 (en) * | 2013-10-08 | 2015-04-09 | Toyota Jidosha Kabushiki Kaisha | Generating Dynamic Vocabulary for Personalized Speech Recognition |
US9484025B2 (en) | 2013-10-15 | 2016-11-01 | Toyota Jidosha Kabushiki Kaisha | Configuring dynamic custom vocabulary for personalized speech recognition |
JP2015129672A (ja) * | 2014-01-07 | 2015-07-16 | アルパイン株式会社 | 施設検索装置および方法 |
DE102014017385B4 (de) * | 2014-11-24 | 2016-06-23 | Audi Ag | Kraftfahrzeug-Gerätebedienung mit Bedienkorrektur |
CN110335595A (zh) * | 2019-06-06 | 2019-10-15 | 平安科技(深圳)有限公司 | 基于语音识别的插问对话方法、装置及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3608497A1 (de) * | 1986-03-14 | 1987-09-17 | Standard Elektrik Lorenz Ag | Verfahren fuer und einrichtung zum sprachgesteuerten bedienen eines fernmeldeendgeraetes |
DE19600700A1 (de) * | 1995-01-20 | 1996-08-08 | Mitsubishi Electric Corp | Navigationsgerät |
EP0736853A1 (de) * | 1995-04-04 | 1996-10-09 | Aisin Aw Co., Ltd. | Fahrzeugnavigationsanlage |
DE19533541C1 (de) * | 1995-09-11 | 1997-03-27 | Daimler Benz Aerospace Ag | Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61147298A (ja) * | 1984-12-20 | 1986-07-04 | 富士通株式会社 | 音声認識制御方式 |
US4866778A (en) * | 1986-08-11 | 1989-09-12 | Dragon Systems, Inc. | Interactive speech recognition apparatus |
JP2680317B2 (ja) * | 1987-12-05 | 1997-11-19 | アイシン・エィ・ダブリュ株式会社 | ナビゲーション装置 |
US5054082A (en) * | 1988-06-30 | 1991-10-01 | Motorola, Inc. | Method and apparatus for programming devices to recognize voice commands |
US5165095A (en) * | 1990-09-28 | 1992-11-17 | Texas Instruments Incorporated | Voice telephone dialing |
US5172321A (en) * | 1990-12-10 | 1992-12-15 | Motorola, Inc. | Vehicle route planning system |
JPH0642154A (ja) * | 1992-07-20 | 1994-02-15 | Itooki:Kk | フリ−アクセスフロア用パネルとその脚支持部材の固定方法 |
JPH0654440A (ja) * | 1992-07-27 | 1994-02-25 | Yashima Denki Co Ltd | 回転機の異常検出装置 |
JP3337083B2 (ja) * | 1992-08-20 | 2002-10-21 | 株式会社リコー | 車載用ナビゲート装置 |
JPH06318977A (ja) * | 1993-03-03 | 1994-11-15 | Nippon Telegr & Teleph Corp <Ntt> | 音声対話装置 |
JPH06261126A (ja) * | 1993-03-08 | 1994-09-16 | Nippon Telegr & Teleph Corp <Ntt> | オペレータ支援型音声対話装置 |
JP2946269B2 (ja) * | 1993-08-25 | 1999-09-06 | 本田技研工業株式会社 | 車載情報処理用音声認識装置 |
JP3454897B2 (ja) * | 1994-01-31 | 2003-10-06 | 株式会社日立製作所 | 音声対話システム |
JPH07219590A (ja) * | 1994-01-31 | 1995-08-18 | Canon Inc | 音声情報検索装置及び方法 |
JP2775140B2 (ja) * | 1994-03-18 | 1998-07-16 | 株式会社エイ・ティ・アール人間情報通信研究所 | パターン認識方法、音声認識方法および音声認識装置 |
JPH07319383A (ja) * | 1994-05-25 | 1995-12-08 | Sony Corp | 地図表示装置 |
KR100383352B1 (ko) * | 1994-10-25 | 2003-10-17 | 브리티쉬 텔리커뮤니케이션즈 파블릭 리미티드 캄퍼니 | 음성작동서비스 |
JPH08166797A (ja) * | 1994-12-14 | 1996-06-25 | Sony Corp | 音声対話型制御システム |
JPH08202386A (ja) * | 1995-01-23 | 1996-08-09 | Sony Corp | 音声認識方法、音声認識装置、およびナビゲーション装置 |
US5677990A (en) * | 1995-05-05 | 1997-10-14 | Panasonic Technologies, Inc. | System and method using N-best strategy for real time recognition of continuously spelled names |
JPH08328584A (ja) * | 1995-05-29 | 1996-12-13 | Sony Corp | 音声認識装置、音声認識方法及びナビゲーション装置 |
JP3462322B2 (ja) * | 1995-11-30 | 2003-11-05 | 沖電気工業株式会社 | テキスト音声読み上げシステム |
US5832429A (en) * | 1996-09-11 | 1998-11-03 | Texas Instruments Incorporated | Method and system for enrolling addresses in a speech recognition database |
-
1997
- 1997-03-10 DE DE19709518A patent/DE19709518C5/de not_active Expired - Lifetime
-
1998
- 1998-03-03 EP EP98103662A patent/EP0865014B1/de not_active Expired - Lifetime
- 1998-03-03 DE DE59813027T patent/DE59813027D1/de not_active Expired - Lifetime
- 1998-03-03 AT AT98103662T patent/ATE303580T1/de not_active IP Right Cessation
- 1998-03-06 JP JP10096532A patent/JPH1115493A/ja active Pending
- 1998-03-10 CA CA002231851A patent/CA2231851C/en not_active Expired - Lifetime
- 1998-03-10 US US09/038,147 patent/US6230132B1/en not_active Expired - Lifetime
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3608497A1 (de) * | 1986-03-14 | 1987-09-17 | Standard Elektrik Lorenz Ag | Verfahren fuer und einrichtung zum sprachgesteuerten bedienen eines fernmeldeendgeraetes |
DE19600700A1 (de) * | 1995-01-20 | 1996-08-08 | Mitsubishi Electric Corp | Navigationsgerät |
EP0736853A1 (de) * | 1995-04-04 | 1996-10-09 | Aisin Aw Co., Ltd. | Fahrzeugnavigationsanlage |
DE19533541C1 (de) * | 1995-09-11 | 1997-03-27 | Daimler Benz Aerospace Ag | Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens |
Cited By (71)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0945705A3 (de) * | 1998-03-27 | 2001-03-07 | DaimlerChrysler AG | Erkennungssystem |
EP0945705A2 (de) * | 1998-03-27 | 1999-09-29 | DaimlerChrysler Aerospace AG | Erkennungssystem |
DE19907759A1 (de) * | 1999-02-23 | 2000-08-31 | Siemens Ag | Verfahren und Einrichtung zur Buchstabiererkennung |
DE19907759C2 (de) * | 1999-02-23 | 2002-05-23 | Infineon Technologies Ag | Verfahren und Einrichtung zur Buchstabiererkennung |
US9412367B2 (en) | 1999-06-10 | 2016-08-09 | West View Research, Llc | Computerized information and display apparatus |
US9710225B2 (en) | 1999-06-10 | 2017-07-18 | West View Research, Llc | Computerized information and display apparatus with automatic context determination |
US9709972B2 (en) | 1999-06-10 | 2017-07-18 | West View Research, Llc | Computerized information and display apparatus with remote environment control |
US9715368B2 (en) | 1999-06-10 | 2017-07-25 | West View Research, Llc | Computerized information and display apparatus with rapid convergence algorithm |
DE19937490B4 (de) | 1999-08-07 | 2018-11-29 | Volkswagen Ag | Verfahren und Vorrichtung zur Eingabe von Steuerungsbefehlen für Komfortgeräte, insbesondere in Kraftfahrzeugen |
DE10003617A1 (de) * | 2000-01-28 | 2001-08-02 | Volkswagen Ag | Verfahren und Vorrichtung zur Spracheingabe bei Autoradios |
US7209884B2 (en) | 2000-03-15 | 2007-04-24 | Bayerische Motoren Werke Aktiengesellschaft | Speech input into a destination guiding system |
DE10012572C2 (de) * | 2000-03-15 | 2003-03-27 | Bayerische Motoren Werke Ag | Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem |
DE10012572A1 (de) * | 2000-03-15 | 2001-09-27 | Bayerische Motoren Werke Ag | Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem |
WO2001069592A1 (de) * | 2000-03-15 | 2001-09-20 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung und verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem |
DE10015960A1 (de) * | 2000-03-30 | 2001-10-11 | Micronas Munich Gmbh | Spracherkennungsverfahren und Spracherkennungsvorrichtung |
DE10015960C2 (de) * | 2000-03-30 | 2003-01-16 | Micronas Munich Gmbh | Spracherkennungsverfahren und Spracherkennungsvorrichtung |
US9772739B2 (en) | 2000-05-03 | 2017-09-26 | Nokia Technologies Oy | Method for controlling a system, especially an electrical and/or electronic system comprising at least one application device |
EP1176395A1 (de) * | 2000-07-28 | 2002-01-30 | Siemens Aktiengesellschaft | Verfahren zur Auswahl einer Ortsbezeichnung in einem Navigationssystem durch Spracheingabe |
DE10104902A1 (de) * | 2001-02-03 | 2002-08-08 | Abb Research Ltd | System und Verfahren zur sprachgesteuerten Fehlerdiagnose |
DE10125825B4 (de) * | 2001-05-26 | 2014-09-11 | Robert Bosch Gmbh | Verfahren zur Spracheingabe und Datenträger |
DE10129005B4 (de) * | 2001-06-15 | 2005-11-03 | Harman Becker Automotive Systems Gmbh | Verfahren zur Spracherkennung und Spracherkennungssystem |
DE10129005A1 (de) * | 2001-06-15 | 2003-01-02 | Temic Sprachverarbeitung Gmbh | Verfahren zur Spracherkennung und Spracherkennungssystem |
DE10140097B4 (de) * | 2001-08-16 | 2005-04-28 | Guenter Fendt | Verfahren zur Unterstützung eines Bedieners eines Gerätes beim Auffinden der Position eines Bedienelements |
DE10140097A1 (de) * | 2001-08-16 | 2003-02-27 | Conti Temic Microelectronic | Verfahren zur Unterstützung eines Bedieners eines Gerätes beim Auffinden eines Bedienelements |
FR2830647A1 (fr) * | 2001-10-08 | 2003-04-11 | France Telecom | Procede d'evaluation par geocodage de la distance entre deux sites geographiques |
US7392189B2 (en) | 2002-02-23 | 2008-06-24 | Harman Becker Automotive Systems Gmbh | System for speech recognition with multi-part recognition |
EP1403618A3 (de) * | 2002-09-27 | 2006-04-05 | Robert Bosch Gmbh | Eingabevorrichtung |
EP1403618A2 (de) * | 2002-09-27 | 2004-03-31 | Robert Bosch Gmbh | Eingabevorrichtung |
US7392182B2 (en) | 2002-12-18 | 2008-06-24 | Harman International Industries, Inc. | Speech recognition system |
EP1455163A3 (de) * | 2003-03-07 | 2007-11-07 | Robert Bosch Gmbh | Verfahren zur Eingabe von Zielen in ein Navigationssystem |
EP1455163A2 (de) | 2003-03-07 | 2004-09-08 | Robert Bosch Gmbh | Verfahren zur Eingabe von Zielen in ein Navigationssystem |
DE102004017158B4 (de) * | 2003-04-08 | 2013-06-06 | Denso Corporation | Routenführungssystem mit Stimmführungsfähigkeit |
DE10328200B4 (de) * | 2003-06-24 | 2007-08-30 | Audi Ag | Navigationsgerät für ein Kraftfahrzeug |
DE10328200A1 (de) * | 2003-06-24 | 2005-02-10 | Audi Ag | Navigationsgerät für ein Kraftfahrzeug |
US9424547B2 (en) | 2003-12-17 | 2016-08-23 | West View Research, Llc | Methods of transport of one or more items between locations |
US9781110B2 (en) | 2003-12-17 | 2017-10-03 | West View Research, Llc | Computerized methods for location-based service provision |
US11870778B2 (en) | 2003-12-17 | 2024-01-09 | West View Research, Llc | Computerized apparatus and methods for user authentication and object handling |
US11240238B2 (en) | 2003-12-17 | 2022-02-01 | West View Research, Llc | Computerized apparatus and methods for location-based service provision |
US10686784B2 (en) | 2003-12-17 | 2020-06-16 | West View Research, Llc | Computerized apparatus and methods for location-based service provision |
US9607280B2 (en) | 2003-12-17 | 2017-03-28 | West View Research, Llc | Methods for shipping element processing |
US10057265B2 (en) | 2003-12-17 | 2018-08-21 | West View Research, Llc | Computerized vehicular apparatus for location-based service provision |
US9396450B2 (en) | 2003-12-17 | 2016-07-19 | West View Research, Llc | Computerized apparatus and methods for transfer between locations |
US9349112B2 (en) | 2003-12-17 | 2016-05-24 | West View Research, Llc | Computerized apparatus for transfer between locations |
US9299053B2 (en) | 2003-12-17 | 2016-03-29 | West View Research, Llc | Portable computerized wireless apparatus |
DE102004012148A1 (de) * | 2004-03-12 | 2005-10-06 | Siemens Ag | Spracherkennung unter Berücksichtigung einer geografischen Position |
DE102005018174A1 (de) * | 2005-04-19 | 2006-11-02 | Daimlerchrysler Ag | Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11 |
WO2006111230A1 (de) * | 2005-04-19 | 2006-10-26 | Daimlerchrysler Ag | Verfahren zur gezielten ermittlung eines vollständigen eingabedatensatzes in einem sprachdialogsystem |
DE102005030963B4 (de) * | 2005-06-30 | 2007-07-19 | Daimlerchrysler Ag | Verfahren und Vorrichtung zur Bestätigung und/oder Korrektur einer einem Spracherkennungssystems zugeführten Spracheingabe |
WO2007062820A1 (de) * | 2005-12-01 | 2007-06-07 | Daimler Ag | Verfahren und vorrichtung zum auffinden und ausgeben eines datensatzes aus einem speicher |
DE102005059390A1 (de) * | 2005-12-09 | 2007-06-14 | Volkswagen Ag | Spracherkennung im Kraftfahrzeug |
EP1939860A1 (de) * | 2006-11-30 | 2008-07-02 | Harman Becker Automotive Systems GmbH | Interaktives Spracherkennungssystem |
US9805722B2 (en) | 2006-11-30 | 2017-10-31 | Nuance Communications, Inc. | Interactive speech recognition system |
DE102006057921A1 (de) * | 2006-12-08 | 2008-06-12 | Volkswagen Ag | Verfahren und Vorrichtung zur Auswahl eines Ziels, insbesondere bei einem Navigationssystem |
DE102007037567A1 (de) * | 2007-08-09 | 2009-02-12 | Volkswagen Ag | Verfahren zur multimodalen Bedienung mindestens eines Gerätes in einem Kraftfahrzeug |
DE102008028090A1 (de) * | 2008-02-29 | 2009-09-10 | Navigon Ag | Verfahren zum Betrieb eines Navigationssystems |
DE102008027958A1 (de) * | 2008-03-03 | 2009-10-08 | Navigon Ag | Verfahren zum Betrieb eines Navigationssystems |
DE102009017177B4 (de) | 2008-04-23 | 2022-05-05 | Volkswagen Ag | Spracherkennungsanordnung und Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges |
DE102009025530A1 (de) * | 2009-06-19 | 2010-12-23 | Volkswagen Ag | Verfahren zur Bedienung eines Fahrzeugs mittels eines automatisierten Sprachdialogs sowie entsprechend ausgestaltetes Sprachdialogsystem und Fahrzeug |
DE102009025530B4 (de) * | 2009-06-19 | 2019-05-23 | Volkswagen Ag | Verfahren zur Bedienung eines Fahrzeugs mittels eines automatisierten Sprachdialogs sowie entsprechend ausgestaltetes Sprachdialogsystem und Fahrzeug |
US9766088B2 (en) | 2009-10-28 | 2017-09-19 | Google Inc. | Social messaging user interface |
US8200847B2 (en) | 2009-10-28 | 2012-06-12 | Google Inc. | Voice actions on computing devices |
US10578450B2 (en) | 2009-10-28 | 2020-03-03 | Google Llc | Navigation queries |
EP3621284A1 (de) * | 2009-10-28 | 2020-03-11 | Google LLC | Sprachaktionen bei computervorrichtungen |
WO2011059781A1 (en) * | 2009-10-28 | 2011-05-19 | Google Inc. | Voice actions on computing devices |
US8700300B2 (en) | 2009-10-28 | 2014-04-15 | Google Inc. | Navigation queries |
US9239603B2 (en) | 2009-10-28 | 2016-01-19 | Google Inc. | Voice actions on computing devices |
US11768081B2 (en) | 2009-10-28 | 2023-09-26 | Google Llc | Social messaging user interface |
US9405343B2 (en) | 2009-10-28 | 2016-08-02 | Google Inc. | Social messaging user interface |
DE102010026708A1 (de) * | 2010-07-10 | 2012-01-12 | Volkswagen Ag | Verfahren zum Betreiben eines Sprachdialogsystems und Sprachdialogsystem |
DE102010049869A1 (de) * | 2010-10-28 | 2012-05-03 | Volkswagen Ag | Verfahren zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug und Vorrichtung dazu |
DE102010049869B4 (de) | 2010-10-28 | 2023-03-16 | Volkswagen Ag | Verfahren zum Bereitstellen einer Sprachschnittstelle in einem Fahrzeug und Vorrichtung dazu |
Also Published As
Publication number | Publication date |
---|---|
US6230132B1 (en) | 2001-05-08 |
CA2231851C (en) | 2002-10-22 |
EP0865014A3 (de) | 2000-05-24 |
EP0865014B1 (de) | 2005-08-31 |
EP0865014A2 (de) | 1998-09-16 |
CA2231851A1 (en) | 1998-09-10 |
ATE303580T1 (de) | 2005-09-15 |
JPH1115493A (ja) | 1999-01-22 |
DE59813027D1 (de) | 2005-10-06 |
DE19709518C5 (de) | 2006-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19709518C1 (de) | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb | |
EP1176395B1 (de) | Verfahren zur Auswahl einer Ortsbezeichnung in einem Navigationssystem durch Spracheingabe | |
DE102009017177B4 (de) | Spracherkennungsanordnung und Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges | |
EP0905662B1 (de) | Eingabesystem wenigstens für Orts- und/oder Strassennamen | |
DE60032193T2 (de) | Verfahren und System zur Auswahl erkannter Wörter bei der Korrektur erkannter Sprache | |
EP1264302B1 (de) | Verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem | |
DE19533541C1 (de) | Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens | |
DE102007033472A1 (de) | Verfahren zur Spracherkennung | |
EP1071075B1 (de) | Verfahren und Vorrichtung zur Eingabe von Daten | |
DE102015213722B4 (de) | Verfahren zum Betreiben eines Spracherkennungssystems in einem Fahrzeug und Spracherkennungssystem | |
DE102005018174A1 (de) | Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11 | |
DE19914631A1 (de) | Eingabeverfahren in ein Fahrerinformationssystem | |
WO2015185464A1 (de) | Assistenzsystem, das mittels spracheingaben steuerbar ist, mit einer funktionseinrichtung und mehreren spracherkennungsmodulen | |
EP2087317B1 (de) | Verfahren zur auswahl eines fahrziels | |
DE102017211447B4 (de) | Verfahren zum Auswählen eines Listeneintrags aus einer Auswahlliste einer Bedienvorrichtung mittels Sprachbedienung sowie Bedienvorrichtung | |
DE10327943B4 (de) | Unterschiedliche Zahlenleseweisen zulassendes Spracherkennungssystem | |
DE10129005B4 (de) | Verfahren zur Spracherkennung und Spracherkennungssystem | |
DE10125825B4 (de) | Verfahren zur Spracheingabe und Datenträger | |
EP0671840A2 (de) | Verfahren zur Erkennung von buchstabierten Namen oder Begriffen für Kommunikations-Vermittlungsanlagen | |
EP1403618A2 (de) | Eingabevorrichtung | |
DE102013216427B4 (de) | Vorrichtung und Verfahren zur fortbewegungsmittelbasierten Sprachverarbeitung | |
DE19962048A1 (de) | Zielführungssystem | |
DE19937490A1 (de) | Verfahren und Vorrichtung zur Eingabe von Steuerungsbefehlen für Komfortgeräte, insbesondere in Kraftfahrzeugen | |
DE10206734A1 (de) | Verfahren und Vorrichtung zur automatischen Ortsbestimmung mittels einer Suchmaschine | |
DE102005057312A1 (de) | Verfahren und Vorrichtung zum Auffinden und Ausgeben eines Datensatzes aus einem Speicher |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8100 | Publication of patent without earlier publication of application | ||
D1 | Grant (no unexamined application published) patent law 81 | ||
8363 | Opposition against the patent | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: DAIMLERCHRYSLER AEROSPACE AKTIENGESELLSCHAFT, 8099 |
|
8327 | Change in the person/name/address of the patent owner |
Owner name: DAIMLERCHRYSLER AG, 70567 STUTTGART, DE |
|
8327 | Change in the person/name/address of the patent owner |
Owner name: HARMAN BECKER AUTOMOTIVE SYSTEMS GMBH, 76307 KARLS |
|
8366 | Restricted maintained after opposition proceedings | ||
8392 | Publication of changed patent specification | ||
R071 | Expiry of right |