DE19717601A1 - Navigationsverfahren und Vorrichtung dafür - Google Patents
Navigationsverfahren und Vorrichtung dafürInfo
- Publication number
- DE19717601A1 DE19717601A1 DE19717601A DE19717601A DE19717601A1 DE 19717601 A1 DE19717601 A1 DE 19717601A1 DE 19717601 A DE19717601 A DE 19717601A DE 19717601 A DE19717601 A DE 19717601A DE 19717601 A1 DE19717601 A1 DE 19717601A1
- Authority
- DE
- Germany
- Prior art keywords
- word
- words
- speech recognition
- voice
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/10—Map spot or coordinate position indicators; Map reading aids
- G09B29/106—Map spot or coordinate position indicators; Map reading aids using electronic means
Description
Die Erfindung betrifft ein Navigationsverfahren und eine
Vorrichtung dafür und insbesondere ein Navigationsverfahren und
eine Vorrichtung, die es einem Verwender ermöglichen,
verschiedene Daten mit seiner eigenen Stimme unter Verwendung
eines Spracherkennungsverfahrens einzugeben. Diese Daten können
z. B. Angaben von Positionen als Grundlage für die Navigation,
wie Positionen, an denen eine Umgebungskarte aufgerufen werden
soll, eine Zielposition, eine Startposition usw., sowie
unterschiedliche Steuerbefehle sein.
Es ist eine Navigationsvorrichtung bekannt, bei der eine Karte
mit einer auf die momentane Position eines
Fortbewegungsmittels, wie z. B. eines Kraftfahrzeugs, eines
Flugzeugs, eines Schiffs usw., hinweisenden Positionsmarkierung
auf dem Bildschirm einer
Kathodenstrahlröhrenanzeigevorrichtung, einer
Flüssigkristallanzeigevorrichtung oder einer ähnlichen
Vorrichtung derart angezeigt wird, daß ein Routenführen zur
Zielposition mit Hilfe der Anzeige durchgeführt wird.
Navigationsvorrichtungen, wie Navigationsvorrichtungen für
Kraftfahrezeuge, lassen sich grob in zwei Gruppen aufteilen:
selbststeuernde Navigationsvorrichtungen und
Navigationsvorrichtungen des GPS-Typs (GPS: Global Positioning
System). Die ersten sind Navigationsvorrichtungen, die die
Bewegungsrichtung und die zurückgelegte Entfernung des
Fortbewegungsmittels von einem Geschwindigkeitssensor, einem
Winkelgeschwindigkeitssensor, einem Richtungssensor usw.
erhalten, mit denen das entsprechende Fortgewegungsmittel
ausgerüstet ist bzw. die in dieses eingebaut sind. Mittels der
Bewegungsrichtung und der zurückgelegten Entfernung des
Fortbewegungsmittels wird die momentane Position unter
Berücksichtigung einer Standardposition berechnet, und auf
dieser Grundlage werden die Positionsmarkierung für die
momentane Position und eine entsprechende Karte auf einem
Bildschirm angezeigt. Die letzteren Navigationsvorrichtungen
sind dagegen Navigationsvorrichtungen, die elektromagnetische
Wellen von einer Mehrzahl von GPS-Satelliten empfangen, die
momentane Position des Fortgewegungsmittels mit einem
dreidimensionalen oder einem zweidimensionalen Meßverfahren
aufgrund der von den elektromagnetischen Wellen erhaltenen
Daten ermitteln und auf dieser Grundlage die
Positionsmarkierung für die momentane Position und eine
entsprechende Karte auf einem Bildschirm anzeigen. Ferner sind
im Fahrzeug eingebaute Navigationsvorrichtungen bekannt, die
mit beiden oben beschriebenen Funktionen ausgestattet sind,
d. h. mit den Funktionen der selbststeuernden
Navigationsvorrichtungen und mit denen der
Navigationsvorrichtungen des GPS-Typs.
Bei den Navigationsvorrichtungen ist es wesentlich, die
momentane Position des Fahrzeugs des Verwenders (Fahrers) und
eine die Umgebung der momentanen Position zeigende Karte
zusammen anzuzeigen, so daß der Verwender derart geleitet
wird, daß er auch in einer ihm unbekannten Gegend nicht vom
Weg abkommt. Ferner sind Navigationsvorrichtungen, die in der
Lage sind, die optimale Route zum Ziel, die Entfernung zum Ziel
usw. anzuzeigen, und Navigationsvorrichtungen bekannt, die in
der Lage sind, dem Verwender an einer Kreuzung oder an einer
Abzweigung die Fahrtrichtung unter Verwendung einer künstlichen
Stimme akustisch anzugeben, wie "An der nächsten Kreuzung
rechts abbiegen!", "Weiter geradeaus fahren!" usw.
Bei dieser Art von Navigationsvorrichtungen ist es erwünscht,
daß der Verwender die angezeigten Informationen so leicht wie
möglich erfassen kann, da er sich meistens auf die Fahrt
konzentrieren muß, und ferner ist es erwünscht, daß der
Verwender die Bedienung der Vorrichtung, wie eine Dateneingabe,
eine Umstellung des Anzeigemodus usw., so leicht wie möglich
durchführen kann. Deshalb wurde eine Navigationsvorrichtung
vorgeschlagen, bei der die Dateneingabe, wie (i) die Eingabe
von Positionen, wie Positionen, an denen eine Umgebungskarte
aufgerufen werden soll, einer Zielposition, einer Startposition
usw., sowie (ii) die Eingabe von unterschiedlichen
Steuerbefehlen unter Verwendung von kürzlich entwickelten
Spracherkennungsverfahren sprachgesteuert durchgeführt werden
kann. Genauer wird bei dieser Navigationsvorrichtung die Stimme
des Verwenders mit einem in dem Fortgewegungsmittel
vorgesehenen Mikrophon aufgenommen, die aufgenommene Stimme
wird von dem Spracherkennungsverfahren als Wort erkannt, und
das erkannte Wort wird als Eingabebefehl behandelt.
Diese Art des Spracherkennungsverfahrens wird unter Verwendung
eines Spracherkennungsschaltkreises für die Erkennung der
Stimme eines bestimmten Sprechers oder eines
Spracherkennungsschaltkreises für die Erkennung der Stimme
eines beliebigen Sprechers durchgeführt. Jeder dieser
Schaltkreise ist auf dem Markt als integrierter Schaltkreis
(IC: integrated circuit) verfügbar. Ein solcher IC vergleicht
das Eingabesprachsignal mit den Worten eines eingebauten
Wörterbuchs (z. B. eines japanisches Wörterbuchs) und gibt auf
der Grundlage der Reihenfolge der Annäherung des Musters des
Spektrums der Stimmfrequenz eines jeden Wortes, Vokals,
Konsonanten oder dergleichen mögliche Worte aus, die nahe an dem
durch die eingegebene Sprache angegebenen Wort liegen. Mit dem
Spracherkennungsschaltkreis für die Erkennung der Stimme eines
bestimmten Sprechers ist es möglich, durch die Verwendung des
Musters des Spektrums der Stimmfrequenz dieses bestimmten
Sprechers als Standard eine sehr genaue Spracherkennung zu
erreichen. Auf der anderen Seite ist die Erkenngenauigkeit bei
dem Spracherkennungsschaltkreis für die Erkennung der Stimme
eines beliebigen Sprechers in Abhängigkeit von dem jeweiligen
Sprecher unterschiedlich, da die Muster des Spektrums usw. der
Stimmfrequenzen unterschiedlicher beliebiger Sprecher
voneinander verschieden sind, was ein Nachteil ist.
Andererseits besteht ein gewisser Vorteil darin, daß der
Spracherkennungsschaltkreis für die Erkennung der Stimme eines
beliebigen Sprechers sofort von einem jeden beliebigen Sprecher
verwendet werden kann. Somit wird der letztere, d. h. der
Spracherkennungsschaltkreis für die Erkennung der Stimme eines
beliebigen Sprechers, für Fahrzeug-Navigationsvorrichtungen für
den allgemeinen Gebrauch als geeignet angesehen.
Der Spracherkennungsschaltkreis für die Erkennung der Stimme
eines beliebigen Sprechers ist folgendermaßen aufgebaut: Wenn
der Verwender z. B. "Tokyo Tocho" (was im Japanischen "Tokyo
Verkehrsbüro" bedeutet) in das Mikrophon spricht, wird das
Sprachsignal entsprechend in den Spracherkennungsschaltkreis
für die Erkennung der Stimme eines beliebigen Sprechers
eingegeben. Dann findet ein Vergleich mit dem eingebauten
Wörterbuch statt, und fünf mögliche Worte, wie z. B. "Tokyo
Tocho", "Tokyo To" (was im Japanischen "Tokyo Stadt" bedeutet),
"Tokyo Dojo" (was im Japanischen "Tokyo Schule" bedeutet),
"Tokyo Dome" und "Tokkyo-Cho" (was im Japanischen "Patentamt"
bedeutet), werden zusammen mit einem Wert ausgegeben, der
quantitativ angibt, wie stark das entsprechende mögliche Wort
dem eingegebenen Sprachbefehl angenähert ist oder diesem
gleicht.
Deshalb ist die diesen Spracherkennungsschaltkreis für die
Erkennung der Stimme eines beliebigen Sprechers verwendende
Navigationsvorrichtung derart aufgebaut, daß die mögliche
Wortfolge "Tokyo Tocho", die unter den fünf ausgegebenen
möglichen Wortfolgen den höchsten Wert aufweist, als dem
eingegebenen Sprachbefehl entsprechend angesehen wird, so daß
das vorbestimmte Navigationsverfahren nachfolgend auf der
Grundlage dieses Ergebnisses durchgeführt wird. Genauer gesagt
wird eine Karte mit "Tokyo Tocho" angezeigt, und die optimale
Rute zu "Tokyo Tocho", die Reiseentfernung zu "Tokyo Tocho"
sowie die geschätzte Reisedauer oder Ankunftszeit bei "Tokyo
Tocho" werden angezeigt.
Demgemäß ist es mit der Navigationsvorrichtung, die die
Spracheingabefunktion unter Verwendung des
Spracherkennungsschaltkreises für die Erkennung der Stimme
eines beliebigen Sprechers aufweist, für den Verwender möglich,
verschiedene Eingaben einfach durchzuführen, ohne einen Knopf
oder eine Schalttafel zu berühren und ohne die möglichen Worte
auf der Anzeige zu betrachten und eines von diesen zu
bestätigen, was für den Verwender sehr bequem ist.
Jedoch besteht bei dem oben beschriebenen
Spracherkennungsschaltkreis für die Erkennung der Stimme eines
beliebigen Sprechers ein Problem derart, daß gemäß der
derzeitigen Ausführungsformen die Spracherkennung immer noch
ziemlich fehlerbehaftet ist. Zum Beispiel kann es vorkommen,
daß das Wort mit dem höchsten Wert unter den von dem
Spracherkennungsschaltkreis ausgegebenen Worten nicht mit den
tatsächlich gesprochenen Worten übereinstimmt. In diesem Fall
kann es sein, daß das Wort mit dem zweithöchsten Wert oder das
Wort mit dem dritthöchsten Wert dem richtigen Wort entspricht.
Außerdem kann es sein, daß sich das richtige Wort überhaupt
nicht unter den ausgegebenen Worten befindet.
Hier ist es technisch möglich, eine Mehrzahl von möglichen
Worten, z. B. 5, auf dem Bildschirm der Navigationsvorrichtung
in ähnlicher Weise, wie z. B. bei einem Textverarbeitungssystem,
anzuzeigen. Jedoch ist es, insbesondere im Falle einer
Navigationsvorrichtung und unter Berücksichtigung der Tatsache,
daß sich der Verwender stark auf die Fahrt konzentrieren muß,
sehr gefährlich und könnte zu Unfällen führen, falls eine
Mehrzahl ähnlicher Worte in einer Liste auf einem eher kleinen
Bildschirm dargestellt werden, und der Verwender das richtige
Wort in ähnlicher Weise bestätigen und mit einem Cursor
auswählen muß, wie er ein richtiges Wort, .einen Fehler oder
ein weggelassenes Wort bei einem Textverarbeitungssystem finden
muß. Ferner ist, selbst wenn die Navigationsvorrichtung so
aufgebaut ist, daß, wenn der Verwender ein mögliches Wort
unter den auf dem Bildschirm aufgelisteten Worten bestimmt hat,
und der Verwender das entsprechende Wort nochmals laut
nachspricht, die Wahrscheinlichkeit einer fehlerbehafteten
Erkennung immer noch hoch, so lange dasselbe Wort vom selben
Sprecher gesprochen wird.
Es ist deshalb eine Aufgabe der Erfindung, ein
Navigationsverfahren und eine Vorrichtung dafür
bereitzustellen, mit denen es möglich ist, unterschiedliche
Navigationsdaten und -befehle mittels der Stimme des Verwenders
sicher und richtig einzugeben.
Die oben genannte Aufgabe wird durch ein Navigationsverfahren
mit folgenden Schritten gelöst: einem ersten
Spracherkennungsschritt, in dem aus einer großen Anzahl von in
einem Wörterbuch gespeicherten Worten eine Mehrzahl von
möglichen Worten ausgewählt wird, wobei jedes Wort relativ nahe
an einem von einer Eingabestimme zu einem Zeitpunkt in ein
Mikrophon gesprochenem Wort liegt, zu dem auf eine für ein
bestimmtes Steuern der Navigationsvorrichtung erforderliche
Eingabe gewartet wird; einem Sprachausgabeschritt, in dem die
ausgewählten möglichen Worte nacheinander in Form von Fragen
ausgegeben werden; einem zweiten Spracherkennungsschritt, in
dem ein mögliches Wort ausgewählt wird, das als relativ nahe an
einem von einer Antwortstimme als Antwort auf die Fragen im
vorausgegangenen Sprachausgabeschritt in das Mikrofon
gesprochenen Wort liegend angesehen wird; einem nach jeder
Sprachausgabe eines möglichen Wortes erfolgenden
Bewertungsschritt, in dem bewertet wird, ob das von der
Antwortstimme gesprochene Wort mit einem bestimmten Wort
übereinstimmt, daß im Voraus als bejahendes Wort eingestellt
wurde; und einem Steuerschritt, in dem die
Navigationsvorrichtung durch das durch Bejahen ausgewählte Wort
als erforderliche Information in einer bestimmten Weise
gesteuert wird.
Nach dem erfindungsgemäßen Navigationsverfahren wird in dem
ersten Spracherkennungsschritt eine Mehrzahl von möglichen
Worten aus einer großen Anzahl von Worten aus dem Wörterbuch
ausgewählt, wenn die Eingabestimme (d. h. die Stimme des
Verwenders) in das Mikrophon zu einem Zeitpunkt eingegeben
wird, zu dem auf eine für ein bestimmtes Steuern der
Navigationsvorrichtung erforderliche Eingabe gewartet wird,
wobei jedes dieser Wort relativ nahe an dem von der
Eingabestimme gesprochenen Wort liegend angesehen wird. Die für
das Steuern der Navigationsvorrichtung erforderlichen Daten
können z. B. Angaben von Positionen als Grundlage für die
Navigation, wie Positionen, an denen eine Umgebungskarte
aufgerufen werden soll, eine Zielposition gespeichert werden
soll, eine Startposition gespeichert werden soll usw., und
Steuerbefehle für verschiedene Funktionen sein, wie Scrolling
(Verschieben der Bildschirmansicht), Vergrößern sowie
Verkleinern des Kartenmaßstabes usw. Als Nächstes werden im
Sprachausgabeschritt die möglichen Worte von einer Stimme
nacheinander in Form von Fragen ausgegeben, wie z. B. "Ist es
XXX?". Dann wird im zweiten Spracherkennungsschritt ein
mögliches Wort aus den Worten des Wörterbuchs ausgewählt, das
als relativ nahe an dem Wort liegend angesehen wird, das als
Antwort auf die Fragen im vorausgegangenen Sprachausgabeschritt
in das Mikrophon gesprochenen wurde. Wenn durch die
Antwortstimme Angaben wie "JA", "NEIN" oder ähnliche als
Antwort auf die Fragen im Sprachausgabeschritt in das Mikrophon
eingegeben werden, wird im Bewertungsschritt auf der Grundlage
des im zweiten Spracherkennungsschrittes ausgewählten möglichen
Wortes bewertet, ob das von der Antwortstimme gesprochene Wort
mit dem vorbestimmten Wort übereinstimmt. Das vorbestimmte Wort
wird im Voraus als bejahendes Wort eingestellt, wie z. B. "JA".
Zu diesem Zeitpunkt kann die Bewertung, ob das von der
Antwortstimme gesprochene Wort mit dem vorbestimmten Wort, wie
z. B. "JA", "RICHTIG" usw., übereinstimmt, im Vergleich mit dem
Fall ziemlich einfach und genau durchgeführt werden, in dem
eine Bewertung erfolgen muß, ob das von der Eingabestimme
gesprochene Wort mit einem beliebigen Wort übereinstimmt. Hier
entspricht eines der ausgewählten möglichen Worte, die in der
Frage von der Ausgabestimme verwendet werden und die dem Wort
entsprechen, das mit einem vorbestimmten Wort, wie z. B. "JA",
"RICHTIG" usw., bejaht wurde, nichts anderem als dem Wort, das
der Verwender mit seiner Stimme eingeben wollte. Deshalb wird
in dem Steuerschritt ein bestimmtes Steuern der
Navigationsvorrichtung mit Hilfe eines der ausgewählten
möglichen Worte als erforderliche Information durchgeführt, das
in dem Sprachausgabeschritt als Frage ausgegeben und von der
Antwortstimme bejaht wurde. Zum Beispiel können mit dem auf
diese Weise akustisch eingegebenen Steuerbefehl Funktionen wie
Scrolling und Vergrößern/Verkleinern des Kartenmaßstabes oder
ähnliche durchgeführt werden. Alternativ dazu können Routen-
Informationen, wie die optimale Route zum Ziel, die Entfernung
zum Ziel, die geschätzte Ankunftszeit am Ziel und ähnliche
Informationen erzeugt und angezeigt werden. Daher muß der
Verwender bei dem Spracheingabeverfahren zuerst mittels
Spracheingabe ein beliebiges Wort, wie "Tokyo Tocho", in das
Mikrophon sprechen, um die Zielposition einzugeben. Dann werden
in dem Sprachausgabeschritt eine Mehrzahl von möglichen Worten
nacheinander in Form von Fragen ausgegeben, wie z. B. "Ist es
Tokyo Dome?", " Ist es Tokyo Turm?" usw., die eine relativ hohe
Wahrscheinlichkeit aufweisen, mit dem im ersten Schritt
gesprochenen Wort übereinzustimmen. Als Zweites muß der
Verwender bei dem Spracheingabeverfahren zum Bejahen einer
dieser Fragen diese mit dem vorbestimmten bejahenden Wort
beantworten, wie z. B. "JA".
Auf diese Weise ist es mit dem erfindungsgemäßen
Navigationsverfahren möglich, verschiedene für die Navigation
erforderliche Daten sicher und richtig mit der Stimme des
Verwenders einzugeben.
Gemäß einer Ausführungsform des erfindungsgemäßen
Navigationsverfahrens ist während des zweiten
Spracherkennungsschrittes ein weiterer Schritt vorgesehen, in
dem ein mögliches Wort aus nur einem Teil des Wörterbuchs
ausgewählt wird, das nur ein vorbestimmtes bejahendes Wort
(z. B. "JA") und ein anderes vorbestimmtes Wort mit verneinender
Bedeutung (z. B. "NEIN") aufweist. Deshalb kann der zweite
Spracherkennungsschritt durch Beschränkung des Umfangs des für
die Auswahl des möglichen Wortes verwendeten Wörterbuchs auf
solch einen engen Bereich direkt und einfach durchgeführt
werden, und die Wahrscheinlichkeit, das Wort richtig zu
erkennen ist merklich verbessert.
Gemäß einer anderen Ausführungsform des erfindungsgemäßen
Navigationsverfahrens findet während des ersten
Spracherkennungsschritts ein weiterer Schritt statt, in dem,
während die möglichen Worte ausgewählt werden,
Annäherungsangaben erzeugt werden, die quantitativ angeben,
inwieweit ein jedes der möglichen Worte an das von der
Eingabestimme gesprochene Wort angenähert ist. In dem
Sprachausgabeschritt ist vorgesehen, daß die ausgewählten
möglichen Worte nacheinander in der Reihenfolge ihrer gemäß der
Annäherungsangaben bestimmten Annäherung an das von der
Eingabestimme gesprochene Wort akustisch ausgegeben werden.
Somit wird z. B., falls im ersten Spracherkennungsschritt
festgestellt wird, das "Tokyo Tocho" das naheliegendste Wort
ist, zuerst "Ist es Tokyo Tocho?" gefragt bzw. in dem
Sprachausgabeschritt akustisch ausgegeben, so daß der
Verwender auf diese einfache Frage einfach "JA" antworten kann.
In diesem Fall ist es nicht erforderlich, daß sich der
Verwender weitere Fragen, wie "Ist es Tokyo Dome?" usw. anhört,
was für ihn bequem ist.
Auf diese Weise muß der Verwender nur die geringstmögliche
Anzahl von Schritten zum Bedienen der Navigationsvorrichtung
durchführen.
Gemäß einer anderen Ausführungsform des erfindungsgemäßen
Navigationsverfahrens weist das Navigationsverfahren ferner
einen Meßschritt auf, in dem die momentane Position des
Fortbewegungsmittels gemessen wird, in dem die
Navigationsvorrichtung eingebaut ist. Dabei weist der
Steuerschritt folgende Schritten auf: einen
Datenverarbeitungsschritt, in dem Routenleitinformationen für
ein Routenleiten des Fortbewegungsmittels mit Hilfe einer in
einer Speichervorrichtung vorab gespeicherten Karte auf der
Grundlage der gemessenen momentanen Position und dem
ausgewählten Wort erzeugt werden; und einen Ausgabeschritt, in
dem die gesamten Routenleitinformationen ausgegeben werden.
Gemäß dieser Ausführungsform wird in dem Meßschritt die
momentane Position des Fortbewegungsmittels, wie z. B. eines
Fahrzeugs oder Kraftfahrzeugs, eines Flugzeugs, eines Schiffs
usw., gemessen. Dann werden in dem Datenverarbeitungsschritt
die Routenleitinformationen erzeugt, um ein Routenleiten des
Fortbewegungsmittels aufgrund von vorab in einem Speicher
gespeicherten Kartendaten, der gemessenen momentanen Position
und dem ausgewählten Wort durchzuführen. Schließlich werden im
Ausgabeschritt die erzeugten Routenleitinformationen mit Hilfe
einer Bildausgabevorrichtung, einer Stimmausgabevorrichtung
oder Ähnlichem ausgegeben.
Demgemäß ist es für den Verwender möglich, die gewünschten
Routenleitinformationen mit Hilfe der Sprachausgabe sicher zu
erhalten.
Die Aufgabe der Erfindung wird mit einer Navigationsvorrichtung
gelöst, die aufweist: eine erste Spracherkennungsvorrichtung
zum Auswählen einer Mehrzahl von möglichen Worten aus einer
großen Anzahl von in einem Wörterbuch gespeicherten Worten,
wobei die ausgewählten Worte jeweils als relativ nahe an einem
von einer Eingabestimme zu einem Zeitpunkt in ein Mikrophon
gesprochenem Wort angesehen werden, zu dem auf eine für ein
bestimmtes Steuern der Navigationsvorrichtung erforderliche
Eingabe gewartet wird; eine Sprachausgabevorrichtung zum
aufeinanderfolgenden Ausgeben der ausgewählten möglichen Worte
in Form von Fragen; eine zweite Spracherkennungsvorrichtung zum
Auswählen eines möglichen Wortes aus den Worten des
Wörterbuchs, wobei dieses Wort als relativ nahe an einem von
einer Antwortstimme als Antwort auf die von der
Sprachausgabevorrichtung ausgegebenen Fragen in ein Mikrophon
gesprochene Wort liegend angesehen wird; eine
Bewertungsvorrichtung zum Bewerten aufgrund der von der zweiten
Spracherkennungsvorrichtung ausgewählten möglichen Worte, ob
das von der Antwortstimme als Antwort auf die von der
Sprachausgabevorrichtung ausgegebenen Fragen gesprochene Wort
mit dem als bejahendem Wort voreingestelltem Wort
übereinstimmt; und eine Steuervorrichtung für ein bestimmtes
Steuern der Navigationsvorrichtung mittels des im
Sprachausgabeschritt bejahten Wortes als erforderliche
Information.
Gemäß der erfindungsgemäßen Navigationsvorrichtung werden von
der ersten Spracherkennungsvorrichtung eine Mehrzahl von
möglichen Worten aus der großen Anzahl der im Wörterbuch
gespeicherten Worten ausgewählt, die jeweils als relativ nahe
an dem von der Eingabestimme gesprochenen Wort liegend
angesehen werden. Als Nächstes werden von der
Sprachausgabevorrichtung die ausgewählten möglichen Worte
nacheinander in Form von Fragen akustisch ausgegeben. Dann wird
von der zweiten Spracherkennungsvorrichtung ein mögliches Wort
aus dem Wörterbuch ausgewählt, das als relativ nahe an dem von
der Antwortstimme gesprochenen Wort liegend angesehen wird.
Wenn die Antwortstimme in das Mikrophon eingegeben wird, wird
von der Bewertungsvorrichtung aufgrund der von der zweiten
Spracherkennungsvorrichtung ausgewählten möglichen Worte
bewertet, ob das von der Antwortstimme gesprochene Wort mit dem
vorbestimmten Wort übereinstimmt. Dann wird von der
Steuervorrichtung mit Hilfe des ausgewählten, als bejaht
angesehenen Wortes als erforderliche Information ein bestimmtes
Steuern der Navigationsvorrichtung durchgeführt. Somit kann das
oben beschriebene erfindungsgemäße Navigationsverfahren mit
Hilfe der erfindungsgemäßen Navigationsvorrichtung geeignet
durchgeführt werden.
Gemäß einer Ausführungsform der erfindungsgemäßen
Navigationsvorrichtung weist die zweite
Spracherkennungsvorrichtung eine Vorrichtung zum Auswählen der
möglichen Worte aus nur einem Teil des Wörterbuchs auf, der das
voreingestellte bejahende Wort und das voreingestellte
verneinende Wort aufweist. Somit kann die Spracherkennung von
der zweiten Spracherkennungsvorrichtung direkt und einfach
durchgeführt werden, und die Wahrscheinlichkeit der richtigen
Worterkennung ist merklich verbessert.
Gemäß einer anderen Ausführungsform der erfindungsgemäßen
Navigationsvorrichtung weist die erste
Spracherkennungsvorrichtung eine Vorrichtung zum Erzeugen von
Annäherungsangaben auf, die während der Auswahl der möglichen
Worte quantitativ angeben, wie nahe ein jedes der ausgewählten
möglichen Worte an dem von der Eingabestimme gesprochenen Wort
liegt. Die Sprachausgabevorrichtung weist eine Vorrichtung zur
akustischen Ausgabe der ausgewählten möglichen Worte in der
Reihenfolge ihrer gemäß der Annäherungsangaben bestimmten
Annäherung an das von der Eingabestimme gesprochene Wort auf.
Auf diese Weise muß der Verwender nur die geringstmögliche
Anzahl von Schritten zum Bedienen der Navigationsvorrichtung
durchführen.
Gemäß einer anderen Ausführungsform der erfindungsgemäßen
Navigationsvorrichtung weist diese ferner eine Meßvorrichtung
zum Messen der momentanen Position des Fortbewegungsmittels
auf, in dem die Navigationsvorrichtung eingebaut ist. Ferner
weist die Steuervorrichtung auf: eine
Datenverarbeitungsvorrichtung zum Erzeugen von
Routenleitinformationen zum Durchführen eines Routenleitens des
Fortbewegungsmittels mit Hilfe einer Karte und vorab
gespeicherten Karteninformationsdaten und einer
Ausgabevorrichtung zum Ausgeben der erzeugten
Routenleitinformation. Somit ist es für den Verwender möglich,
die gewünschten Routenleitinformationen mit Hilfe der
Sprachausgabe sicher zu erhalten.
Demgemäß ist es mit der erfindungsgemäßen
Navigationsvorrichtung möglich, die erforderlichen
Informationen sicher und richtig akustisch einzugeben. Ferner
sind aufgrund der Verwendung von auf dem Markt bekannten
Spracherkennungsschaltkreisen für die Erkennung der Stimme
eines beliebigen Sprechers, die eine relativ hohe
Wahrscheinlichkeit einer fehlerfreien Erkennung aufweisen und
relativ preiswert sind, die Produktionskosten verringert.
Die Erfindung und ihre Wirkungsweise sowie weitere
erfindungsgemäße Merkmale werden durch die folgende
detaillierte Beschreibung einer bevorzugten Ausführungsform der
Erfindung unter Bezugnahme auf die Zeichnungen näher erläutert.
Fig. 1 ist ein Blockdiagramm gemäß einer Ausführungsform der
Erfindung; und
Fig. 2 ist ein Flußdiagramm, das die Bedienung der
Navigationsvorrichtung gemäß einer Ausführungsform der
Erfindung zeigt.
Im Folgenden wird unter Bezugnahme auf die Zeichnungen eine
Ausführungsform der Erfindung genauer erläutert. Mit der im
Folgenden erläuterten Ausführungsform wird ein Fall erläutert,
bei dem die Erfindung auf eine Navigationsvorrichtung für ein
Fahrzeug oder ein Kraftfahrzeug angewendet wird, wobei die
Navigationsvorrichtung in das Fahrzeug eingebaut ist.
Zuerst wird der Gesamtaufbau der in dem Fahrzeug eingebauten
Navigationsvorrichtung gemäß einer Ausführungsform der
Erfindung unter Bezugnahme auf Fig. 1 erläutert.
Wie aus Fig. 1 ersichtlich, weist die in einem Fahrzeug
eingebaute Navigationsvorrichtung 100 auf: einen
Winkelgeschwindigkeitssensor 1 zum Erfassen der
Winkelgeschwindigkeit des Fahrzeugs beim Abbiegen oder Drehen,
der Winkelgeschwindigkeitsdaten und relative Azimutaldaten
ausgibt; ein Reiseentfernungssensor 2 zum Berechnen der Anzahl
von Impulsen pro Rotation einer Antriebswelle durch Zählen der
Anzahl von Impulsen eines mit der Drehung der Antriebswelle
verknüpften Impulssignals mit einer vorbestimmten Periode und
zum Ausgeben von Reiseentfernungsdaten aufgrund der Anzahl von
Impulsen pro Rotation der Antriebswelle; einem GPS-Empfänger 3
zum Empfangen elektromagnetischer Wellen von GPS-Sateliten zum
Ausgeben von GPS-Meßdaten und zum Ausgeben absoluter
Azimutaldaten für die Bewegungsrichtung des Fahrzeugs; eine
Systemsteuereinheit zum Durchführen eines Gesamtsteuerns der
Navigationsvorrichtung 100 aufgrund der relativen
Azimutaldaten, der Winkelgeschwindigkeitsdaten, der
Reiseentfernungsdaten, der GPS-Meßdaten und der absoluten
Azimutaldaten; eine Eingabevorrichtung 10, wie eine
Schalttafel, eine Fernbedienungsvorrichtung oder eine ähnliche
Vorrichtung, zum Eingeben verschiedener Daten; ein CD-ROM
(Compact Disc-Read Only Memory)-Laufwerk 11 zum Lesen und
Ausgeben verschiedener Daten von einer CD-ROM DK unter der
Steuerung der Systemsteuereinheit 4, wie Straßendaten einer
Karte, die die Anzahl von Fahrspuren, die Breite der Straße
usw. angibt, und von Daten, die detaillierte Informationen für
verschiedene Einrichtungen angeben; eine Anzeigeeinheit 12 zum
Anzeigen verschiedener Anzeigedaten unter der Steuerung der
Systemsteuereinheit 4; einen Spracherkennungsumwandler 21 zum
Erkennen eines von einer Eingabestimme in ein externes
Mikrophon 200 gesprochenen Wortes und zum Ausgeben von
Sprachinformationen; eine Stimmerzeugungseinheit 22 zum
Erzeugen einer künstlichen Stimme aufgrund der von dem
Spracherkennungsumwandler ausgegebenen Sprachinformationen; und
einen Lautsprecher 23 zum Ausgeben des von der
Stimmerzeugungseinheit 22 erzeugten künstlichen Stimme.
Die Systemsteuereinheit 4 weist auf: einen
Schnittstellenbereich 5 zum Datenaustausch mit externen
Sensoren, wie z. B. dem Winkelgeschwindigkeitssensor 1, dem
Reiseentfernungssensor 2 und dem GPS-Empfänger 3; eine CPU
(Zentrale Prozessoreinheit) 6 zum Steuern der gesamten
Systemsteuereinheit 4; ein ROM (Read Only Memory: Nur Lese-
Speicher) 7 zum Speichern eines Steuerprogramms usw. zum
Steuern der Systemsteuereinheit 4; und ein RAM (Random Exces
Memory: Speicher mit wahlfreiem Zugriff) 8 mit einem
nichtflüchtigem Speicher zum Speichern verschiedener Daten, wie
der von dem Verwender mittels der Eingabevorrichtung 10 im
Voraus eingestellten Routendaten. Die Eingabevorrichtung 10,
das CD-ROM-Laufwerk 11, die Anzeigeeinheit 12, die
Spracherzeugungseinheit 17 und die Spracherkennungsumwandler 21
sind alle mit der Systemsteuereinheit 4 mittels einer
Busleitung 9 verbunden.
Die Anzeigeeinheit 12 weist auf: eine Graphiksteuereinheit 13
zum Durchführen eines Gesamtsteuerns der Anzeigeeinheit 12
aufgrund von von der CPU 6 mittels der Busleitung 9
übertragenen Steuerdaten; einen Pufferspeicher 14 mit einem
VRAM (Video RAM) usw. zum vorübergehenden Speichern von
darstellbaren Bildinformationen, und eine Anzeigesteuereinheit
15 zum Steuern einer Anzeige 16, wie z. B. einer
Flüssigkristallanzeigevorrichtung, einer
Kathodenstrahlröhrenanzeigevorrichtung usw., aufgrund der von
der Graphiksteuereinheit 13 ausgegebenen Bilddaten.
Die Spracherzeugungsvorrichtung 17 weist einen D/A-Umwandler
(Digital/Analog-Umwandler) 18 zum Umwandeln von vom CD-ROM-
Laufwerk 11 oder dem RAM 8 mittels der Busleitung 9
übertragener, digitaler Audio-Daten in analoge Daten; einen
Verstärker 19 zum Verstärken des analogen Audio-Signals vom
D/A-Umwandler 18; und einen Lautsprecher 20 zum Umwandeln des
verstärkten analogen Audio-Signals in Sprache und zum Ausgeben
derselben auf.
Der Spracherkennungsumwandler 21 weist einen
Spracherkennungsschaltkreis zum Erkennen der Sprache eines
beliebigen Sprechers auf, welcher Spracherkennungsschaltkreis
z. B. ein bekannter und auf dem Markt erhältlicher Typ eines
Spracherkennungsschaltkreises sein kann, und derart aufgebaut
ist, daß, wenn Sprache in ein externes Mikrophon 200
eingegeben wird, eine Mehrzahl von möglichen Worten, z. B. 5;
aus einem eingebauten Wörterbuch 21a auswählt werden, in dem
Informationen über eine große Anzahl von Worten gespeichert
sind, welche möglichen Worte jeweils nahe an dem von der
Eingabestimme gesprochenen Wort liegen,
und die Daten für die möglichen Worte mittels der Busleitung 9
an die CPU 6 ausgegeben werden.
Als Nächstes wird der Betrieb der im Fahrzeug eingebauten
Navigationsvorrichtung 100 gemäß einer Ausführungsform der
Erfindung unter Bezugnahme auf das Flußdiagramm aus Fig. 2
erläutert.
Der aus dem Flußdiagramm ersichtliche Ablauf gemäß der
Ausführungsform der Erfindung wird hauptsächlich von der CPU 6
und dem Spracherkennungsumwandler 21 gesteuert und stellt einen
Teil des Hauptnavigationsprogramms dar, das den
Navigationsvorgang der gesamten im Fahrzeug eingebauten
Navigationsvorrichtung 100 steuert. Der dem Flußdiagramm aus
Fig. 2 entsprechende Ablauf gemäß einer Ausführungsform der
Erfindung ist in dem ROM 7 als Steuerprogramm im Voraus
eingespeichert und wird aus dem ROM 7 je nach Bedarf
ausgelesen. Wie aus Fig. 2 ersichtlich, wird zuerst eine
Meldung in Form von Buchstaben oder Zeichen auf der Anzeige 16
angezeigt, um für eine akustische Eingabe von verschiedenen zum
Durchführen eines bestimmten Steuerns der im Fahrzeug
eingebauten Navigationsvorrichtung 100 erforderlichen Daten
aufzufordern. Eine solche Eingabeaufforderung für eine
Spracheingabe kann auch von dem Lautsprecher 20 oder 23
akustisch ausgegeben werden. Zu den verschiedenen Daten zum
Durchführen eines entsprechenden Steuerns zählen (i) Daten, die
einen Ortsnamen angeben, der für die
Positionsbestätigungsfunktion für die Darstellung einer
Umgebungskarte auf der Anzeigeeinheit 12 erforderlich ist, (ii)
Daten, die einen Ortsnamen oder den Namen einer Einrichtung
angeben, was für die Positionsspeicherfunktion für die
Speicherung einer Zielposition, einer Durchfahrposition, einer
Startposition usw. oder zum Speichern einer Einrichtung, wie
einer Tankstelle, einer Raststätte, einer Polizeidienststelle
usw. erforderlich ist und (iii) Steuerbefehle, wie Scrolling-
Befehle, Befehle für die Vergrößerung/Verkleinerung des
Maßstabs der Darstellung der Karte auf der Anzeigeeinheit 12
usw.
Bei diesem ersten Schritt wird von dem
Spracherkennungsumwandler 21 zuerst auf die Spracheingabe in
das externe Mikrophon 200 gewartet (Schritt S1).
Hier nimmt das externe Mikrophon 200 die Stimme auf (Schritt
S1: JA), wenn der Verwender z. B. "Tokyo Tocho" sagt (was im
Japanischen "Tokyo Verkehrsbüro" bedeutet). In Antwort auf
diese Spracheingabe wird von dem Spracherkennungsumwandler 21
die Spracherkennung durchgeführt (Schritt S2). Dieser
Spracherkennungsschritt wird, wie oben beschrieben, unter
Bezugnahme auf das eingebaute Wörterbuch 21a des
Spracherkennungsumwandlers 21 und durch Auswählen einer
Mehrzahl von möglichen Worten, z. B. mögliche Worte, die jeweils
nahe an dem von der Eingabestimme gesprochenen Wort liegen
durchgeführt. Gemäß einer Ausführungsform der Erfindung werden
die auf diese Weise ausgewählten möglichen Worte mittels der
Busleitung 9 an die CPU 6 zusammen mit Wertedaten ausgegeben,
die quantitativ gemäß einem vorbestimmten Kriterium angeben,
wie stark die entsprechenden möglichen Worte an das von der
Eingabestimme eingegebene Wort angenähert sind oder diesem
gleichen (z. B. höherer Wert für größere Annäherung).
In Antwort auf diese Dateneingabe werden die Daten der
möglichen Worte von der CPU 6 in einem im RAM 8 eingebauten
Erkennungsresultatspuffer gespeichert (Schritt S3).
Andererseits schränkt, wenn die Übertragung der Daten der
möglichen Worte beendet ist, der Spracherkennungsumwandler 21
den Referenzbereich des eingebauten Wörterbuchs 21a in
Vorbereitung auf eine folgende Spracheingabe in das externe
Mikrophon 200 auf einen engeren Bereich ein (Schritt S4).
Genauer wird, da die als Nächstes als Eingabe erwarteten Worte
auf die beiden Worte "JA" als bejahendes Wort und "NEIN" als
verneinendes Wort beschränkt sind, der Referenzbereich des
eingebauten Wörterbuchs 21a auf den Bereich dieser beiden
möglichen Worte eingeschränkt. Selbstverständlich können als
voreingestellte Worte mit bejahender Bedeutung auch Worte, wie
"RICHTIG", "KORREKT", "OK" oder ähnliche, anstatt von "JA" oder
zusätzlich zu "JA" verwendet werden. Andererseits können als
vorbestimmte Worte mit verneinender Bedeutung auch Worte, wie
"NEGATIV", "SCHLECHT", "FEHLER" oder ähnliche, anstatt von
"NEIN" oder zusätzlich zu "NEIN" verwendet werden. Je mehr von
diesen voreingestellten Worten bereitstehen, umso bequemer wird
es für den Verwender. Je stärker die Anzahl dieser
vorbestimmten Worte jedoch eingeschränkt ist, umso stärker kann
der Referenzbereich des eingebauten Wörterbuchs 21a auf einen
engeren Bereich eingeschränkt werden, so daß die
Wahrscheinlichkeit einer fehlerbehafteten Erkennung verringert
und der Ablauf der nächsten Spracherkennung vereinfacht werden
kann. Es ist bevorzugt, dem Verwender im Voraus mittels eines
Handbuchs oder Ähnlichem mitzuteilen, welche vorbestimmten
Worte als solche mit positiver Bedeutung bzw. als solche mit
negativer Bedeutung aufgenommen sind.
Als Nächstes wird von der Stimmerzeugungseinheit 22 die
Umsetzung der möglichen Worte in Sprache in der Reihenfolge der
Bewertung der Worte durchgeführt, so daß die künstliche Stimme
von dem Lautsprecher 23 derart ausgegeben werden kann, daß mit
ja oder mit nein beantwortbare Fragen, wie "Ist es Tokyo
Tocho?", nacheinander ausgegeben werden können (Schritt S5).
Diese Art der Sprachumsetzung und Sprachausgabe kann von der
Spracherzeugungsvorrichtung 17 durchgeführt werden.
Als Nächstes wird, wenn Sprache und Antwort auf die mit ja oder
mit nein beantwortbare Frage in das externe Mikrophon 200
eingegeben worden ist, das mögliche Wort, das als nahe an dem
von der Eingabestimme gesprochenen Wort liegend angesehen wird,
von dem Spracherkennungsumwandler 21, zusammen mit den
Wertedaten als mögliches Wort zur CPU 6 weitergeleitet. Dann
wird von der CPU 6 aufgrund der Daten des möglichen Wortes
bewertet, ob das von der Eingabestimme gesprochene Wort mit dem
vorbestimmten Wort bzw. mit den vorbestimmten Worten mit
positiver Bedeutung (z. B. "JA") übereinstimmt. Zu diesem
Zeitpunkt ist es möglich, da der Referenzbereich des
eingebauten Wörterbuchs 21a im Spracherkennungsumwandler 21
beschränkt ist (Schritt S4), ein "JA" oder ein "NEIN" mit hoher
Wahrscheinlichkeit zu erkennen. Genauer bedeutet das, daß, da
die möglichen Worte "JA" oder "NEIN" zusammen mit den
Wertedaten an die CPU 6 weitergegeben werden, welche Wertedaten
angeben, wie nahe der Wert an dem perfekten oder
höchstmöglichen Wert liegt, die CPU 6 einfach und genau
bewerten kann, ob es sich um ein "JA" handelt oder nicht.
Als Ergebnis dieser Bewertung wird, falls das eingegebene Wort
auf die Frage nicht "JA" ist (Schritt S6: NEIN), geprüft, ob
das mögliche Wort, für das die mit ja oder mit nein
beantwortbare Frage mit Hilfe der künstlichen Stimme gefragt
worden ist, das letzte mögliche Wort unter den 5 im
Erkennungsresultatspuffer gespeicherten möglichen Worten ist
(d. h. ob es das Wort mit dem geringsten Wert unter den von dem
Spracherkennungsumwandler 21 ausgewählten Worten ist) (Schritt
S7).
Falls es nicht das letzte mögliche Wort ist (Schritt S7: NEIN),
wird die mit JA oder mit NEIN beantwortbare Frage für das
nächste mögliche Wort gestellt, z. B. "Ist es Tokyo Dome?"
(Schritt S8), und der Ablauf kehrt zu Schritt S6 zurück, in dem
das eingegebene Wort auf die mit ja oder nein beantwortbare
Frage bewertet wird.
Andererseits wird, falls das eingegebene Wort der Antwort
aufgrund der Bewertung in Schritt S6 (Schritt S6: JA) "JA"
ist, der vorbestimmte Navigationsablauf aufgrund dieses
bestätigten Wortes ausgeführt (Schritt S9), da das bestätigte
Wort genau den Daten entspricht, die der Verwender akustisch
eingeben möchte. Genauer wird, z. B. in dem Fall, in dem dieses
Wort in Bestätigung der Frage angegeben wird, an welcher
Position eine Umgebungskarte angezeigt werden soll, diese
Position durch die entsprechenden Eingabedaten (das bestätigte
Wort) bestätigt. In dem Fall, daß diese Eingabedaten (d. h. das
bestätigte Wort) in Antwort auf die Frage gegeben wird, welches
die Zielposition ist, eine Durchgangsposition ist, eine
Startposition usw. ist, so wird diese Position durch die
entsprechenden Eingabedaten bestätigt. In dem Fall, in dem
diese Eingabedaten (d. h. das bestätigte Wort) als Antwort auf
die Frage nach einem Steuerbefehl gegeben wird, wie einem
Scrolling-Befehl, einer Vergrößerung/Verkleinerung des
Kartenmaßstabes usw., wird dieser Steuerbefehl durch die
entsprechenden Eingabedaten bestätigt. Dann wird der Ablauf
entsprechend dem bestätigten Positionsbefehl oder dem
bestätigten Steuerbefehl von der CPU 6, der Anzeigeeinheit 12,
der Spracherzeugungsvorrichtung 17 usw. schrittweise
ausgeführt.
Wenn die Durchführung des vorbestimmten, auf den akustisch
eingegebenen Eingabedaten basierenden Navigationsablaufs
vollständig ist, wird in dem Spracherkennungsumwandler 21 das
eingebaute Wörterbuch aufgefrischt (Schritt S10), so daß auch
andere Worte als "JA" und "NEIN" als mögliche Worte für eine
nächste Spracherkennung möglich werden. Dann wird der
Spracherkennungsumwandler 21 in seinen Anfangszustand
zurückgesetzt (Schritt S11), so daß einer der
aufeinanderfolgenden Spracherkennungsschritte beendet wird.
Falls das Wort für die mit ja oder mit nein beantwortbare Frage
in Schritt S7 das letzte mögliche Wort ist (Schritt S7: JA),
wird eine Nachricht von der Stimmerzeugungseinheit 22 und dem
Lautsprecher 23 ausgegeben, die besagt, daß die
Spracherkennung wieder von vorne begonnen wird (S12), und der
Ablauf geht mit Schritt S10 weiter. Diese Nachricht kann
akustisch von der Spracherzeugungseinheit 17 ausgegeben werden.
Wie oben beschrieben, werden gemäß dieser Ausführungsform der
Erfindung in einem ersten Schritt der Spracheingabe zum
Zeitpunkt der Eingabe des Ziels usw. in Antwort auf eine
angezeigte oder akustisch ausgegebene Frage nach dem Ziel usw.
mit der Stimme des Verwenders beliebige Worte, wie "Tokyo
Tocho", in das externe Mikrophon 200 eingegeben. Dann antwortet
der Verwender in einem zweiten Schritt der Spracheingabe "JA"
(d. h. er gibt das Wort "JA" akustisch ein), wenn eine Mehrzahl
von möglichen Worten, die alle jeweils eine hohe
Wahrscheinlichkeit aufweisen, mit dem von der Eingabestimme
gesprochenen Wort übereinzustimmen, in einer mit ja oder mit
nein beantwortbaren Frage abgefragt werden, wie "Ist es Tokyo
Dome?", "Ist es Tokyo Turm?" usw., falls die mit ja oder mit
nein beantwortbare Frage zu bejahen ist. Zu diesem Zeitpunkt
wird das Wort "JA" einfach und direkt von dem
Spracherkennungsumwandler 21 mittels des eingebauten
Wörterbuchs 21a erkannt, da dessen Referenzbereich auf einen
engen Bereich eingeschränkt ist, so daß eine annähernd
perfekte Bewertung erfolgen kann.
Deshalb treten auch kaum Probleme aufgrund einer fehlerhaften
Spracherkennung auf, selbst wenn die oben genannte Art von
bekannten Spracherkennungsschaltkreisen für beliebige Sprecher
als Spracherkennungsumwandler 21, bei der die
Wahrscheinlichkeit einer fehlerhaften Erkennung wesentlich
höher ist, für diese Ausführungsform der Erfindung verwendet
wird. Dies liegt daran, daß selbst, wenn eine fehlerhafte
Spracherkennung wahrscheinlicher ist, eine Verwechslung des
Wortes "JA" mit dem Wort "NEIN" fast unmöglich ist, da sich
diese beiden Worte in ihrer Aussprache überhaupt nicht ähneln.
Wenn nämlich das mögliche Wort, das von dem
Spracherkennungsumwandler 21 als das unter den ausgegebenen
möglichen Worten am nächsten an dem von der Eingabestimme
gesprochenen Wort liegend angesehen wird (d. h., daß das Wort
unter den ausgewählten Worten den höchsten Wert aufweist),
nicht dem wirklich eingegebenen Wort entspricht, sondern das
mögliche Wort, dessen Wert der zweithöchste ist, richtig ist,
muß der Verwender auf zwei aufeinanderfolgende, einfache, mit
ja oder mit nein beantwortbare Fragen lediglich "NEIN" → "JA"
antworten. Andererseits muß der Verwender, falls das Wort mit
dem dritthöchsten Wert das richtige Wort ist, auf drei
aufeinanderfolgende, einfache, mit ja oder mit nein
beantwortbare Fragen lediglich "NEIN" → "NEIN" → "JA"
antworten.
Daher ist es für den Verwender nicht erforderlich, eine Liste
von möglichen einander ähnelnden Worten auf einer eher kleinen
Bildfläche der Anzeige zu betrachten und das richtige Wort
ähnlich wie bei einem Textverarbeitungssystem zu bestätigen,
also z. B. mit einem Cursor auf der Bildfläche auszuwählen.
Somit besteht keine Gefahr, einen Verkehrsunfall zu
verursachen.
Gemäß dieser Ausführungsform der Erfindung, ist es möglich,
verschiedene für die Navigation erforderliche Daten sicher und
richtig mit der Stimme des Verwenders einzugeben, was sehr
bequem ist.
Ferner ist es möglich die Worte "JA" bzw. "NEIN" annähernd
perfekt und direkt zu erkennen, da der Referenzbereich des
eingebauten Wörterbuchs 21a des Spracherkennungsumwandlers 21
auf einen recht geringen Bereich eingeengt ist, der zum
Zeitpunkt der Eingabe der Antwortstimme lediglich die Worte
"JA" und "NEIN" als mögliche wählbare Objekte aufweist.
Bei dieser Ausführungsform der Erfindung ist es für den
Verwender möglich, die Spracheingabe sicher und genau mit einem
Minimum an erforderlichen Fragen einzugeben, da die Wertedaten
quantitativ angeben, wie stark ein mögliches Wort dem
eingegebenen Wort ähnelt oder diesem angenähert ist, und die
möglichen Worte von der künstlichen Stimme mittels der
Stimmerzeugungseinheit 22 und des Lautsprechers 23 in der
Reihenfolge ihrer Werte ausgegeben werden (d. h. Worte die einen
höheren Wert aufweisen und somit näher an dem eingegebenen Wort
liegen werden zuerst ausgegeben). Sobald der Verwender in
Antwort auf die mit ja oder mit nein beantwortbaren Fragen, die
in der Reihenfolge der Werte der nachgefragten Worte ausgegeben
werden, mit "JA" geantwortet hat, ist es für den Verwender
nicht erforderlich weitere Fragen zu beantworten, da er schon
ein mögliches Wort bestätigt hat.
Ferner kann die Navigationsvorrichtung gemäß dieser
Ausführungsform der Erfindung auch an die Erfordernisse für
eine Navigationsvorrichtung für Flugzeuge oder Schiffe
angepaßt werden.
Claims (8)
1. Navigationsverfahren mit:
einem ersten Spracherkennungsschritt in dem aus einer großen Anzahl von in einem Wörterbuch (21a) gespeicherten Worten eine Mehrzahl von möglichen Worten ausgewählt wird, wobei jedes Wort relativ nahe an einem von einer Eingabestimme zu einem Zeitpunkt in ein Mikrophon (200) gesprochenem Wort liegt, zu dem auf eine für ein bestimmtes Steuern der Navigationsvorrichtung (100) erforderliche Eingabe gewartet wird;
einem Sprachausgabeschritt, in dem die ausgewählten möglichen Worte nacheinander in Form von Fragen ausgegeben werden;
einem zweiten Spracherkennungsschritt, in dem ein mögliches Wort ausgewählt wird, das als relativ nahe an einem von einer Antwort stimme als Antwort auf die Fragen im vorausgegangenen Sprachausgabeschritt in das Mikrophon (200) gesprochenen Wort liegend angesehen wird;
einem nach jeder Sprachausgabe eines möglichen Wortes erfolgenden Bewertungsschritt, in dem bewertet wird, ob das von der Antwortstimme gesprochene Wort mit einem bestimmten Wort übereinstimmt, das im Voraus als bejahendes Wort eingestellt wurde; und
einem Steuerschritt, in dem die Navigationsvorrichtung (100) durch das durch Bejahen ausgewählte Wort als erforderliche Information in einer bestimmten Weise gesteuert wird.
einem ersten Spracherkennungsschritt in dem aus einer großen Anzahl von in einem Wörterbuch (21a) gespeicherten Worten eine Mehrzahl von möglichen Worten ausgewählt wird, wobei jedes Wort relativ nahe an einem von einer Eingabestimme zu einem Zeitpunkt in ein Mikrophon (200) gesprochenem Wort liegt, zu dem auf eine für ein bestimmtes Steuern der Navigationsvorrichtung (100) erforderliche Eingabe gewartet wird;
einem Sprachausgabeschritt, in dem die ausgewählten möglichen Worte nacheinander in Form von Fragen ausgegeben werden;
einem zweiten Spracherkennungsschritt, in dem ein mögliches Wort ausgewählt wird, das als relativ nahe an einem von einer Antwort stimme als Antwort auf die Fragen im vorausgegangenen Sprachausgabeschritt in das Mikrophon (200) gesprochenen Wort liegend angesehen wird;
einem nach jeder Sprachausgabe eines möglichen Wortes erfolgenden Bewertungsschritt, in dem bewertet wird, ob das von der Antwortstimme gesprochene Wort mit einem bestimmten Wort übereinstimmt, das im Voraus als bejahendes Wort eingestellt wurde; und
einem Steuerschritt, in dem die Navigationsvorrichtung (100) durch das durch Bejahen ausgewählte Wort als erforderliche Information in einer bestimmten Weise gesteuert wird.
2. Navigationsverfahren nach Anspruch 1, wobei der zweite
Spracherkennungsschritt aufweist:
einen Schritt, in dem die möglichen Worte aus nur einem Teil des Wörterbuchs (21a) ausgewählt werden, welcher Teil Daten des voreingestellten Wortes mit bejahender Bedeutung und Daten eines voreingestellten Wortes mit verneinender Bedeutung für die Eingabe der Antwort aufweist.
einen Schritt, in dem die möglichen Worte aus nur einem Teil des Wörterbuchs (21a) ausgewählt werden, welcher Teil Daten des voreingestellten Wortes mit bejahender Bedeutung und Daten eines voreingestellten Wortes mit verneinender Bedeutung für die Eingabe der Antwort aufweist.
3. Navigationsverfahren nach Anspruch 1 oder 2, wobei
der erste Spracherkennungsschritt einen Schritt aufweist, in dem Annäherungsinformationen erzeugt werden, die während die möglichen Worte ausgewählt werden quantitativ angeben, wie stark ein jedes der ausgewählten möglichen Worte an das von der Eingabestimme gesprochene Wort angenähert ist; und
der Sprachausgabeschritt einen Schritt aufweist, in dem die ausgewählten möglichen Worte nacheinander in der Reihenfolge ihrer Annäherung an das von der Eingabestimme gesprochene Wort gemäß der Annäherungsangaben akustisch ausgegeben werden.
der erste Spracherkennungsschritt einen Schritt aufweist, in dem Annäherungsinformationen erzeugt werden, die während die möglichen Worte ausgewählt werden quantitativ angeben, wie stark ein jedes der ausgewählten möglichen Worte an das von der Eingabestimme gesprochene Wort angenähert ist; und
der Sprachausgabeschritt einen Schritt aufweist, in dem die ausgewählten möglichen Worte nacheinander in der Reihenfolge ihrer Annäherung an das von der Eingabestimme gesprochene Wort gemäß der Annäherungsangaben akustisch ausgegeben werden.
4. Navigationsverfahren nach einem der Ansprüche 1 bis 3,
wobei das Navigationsverfahren ferner einen Meßschritt aufweist, in dem eine momentane Position des Fortbewegungsmittels gemessen wird, in dem die Navigationsvorrichtung (100) eingebaut ist,
wobei der Steuerschritt aufweist:
einen Datenverarbeitungsschritt, in dem Routenleitinformationen zum Durchführen eines Routenleitens des Fortbewegungsmittels auf der Grundlage der gemessenen momentanen Position und dem ausgewählten Wort mittels einer Karte erzeugt werden, die aufgrund von in einem Speicher (DK) vorab abgespeicherten Kartendaten angezeigt wird; und
einem Ausgabeschritt, in dem die erzeugten Routenleitinformationen ausgegeben werden.
wobei das Navigationsverfahren ferner einen Meßschritt aufweist, in dem eine momentane Position des Fortbewegungsmittels gemessen wird, in dem die Navigationsvorrichtung (100) eingebaut ist,
wobei der Steuerschritt aufweist:
einen Datenverarbeitungsschritt, in dem Routenleitinformationen zum Durchführen eines Routenleitens des Fortbewegungsmittels auf der Grundlage der gemessenen momentanen Position und dem ausgewählten Wort mittels einer Karte erzeugt werden, die aufgrund von in einem Speicher (DK) vorab abgespeicherten Kartendaten angezeigt wird; und
einem Ausgabeschritt, in dem die erzeugten Routenleitinformationen ausgegeben werden.
5. Navigationsvorrichtung (100) mit:
einer Spracherkennungsvorrichtung (21) zum Auswählen einer Mehrzahl von möglichen Worten aus einer großen Anzahl von in einem Wörterbuch (21a) gespeicherten Worten, wobei ein jedes Wort relativ nahe an einem von einer Eingabestimme zu einem Zeitpunkt in ein Mikrophon (200) gesprochenem Wort liegt, zu dem auf eine für ein bestimmtes Steuern der Navigationsvorrichtung erforderliche Eingabe gewartet wird;
einer Sprachausgabevorrichtung (22, 23) zum aufeinanderfolgenden akustischen Ausgeben der ausgewählten möglichen Worte in der Form von Fragen;
einer zweiten Spracherkennungsvorrichtung (21) zum Auswählen eines möglichen Wortes, das als relativ nahe an einem von einer Antwortstimme in das Mikrophon (200) als Antwort auf die von der Sprachausgabevorrichtung ausgegebenen Frage unter den Worten des Wörterbuchs (21a) angesehen wird;
einer Bewertungsvorrichtung (4, 6), mit der jedesmal, nachdem eines der ausgewählten möglichen Worte von der Sprachausgabevorrichtung akustisch ausgegeben wurde, aufgrund der von der zweiten Spracherkennungsvorrichtung ausgewählten möglichen Worte bewertet, ob das von der Antwortstimme gesprochene Wort mit einem vorbestimmten Wort übereinstimmt, das vorab als Wort mit bejahender Bedeutung eingestellt wurde; und
einer Steuervorrichtung (4, 6) zum Durchführen bestimmter Steuerungen der Navigationsvorrichtung unter Verwendung eines der ausgewählten möglichen Worte.
einer Spracherkennungsvorrichtung (21) zum Auswählen einer Mehrzahl von möglichen Worten aus einer großen Anzahl von in einem Wörterbuch (21a) gespeicherten Worten, wobei ein jedes Wort relativ nahe an einem von einer Eingabestimme zu einem Zeitpunkt in ein Mikrophon (200) gesprochenem Wort liegt, zu dem auf eine für ein bestimmtes Steuern der Navigationsvorrichtung erforderliche Eingabe gewartet wird;
einer Sprachausgabevorrichtung (22, 23) zum aufeinanderfolgenden akustischen Ausgeben der ausgewählten möglichen Worte in der Form von Fragen;
einer zweiten Spracherkennungsvorrichtung (21) zum Auswählen eines möglichen Wortes, das als relativ nahe an einem von einer Antwortstimme in das Mikrophon (200) als Antwort auf die von der Sprachausgabevorrichtung ausgegebenen Frage unter den Worten des Wörterbuchs (21a) angesehen wird;
einer Bewertungsvorrichtung (4, 6), mit der jedesmal, nachdem eines der ausgewählten möglichen Worte von der Sprachausgabevorrichtung akustisch ausgegeben wurde, aufgrund der von der zweiten Spracherkennungsvorrichtung ausgewählten möglichen Worte bewertet, ob das von der Antwortstimme gesprochene Wort mit einem vorbestimmten Wort übereinstimmt, das vorab als Wort mit bejahender Bedeutung eingestellt wurde; und
einer Steuervorrichtung (4, 6) zum Durchführen bestimmter Steuerungen der Navigationsvorrichtung unter Verwendung eines der ausgewählten möglichen Worte.
6. Navigationsvorrichtung (100) nach Anspruch 5, wobei die
zweite Spracherkennungsvorrichtung (21) Vorrichtungen zum
Auswählen der möglichen Worte aus nur einem Teil des
Wörterbuchs (21a) aufweist, welches Wörterbuch Daten für das
vorbestimmte Wort mit bejahender Bedeutung und Daten für das
andere vorbestimmte Wort mit verneinender Bedeutung aufweist.
7. Navigationsvorrichtung (100) nach Anspruch 5 oder 6, wobei
die erste Spracherkennungsvorrichtung (21) Vorrichtungen zum Erzeugen von Annäherungsangaben aufweist, die während die möglichen Worte ausgewählt werden quantitativ angeben, wie stark ein jedes der ausgewählten möglichen Worte dem von der Eingabestimme gesprochenen Wort angenähert ist, und
die Sprachausgabevorrichtung (22, 23) Vorrichtungen zum aufeinanderfolgenden akustischen Ausgeben der ausgewählten möglichen Worte in der Reihenfolge ihrer Annäherung an das von der Eingabestimme gesprochene Wort gemäß der Annäherungsangaben aufweist.
die erste Spracherkennungsvorrichtung (21) Vorrichtungen zum Erzeugen von Annäherungsangaben aufweist, die während die möglichen Worte ausgewählt werden quantitativ angeben, wie stark ein jedes der ausgewählten möglichen Worte dem von der Eingabestimme gesprochenen Wort angenähert ist, und
die Sprachausgabevorrichtung (22, 23) Vorrichtungen zum aufeinanderfolgenden akustischen Ausgeben der ausgewählten möglichen Worte in der Reihenfolge ihrer Annäherung an das von der Eingabestimme gesprochene Wort gemäß der Annäherungsangaben aufweist.
8. Navigationsvorrichtung (100) nach einem der Ansprüche 5 bis
7, wobei
die Navigationsvorrichtung eine Meßvorrichtung (1, 2, 3) zum Messen einer momentanen Position des Fortbewegungsmittels aufweist, in dem die Navigationsvorrichtung eingebaut ist,
wobei die Steuervorrichtung (4, 6) aufweist:
eine Datenverarbeitungsvorrichtung zum Erzeugen von Routenleitinformationen zum Durchführen eines Routenleitens des Fortbewegungsmittels auf der Grundlage der gemessenen momentanen Position und dem ausgewählten Wort mittels einer Karte, die aufgrund von in einem Speicher (DK) vorab abgespeicherten Kartendaten angezeigt wird; und
Ausgabevorrichtungen (12, 17) zum Ausgeben der erzeugten Routenleitinformationen.
die Navigationsvorrichtung eine Meßvorrichtung (1, 2, 3) zum Messen einer momentanen Position des Fortbewegungsmittels aufweist, in dem die Navigationsvorrichtung eingebaut ist,
wobei die Steuervorrichtung (4, 6) aufweist:
eine Datenverarbeitungsvorrichtung zum Erzeugen von Routenleitinformationen zum Durchführen eines Routenleitens des Fortbewegungsmittels auf der Grundlage der gemessenen momentanen Position und dem ausgewählten Wort mittels einer Karte, die aufgrund von in einem Speicher (DK) vorab abgespeicherten Kartendaten angezeigt wird; und
Ausgabevorrichtungen (12, 17) zum Ausgeben der erzeugten Routenleitinformationen.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8107905A JPH09292255A (ja) | 1996-04-26 | 1996-04-26 | ナビゲーション方法及び装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19717601A1 true DE19717601A1 (de) | 1997-10-30 |
Family
ID=14471046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19717601A Withdrawn DE19717601A1 (de) | 1996-04-26 | 1997-04-25 | Navigationsverfahren und Vorrichtung dafür |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPH09292255A (de) |
DE (1) | DE19717601A1 (de) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19755610A1 (de) * | 1997-12-15 | 1999-06-17 | Volkswagen Ag | Verfahren und Einrichtung zur Ortsnavigation bei Fahrzeugleitsystemen |
EP0935123A2 (de) * | 1998-02-06 | 1999-08-11 | Pioneer Electronic Corporation | Vorrichtung und Verfahren zur Erfassung von Information |
WO2000059193A1 (en) * | 1999-03-26 | 2000-10-05 | Koninklijke Philips Electronics N.V. | Auto attendant with library of recognisable names |
DE19914631A1 (de) * | 1999-03-31 | 2000-10-12 | Bosch Gmbh Robert | Eingabeverfahren in ein Fahrerinformationssystem |
WO2000077771A2 (de) * | 1999-06-10 | 2000-12-21 | Infineon Technologies Ag | Spracherkennungsverfahren und -einrichtung |
DE19933524A1 (de) * | 1999-07-16 | 2001-01-18 | Nokia Mobile Phones Ltd | Verfahren zur Eingabe von Daten in ein System |
EP1083405A1 (de) * | 1999-09-09 | 2001-03-14 | Xanavi Informatics Corporation | Sprachreferenzapparat, Steuerungsprogramm für Sprachreferenzen auf einem Aufzeichnungsmedium und Navigationsapparat mit Spracherkennung |
EP1146316A2 (de) * | 2000-04-14 | 2001-10-17 | Alpine Electronics, Inc. | Navigationssystem |
BE1013328A5 (fr) * | 1998-08-06 | 2001-12-04 | Bosch Gmbh Robert | Systeme et procede de navigation pour un moyen de deplacement. |
DE10037206A1 (de) * | 2000-07-31 | 2002-02-14 | Volkswagen Ag | Verfahren und Vorrichtung zur Sprachausgabe in einem Navigationssystem |
EP1372139A1 (de) * | 2002-05-15 | 2003-12-17 | Pioneer Corporation | Vorrichtung und Programm zur Spracherkennung mit Fehlerkorrektur |
EP1432963A2 (de) * | 2001-09-28 | 2004-06-30 | Robert Bosch Gmbh | System und verfahren zur bereitstellung einer schnittstelle für mobile einheiten unter verwendung eines mobiltelefons |
DE102004010406B3 (de) * | 2004-03-01 | 2005-10-27 | Siemens Ag | Informations- oder Unterhaltungssystem eines Kraftfahrzeuges und Verfahren zur Auswahl eines Listeneintrags |
WO2006016308A1 (en) * | 2004-08-06 | 2006-02-16 | Philips Intellectual Property & Standards Gmbh | A method for a system of performing a dialogue communication with a user |
DE102005030963B4 (de) * | 2005-06-30 | 2007-07-19 | Daimlerchrysler Ag | Verfahren und Vorrichtung zur Bestätigung und/oder Korrektur einer einem Spracherkennungssystems zugeführten Spracheingabe |
DE102007046761A1 (de) * | 2007-09-28 | 2009-04-09 | Robert Bosch Gmbh | Verfahren zum Betrieb eines Navigationssystems, welches über eine Sprachausgabe verfügt |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5933804A (en) * | 1997-04-10 | 1999-08-03 | Microsoft Corporation | Extensible speech recognition system that provides a user with audio feedback |
JP2000020089A (ja) * | 1998-07-07 | 2000-01-21 | Matsushita Electric Ind Co Ltd | 音声認識方法及びその装置、並びに音声制御システム |
EP1083545A3 (de) | 1999-09-09 | 2001-09-26 | Xanavi Informatics Corporation | Eigennamen Spracherkennung in einem Navigationssystem |
JP6672722B2 (ja) * | 2015-11-09 | 2020-03-25 | 三菱自動車工業株式会社 | 車両用音声操作装置 |
-
1996
- 1996-04-26 JP JP8107905A patent/JPH09292255A/ja active Pending
-
1997
- 1997-04-25 DE DE19717601A patent/DE19717601A1/de not_active Withdrawn
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19755610A1 (de) * | 1997-12-15 | 1999-06-17 | Volkswagen Ag | Verfahren und Einrichtung zur Ortsnavigation bei Fahrzeugleitsystemen |
EP0935123A2 (de) * | 1998-02-06 | 1999-08-11 | Pioneer Electronic Corporation | Vorrichtung und Verfahren zur Erfassung von Information |
EP0935123A3 (de) * | 1998-02-06 | 2000-11-02 | Pioneer Electronic Corporation | Vorrichtung und Verfahren zur Erfassung von Information |
BE1013328A5 (fr) * | 1998-08-06 | 2001-12-04 | Bosch Gmbh Robert | Systeme et procede de navigation pour un moyen de deplacement. |
WO2000059193A1 (en) * | 1999-03-26 | 2000-10-05 | Koninklijke Philips Electronics N.V. | Auto attendant with library of recognisable names |
DE19914631A1 (de) * | 1999-03-31 | 2000-10-12 | Bosch Gmbh Robert | Eingabeverfahren in ein Fahrerinformationssystem |
US6675147B1 (en) | 1999-03-31 | 2004-01-06 | Robert Bosch Gmbh | Input method for a driver information system |
WO2000077771A2 (de) * | 1999-06-10 | 2000-12-21 | Infineon Technologies Ag | Spracherkennungsverfahren und -einrichtung |
WO2000077771A3 (de) * | 1999-06-10 | 2002-07-04 | Infineon Technologies Ag | Spracherkennungsverfahren und -einrichtung |
DE19933524A1 (de) * | 1999-07-16 | 2001-01-18 | Nokia Mobile Phones Ltd | Verfahren zur Eingabe von Daten in ein System |
US7039629B1 (en) | 1999-07-16 | 2006-05-02 | Nokia Mobile Phones, Ltd. | Method for inputting data into a system |
EP1071075A3 (de) * | 1999-07-16 | 2003-11-19 | Nokia Corporation | Verfahren zur Eingabe von Daten in ein System |
EP1071075A2 (de) * | 1999-07-16 | 2001-01-24 | Nokia Mobile Phones Ltd. | Verfahren zur Eingabe von Daten in ein System |
EP1083405A1 (de) * | 1999-09-09 | 2001-03-14 | Xanavi Informatics Corporation | Sprachreferenzapparat, Steuerungsprogramm für Sprachreferenzen auf einem Aufzeichnungsmedium und Navigationsapparat mit Spracherkennung |
US6950797B1 (en) | 1999-09-09 | 2005-09-27 | Xanavi Informatics Corporation | Voice reference apparatus, recording medium recording voice reference control program and voice recognition navigation apparatus |
EP1146316A2 (de) * | 2000-04-14 | 2001-10-17 | Alpine Electronics, Inc. | Navigationssystem |
EP1146316B1 (de) * | 2000-04-14 | 2005-04-13 | Alpine Electronics, Inc. | Navigationssystem |
DE10037206A1 (de) * | 2000-07-31 | 2002-02-14 | Volkswagen Ag | Verfahren und Vorrichtung zur Sprachausgabe in einem Navigationssystem |
EP1432963A2 (de) * | 2001-09-28 | 2004-06-30 | Robert Bosch Gmbh | System und verfahren zur bereitstellung einer schnittstelle für mobile einheiten unter verwendung eines mobiltelefons |
EP2437032A3 (de) * | 2001-09-28 | 2014-08-13 | Robert Bosch GmbH | Navigationssystem und entsprechendes Verfahren zur Spracheingabe einer Zieladresse |
EP1432963A4 (de) * | 2001-09-28 | 2009-04-29 | Bosch Gmbh Robert | System und verfahren zur bereitstellung einer schnittstelle für mobile einheiten unter verwendung eines mobiltelefons |
EP1372139A1 (de) * | 2002-05-15 | 2003-12-17 | Pioneer Corporation | Vorrichtung und Programm zur Spracherkennung mit Fehlerkorrektur |
DE102004010406B3 (de) * | 2004-03-01 | 2005-10-27 | Siemens Ag | Informations- oder Unterhaltungssystem eines Kraftfahrzeuges und Verfahren zur Auswahl eines Listeneintrags |
WO2006016308A1 (en) * | 2004-08-06 | 2006-02-16 | Philips Intellectual Property & Standards Gmbh | A method for a system of performing a dialogue communication with a user |
DE102005030963B4 (de) * | 2005-06-30 | 2007-07-19 | Daimlerchrysler Ag | Verfahren und Vorrichtung zur Bestätigung und/oder Korrektur einer einem Spracherkennungssystems zugeführten Spracheingabe |
DE102007046761A1 (de) * | 2007-09-28 | 2009-04-09 | Robert Bosch Gmbh | Verfahren zum Betrieb eines Navigationssystems, welches über eine Sprachausgabe verfügt |
Also Published As
Publication number | Publication date |
---|---|
JPH09292255A (ja) | 1997-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19717601A1 (de) | Navigationsverfahren und Vorrichtung dafür | |
EP1176395B1 (de) | Verfahren zur Auswahl einer Ortsbezeichnung in einem Navigationssystem durch Spracheingabe | |
DE60318430T2 (de) | Computergestütztes System und Verfahren zur Informationsausgabe an einen Fahrer eines Fahrzeuges | |
EP1004851B1 (de) | Adaptives Navigationssystem | |
DE10330274A1 (de) | Sprachgesteuertes System | |
DE69830763T2 (de) | Verfahren und Vorrichtung zum Steuern einer Kartenanzeige | |
DE60032193T2 (de) | Verfahren und System zur Auswahl erkannter Wörter bei der Korrektur erkannter Sprache | |
DE19742054A1 (de) | Eingabesystem wenigstens für Orts- und/oder Straßennamen | |
DE112012006997B4 (de) | Navigationsvorrichtung | |
EP1624288A1 (de) | Navigationssystem mit sprachgesteuerter Angabe von Sonderzielen | |
DE19859078A1 (de) | Verfahren zur Leitung eines Führers eines Fahrzeugs von mindestens einem Start-zu mindestens einem Zielpunkt | |
EP1110056B1 (de) | Navigationssystem zur zusätzlichen darstellung von richtungsangaben | |
WO2001069178A1 (de) | Verfahren zur zieleingabe an einem navigationsgerät | |
EP1508889B1 (de) | Fahrerinformationsvorrichtung | |
EP2420800A1 (de) | Technik zur Signalisierung von Telefonanrufen während einer Routenführung | |
DE102018207735A1 (de) | Spracherkennungseinrichtung und Verfahren zum Steuern derselben | |
DE19600700B4 (de) | Navigationsgerät | |
DE3429882A1 (de) | Fahrkursleitgeraet | |
DE102004017158B4 (de) | Routenführungssystem mit Stimmführungsfähigkeit | |
DE102008011599A1 (de) | Verfahren zur Bestimmung einer Fahrtroute für ein Fahrzeug | |
DE19614777A1 (de) | Vorrichtung und Verfahren zur Zielführung eines Fahrzeugs | |
EP1121684A1 (de) | Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache | |
DE19929425B4 (de) | Verfahren zur Navigationszielauswahl und Navigationsgerät | |
DE102017211447A1 (de) | Verfahren zum Auswählen eines Listeneintrags aus einer Auswahlliste einer Bedienvorrichtung mittels Sprachbedienung sowie Bedienvorrichtung | |
DE102017200976B4 (de) | Verfahren zum Betreiben eines Kraftfahrzeugs mit einer Bedienvorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8120 | Willingness to grant licences paragraph 23 | ||
8141 | Disposal/no request for examination |