DE19717601A1 - Navigationsverfahren und Vorrichtung dafür - Google Patents

Navigationsverfahren und Vorrichtung dafür

Info

Publication number
DE19717601A1
DE19717601A1 DE19717601A DE19717601A DE19717601A1 DE 19717601 A1 DE19717601 A1 DE 19717601A1 DE 19717601 A DE19717601 A DE 19717601A DE 19717601 A DE19717601 A DE 19717601A DE 19717601 A1 DE19717601 A1 DE 19717601A1
Authority
DE
Germany
Prior art keywords
word
words
speech recognition
voice
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19717601A
Other languages
English (en)
Inventor
Katsuyoshi Hayashi
Hiroaki Ito
Akira Ishida
Tomomi Miyajima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Publication of DE19717601A1 publication Critical patent/DE19717601A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means

Description

Die Erfindung betrifft ein Navigationsverfahren und eine Vorrichtung dafür und insbesondere ein Navigationsverfahren und eine Vorrichtung, die es einem Verwender ermöglichen, verschiedene Daten mit seiner eigenen Stimme unter Verwendung eines Spracherkennungsverfahrens einzugeben. Diese Daten können z. B. Angaben von Positionen als Grundlage für die Navigation, wie Positionen, an denen eine Umgebungskarte aufgerufen werden soll, eine Zielposition, eine Startposition usw., sowie unterschiedliche Steuerbefehle sein.
Es ist eine Navigationsvorrichtung bekannt, bei der eine Karte mit einer auf die momentane Position eines Fortbewegungsmittels, wie z. B. eines Kraftfahrzeugs, eines Flugzeugs, eines Schiffs usw., hinweisenden Positionsmarkierung auf dem Bildschirm einer Kathodenstrahlröhrenanzeigevorrichtung, einer Flüssigkristallanzeigevorrichtung oder einer ähnlichen Vorrichtung derart angezeigt wird, daß ein Routenführen zur Zielposition mit Hilfe der Anzeige durchgeführt wird.
Navigationsvorrichtungen, wie Navigationsvorrichtungen für Kraftfahrezeuge, lassen sich grob in zwei Gruppen aufteilen: selbststeuernde Navigationsvorrichtungen und Navigationsvorrichtungen des GPS-Typs (GPS: Global Positioning System). Die ersten sind Navigationsvorrichtungen, die die Bewegungsrichtung und die zurückgelegte Entfernung des Fortbewegungsmittels von einem Geschwindigkeitssensor, einem Winkelgeschwindigkeitssensor, einem Richtungssensor usw. erhalten, mit denen das entsprechende Fortgewegungsmittel ausgerüstet ist bzw. die in dieses eingebaut sind. Mittels der Bewegungsrichtung und der zurückgelegten Entfernung des Fortbewegungsmittels wird die momentane Position unter Berücksichtigung einer Standardposition berechnet, und auf dieser Grundlage werden die Positionsmarkierung für die momentane Position und eine entsprechende Karte auf einem Bildschirm angezeigt. Die letzteren Navigationsvorrichtungen sind dagegen Navigationsvorrichtungen, die elektromagnetische Wellen von einer Mehrzahl von GPS-Satelliten empfangen, die momentane Position des Fortgewegungsmittels mit einem dreidimensionalen oder einem zweidimensionalen Meßverfahren aufgrund der von den elektromagnetischen Wellen erhaltenen Daten ermitteln und auf dieser Grundlage die Positionsmarkierung für die momentane Position und eine entsprechende Karte auf einem Bildschirm anzeigen. Ferner sind im Fahrzeug eingebaute Navigationsvorrichtungen bekannt, die mit beiden oben beschriebenen Funktionen ausgestattet sind, d. h. mit den Funktionen der selbststeuernden Navigationsvorrichtungen und mit denen der Navigationsvorrichtungen des GPS-Typs.
Bei den Navigationsvorrichtungen ist es wesentlich, die momentane Position des Fahrzeugs des Verwenders (Fahrers) und eine die Umgebung der momentanen Position zeigende Karte zusammen anzuzeigen, so daß der Verwender derart geleitet wird, daß er auch in einer ihm unbekannten Gegend nicht vom Weg abkommt. Ferner sind Navigationsvorrichtungen, die in der Lage sind, die optimale Route zum Ziel, die Entfernung zum Ziel usw. anzuzeigen, und Navigationsvorrichtungen bekannt, die in der Lage sind, dem Verwender an einer Kreuzung oder an einer Abzweigung die Fahrtrichtung unter Verwendung einer künstlichen Stimme akustisch anzugeben, wie "An der nächsten Kreuzung rechts abbiegen!", "Weiter geradeaus fahren!" usw.
Bei dieser Art von Navigationsvorrichtungen ist es erwünscht, daß der Verwender die angezeigten Informationen so leicht wie möglich erfassen kann, da er sich meistens auf die Fahrt konzentrieren muß, und ferner ist es erwünscht, daß der Verwender die Bedienung der Vorrichtung, wie eine Dateneingabe, eine Umstellung des Anzeigemodus usw., so leicht wie möglich durchführen kann. Deshalb wurde eine Navigationsvorrichtung vorgeschlagen, bei der die Dateneingabe, wie (i) die Eingabe von Positionen, wie Positionen, an denen eine Umgebungskarte aufgerufen werden soll, einer Zielposition, einer Startposition usw., sowie (ii) die Eingabe von unterschiedlichen Steuerbefehlen unter Verwendung von kürzlich entwickelten Spracherkennungsverfahren sprachgesteuert durchgeführt werden kann. Genauer wird bei dieser Navigationsvorrichtung die Stimme des Verwenders mit einem in dem Fortgewegungsmittel vorgesehenen Mikrophon aufgenommen, die aufgenommene Stimme wird von dem Spracherkennungsverfahren als Wort erkannt, und das erkannte Wort wird als Eingabebefehl behandelt.
Diese Art des Spracherkennungsverfahrens wird unter Verwendung eines Spracherkennungsschaltkreises für die Erkennung der Stimme eines bestimmten Sprechers oder eines Spracherkennungsschaltkreises für die Erkennung der Stimme eines beliebigen Sprechers durchgeführt. Jeder dieser Schaltkreise ist auf dem Markt als integrierter Schaltkreis (IC: integrated circuit) verfügbar. Ein solcher IC vergleicht das Eingabesprachsignal mit den Worten eines eingebauten Wörterbuchs (z. B. eines japanisches Wörterbuchs) und gibt auf der Grundlage der Reihenfolge der Annäherung des Musters des Spektrums der Stimmfrequenz eines jeden Wortes, Vokals, Konsonanten oder dergleichen mögliche Worte aus, die nahe an dem durch die eingegebene Sprache angegebenen Wort liegen. Mit dem Spracherkennungsschaltkreis für die Erkennung der Stimme eines bestimmten Sprechers ist es möglich, durch die Verwendung des Musters des Spektrums der Stimmfrequenz dieses bestimmten Sprechers als Standard eine sehr genaue Spracherkennung zu erreichen. Auf der anderen Seite ist die Erkenngenauigkeit bei dem Spracherkennungsschaltkreis für die Erkennung der Stimme eines beliebigen Sprechers in Abhängigkeit von dem jeweiligen Sprecher unterschiedlich, da die Muster des Spektrums usw. der Stimmfrequenzen unterschiedlicher beliebiger Sprecher voneinander verschieden sind, was ein Nachteil ist. Andererseits besteht ein gewisser Vorteil darin, daß der Spracherkennungsschaltkreis für die Erkennung der Stimme eines beliebigen Sprechers sofort von einem jeden beliebigen Sprecher verwendet werden kann. Somit wird der letztere, d. h. der Spracherkennungsschaltkreis für die Erkennung der Stimme eines beliebigen Sprechers, für Fahrzeug-Navigationsvorrichtungen für den allgemeinen Gebrauch als geeignet angesehen.
Der Spracherkennungsschaltkreis für die Erkennung der Stimme eines beliebigen Sprechers ist folgendermaßen aufgebaut: Wenn der Verwender z. B. "Tokyo Tocho" (was im Japanischen "Tokyo Verkehrsbüro" bedeutet) in das Mikrophon spricht, wird das Sprachsignal entsprechend in den Spracherkennungsschaltkreis für die Erkennung der Stimme eines beliebigen Sprechers eingegeben. Dann findet ein Vergleich mit dem eingebauten Wörterbuch statt, und fünf mögliche Worte, wie z. B. "Tokyo Tocho", "Tokyo To" (was im Japanischen "Tokyo Stadt" bedeutet), "Tokyo Dojo" (was im Japanischen "Tokyo Schule" bedeutet), "Tokyo Dome" und "Tokkyo-Cho" (was im Japanischen "Patentamt" bedeutet), werden zusammen mit einem Wert ausgegeben, der quantitativ angibt, wie stark das entsprechende mögliche Wort dem eingegebenen Sprachbefehl angenähert ist oder diesem gleicht.
Deshalb ist die diesen Spracherkennungsschaltkreis für die Erkennung der Stimme eines beliebigen Sprechers verwendende Navigationsvorrichtung derart aufgebaut, daß die mögliche Wortfolge "Tokyo Tocho", die unter den fünf ausgegebenen möglichen Wortfolgen den höchsten Wert aufweist, als dem eingegebenen Sprachbefehl entsprechend angesehen wird, so daß das vorbestimmte Navigationsverfahren nachfolgend auf der Grundlage dieses Ergebnisses durchgeführt wird. Genauer gesagt wird eine Karte mit "Tokyo Tocho" angezeigt, und die optimale Rute zu "Tokyo Tocho", die Reiseentfernung zu "Tokyo Tocho" sowie die geschätzte Reisedauer oder Ankunftszeit bei "Tokyo Tocho" werden angezeigt.
Demgemäß ist es mit der Navigationsvorrichtung, die die Spracheingabefunktion unter Verwendung des Spracherkennungsschaltkreises für die Erkennung der Stimme eines beliebigen Sprechers aufweist, für den Verwender möglich, verschiedene Eingaben einfach durchzuführen, ohne einen Knopf oder eine Schalttafel zu berühren und ohne die möglichen Worte auf der Anzeige zu betrachten und eines von diesen zu bestätigen, was für den Verwender sehr bequem ist.
Jedoch besteht bei dem oben beschriebenen Spracherkennungsschaltkreis für die Erkennung der Stimme eines beliebigen Sprechers ein Problem derart, daß gemäß der derzeitigen Ausführungsformen die Spracherkennung immer noch ziemlich fehlerbehaftet ist. Zum Beispiel kann es vorkommen, daß das Wort mit dem höchsten Wert unter den von dem Spracherkennungsschaltkreis ausgegebenen Worten nicht mit den tatsächlich gesprochenen Worten übereinstimmt. In diesem Fall kann es sein, daß das Wort mit dem zweithöchsten Wert oder das Wort mit dem dritthöchsten Wert dem richtigen Wort entspricht. Außerdem kann es sein, daß sich das richtige Wort überhaupt nicht unter den ausgegebenen Worten befindet.
Hier ist es technisch möglich, eine Mehrzahl von möglichen Worten, z. B. 5, auf dem Bildschirm der Navigationsvorrichtung in ähnlicher Weise, wie z. B. bei einem Textverarbeitungssystem, anzuzeigen. Jedoch ist es, insbesondere im Falle einer Navigationsvorrichtung und unter Berücksichtigung der Tatsache, daß sich der Verwender stark auf die Fahrt konzentrieren muß, sehr gefährlich und könnte zu Unfällen führen, falls eine Mehrzahl ähnlicher Worte in einer Liste auf einem eher kleinen Bildschirm dargestellt werden, und der Verwender das richtige Wort in ähnlicher Weise bestätigen und mit einem Cursor auswählen muß, wie er ein richtiges Wort, .einen Fehler oder ein weggelassenes Wort bei einem Textverarbeitungssystem finden muß. Ferner ist, selbst wenn die Navigationsvorrichtung so aufgebaut ist, daß, wenn der Verwender ein mögliches Wort unter den auf dem Bildschirm aufgelisteten Worten bestimmt hat, und der Verwender das entsprechende Wort nochmals laut nachspricht, die Wahrscheinlichkeit einer fehlerbehafteten Erkennung immer noch hoch, so lange dasselbe Wort vom selben Sprecher gesprochen wird.
Es ist deshalb eine Aufgabe der Erfindung, ein Navigationsverfahren und eine Vorrichtung dafür bereitzustellen, mit denen es möglich ist, unterschiedliche Navigationsdaten und -befehle mittels der Stimme des Verwenders sicher und richtig einzugeben.
Die oben genannte Aufgabe wird durch ein Navigationsverfahren mit folgenden Schritten gelöst: einem ersten Spracherkennungsschritt, in dem aus einer großen Anzahl von in einem Wörterbuch gespeicherten Worten eine Mehrzahl von möglichen Worten ausgewählt wird, wobei jedes Wort relativ nahe an einem von einer Eingabestimme zu einem Zeitpunkt in ein Mikrophon gesprochenem Wort liegt, zu dem auf eine für ein bestimmtes Steuern der Navigationsvorrichtung erforderliche Eingabe gewartet wird; einem Sprachausgabeschritt, in dem die ausgewählten möglichen Worte nacheinander in Form von Fragen ausgegeben werden; einem zweiten Spracherkennungsschritt, in dem ein mögliches Wort ausgewählt wird, das als relativ nahe an einem von einer Antwortstimme als Antwort auf die Fragen im vorausgegangenen Sprachausgabeschritt in das Mikrofon gesprochenen Wort liegend angesehen wird; einem nach jeder Sprachausgabe eines möglichen Wortes erfolgenden Bewertungsschritt, in dem bewertet wird, ob das von der Antwortstimme gesprochene Wort mit einem bestimmten Wort übereinstimmt, daß im Voraus als bejahendes Wort eingestellt wurde; und einem Steuerschritt, in dem die Navigationsvorrichtung durch das durch Bejahen ausgewählte Wort als erforderliche Information in einer bestimmten Weise gesteuert wird.
Nach dem erfindungsgemäßen Navigationsverfahren wird in dem ersten Spracherkennungsschritt eine Mehrzahl von möglichen Worten aus einer großen Anzahl von Worten aus dem Wörterbuch ausgewählt, wenn die Eingabestimme (d. h. die Stimme des Verwenders) in das Mikrophon zu einem Zeitpunkt eingegeben wird, zu dem auf eine für ein bestimmtes Steuern der Navigationsvorrichtung erforderliche Eingabe gewartet wird, wobei jedes dieser Wort relativ nahe an dem von der Eingabestimme gesprochenen Wort liegend angesehen wird. Die für das Steuern der Navigationsvorrichtung erforderlichen Daten können z. B. Angaben von Positionen als Grundlage für die Navigation, wie Positionen, an denen eine Umgebungskarte aufgerufen werden soll, eine Zielposition gespeichert werden soll, eine Startposition gespeichert werden soll usw., und Steuerbefehle für verschiedene Funktionen sein, wie Scrolling (Verschieben der Bildschirmansicht), Vergrößern sowie Verkleinern des Kartenmaßstabes usw. Als Nächstes werden im Sprachausgabeschritt die möglichen Worte von einer Stimme nacheinander in Form von Fragen ausgegeben, wie z. B. "Ist es XXX?". Dann wird im zweiten Spracherkennungsschritt ein mögliches Wort aus den Worten des Wörterbuchs ausgewählt, das als relativ nahe an dem Wort liegend angesehen wird, das als Antwort auf die Fragen im vorausgegangenen Sprachausgabeschritt in das Mikrophon gesprochenen wurde. Wenn durch die Antwortstimme Angaben wie "JA", "NEIN" oder ähnliche als Antwort auf die Fragen im Sprachausgabeschritt in das Mikrophon eingegeben werden, wird im Bewertungsschritt auf der Grundlage des im zweiten Spracherkennungsschrittes ausgewählten möglichen Wortes bewertet, ob das von der Antwortstimme gesprochene Wort mit dem vorbestimmten Wort übereinstimmt. Das vorbestimmte Wort wird im Voraus als bejahendes Wort eingestellt, wie z. B. "JA". Zu diesem Zeitpunkt kann die Bewertung, ob das von der Antwortstimme gesprochene Wort mit dem vorbestimmten Wort, wie z. B. "JA", "RICHTIG" usw., übereinstimmt, im Vergleich mit dem Fall ziemlich einfach und genau durchgeführt werden, in dem eine Bewertung erfolgen muß, ob das von der Eingabestimme gesprochene Wort mit einem beliebigen Wort übereinstimmt. Hier entspricht eines der ausgewählten möglichen Worte, die in der Frage von der Ausgabestimme verwendet werden und die dem Wort entsprechen, das mit einem vorbestimmten Wort, wie z. B. "JA", "RICHTIG" usw., bejaht wurde, nichts anderem als dem Wort, das der Verwender mit seiner Stimme eingeben wollte. Deshalb wird in dem Steuerschritt ein bestimmtes Steuern der Navigationsvorrichtung mit Hilfe eines der ausgewählten möglichen Worte als erforderliche Information durchgeführt, das in dem Sprachausgabeschritt als Frage ausgegeben und von der Antwortstimme bejaht wurde. Zum Beispiel können mit dem auf diese Weise akustisch eingegebenen Steuerbefehl Funktionen wie Scrolling und Vergrößern/Verkleinern des Kartenmaßstabes oder ähnliche durchgeführt werden. Alternativ dazu können Routen- Informationen, wie die optimale Route zum Ziel, die Entfernung zum Ziel, die geschätzte Ankunftszeit am Ziel und ähnliche Informationen erzeugt und angezeigt werden. Daher muß der Verwender bei dem Spracheingabeverfahren zuerst mittels Spracheingabe ein beliebiges Wort, wie "Tokyo Tocho", in das Mikrophon sprechen, um die Zielposition einzugeben. Dann werden in dem Sprachausgabeschritt eine Mehrzahl von möglichen Worten nacheinander in Form von Fragen ausgegeben, wie z. B. "Ist es Tokyo Dome?", " Ist es Tokyo Turm?" usw., die eine relativ hohe Wahrscheinlichkeit aufweisen, mit dem im ersten Schritt gesprochenen Wort übereinzustimmen. Als Zweites muß der Verwender bei dem Spracheingabeverfahren zum Bejahen einer dieser Fragen diese mit dem vorbestimmten bejahenden Wort beantworten, wie z. B. "JA".
Auf diese Weise ist es mit dem erfindungsgemäßen Navigationsverfahren möglich, verschiedene für die Navigation erforderliche Daten sicher und richtig mit der Stimme des Verwenders einzugeben.
Gemäß einer Ausführungsform des erfindungsgemäßen Navigationsverfahrens ist während des zweiten Spracherkennungsschrittes ein weiterer Schritt vorgesehen, in dem ein mögliches Wort aus nur einem Teil des Wörterbuchs ausgewählt wird, das nur ein vorbestimmtes bejahendes Wort (z. B. "JA") und ein anderes vorbestimmtes Wort mit verneinender Bedeutung (z. B. "NEIN") aufweist. Deshalb kann der zweite Spracherkennungsschritt durch Beschränkung des Umfangs des für die Auswahl des möglichen Wortes verwendeten Wörterbuchs auf solch einen engen Bereich direkt und einfach durchgeführt werden, und die Wahrscheinlichkeit, das Wort richtig zu erkennen ist merklich verbessert.
Gemäß einer anderen Ausführungsform des erfindungsgemäßen Navigationsverfahrens findet während des ersten Spracherkennungsschritts ein weiterer Schritt statt, in dem, während die möglichen Worte ausgewählt werden, Annäherungsangaben erzeugt werden, die quantitativ angeben, inwieweit ein jedes der möglichen Worte an das von der Eingabestimme gesprochene Wort angenähert ist. In dem Sprachausgabeschritt ist vorgesehen, daß die ausgewählten möglichen Worte nacheinander in der Reihenfolge ihrer gemäß der Annäherungsangaben bestimmten Annäherung an das von der Eingabestimme gesprochene Wort akustisch ausgegeben werden. Somit wird z. B., falls im ersten Spracherkennungsschritt festgestellt wird, das "Tokyo Tocho" das naheliegendste Wort ist, zuerst "Ist es Tokyo Tocho?" gefragt bzw. in dem Sprachausgabeschritt akustisch ausgegeben, so daß der Verwender auf diese einfache Frage einfach "JA" antworten kann. In diesem Fall ist es nicht erforderlich, daß sich der Verwender weitere Fragen, wie "Ist es Tokyo Dome?" usw. anhört, was für ihn bequem ist.
Auf diese Weise muß der Verwender nur die geringstmögliche Anzahl von Schritten zum Bedienen der Navigationsvorrichtung durchführen.
Gemäß einer anderen Ausführungsform des erfindungsgemäßen Navigationsverfahrens weist das Navigationsverfahren ferner einen Meßschritt auf, in dem die momentane Position des Fortbewegungsmittels gemessen wird, in dem die Navigationsvorrichtung eingebaut ist. Dabei weist der Steuerschritt folgende Schritten auf: einen Datenverarbeitungsschritt, in dem Routenleitinformationen für ein Routenleiten des Fortbewegungsmittels mit Hilfe einer in einer Speichervorrichtung vorab gespeicherten Karte auf der Grundlage der gemessenen momentanen Position und dem ausgewählten Wort erzeugt werden; und einen Ausgabeschritt, in dem die gesamten Routenleitinformationen ausgegeben werden.
Gemäß dieser Ausführungsform wird in dem Meßschritt die momentane Position des Fortbewegungsmittels, wie z. B. eines Fahrzeugs oder Kraftfahrzeugs, eines Flugzeugs, eines Schiffs usw., gemessen. Dann werden in dem Datenverarbeitungsschritt die Routenleitinformationen erzeugt, um ein Routenleiten des Fortbewegungsmittels aufgrund von vorab in einem Speicher gespeicherten Kartendaten, der gemessenen momentanen Position und dem ausgewählten Wort durchzuführen. Schließlich werden im Ausgabeschritt die erzeugten Routenleitinformationen mit Hilfe einer Bildausgabevorrichtung, einer Stimmausgabevorrichtung oder Ähnlichem ausgegeben.
Demgemäß ist es für den Verwender möglich, die gewünschten Routenleitinformationen mit Hilfe der Sprachausgabe sicher zu erhalten.
Die Aufgabe der Erfindung wird mit einer Navigationsvorrichtung gelöst, die aufweist: eine erste Spracherkennungsvorrichtung zum Auswählen einer Mehrzahl von möglichen Worten aus einer großen Anzahl von in einem Wörterbuch gespeicherten Worten, wobei die ausgewählten Worte jeweils als relativ nahe an einem von einer Eingabestimme zu einem Zeitpunkt in ein Mikrophon gesprochenem Wort angesehen werden, zu dem auf eine für ein bestimmtes Steuern der Navigationsvorrichtung erforderliche Eingabe gewartet wird; eine Sprachausgabevorrichtung zum aufeinanderfolgenden Ausgeben der ausgewählten möglichen Worte in Form von Fragen; eine zweite Spracherkennungsvorrichtung zum Auswählen eines möglichen Wortes aus den Worten des Wörterbuchs, wobei dieses Wort als relativ nahe an einem von einer Antwortstimme als Antwort auf die von der Sprachausgabevorrichtung ausgegebenen Fragen in ein Mikrophon gesprochene Wort liegend angesehen wird; eine Bewertungsvorrichtung zum Bewerten aufgrund der von der zweiten Spracherkennungsvorrichtung ausgewählten möglichen Worte, ob das von der Antwortstimme als Antwort auf die von der Sprachausgabevorrichtung ausgegebenen Fragen gesprochene Wort mit dem als bejahendem Wort voreingestelltem Wort übereinstimmt; und eine Steuervorrichtung für ein bestimmtes Steuern der Navigationsvorrichtung mittels des im Sprachausgabeschritt bejahten Wortes als erforderliche Information.
Gemäß der erfindungsgemäßen Navigationsvorrichtung werden von der ersten Spracherkennungsvorrichtung eine Mehrzahl von möglichen Worten aus der großen Anzahl der im Wörterbuch gespeicherten Worten ausgewählt, die jeweils als relativ nahe an dem von der Eingabestimme gesprochenen Wort liegend angesehen werden. Als Nächstes werden von der Sprachausgabevorrichtung die ausgewählten möglichen Worte nacheinander in Form von Fragen akustisch ausgegeben. Dann wird von der zweiten Spracherkennungsvorrichtung ein mögliches Wort aus dem Wörterbuch ausgewählt, das als relativ nahe an dem von der Antwortstimme gesprochenen Wort liegend angesehen wird. Wenn die Antwortstimme in das Mikrophon eingegeben wird, wird von der Bewertungsvorrichtung aufgrund der von der zweiten Spracherkennungsvorrichtung ausgewählten möglichen Worte bewertet, ob das von der Antwortstimme gesprochene Wort mit dem vorbestimmten Wort übereinstimmt. Dann wird von der Steuervorrichtung mit Hilfe des ausgewählten, als bejaht angesehenen Wortes als erforderliche Information ein bestimmtes Steuern der Navigationsvorrichtung durchgeführt. Somit kann das oben beschriebene erfindungsgemäße Navigationsverfahren mit Hilfe der erfindungsgemäßen Navigationsvorrichtung geeignet durchgeführt werden.
Gemäß einer Ausführungsform der erfindungsgemäßen Navigationsvorrichtung weist die zweite Spracherkennungsvorrichtung eine Vorrichtung zum Auswählen der möglichen Worte aus nur einem Teil des Wörterbuchs auf, der das voreingestellte bejahende Wort und das voreingestellte verneinende Wort aufweist. Somit kann die Spracherkennung von der zweiten Spracherkennungsvorrichtung direkt und einfach durchgeführt werden, und die Wahrscheinlichkeit der richtigen Worterkennung ist merklich verbessert.
Gemäß einer anderen Ausführungsform der erfindungsgemäßen Navigationsvorrichtung weist die erste Spracherkennungsvorrichtung eine Vorrichtung zum Erzeugen von Annäherungsangaben auf, die während der Auswahl der möglichen Worte quantitativ angeben, wie nahe ein jedes der ausgewählten möglichen Worte an dem von der Eingabestimme gesprochenen Wort liegt. Die Sprachausgabevorrichtung weist eine Vorrichtung zur akustischen Ausgabe der ausgewählten möglichen Worte in der Reihenfolge ihrer gemäß der Annäherungsangaben bestimmten Annäherung an das von der Eingabestimme gesprochene Wort auf. Auf diese Weise muß der Verwender nur die geringstmögliche Anzahl von Schritten zum Bedienen der Navigationsvorrichtung durchführen.
Gemäß einer anderen Ausführungsform der erfindungsgemäßen Navigationsvorrichtung weist diese ferner eine Meßvorrichtung zum Messen der momentanen Position des Fortbewegungsmittels auf, in dem die Navigationsvorrichtung eingebaut ist. Ferner weist die Steuervorrichtung auf: eine Datenverarbeitungsvorrichtung zum Erzeugen von Routenleitinformationen zum Durchführen eines Routenleitens des Fortbewegungsmittels mit Hilfe einer Karte und vorab gespeicherten Karteninformationsdaten und einer Ausgabevorrichtung zum Ausgeben der erzeugten Routenleitinformation. Somit ist es für den Verwender möglich, die gewünschten Routenleitinformationen mit Hilfe der Sprachausgabe sicher zu erhalten.
Demgemäß ist es mit der erfindungsgemäßen Navigationsvorrichtung möglich, die erforderlichen Informationen sicher und richtig akustisch einzugeben. Ferner sind aufgrund der Verwendung von auf dem Markt bekannten Spracherkennungsschaltkreisen für die Erkennung der Stimme eines beliebigen Sprechers, die eine relativ hohe Wahrscheinlichkeit einer fehlerfreien Erkennung aufweisen und relativ preiswert sind, die Produktionskosten verringert.
Die Erfindung und ihre Wirkungsweise sowie weitere erfindungsgemäße Merkmale werden durch die folgende detaillierte Beschreibung einer bevorzugten Ausführungsform der Erfindung unter Bezugnahme auf die Zeichnungen näher erläutert.
Fig. 1 ist ein Blockdiagramm gemäß einer Ausführungsform der Erfindung; und
Fig. 2 ist ein Flußdiagramm, das die Bedienung der Navigationsvorrichtung gemäß einer Ausführungsform der Erfindung zeigt.
Im Folgenden wird unter Bezugnahme auf die Zeichnungen eine Ausführungsform der Erfindung genauer erläutert. Mit der im Folgenden erläuterten Ausführungsform wird ein Fall erläutert, bei dem die Erfindung auf eine Navigationsvorrichtung für ein Fahrzeug oder ein Kraftfahrzeug angewendet wird, wobei die Navigationsvorrichtung in das Fahrzeug eingebaut ist.
Zuerst wird der Gesamtaufbau der in dem Fahrzeug eingebauten Navigationsvorrichtung gemäß einer Ausführungsform der Erfindung unter Bezugnahme auf Fig. 1 erläutert.
Wie aus Fig. 1 ersichtlich, weist die in einem Fahrzeug eingebaute Navigationsvorrichtung 100 auf: einen Winkelgeschwindigkeitssensor 1 zum Erfassen der Winkelgeschwindigkeit des Fahrzeugs beim Abbiegen oder Drehen, der Winkelgeschwindigkeitsdaten und relative Azimutaldaten ausgibt; ein Reiseentfernungssensor 2 zum Berechnen der Anzahl von Impulsen pro Rotation einer Antriebswelle durch Zählen der Anzahl von Impulsen eines mit der Drehung der Antriebswelle verknüpften Impulssignals mit einer vorbestimmten Periode und zum Ausgeben von Reiseentfernungsdaten aufgrund der Anzahl von Impulsen pro Rotation der Antriebswelle; einem GPS-Empfänger 3 zum Empfangen elektromagnetischer Wellen von GPS-Sateliten zum Ausgeben von GPS-Meßdaten und zum Ausgeben absoluter Azimutaldaten für die Bewegungsrichtung des Fahrzeugs; eine Systemsteuereinheit zum Durchführen eines Gesamtsteuerns der Navigationsvorrichtung 100 aufgrund der relativen Azimutaldaten, der Winkelgeschwindigkeitsdaten, der Reiseentfernungsdaten, der GPS-Meßdaten und der absoluten Azimutaldaten; eine Eingabevorrichtung 10, wie eine Schalttafel, eine Fernbedienungsvorrichtung oder eine ähnliche Vorrichtung, zum Eingeben verschiedener Daten; ein CD-ROM (Compact Disc-Read Only Memory)-Laufwerk 11 zum Lesen und Ausgeben verschiedener Daten von einer CD-ROM DK unter der Steuerung der Systemsteuereinheit 4, wie Straßendaten einer Karte, die die Anzahl von Fahrspuren, die Breite der Straße usw. angibt, und von Daten, die detaillierte Informationen für verschiedene Einrichtungen angeben; eine Anzeigeeinheit 12 zum Anzeigen verschiedener Anzeigedaten unter der Steuerung der Systemsteuereinheit 4; einen Spracherkennungsumwandler 21 zum Erkennen eines von einer Eingabestimme in ein externes Mikrophon 200 gesprochenen Wortes und zum Ausgeben von Sprachinformationen; eine Stimmerzeugungseinheit 22 zum Erzeugen einer künstlichen Stimme aufgrund der von dem Spracherkennungsumwandler ausgegebenen Sprachinformationen; und einen Lautsprecher 23 zum Ausgeben des von der Stimmerzeugungseinheit 22 erzeugten künstlichen Stimme.
Die Systemsteuereinheit 4 weist auf: einen Schnittstellenbereich 5 zum Datenaustausch mit externen Sensoren, wie z. B. dem Winkelgeschwindigkeitssensor 1, dem Reiseentfernungssensor 2 und dem GPS-Empfänger 3; eine CPU (Zentrale Prozessoreinheit) 6 zum Steuern der gesamten Systemsteuereinheit 4; ein ROM (Read Only Memory: Nur Lese- Speicher) 7 zum Speichern eines Steuerprogramms usw. zum Steuern der Systemsteuereinheit 4; und ein RAM (Random Exces Memory: Speicher mit wahlfreiem Zugriff) 8 mit einem nichtflüchtigem Speicher zum Speichern verschiedener Daten, wie der von dem Verwender mittels der Eingabevorrichtung 10 im Voraus eingestellten Routendaten. Die Eingabevorrichtung 10, das CD-ROM-Laufwerk 11, die Anzeigeeinheit 12, die Spracherzeugungseinheit 17 und die Spracherkennungsumwandler 21 sind alle mit der Systemsteuereinheit 4 mittels einer Busleitung 9 verbunden.
Die Anzeigeeinheit 12 weist auf: eine Graphiksteuereinheit 13 zum Durchführen eines Gesamtsteuerns der Anzeigeeinheit 12 aufgrund von von der CPU 6 mittels der Busleitung 9 übertragenen Steuerdaten; einen Pufferspeicher 14 mit einem VRAM (Video RAM) usw. zum vorübergehenden Speichern von darstellbaren Bildinformationen, und eine Anzeigesteuereinheit 15 zum Steuern einer Anzeige 16, wie z. B. einer Flüssigkristallanzeigevorrichtung, einer Kathodenstrahlröhrenanzeigevorrichtung usw., aufgrund der von der Graphiksteuereinheit 13 ausgegebenen Bilddaten.
Die Spracherzeugungsvorrichtung 17 weist einen D/A-Umwandler (Digital/Analog-Umwandler) 18 zum Umwandeln von vom CD-ROM- Laufwerk 11 oder dem RAM 8 mittels der Busleitung 9 übertragener, digitaler Audio-Daten in analoge Daten; einen Verstärker 19 zum Verstärken des analogen Audio-Signals vom D/A-Umwandler 18; und einen Lautsprecher 20 zum Umwandeln des verstärkten analogen Audio-Signals in Sprache und zum Ausgeben derselben auf.
Der Spracherkennungsumwandler 21 weist einen Spracherkennungsschaltkreis zum Erkennen der Sprache eines beliebigen Sprechers auf, welcher Spracherkennungsschaltkreis z. B. ein bekannter und auf dem Markt erhältlicher Typ eines Spracherkennungsschaltkreises sein kann, und derart aufgebaut ist, daß, wenn Sprache in ein externes Mikrophon 200 eingegeben wird, eine Mehrzahl von möglichen Worten, z. B. 5; aus einem eingebauten Wörterbuch 21a auswählt werden, in dem Informationen über eine große Anzahl von Worten gespeichert sind, welche möglichen Worte jeweils nahe an dem von der Eingabestimme gesprochenen Wort liegen, und die Daten für die möglichen Worte mittels der Busleitung 9 an die CPU 6 ausgegeben werden.
Als Nächstes wird der Betrieb der im Fahrzeug eingebauten Navigationsvorrichtung 100 gemäß einer Ausführungsform der Erfindung unter Bezugnahme auf das Flußdiagramm aus Fig. 2 erläutert.
Der aus dem Flußdiagramm ersichtliche Ablauf gemäß der Ausführungsform der Erfindung wird hauptsächlich von der CPU 6 und dem Spracherkennungsumwandler 21 gesteuert und stellt einen Teil des Hauptnavigationsprogramms dar, das den Navigationsvorgang der gesamten im Fahrzeug eingebauten Navigationsvorrichtung 100 steuert. Der dem Flußdiagramm aus Fig. 2 entsprechende Ablauf gemäß einer Ausführungsform der Erfindung ist in dem ROM 7 als Steuerprogramm im Voraus eingespeichert und wird aus dem ROM 7 je nach Bedarf ausgelesen. Wie aus Fig. 2 ersichtlich, wird zuerst eine Meldung in Form von Buchstaben oder Zeichen auf der Anzeige 16 angezeigt, um für eine akustische Eingabe von verschiedenen zum Durchführen eines bestimmten Steuerns der im Fahrzeug eingebauten Navigationsvorrichtung 100 erforderlichen Daten aufzufordern. Eine solche Eingabeaufforderung für eine Spracheingabe kann auch von dem Lautsprecher 20 oder 23 akustisch ausgegeben werden. Zu den verschiedenen Daten zum Durchführen eines entsprechenden Steuerns zählen (i) Daten, die einen Ortsnamen angeben, der für die Positionsbestätigungsfunktion für die Darstellung einer Umgebungskarte auf der Anzeigeeinheit 12 erforderlich ist, (ii) Daten, die einen Ortsnamen oder den Namen einer Einrichtung angeben, was für die Positionsspeicherfunktion für die Speicherung einer Zielposition, einer Durchfahrposition, einer Startposition usw. oder zum Speichern einer Einrichtung, wie einer Tankstelle, einer Raststätte, einer Polizeidienststelle usw. erforderlich ist und (iii) Steuerbefehle, wie Scrolling- Befehle, Befehle für die Vergrößerung/Verkleinerung des Maßstabs der Darstellung der Karte auf der Anzeigeeinheit 12 usw.
Bei diesem ersten Schritt wird von dem Spracherkennungsumwandler 21 zuerst auf die Spracheingabe in das externe Mikrophon 200 gewartet (Schritt S1).
Hier nimmt das externe Mikrophon 200 die Stimme auf (Schritt S1: JA), wenn der Verwender z. B. "Tokyo Tocho" sagt (was im Japanischen "Tokyo Verkehrsbüro" bedeutet). In Antwort auf diese Spracheingabe wird von dem Spracherkennungsumwandler 21 die Spracherkennung durchgeführt (Schritt S2). Dieser Spracherkennungsschritt wird, wie oben beschrieben, unter Bezugnahme auf das eingebaute Wörterbuch 21a des Spracherkennungsumwandlers 21 und durch Auswählen einer Mehrzahl von möglichen Worten, z. B. mögliche Worte, die jeweils nahe an dem von der Eingabestimme gesprochenen Wort liegen durchgeführt. Gemäß einer Ausführungsform der Erfindung werden die auf diese Weise ausgewählten möglichen Worte mittels der Busleitung 9 an die CPU 6 zusammen mit Wertedaten ausgegeben, die quantitativ gemäß einem vorbestimmten Kriterium angeben, wie stark die entsprechenden möglichen Worte an das von der Eingabestimme eingegebene Wort angenähert sind oder diesem gleichen (z. B. höherer Wert für größere Annäherung).
In Antwort auf diese Dateneingabe werden die Daten der möglichen Worte von der CPU 6 in einem im RAM 8 eingebauten Erkennungsresultatspuffer gespeichert (Schritt S3).
Andererseits schränkt, wenn die Übertragung der Daten der möglichen Worte beendet ist, der Spracherkennungsumwandler 21 den Referenzbereich des eingebauten Wörterbuchs 21a in Vorbereitung auf eine folgende Spracheingabe in das externe Mikrophon 200 auf einen engeren Bereich ein (Schritt S4). Genauer wird, da die als Nächstes als Eingabe erwarteten Worte auf die beiden Worte "JA" als bejahendes Wort und "NEIN" als verneinendes Wort beschränkt sind, der Referenzbereich des eingebauten Wörterbuchs 21a auf den Bereich dieser beiden möglichen Worte eingeschränkt. Selbstverständlich können als voreingestellte Worte mit bejahender Bedeutung auch Worte, wie "RICHTIG", "KORREKT", "OK" oder ähnliche, anstatt von "JA" oder zusätzlich zu "JA" verwendet werden. Andererseits können als vorbestimmte Worte mit verneinender Bedeutung auch Worte, wie "NEGATIV", "SCHLECHT", "FEHLER" oder ähnliche, anstatt von "NEIN" oder zusätzlich zu "NEIN" verwendet werden. Je mehr von diesen voreingestellten Worten bereitstehen, umso bequemer wird es für den Verwender. Je stärker die Anzahl dieser vorbestimmten Worte jedoch eingeschränkt ist, umso stärker kann der Referenzbereich des eingebauten Wörterbuchs 21a auf einen engeren Bereich eingeschränkt werden, so daß die Wahrscheinlichkeit einer fehlerbehafteten Erkennung verringert und der Ablauf der nächsten Spracherkennung vereinfacht werden kann. Es ist bevorzugt, dem Verwender im Voraus mittels eines Handbuchs oder Ähnlichem mitzuteilen, welche vorbestimmten Worte als solche mit positiver Bedeutung bzw. als solche mit negativer Bedeutung aufgenommen sind.
Als Nächstes wird von der Stimmerzeugungseinheit 22 die Umsetzung der möglichen Worte in Sprache in der Reihenfolge der Bewertung der Worte durchgeführt, so daß die künstliche Stimme von dem Lautsprecher 23 derart ausgegeben werden kann, daß mit ja oder mit nein beantwortbare Fragen, wie "Ist es Tokyo Tocho?", nacheinander ausgegeben werden können (Schritt S5). Diese Art der Sprachumsetzung und Sprachausgabe kann von der Spracherzeugungsvorrichtung 17 durchgeführt werden.
Als Nächstes wird, wenn Sprache und Antwort auf die mit ja oder mit nein beantwortbare Frage in das externe Mikrophon 200 eingegeben worden ist, das mögliche Wort, das als nahe an dem von der Eingabestimme gesprochenen Wort liegend angesehen wird, von dem Spracherkennungsumwandler 21, zusammen mit den Wertedaten als mögliches Wort zur CPU 6 weitergeleitet. Dann wird von der CPU 6 aufgrund der Daten des möglichen Wortes bewertet, ob das von der Eingabestimme gesprochene Wort mit dem vorbestimmten Wort bzw. mit den vorbestimmten Worten mit positiver Bedeutung (z. B. "JA") übereinstimmt. Zu diesem Zeitpunkt ist es möglich, da der Referenzbereich des eingebauten Wörterbuchs 21a im Spracherkennungsumwandler 21 beschränkt ist (Schritt S4), ein "JA" oder ein "NEIN" mit hoher Wahrscheinlichkeit zu erkennen. Genauer bedeutet das, daß, da die möglichen Worte "JA" oder "NEIN" zusammen mit den Wertedaten an die CPU 6 weitergegeben werden, welche Wertedaten angeben, wie nahe der Wert an dem perfekten oder höchstmöglichen Wert liegt, die CPU 6 einfach und genau bewerten kann, ob es sich um ein "JA" handelt oder nicht.
Als Ergebnis dieser Bewertung wird, falls das eingegebene Wort auf die Frage nicht "JA" ist (Schritt S6: NEIN), geprüft, ob das mögliche Wort, für das die mit ja oder mit nein beantwortbare Frage mit Hilfe der künstlichen Stimme gefragt worden ist, das letzte mögliche Wort unter den 5 im Erkennungsresultatspuffer gespeicherten möglichen Worten ist (d. h. ob es das Wort mit dem geringsten Wert unter den von dem Spracherkennungsumwandler 21 ausgewählten Worten ist) (Schritt S7).
Falls es nicht das letzte mögliche Wort ist (Schritt S7: NEIN), wird die mit JA oder mit NEIN beantwortbare Frage für das nächste mögliche Wort gestellt, z. B. "Ist es Tokyo Dome?" (Schritt S8), und der Ablauf kehrt zu Schritt S6 zurück, in dem das eingegebene Wort auf die mit ja oder nein beantwortbare Frage bewertet wird.
Andererseits wird, falls das eingegebene Wort der Antwort aufgrund der Bewertung in Schritt S6 (Schritt S6: JA) "JA" ist, der vorbestimmte Navigationsablauf aufgrund dieses bestätigten Wortes ausgeführt (Schritt S9), da das bestätigte Wort genau den Daten entspricht, die der Verwender akustisch eingeben möchte. Genauer wird, z. B. in dem Fall, in dem dieses Wort in Bestätigung der Frage angegeben wird, an welcher Position eine Umgebungskarte angezeigt werden soll, diese Position durch die entsprechenden Eingabedaten (das bestätigte Wort) bestätigt. In dem Fall, daß diese Eingabedaten (d. h. das bestätigte Wort) in Antwort auf die Frage gegeben wird, welches die Zielposition ist, eine Durchgangsposition ist, eine Startposition usw. ist, so wird diese Position durch die entsprechenden Eingabedaten bestätigt. In dem Fall, in dem diese Eingabedaten (d. h. das bestätigte Wort) als Antwort auf die Frage nach einem Steuerbefehl gegeben wird, wie einem Scrolling-Befehl, einer Vergrößerung/Verkleinerung des Kartenmaßstabes usw., wird dieser Steuerbefehl durch die entsprechenden Eingabedaten bestätigt. Dann wird der Ablauf entsprechend dem bestätigten Positionsbefehl oder dem bestätigten Steuerbefehl von der CPU 6, der Anzeigeeinheit 12, der Spracherzeugungsvorrichtung 17 usw. schrittweise ausgeführt.
Wenn die Durchführung des vorbestimmten, auf den akustisch eingegebenen Eingabedaten basierenden Navigationsablaufs vollständig ist, wird in dem Spracherkennungsumwandler 21 das eingebaute Wörterbuch aufgefrischt (Schritt S10), so daß auch andere Worte als "JA" und "NEIN" als mögliche Worte für eine nächste Spracherkennung möglich werden. Dann wird der Spracherkennungsumwandler 21 in seinen Anfangszustand zurückgesetzt (Schritt S11), so daß einer der aufeinanderfolgenden Spracherkennungsschritte beendet wird.
Falls das Wort für die mit ja oder mit nein beantwortbare Frage in Schritt S7 das letzte mögliche Wort ist (Schritt S7: JA), wird eine Nachricht von der Stimmerzeugungseinheit 22 und dem Lautsprecher 23 ausgegeben, die besagt, daß die Spracherkennung wieder von vorne begonnen wird (S12), und der Ablauf geht mit Schritt S10 weiter. Diese Nachricht kann akustisch von der Spracherzeugungseinheit 17 ausgegeben werden.
Wie oben beschrieben, werden gemäß dieser Ausführungsform der Erfindung in einem ersten Schritt der Spracheingabe zum Zeitpunkt der Eingabe des Ziels usw. in Antwort auf eine angezeigte oder akustisch ausgegebene Frage nach dem Ziel usw. mit der Stimme des Verwenders beliebige Worte, wie "Tokyo Tocho", in das externe Mikrophon 200 eingegeben. Dann antwortet der Verwender in einem zweiten Schritt der Spracheingabe "JA" (d. h. er gibt das Wort "JA" akustisch ein), wenn eine Mehrzahl von möglichen Worten, die alle jeweils eine hohe Wahrscheinlichkeit aufweisen, mit dem von der Eingabestimme gesprochenen Wort übereinzustimmen, in einer mit ja oder mit nein beantwortbaren Frage abgefragt werden, wie "Ist es Tokyo Dome?", "Ist es Tokyo Turm?" usw., falls die mit ja oder mit nein beantwortbare Frage zu bejahen ist. Zu diesem Zeitpunkt wird das Wort "JA" einfach und direkt von dem Spracherkennungsumwandler 21 mittels des eingebauten Wörterbuchs 21a erkannt, da dessen Referenzbereich auf einen engen Bereich eingeschränkt ist, so daß eine annähernd perfekte Bewertung erfolgen kann.
Deshalb treten auch kaum Probleme aufgrund einer fehlerhaften Spracherkennung auf, selbst wenn die oben genannte Art von bekannten Spracherkennungsschaltkreisen für beliebige Sprecher als Spracherkennungsumwandler 21, bei der die Wahrscheinlichkeit einer fehlerhaften Erkennung wesentlich höher ist, für diese Ausführungsform der Erfindung verwendet wird. Dies liegt daran, daß selbst, wenn eine fehlerhafte Spracherkennung wahrscheinlicher ist, eine Verwechslung des Wortes "JA" mit dem Wort "NEIN" fast unmöglich ist, da sich diese beiden Worte in ihrer Aussprache überhaupt nicht ähneln. Wenn nämlich das mögliche Wort, das von dem Spracherkennungsumwandler 21 als das unter den ausgegebenen möglichen Worten am nächsten an dem von der Eingabestimme gesprochenen Wort liegend angesehen wird (d. h., daß das Wort unter den ausgewählten Worten den höchsten Wert aufweist), nicht dem wirklich eingegebenen Wort entspricht, sondern das mögliche Wort, dessen Wert der zweithöchste ist, richtig ist, muß der Verwender auf zwei aufeinanderfolgende, einfache, mit ja oder mit nein beantwortbare Fragen lediglich "NEIN" → "JA" antworten. Andererseits muß der Verwender, falls das Wort mit dem dritthöchsten Wert das richtige Wort ist, auf drei aufeinanderfolgende, einfache, mit ja oder mit nein beantwortbare Fragen lediglich "NEIN" → "NEIN" → "JA" antworten.
Daher ist es für den Verwender nicht erforderlich, eine Liste von möglichen einander ähnelnden Worten auf einer eher kleinen Bildfläche der Anzeige zu betrachten und das richtige Wort ähnlich wie bei einem Textverarbeitungssystem zu bestätigen, also z. B. mit einem Cursor auf der Bildfläche auszuwählen. Somit besteht keine Gefahr, einen Verkehrsunfall zu verursachen.
Gemäß dieser Ausführungsform der Erfindung, ist es möglich, verschiedene für die Navigation erforderliche Daten sicher und richtig mit der Stimme des Verwenders einzugeben, was sehr bequem ist.
Ferner ist es möglich die Worte "JA" bzw. "NEIN" annähernd perfekt und direkt zu erkennen, da der Referenzbereich des eingebauten Wörterbuchs 21a des Spracherkennungsumwandlers 21 auf einen recht geringen Bereich eingeengt ist, der zum Zeitpunkt der Eingabe der Antwortstimme lediglich die Worte "JA" und "NEIN" als mögliche wählbare Objekte aufweist.
Bei dieser Ausführungsform der Erfindung ist es für den Verwender möglich, die Spracheingabe sicher und genau mit einem Minimum an erforderlichen Fragen einzugeben, da die Wertedaten quantitativ angeben, wie stark ein mögliches Wort dem eingegebenen Wort ähnelt oder diesem angenähert ist, und die möglichen Worte von der künstlichen Stimme mittels der Stimmerzeugungseinheit 22 und des Lautsprechers 23 in der Reihenfolge ihrer Werte ausgegeben werden (d. h. Worte die einen höheren Wert aufweisen und somit näher an dem eingegebenen Wort liegen werden zuerst ausgegeben). Sobald der Verwender in Antwort auf die mit ja oder mit nein beantwortbaren Fragen, die in der Reihenfolge der Werte der nachgefragten Worte ausgegeben werden, mit "JA" geantwortet hat, ist es für den Verwender nicht erforderlich weitere Fragen zu beantworten, da er schon ein mögliches Wort bestätigt hat.
Ferner kann die Navigationsvorrichtung gemäß dieser Ausführungsform der Erfindung auch an die Erfordernisse für eine Navigationsvorrichtung für Flugzeuge oder Schiffe angepaßt werden.

Claims (8)

1. Navigationsverfahren mit:
einem ersten Spracherkennungsschritt in dem aus einer großen Anzahl von in einem Wörterbuch (21a) gespeicherten Worten eine Mehrzahl von möglichen Worten ausgewählt wird, wobei jedes Wort relativ nahe an einem von einer Eingabestimme zu einem Zeitpunkt in ein Mikrophon (200) gesprochenem Wort liegt, zu dem auf eine für ein bestimmtes Steuern der Navigationsvorrichtung (100) erforderliche Eingabe gewartet wird;
einem Sprachausgabeschritt, in dem die ausgewählten möglichen Worte nacheinander in Form von Fragen ausgegeben werden;
einem zweiten Spracherkennungsschritt, in dem ein mögliches Wort ausgewählt wird, das als relativ nahe an einem von einer Antwort stimme als Antwort auf die Fragen im vorausgegangenen Sprachausgabeschritt in das Mikrophon (200) gesprochenen Wort liegend angesehen wird;
einem nach jeder Sprachausgabe eines möglichen Wortes erfolgenden Bewertungsschritt, in dem bewertet wird, ob das von der Antwortstimme gesprochene Wort mit einem bestimmten Wort übereinstimmt, das im Voraus als bejahendes Wort eingestellt wurde; und
einem Steuerschritt, in dem die Navigationsvorrichtung (100) durch das durch Bejahen ausgewählte Wort als erforderliche Information in einer bestimmten Weise gesteuert wird.
2. Navigationsverfahren nach Anspruch 1, wobei der zweite Spracherkennungsschritt aufweist:
einen Schritt, in dem die möglichen Worte aus nur einem Teil des Wörterbuchs (21a) ausgewählt werden, welcher Teil Daten des voreingestellten Wortes mit bejahender Bedeutung und Daten eines voreingestellten Wortes mit verneinender Bedeutung für die Eingabe der Antwort aufweist.
3. Navigationsverfahren nach Anspruch 1 oder 2, wobei
der erste Spracherkennungsschritt einen Schritt aufweist, in dem Annäherungsinformationen erzeugt werden, die während die möglichen Worte ausgewählt werden quantitativ angeben, wie stark ein jedes der ausgewählten möglichen Worte an das von der Eingabestimme gesprochene Wort angenähert ist; und
der Sprachausgabeschritt einen Schritt aufweist, in dem die ausgewählten möglichen Worte nacheinander in der Reihenfolge ihrer Annäherung an das von der Eingabestimme gesprochene Wort gemäß der Annäherungsangaben akustisch ausgegeben werden.
4. Navigationsverfahren nach einem der Ansprüche 1 bis 3,
wobei das Navigationsverfahren ferner einen Meßschritt aufweist, in dem eine momentane Position des Fortbewegungsmittels gemessen wird, in dem die Navigationsvorrichtung (100) eingebaut ist,
wobei der Steuerschritt aufweist:
einen Datenverarbeitungsschritt, in dem Routenleitinformationen zum Durchführen eines Routenleitens des Fortbewegungsmittels auf der Grundlage der gemessenen momentanen Position und dem ausgewählten Wort mittels einer Karte erzeugt werden, die aufgrund von in einem Speicher (DK) vorab abgespeicherten Kartendaten angezeigt wird; und
einem Ausgabeschritt, in dem die erzeugten Routenleitinformationen ausgegeben werden.
5. Navigationsvorrichtung (100) mit:
einer Spracherkennungsvorrichtung (21) zum Auswählen einer Mehrzahl von möglichen Worten aus einer großen Anzahl von in einem Wörterbuch (21a) gespeicherten Worten, wobei ein jedes Wort relativ nahe an einem von einer Eingabestimme zu einem Zeitpunkt in ein Mikrophon (200) gesprochenem Wort liegt, zu dem auf eine für ein bestimmtes Steuern der Navigationsvorrichtung erforderliche Eingabe gewartet wird;
einer Sprachausgabevorrichtung (22, 23) zum aufeinanderfolgenden akustischen Ausgeben der ausgewählten möglichen Worte in der Form von Fragen;
einer zweiten Spracherkennungsvorrichtung (21) zum Auswählen eines möglichen Wortes, das als relativ nahe an einem von einer Antwortstimme in das Mikrophon (200) als Antwort auf die von der Sprachausgabevorrichtung ausgegebenen Frage unter den Worten des Wörterbuchs (21a) angesehen wird;
einer Bewertungsvorrichtung (4, 6), mit der jedesmal, nachdem eines der ausgewählten möglichen Worte von der Sprachausgabevorrichtung akustisch ausgegeben wurde, aufgrund der von der zweiten Spracherkennungsvorrichtung ausgewählten möglichen Worte bewertet, ob das von der Antwortstimme gesprochene Wort mit einem vorbestimmten Wort übereinstimmt, das vorab als Wort mit bejahender Bedeutung eingestellt wurde; und
einer Steuervorrichtung (4, 6) zum Durchführen bestimmter Steuerungen der Navigationsvorrichtung unter Verwendung eines der ausgewählten möglichen Worte.
6. Navigationsvorrichtung (100) nach Anspruch 5, wobei die zweite Spracherkennungsvorrichtung (21) Vorrichtungen zum Auswählen der möglichen Worte aus nur einem Teil des Wörterbuchs (21a) aufweist, welches Wörterbuch Daten für das vorbestimmte Wort mit bejahender Bedeutung und Daten für das andere vorbestimmte Wort mit verneinender Bedeutung aufweist.
7. Navigationsvorrichtung (100) nach Anspruch 5 oder 6, wobei
die erste Spracherkennungsvorrichtung (21) Vorrichtungen zum Erzeugen von Annäherungsangaben aufweist, die während die möglichen Worte ausgewählt werden quantitativ angeben, wie stark ein jedes der ausgewählten möglichen Worte dem von der Eingabestimme gesprochenen Wort angenähert ist, und
die Sprachausgabevorrichtung (22, 23) Vorrichtungen zum aufeinanderfolgenden akustischen Ausgeben der ausgewählten möglichen Worte in der Reihenfolge ihrer Annäherung an das von der Eingabestimme gesprochene Wort gemäß der Annäherungsangaben aufweist.
8. Navigationsvorrichtung (100) nach einem der Ansprüche 5 bis 7, wobei
die Navigationsvorrichtung eine Meßvorrichtung (1, 2, 3) zum Messen einer momentanen Position des Fortbewegungsmittels aufweist, in dem die Navigationsvorrichtung eingebaut ist,
wobei die Steuervorrichtung (4, 6) aufweist:
eine Datenverarbeitungsvorrichtung zum Erzeugen von Routenleitinformationen zum Durchführen eines Routenleitens des Fortbewegungsmittels auf der Grundlage der gemessenen momentanen Position und dem ausgewählten Wort mittels einer Karte, die aufgrund von in einem Speicher (DK) vorab abgespeicherten Kartendaten angezeigt wird; und
Ausgabevorrichtungen (12, 17) zum Ausgeben der erzeugten Routenleitinformationen.
DE19717601A 1996-04-26 1997-04-25 Navigationsverfahren und Vorrichtung dafür Withdrawn DE19717601A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8107905A JPH09292255A (ja) 1996-04-26 1996-04-26 ナビゲーション方法及び装置

Publications (1)

Publication Number Publication Date
DE19717601A1 true DE19717601A1 (de) 1997-10-30

Family

ID=14471046

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19717601A Withdrawn DE19717601A1 (de) 1996-04-26 1997-04-25 Navigationsverfahren und Vorrichtung dafür

Country Status (2)

Country Link
JP (1) JPH09292255A (de)
DE (1) DE19717601A1 (de)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19755610A1 (de) * 1997-12-15 1999-06-17 Volkswagen Ag Verfahren und Einrichtung zur Ortsnavigation bei Fahrzeugleitsystemen
EP0935123A2 (de) * 1998-02-06 1999-08-11 Pioneer Electronic Corporation Vorrichtung und Verfahren zur Erfassung von Information
WO2000059193A1 (en) * 1999-03-26 2000-10-05 Koninklijke Philips Electronics N.V. Auto attendant with library of recognisable names
DE19914631A1 (de) * 1999-03-31 2000-10-12 Bosch Gmbh Robert Eingabeverfahren in ein Fahrerinformationssystem
WO2000077771A2 (de) * 1999-06-10 2000-12-21 Infineon Technologies Ag Spracherkennungsverfahren und -einrichtung
DE19933524A1 (de) * 1999-07-16 2001-01-18 Nokia Mobile Phones Ltd Verfahren zur Eingabe von Daten in ein System
EP1083405A1 (de) * 1999-09-09 2001-03-14 Xanavi Informatics Corporation Sprachreferenzapparat, Steuerungsprogramm für Sprachreferenzen auf einem Aufzeichnungsmedium und Navigationsapparat mit Spracherkennung
EP1146316A2 (de) * 2000-04-14 2001-10-17 Alpine Electronics, Inc. Navigationssystem
BE1013328A5 (fr) * 1998-08-06 2001-12-04 Bosch Gmbh Robert Systeme et procede de navigation pour un moyen de deplacement.
DE10037206A1 (de) * 2000-07-31 2002-02-14 Volkswagen Ag Verfahren und Vorrichtung zur Sprachausgabe in einem Navigationssystem
EP1372139A1 (de) * 2002-05-15 2003-12-17 Pioneer Corporation Vorrichtung und Programm zur Spracherkennung mit Fehlerkorrektur
EP1432963A2 (de) * 2001-09-28 2004-06-30 Robert Bosch Gmbh System und verfahren zur bereitstellung einer schnittstelle für mobile einheiten unter verwendung eines mobiltelefons
DE102004010406B3 (de) * 2004-03-01 2005-10-27 Siemens Ag Informations- oder Unterhaltungssystem eines Kraftfahrzeuges und Verfahren zur Auswahl eines Listeneintrags
WO2006016308A1 (en) * 2004-08-06 2006-02-16 Philips Intellectual Property & Standards Gmbh A method for a system of performing a dialogue communication with a user
DE102005030963B4 (de) * 2005-06-30 2007-07-19 Daimlerchrysler Ag Verfahren und Vorrichtung zur Bestätigung und/oder Korrektur einer einem Spracherkennungssystems zugeführten Spracheingabe
DE102007046761A1 (de) * 2007-09-28 2009-04-09 Robert Bosch Gmbh Verfahren zum Betrieb eines Navigationssystems, welches über eine Sprachausgabe verfügt

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5933804A (en) * 1997-04-10 1999-08-03 Microsoft Corporation Extensible speech recognition system that provides a user with audio feedback
JP2000020089A (ja) * 1998-07-07 2000-01-21 Matsushita Electric Ind Co Ltd 音声認識方法及びその装置、並びに音声制御システム
EP1083545A3 (de) 1999-09-09 2001-09-26 Xanavi Informatics Corporation Eigennamen Spracherkennung in einem Navigationssystem
JP6672722B2 (ja) * 2015-11-09 2020-03-25 三菱自動車工業株式会社 車両用音声操作装置

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19755610A1 (de) * 1997-12-15 1999-06-17 Volkswagen Ag Verfahren und Einrichtung zur Ortsnavigation bei Fahrzeugleitsystemen
EP0935123A2 (de) * 1998-02-06 1999-08-11 Pioneer Electronic Corporation Vorrichtung und Verfahren zur Erfassung von Information
EP0935123A3 (de) * 1998-02-06 2000-11-02 Pioneer Electronic Corporation Vorrichtung und Verfahren zur Erfassung von Information
BE1013328A5 (fr) * 1998-08-06 2001-12-04 Bosch Gmbh Robert Systeme et procede de navigation pour un moyen de deplacement.
WO2000059193A1 (en) * 1999-03-26 2000-10-05 Koninklijke Philips Electronics N.V. Auto attendant with library of recognisable names
DE19914631A1 (de) * 1999-03-31 2000-10-12 Bosch Gmbh Robert Eingabeverfahren in ein Fahrerinformationssystem
US6675147B1 (en) 1999-03-31 2004-01-06 Robert Bosch Gmbh Input method for a driver information system
WO2000077771A2 (de) * 1999-06-10 2000-12-21 Infineon Technologies Ag Spracherkennungsverfahren und -einrichtung
WO2000077771A3 (de) * 1999-06-10 2002-07-04 Infineon Technologies Ag Spracherkennungsverfahren und -einrichtung
DE19933524A1 (de) * 1999-07-16 2001-01-18 Nokia Mobile Phones Ltd Verfahren zur Eingabe von Daten in ein System
US7039629B1 (en) 1999-07-16 2006-05-02 Nokia Mobile Phones, Ltd. Method for inputting data into a system
EP1071075A3 (de) * 1999-07-16 2003-11-19 Nokia Corporation Verfahren zur Eingabe von Daten in ein System
EP1071075A2 (de) * 1999-07-16 2001-01-24 Nokia Mobile Phones Ltd. Verfahren zur Eingabe von Daten in ein System
EP1083405A1 (de) * 1999-09-09 2001-03-14 Xanavi Informatics Corporation Sprachreferenzapparat, Steuerungsprogramm für Sprachreferenzen auf einem Aufzeichnungsmedium und Navigationsapparat mit Spracherkennung
US6950797B1 (en) 1999-09-09 2005-09-27 Xanavi Informatics Corporation Voice reference apparatus, recording medium recording voice reference control program and voice recognition navigation apparatus
EP1146316A2 (de) * 2000-04-14 2001-10-17 Alpine Electronics, Inc. Navigationssystem
EP1146316B1 (de) * 2000-04-14 2005-04-13 Alpine Electronics, Inc. Navigationssystem
DE10037206A1 (de) * 2000-07-31 2002-02-14 Volkswagen Ag Verfahren und Vorrichtung zur Sprachausgabe in einem Navigationssystem
EP1432963A2 (de) * 2001-09-28 2004-06-30 Robert Bosch Gmbh System und verfahren zur bereitstellung einer schnittstelle für mobile einheiten unter verwendung eines mobiltelefons
EP2437032A3 (de) * 2001-09-28 2014-08-13 Robert Bosch GmbH Navigationssystem und entsprechendes Verfahren zur Spracheingabe einer Zieladresse
EP1432963A4 (de) * 2001-09-28 2009-04-29 Bosch Gmbh Robert System und verfahren zur bereitstellung einer schnittstelle für mobile einheiten unter verwendung eines mobiltelefons
EP1372139A1 (de) * 2002-05-15 2003-12-17 Pioneer Corporation Vorrichtung und Programm zur Spracherkennung mit Fehlerkorrektur
DE102004010406B3 (de) * 2004-03-01 2005-10-27 Siemens Ag Informations- oder Unterhaltungssystem eines Kraftfahrzeuges und Verfahren zur Auswahl eines Listeneintrags
WO2006016308A1 (en) * 2004-08-06 2006-02-16 Philips Intellectual Property & Standards Gmbh A method for a system of performing a dialogue communication with a user
DE102005030963B4 (de) * 2005-06-30 2007-07-19 Daimlerchrysler Ag Verfahren und Vorrichtung zur Bestätigung und/oder Korrektur einer einem Spracherkennungssystems zugeführten Spracheingabe
DE102007046761A1 (de) * 2007-09-28 2009-04-09 Robert Bosch Gmbh Verfahren zum Betrieb eines Navigationssystems, welches über eine Sprachausgabe verfügt

Also Published As

Publication number Publication date
JPH09292255A (ja) 1997-11-11

Similar Documents

Publication Publication Date Title
DE19717601A1 (de) Navigationsverfahren und Vorrichtung dafür
EP1176395B1 (de) Verfahren zur Auswahl einer Ortsbezeichnung in einem Navigationssystem durch Spracheingabe
DE60318430T2 (de) Computergestütztes System und Verfahren zur Informationsausgabe an einen Fahrer eines Fahrzeuges
EP1004851B1 (de) Adaptives Navigationssystem
DE10330274A1 (de) Sprachgesteuertes System
DE69830763T2 (de) Verfahren und Vorrichtung zum Steuern einer Kartenanzeige
DE60032193T2 (de) Verfahren und System zur Auswahl erkannter Wörter bei der Korrektur erkannter Sprache
DE19742054A1 (de) Eingabesystem wenigstens für Orts- und/oder Straßennamen
DE112012006997B4 (de) Navigationsvorrichtung
EP1624288A1 (de) Navigationssystem mit sprachgesteuerter Angabe von Sonderzielen
DE19859078A1 (de) Verfahren zur Leitung eines Führers eines Fahrzeugs von mindestens einem Start-zu mindestens einem Zielpunkt
EP1110056B1 (de) Navigationssystem zur zusätzlichen darstellung von richtungsangaben
WO2001069178A1 (de) Verfahren zur zieleingabe an einem navigationsgerät
EP1508889B1 (de) Fahrerinformationsvorrichtung
EP2420800A1 (de) Technik zur Signalisierung von Telefonanrufen während einer Routenführung
DE102018207735A1 (de) Spracherkennungseinrichtung und Verfahren zum Steuern derselben
DE19600700B4 (de) Navigationsgerät
DE3429882A1 (de) Fahrkursleitgeraet
DE102004017158B4 (de) Routenführungssystem mit Stimmführungsfähigkeit
DE102008011599A1 (de) Verfahren zur Bestimmung einer Fahrtroute für ein Fahrzeug
DE19614777A1 (de) Vorrichtung und Verfahren zur Zielführung eines Fahrzeugs
EP1121684A1 (de) Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache
DE19929425B4 (de) Verfahren zur Navigationszielauswahl und Navigationsgerät
DE102017211447A1 (de) Verfahren zum Auswählen eines Listeneintrags aus einer Auswahlliste einer Bedienvorrichtung mittels Sprachbedienung sowie Bedienvorrichtung
DE102017200976B4 (de) Verfahren zum Betreiben eines Kraftfahrzeugs mit einer Bedienvorrichtung

Legal Events

Date Code Title Description
8120 Willingness to grant licences paragraph 23
8141 Disposal/no request for examination