DE112013006384T5 - Spracherkennungsvorrichtung und Anzeigeverfahren - Google Patents

Spracherkennungsvorrichtung und Anzeigeverfahren Download PDF

Info

Publication number
DE112013006384T5
DE112013006384T5 DE112013006384.0T DE112013006384T DE112013006384T5 DE 112013006384 T5 DE112013006384 T5 DE 112013006384T5 DE 112013006384 T DE112013006384 T DE 112013006384T DE 112013006384 T5 DE112013006384 T5 DE 112013006384T5
Authority
DE
Germany
Prior art keywords
display
recognition
recognition result
unit
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112013006384.0T
Other languages
English (en)
Inventor
Masanobu Osawa
Yuki Furumoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112013006384T5 publication Critical patent/DE112013006384T5/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/265Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network constructional aspects of navigation devices, e.g. housings, mountings, displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Abstract

Da eine Spracherkennungsvorrichtung entsprechend der vorliegenden Erfindung die Ausgabe eines Spracherkennungsergebnisses entsprechend der Priorität einer Anzeige des Erkennungsergebnisses mit Bezug zu anderen Anzeigeinformationen als das Spracherkennungsergebnis zu jedem Zeitpunkt, während eine geäußerte Sprache erkannt wird, einstellen kann, verhindert die Spracherkennungsvorrichtung, dass die Erfassung von anderen für den Anwender wichtigen Informationen aufgrund der Anzeige des Erkennungsergebnisses gehemmt wird und verbessert den Anwenderkomfort.

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft eine Spracherkennungsvorrichtung, welche eine von einem Anwender geäußerte Sprache erkennt und ein Ergebnis der Erkennung anzeigt, und ein Anzeigeverfahren zum Anzeigen des Erkennungsergebnisses auf einer Anzeigevorrichtung.
  • HINTERGRUND DER ERFINDUNG
  • Als ein Spracherkennungsverfahren ist ein Verfahren zum Erkennen einer von einem Anwender geäußerten Sprache und Anzeigen eines Ergebnisses der Erkennung bekannt.
  • Beispielsweise beschreibt Patentliteratur 1 eine Spracherkennungsvorrichtung, welche eine von einem Anwender geäußerte Sprache erkennt und ein Ergebnis der Erkennung anzeigt und welche auf der Basis des Verwendungszustands des Geräts, welches durch den Anwender bedient werden kann, Informationen des lebenden Körpers des Anwenders etc. die Belastung des Anwenders bestimmt und, wenn die Belastung groß ist (zum Beispiel, wenn die Frequenz, mit welcher der Anwender eine durch Anzeigemittel bereitgestellte Anzeige visuell erkennt, gering ist), es für das Erkennungsergebnis einfach macht, angezeigt zu werden, wohingegen, wenn die Belastung klein ist (zum Beispiel, wenn die Frequenz, mit welcher der Anwender die durch die Anzeigemittel bereitgestellte Anzeige visuell erkennt, hoch ist), es für das Erkennungsergebnis schwierig macht, angezeigt zu werden.
  • STAND DER TECHNIK DOKUMENT
  • Patentliteratur
    • Patentliteratur 1: japanische ungeprüfte Patentanmeldungsveröffentlichung Nr. 2008-14818
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • AUFGABENSTELLUNG DER ERFINDUNG
  • Ein Problem mit konventionellen Spracherkennungsvorrichtungen, wie beispielsweise einer in beispielsweise Patentliteratur 1 beschriebenen, ist allerdings, dass, da die Ausgabefrequenz des Erkennungsergebnisses nicht auf der Basis von irgendetwas anderem als der Belastung des Anwenders eingestellt werden kann, das Spracherkennungsergebnis angezeigt wird, obwohl für den Anwender wichtige Informationen auf der Karte angezeigt werden, und daher der Anwender vom Erfassen der wichtigen Informationen gehemmt ist.
  • Die vorliegende Erfindung wurde gemacht, um das oben genannte Problem zu lösen, und es ist daher eine Aufgabe der vorliegenden Erfindung eine Spracherkennungsvorrichtung, welche entsprechend der Anzeigepriorität eines Spracherkennungsergebnisses mit Bezug zu anderen Anzeigeinformationen als Erkennungsergebnisse eine Ausgabe des Spracherkennungsergebnis einstellen kann, und ein Anzeigeverfahren zum Anzeigen des Erkennungsergebnisses auf einer Anzeigevorrichtung bereitzustellen.
  • MITTEL ZUR PROBLEMLÖSUNG
  • Um die oben genannte Aufgabe zu lösen, wird entsprechend der vorliegenden Erfindung eine Spracherkennungsvorrichtung bereitgestellt, welche einen von einem Anwender geäußerte Sprache erkennt und ein Erkennungsergebnis anzeigt, wobei die Spracherkennungsvorrichtung umfasst: eine Spracherfassungseinheit, welche einen durch den oben genannten Anwender geäußerte Sprache detektiert und erfasst; eine Spracherkennungseinheit, welche zu jedem Zeitpunkt, während die oben genannte Spracherkennungsvorrichtung aktiv ist, sich auf ein Spracherkennung-Wörterbuch bezieht, durch die oben genannte Spracherkennungseinheit erfasste Sprachdaten erkennt und ein Erkennungsergebnis auf der Basis einer vorbestimmten Beurteilungswahrscheinlichkeit ausgibt; eine Anzeige, welche das durch die oben genannte Spracherkennungseinheit ausgegebene Erkennungsergebnis anzeigt; eine Anzeigesteuereinheit, welche einen Befehl zum Anzeigen des durch die oben genannte Spracherkennungseinheit ausgegebenen Erkennungsergebnisses in einem vorbestimmten Erkennungsergebnis-Anzeigebereich der oben genannten Anzeige ausgibt; eine Anzeigepriorität-Berechnungseinheit, welche eine Anzeigepriorität des oben genannten Erkennungsergebnisses in dem oben genannten vorbestimmten Erkennungsergebnis-Anzeigebereich berechnet; und eine Erkennungsergebnis-Ausgabesteuereinheit, welche eine Beurteilungswahrscheinlichkeit bestimmt, welche zu der durch die oben genannte Anzeigepriorität-Berechnungseinheit berechneten Anzeigepriorität gehört, und diese Beurteilungswahrscheinlichkeit in der oben genannten Spracherkennungseinheit einstellt.
  • VORTEILE DER ERFINDUNG
  • Da die Spracherkennungsvorrichtung entsprechend der vorliegenden Erfindung die Ausgabe des Spracherkennungsergebnisses des entsprechend der Priorität der Anzeige des Erkennungsergebnisses mit Bezug zu anderen Anzeigeinformationen als das Spracherkennungsergebnis einstellen kann, verhindert die Spracherkennungsvorrichtung, dass die Erfassung von anderen für den Anwender wichtigen Informationen aufgrund der Anzeige des Erkennungsergebnisses gehemmt wird, und verbessert den Anwenderkomfort.
  • KURZBESCHREIBUNG DER FIGUREN
  • 1 ist ein Blockdiagramm, welches ein Beispiel einer Navigationsvorrichtung zeigt, auf welche eine Spracherkennungsvorrichtung entsprechend Ausführungsform 1 angewendet ist;
  • 2 ist ein Blockdiagramm, welches ein Beispiel der Struktur einer Sprachverarbeitungseinheit entsprechend Ausführungsform 1 zeigt;
  • 3 ist ein Diagramm, welches ein Beispiel eines Bildschirms zeigt, auf welchem Bedientasten, welche ein Erkennungsergebnis sind, in einem Erkennungsergebnis-Anzeigebereich in einem linken Teil einer Anzeige in einem Zustand angezeigt sind, bei welchem ein Kartenbildschirm auf der Anzeige angezeigt ist;
  • 4 ist ein Diagramm, welches eine Beziehung zwischen einem Kartenbildschirm, der Reiserichtung eines Fahrzeugs und dem Erkennungsergebnis-Anzeigebereich zeigt;
  • 5 ist eine Tabelle, welche ein Beispiel einer Korrespondenz zwischen Informationen in der Reiserichtung des Fahrzeugs und eines Anzeigepriorität-Einstellwerts eines Erkennungsergebnisses zeigt;
  • 6 ist ein Diagramm, welches ein Beispiel eines Bildschirms, auf welchem Einrichtungssymbole wie beispielsweise Parkplätze in dem Erkennungsergebnis-Anzeigebereich in einem Zustand angezeigt sind, bei welchem ein Kartenbildschirm auf der Anzeige angezeigt ist;
  • 7 ist eine Tabelle, welche eine Korrespondenz zwischen der Anzahl von Einrichtungssymbolen und einem Anzeigepriorität-Einstellwert zeigt;
  • 8 ist eine Tabelle, welche ein Beispiel des Anzeigepriorität-Einstellwerts eines Erkennungsergebnisses für jeden Straßentyp zeigt;
  • 9 ist eine Tabelle, welche ein Beispiel des Anzeigepriorität-Einstellwerts eines Erkennungsergebnisses für jeden Bereichstyp zeigt;
  • 10 ist eine Tabelle, welche ein Beispiel des Anzeigepriorität-Einstellwerts eines Erkennungsergebnisses für jede grafische Kartenskala zeigt;
  • 11 ist ein Diagramm, welches ein Beispiel eines Bildschirms zeigt, auf welchem Führungsinformationen oder Warnungsinformationen in dem Erkennungsergebnis-Anzeigebereich in einem Zustand angezeigt sind, bei welchem ein Kartenbildschirm auf der Anzeige angezeigt ist;
  • 12 ist eine Tabelle, welche ein Beispiel einer Korrespondenz zwischen Führungsinformationen/Warnungsinformationen und einem Anzeigepriorität-Einstellwert eines Erkennungsergebnisses zeigt;
  • 13 ist eine Tabelle, welche ein Beispiel des Anzeigepriorität-Einstellwerts eines Erkennungsergebnisses für eine Kombination der Inhalte des Erkennungsergebnisses und eines aktuell angezeigten Anzeigebildschirms zeigt;
  • 14 ist ein Diagramm, welches eine Beziehung zwischen einer Anzeigepriorität eines Erkennungsergebnisses und einer Beurteilungswahrscheinlichkeit zeigt;
  • 15 ist ein Flussdiagramm, welches einen Prozess zum Anzeigen einer Bedientaste, welche ein Spracherkennungsergebnis ist, zeigt;
  • 16 ist ein Flussdiagramm, welches einen Prozess nach der Anzeige der Bedientaste zeigt;
  • 17 ist ein Flussdiagramm, welches einen Prozess zum Einstellen einer Beurteilungswahrscheinlichkeit zeigt;
  • 18 ist ein Diagramm, welches das Beispiel eines Bildschirmübergangs zeigt, welcher aus einer Beziehung zwischen der Reiserichtung des Fahrzeugs und einer Bedientaste, welche ein in dem Erkennungsergebnis-Anzeigebereich angezeigtes Erkennungsergebnis ist, in einem Zustand resultiert, bei welchem ein Kartenbildschirm auf der Anzeige angezeigt ist;
  • 19 ist ein Blockdiagramm, welches ein Beispiel der Struktur einer Sprachverarbeitungseinheit entsprechend Ausführungsform 2 zeigt;
  • 20 ist eine Tabelle, welche ein Beispiel einer Korrespondenz zwischen einer Anzeigepriorität, einem Spracherkennung-Wörterbuchnamen und der Anzahl von erkannten Wörtern, welche in einem Spracherkennung-Wörterbuch-Wechselinformationen-Speicher gespeichert sind, zeigt;
  • 21 ist ein Flussdiagramm, welches eine durch eine Spracherkennungsvorrichtung entsprechend Ausführungsform 2 ausgeführte Verarbeitung zeigt;
  • 22 ist ein Blockdiagramm, welches ein Beispiel der Struktur einer Sprachverarbeitungseinheit entsprechend Ausführungsform 3 zeigt;
  • 23 ist ein Diagramm, welches eine Beziehung zwischen einer Anzeigepriorität eines Erkennungsergebnisses und der Anzahl von zu erkennenden Wörtern zeigt;
  • 24 ist eine Tabelle, welche ein Beispiel einer Korrespondenz zwischen der Angabe von einem Wort, welche in einem Erkennungswortkandidatenspeicher gespeichert ist und welche ein zu erkennender Kandidat ist, und einer Erkennungsrangfolge zeigt;
  • 25 ist ein Flussdiagramm, welches eine durch eine Spracherkennungsvorrichtung entsprechend Ausführungsform 3 ausgeführte Verarbeitung zeigt; und
  • 26 ist ein Diagramm, welches einen Umriss eines Navigationssystems entsprechend Ausführungsform 4 zeigt.
  • AUSFÜHRUNGSFORMEN DER ERFINDUNG
  • Nachfolgend werden bevorzugte Ausführungsformen der vorliegenden Erfindung genau mit Bezug zu den Figuren erläutert werden.
  • Entsprechend der vorliegenden Erfindung ist eine Spracherkennungsvorrichtung bereitgestellt, welche eine von einem Anwender geäußerte Sprache erkennt und zu jeder Zeit, während die Spracherkennungsvorrichtung aktiv ist, eine Sprache erkennt. Obwohl ein Fall, bei welchem die Spracherkennungsvorrichtung entsprechend der vorliegenden Erfindung auf eine in einem sich bewegenden Objekt, wie beispielsweise ein Fahrzeug, angebrachte Navigationsvorrichtung angewendet wird, als ein Beispiel in den nachfolgenden Ausführungsformen erläutert werden wird, kann die Spracherkennungsvorrichtung ebenso auf eine Navigationsvorrichtung für andere sich bewegende Objekte als Fahrzeuge und einen Server für ein Navigationssystem angewendet werden. Weiter kann die Spracherkennungsvorrichtung entsprechend der vorliegenden Erfindung auf eine Anwendung für ein in mobilen Informationsendgeräten, wie beispielsweise Smartphones, Tablet-PCs und Mobiltelefonen, installiertes Navigationssystem verwendet werden.
  • Ausführungsform 1.
  • 1 ist ein Blockdiagramm, welches ein Beispiel einer Navigationsvorrichtung zeigt, auf welche eine Spracherkennungsvorrichtung entsprechend Ausführungsform 1 der vorliegenden Erfindung angewendet ist. Diese Navigationsvorrichtung umfasst eine Steuereinheit 1, einen GPS-Empfänger 2, einen unabhängigen Navigationssensor 3, eine Aktuelle-Position-Erkennungseinheit 4, einen Verkehrsinformationen-Sender und -Empfänger 5, eine Routenbestimmungseinheit 6, eine Routenführungseinheit 7, ein Mikrofon 8, Sprachverarbeitungseinheit 9, eine Sprachsynthese-Einheit 10, einen Karteninformationsspeicher 11, eine Karteninformationen-Erfassungseinheit 12, eine Befehlseingabeeinheit 13, eine Anzeigesteuereinheit 14, eine Anzeige 15, eine verbunden mit und einen Lautsprecher 17.
  • Die Steuereinheit 1 steuert dem Betrieb der gesamten Navigationsvorrichtung.
  • Der GPS-Empfänger 2 ist vorgesehen zum Anwenden eines Satellitennavigationssystems, welches die aktuelle Position eines sich bewegenden Objekts durch Verwenden von Funkwellen von GPS-Satelliten misst.
  • Der unabhängige Sensor 3 ist vorgesehen zum Erkennen der aktuellen Position und Leiten eines sich bewegenden Objekts durch Verwenden eines Steuerkurssensors, eines Reiserichtung-Sensors und so weiter und Anwenden eines unabhängigen Navigationssystems.
  • Die Aktuelle-Position-Erkennungseinheit 4 empfängt Signale von dem GPS-Empfänger 2 und dem unabhängigen Navigationssensor 3 und erkennt die aktuelle Position und Reiserichtung eines Fahrzeugs durch gemeinsames Verwenden des Satellitennavigationssystems und des unabhängigen Navigationssystems und Ausführen eines Kartenabgleichs auf der Basis von nachfolgend genannten Karteninformationen. Die Aktuelle-Position-Erkennungseinheit kann alternativ eines der Navigationssysteme verwenden.
  • Der Verkehrsinformationen-Sender und -Empfänger 5 empfängt Verkehrsinformationen, welche durch einen FM-Multiplex-Rundfunk, ein Radiowellensignal oder ein Lichtsignal (welches dargestellt ist durch VICS (Vehicle Information & Communication System/eingetragene Handelsmarke)) bereitgestellt ist, Stauinformationen, welche durch DSRC (Dedicate Short Range Communication) bereitgestellt ist, und so weiter. Der Verkehrsinformationen-Transmitter und -Empfänger sendet ebenso Informationen über das Fahrzeug, zum Beispiel Testinformationen wie zum Beispiel die aktuelle Position.
  • Auf der Basis eines Punktes, welcher durch einen Anwender über die Befehlseingabeeinheit 13, was später beschrieben werden wird, oder eine Sprachoperation eingestellt ist, der durch die Aktuelle-Position-Erkennungseinheit 4 erkannten Positionsinformationen und von durch die Karteninformationen-Erfassungseinheit 12 erfassten Karteninformationen, was später beschrieben werden wird, bestimmt die Routenbestimmungseinheit 6 eine optimale Route (von hier an als „eine empfohlene Route” bezeichnet) von der aktuellen Position zu dem eingestellten Punkt.
  • Die Routenführungseinheit 7 erzeugt ein Routenführungsdiagramm und eine Routenführung Nachricht zum Bereitstellen einer Führung zu einem Zeitpunkt, wenn das Fahrzeug sich entlang der durch die Routenbestimmungseinheit 6 bestimmten Route bewegt, auf der Basis der durch die Karteninformationen-Erfassungseinheit 12 erfassten Karteninformationen.
  • Das Mikrofon 8 erfasst (klang-erfasst) eine durch den Anwender geäußerte Sprache. Als das Mikrofon 8 ist beispielsweise ein Rundum-(ein nicht-gerichtetes)Mikrofon, ein Array-Mikrofon, bei welchem eine Vielzahl von Rundum-(oder nicht-gerichteten)Mikrofonen in einer Array-Form angeordnet sind, und dessen Richtungseigenschaften einstellbar ausgebildet sind, oder ein einfach-gerichtetes Mikrofon, welches eine Richtcharakteristik nur in einer einzelnen Richtung aufweist und dessen Richtungseigenschaften nicht eingestellt werden kann, vorgesehen.
  • Die Sprachverarbeitungseinheit 9 verarbeitet die durch das Mikrofon 8 erfasste Sprache und führt eine Spracherkennung aus. Die Details der Spracherkennung werden später mit Bezug zu 2 beschrieben werden.
  • Die Sprachsynthese-Einheit 10 erzeugt eine synthetisierte Sprache aus eingegebenen Zeichen oder einer eingegebenen Zeichenfolge. Sprachsynthese wird durch Verwenden eines in beispielsweise „Sadaoki Furui”, „Sprachinformationenverarbeitung” Kapitel 4” beschriebenen Verfahrens.
  • Der Karteninformationsspeicher 11 speichert beispielsweise Daten wie „Straßeninformationen” über Straßen, „Einrichtungsinformationen” über Einrichtungen (Typen, Namen, Positionen etc.), „verschiedene Teile von Zeicheninformationen” (Ortsnamen, Einrichtungsnamen, Kreuzungsnamen, Straßennamen, etc.), „verschiedene Teile von Symbolinformationen”, welche jeweils eine Einrichtung, eine Straßennummer oder Ähnliches zeigen, und Teile von Informationen zur Führung, welche in der Routenführungseinheit verwendet werden (Positionsinformationen über vorbestimmte Schlüsselpunkte, Zeichnen-Informationen an jedem der Schlüsselpunkte, weitere Sprachführungsinformationen, etc.). Der Karteninformationsspeicher kann beispielsweise eine HDD (Hard Disk Drive-Festplatte) oder ein Speicher wie beispielsweise eine SD-Karte, welche eine Halbleitervorrichtung verwendet, sein. Als eine Alternative kann der Karteninformationsspeicher in einem Netzwerk vorhanden sein und zum Erfassen von Informationen wie beispielsweise Straßendaten über ein Kommunikationsnetzwerk geeignet ausgebildet sein (Kartendaten-Erfassungseinheit).
  • Wenn ein Karteninformationen-Erfassungsbefehlen, ein Einrichtungsinformationen-Erfassungsbefehl oder Ähnliches empfangen wird, durchsucht die Karteninformationen-Erfassungseinheit 12 den Karteninformationsspeicher 11 zum Erfassen der notwendigen Informationen.
  • Die Befehlseingabeeinheit 13 gibt einen Befehl über eine manuelle Bedienung eines Anwenders ein. Dieser Befehl wird durch einen in der Navigationsvorrichtung angeordneten Hardwareschalter, einen Berührungsschalter, welcher auf der Anzeige eingestellt und angezeigt wird, was später beschrieben werden wird, eine Erkennungsvorrichtung, welche einen durch entweder eine in einem Lenkrad oder ähnlichem installierte Fernsteuereinheit oder eine getrennt angeordnete Fernsteuereinheit oder Ähnliches ausgegebenen Befehl erkennt, bereitgestellt.
  • Die Anzeigesteuereinheit 14 erfasst notwendige Informationen von der Karteninformationen-Erfassungseinheit 12, der Aktuelle-Position-Erkennungseinheit 4, dem Verkehrsinformationen-Sender und -Empfänger 5, der Routenbestimmungseinheit 6, der Routenführungseinheit 7 und der Sprachverarbeitungseinheit 9, erzeugt Informationen, welche auf der Anzeige 15 zu zeichnen sind, was später beschrieben werden wird, und gibt einen Befehl zum Anzeigen dieser Informationen an die Anzeige 15 aus.
  • Die Anzeige 15 ist ein anzeigeintegrierter Berührungsbildschirm. Beispielsweise umfasst die Anzeige eine LCD (Flüssigkristallanzeige) und einen Berührungssensor und führt ein Zeichnen auf dem Bildschirm entsprechend dem Befehl der Anzeigesteuereinheit 14 aus. Als der Berührungsbildschirm kann irgendeiner eines drucksensitiven Typs, einer eines elektromagnetischen Induktionstyps, einer eines kapazitiven Abtasttyps oder einer, welcher eine Kombination von manchen dieser Typen ist, verwendet werden. Weiter kann anstelle des LCD eine organische Elektrolumineszenz-Anzeige verwendet werden.
  • Die Sprachsteuereinheit 16 gibt einen Befehl zum Ausgeben von sowohl der Sprachinformationen zur Führung von der Routenführungseinheit 7 als auch der durch die Sprachsyntheseeinheit 10 erzeugten synthetisierten Sprache an den Lautsprecher 17 aus.
  • Lautsprecher 17 gibt die Sprache entsprechend dem Befehl von der Sprachsteuereinheit 16 aus.
  • Als Nächstes werden Details der Sprachverarbeitungseinheit 9 erläutert werden. 2 ist ein Blockdiagramm, welches ein Beispiel der Struktur der Sprachverarbeitungseinheit 9 entsprechend Ausführungsform 1 zeigt. Wie in 2 gezeigt, umfasst die Sprachverarbeitungseinheit 9 eine Spracherfassungseinheit 18, eine Spracherkennungseinheit 19, ein Spracherkennung-Wörterbuch 20, eine Anzeigepriorität-Berechnungseinheit 21 und eine Erkennungsergebnis-Ausgabesteuereinheit 22.
  • Die Spracherfassungseinheit 18 nimmt einen durch das Mikrofon 8 erfasste Äußerung eines Anwenders auf, das heißt eine eingegebene Sprache, und A/D(Analog/Digital)-wandelt die eingegebene Sprache durch Verwenden von beispielsweise PCM (Pulscodemodulation) um.
  • Die Spracherkennungseinheit 19 erkennt eine zu den Inhalten, welche der Anwender geäußert hat, gehörende Sprachsektion aus einem durch die Spracherfassungseinheit 18 digitalisierten Sprachsignal, extrahiert eine Merkmalsgröße der Sprachdaten über diese Sprachsektion, führt einen Erkennungsprozess auf der Basis der Merkmalsgröße durch Verwenden des Spracherkennung-Wörterbuchs 20 aus und gibt ein Erkennungsergebnis mit einer Wahrscheinlichkeit gleich oder größer als eine vorbestimmte Beurteilungswahrscheinlichkeit (oder größer als die vorbestimmte Beurteilungswahrscheinlichkeit) aus. Der Erkennungsprozess kann durch Verwenden von beispielsweise einem typischen Verfahren wie beispielsweise einem HMM(Hidden Markov Modell)-Verfahren ausgeführt werden.
  • Im Übrigen ist es bei einer in Fahrzeugnavigationssystemen und so weiter angebrachten Spracherkennungsfunktion allgemein üblich, dass der Anwender für das System einen Beginn seiner oder ihrer Äußerung angibt (befehlt). Daher ist eine Taste zum Befehlen eines Spracherkennungsstarts (von hier an als „eine Spracherkennungsstart-Befehlseinheit” bezeichnet) auf dem Berührungsbildschirm angezeigt oder am Lenkrad installiert. Die Spracherkennungseinheit erkennt eine, nachdem die Spracherkennungsstart-Befehlseinheit durch den Anwender gedrückt ist, geäußerte Sprache. Insbesondere gibt die Spracherkennungsstart-Befehlseinheit ein Spracherkennungsstart-Signal aus und, wenn dieses Signal empfangen wird, erkennt die Spracherkennungseinheit eine Sprachsektion entsprechend den Inhalten, welche der Anwender geäußert hat, aus den durch die Spracherfassungseinheit, nach dem Empfangen des Signals erfassten Sprachdaten, und führt den oben genannten Erkennungsprozess aus.
  • Im Gegensatz dazu erkennt die Spracherkennungseinheit 19 entsprechend Ausführungsform 1 die Inhalte, welche der Anwender zu jedem Zeitpunkt geäußert hat, selbst wenn die Sprachverarbeitungseinheit einen Spracherkennungsstartbefehl nicht bereitstellt, wie oben erwähnt, welcher durch den Anwender bereitgestellt wird. Insbesondere führt, selbst wenn die Sprachverarbeitungseinheit ein Spracherkennungsstart-Signal nicht empfängt, die Spracherkennungseinheit 19 den Prozess zu jedem Zeitpunkt, während die Navigationsvorrichtung, in welcher diese Spracherkennungsvorrichtung eingefügt ist, aktiv ist, zum Erkennen einer zu den Inhalten, welche der Anwender geäußert hat, gehörenden Sprachsektion aus den durch die Spracherfassungseinheit 18 erfassten Sprachdaten aus, zum Extrahieren einer Merkmalsgröße der Sprachdaten über diese Sprachsektion, zum Ausführen des Erkennungsprozesses auf der Basis der Merkmalsgröße durch Verwenden des Spracherkennung-Wörterbuchs 20 und zum Ausgeben eines Spracherkennungsergebnisses aus. Dasselbe gilt für die nachfolgenden Ausführungsformen.
  • Als die vorbestimmte Beurteilungswahrscheinlichkeit, welche die Spracherkennungseinheit 19 verwendet, wenn ein Erkennungsergebnis ausgegeben wird, ist ein fester Anfangswert (zum Beispiel 500) vorab eingestellt und danach wird ein durch die Erkennungsergebnis-Ausgabesteuereinheit 22 bestimmter Wert, was später beschrieben werden wird, eingestellt.
  • Die Anzeigesteuereinheit 14 gibt einen Befehl zum Anzeigen des durch die Spracherkennungseinheit 19 bereitgestellten Erkennungsergebnisses in einem Erkennungsergebnis-Anzeigebereich 24 (siehe 3) aus, welcher vorab als ein Bereich eingestellt ist, bei welchem das Erkennungsergebnis auf der Anzeige 15 angezeigt wird. 3 ist ein Diagramm, welches ein Beispiel des Bildschirms zeigt, auf welchem Bedientasten 23, welche das Erkennungsergebnis sind, in dem Erkennungsergebnis-Anzeigebereich 24, welches ein linker Teil in der Anzeige 15 ist, in einem Zustand angezeigt sind, bei welchem ein Kartenbildschirm auf der Anzeige 15 ebenso wie ein Fahrzeug 31 angezeigt ist. Der Erkennungsergebnis-Anzeigebereich 24 kann ein linker Teil in der Anzeige 15 sein, wie in beispielsweise 3 gezeigt, oder kann ein fester und vorab eingestellter Bereich sein, wie beispielsweise ein oberer Teil in der Anzeige 15, wie in 4(b) gezeigt, was später beschrieben wird. Als eine Alternative ist der Anwender befähigt den Bereich beliebig einzustellen.
  • Weiter wird entsprechend dieser Ausführungsform das durch die Spracherkennungseinheit 19 bereitgestellte Erkennungsergebnis als die Bedientasten 23 in dem Erkennungsergebnis-Anzeigebereich 24 der Anzeige 15 angezeigt, wie beispielsweise in 3 gezeigt. Zu dem Erkennungsergebnis gehörende Funktionen sind zu dem angezeigten Erkennungsergebnis (Bedientasten 23) zugeordnet und, wenn eine der Bedientasten 23 durch eine Bedienung über die Befehlseingabeeinheit 13 oder eine Sprachbedienung ausgewählt wird, wird die zu der Bedientaste zugeordnete Funktion ausgeführt.
  • Andererseits wird, wenn keine Auswahlbedienung an den Bedientasten 23 durch den Anwender während einer festen Zeitperiode (zum Beispiel 5 bis 10 Sekunden) ausgeführt wird, nachdem die Bedientasten 23 in dem Erkennungsergebnis-Anzeigebereich 24 angezeigt worden sind, gibt die Anzeigesteuereinheit 14 einen Befehl zum Beenden der Anzeige des Erkennungsergebnisses (die Anzeige der Bedientasten 23) an die Anzeige 15 aus. Im Ergebnis verschwindet die Anzeige der Bedientasten 23, welche das Erkennungsergebnis sind.
  • In der nachfolgenden Erläuterung erkennt die Spracherkennungseinheit 19 einen Gattungsnamen (von hier ab als „ein Einrichtungsgattungsname” bezeichnet), wie beispielsweise eine „Tankstelle” oder einen „Verbrauchermarkt”, zu welcher eine Einrichtung gehört, aus der Äußerung des Anwenders und gibt das Erkennungsergebnis auf der Basis der durch die Erkennungsergebnis-Ausgabesteuereinheit 22 eingestellten Beurteilungswahrscheinlichkeit aus.
  • Es wird angenommen, dass die Anzeigesteuereinheit 14 einen Befehl zum Anzeigen des ausgegebenen Erkennungsergebnisses als Bedientasten 23 ausgibt, wie in 3 gezeigt. Eine Funktion zum Ausführen einer Einrichtungssuche über eine zugehörige Gattung ist zu jedem der Bedientasten 23 zugeordnet und, wenn eine der Bedientasten 23 durch den Anwender ausgewählt wird, wird ein Befehlssignal, welches in Übereinstimmung mit der Bedientaste 23 gebracht ist und einen Befehl zum Ausführen einer Einrichtungssuche über die Gattung zeigt, ausgegeben und die Karteninformationen-Erfassungseinheit 12 erfasst Einrichtungsinformationen aus dem Speicher 11 auf der Basis des Signals.
  • Weiter wird eine Erläuterung unter der Annahme gemacht, dass die Spracherkennungseinheit 19 eine Erkennung an dem Einrichtungsgattungsnamen durch Verwenden eines Schlüsselworterkennens, welches eine bekannte Technik ist, ausführt.
  • Anstelle der Erkennung an dem Einrichtungsgattungsnamen durch Verwenden des Schlüsselworterkennens kann die gesamte Erkennung durch Verwenden einer Großvokabular-Dauerspracherkennung ausgeführt werden und ein Verfahren zum Ausführen einer morphologischen Analyse an dem Erkennungsergebnis und zum Extrahieren eines Einrichtungsgattungsnamens kann verwendet werden.
  • Es wird weiter angenommen, dass die Spracherkennungseinheit 19 anstelle eines Einrichtungsgattungsnamens beispielsweise einen Künstlernamen, einen Albumsnamen, einen Musiktitelnamen, einen Befehl zum Bedienen des Fahrzeugnavigationssystems oder Ähnlichem erkennt. Weiter kann eine zu dem angezeigten Erkennungsergebnis (Bedientaste 23) zugeordnete Funktion eine zum Suchen nach einem Musikstück durch Verwenden von beispielsweise einem Künstlernamen, einem Albumsnamen oder einem Musiktitelnamen oder eine zu einem Befehl gehörige sein.
  • Die Anzeigepriorität-Berechnungseinheit 21 bestimmt, welche von den vorbestimmten Elementen (1) bis (8), welche später beschrieben werden werden, erfüllt ist, auf der Basis der durch die Aktuelle-Position-Erkennungseinheit 4 erkannten aktuellen Positionsinformationen, der durch den Verkehrsinformationen-Sender und -Empfänger 5 empfangenen Verkehrsinformationen, der durch die Routenbestimmungseinheit 6 bestimmten Routeninformationen, der durch die Routenführungseinheit 7 ausgegebenen Führungsinformationen, der durch die Karteninformationen-Erfassungseinheit 12 erfassten Informationen und so weiter, bestimmt einen Anzeigepriorität-Einstellwert für ein jedes der erfüllten Elemente auf der Basis der Ergebnisse der Bestimmung und berechnet eine Anzeigepriorität des Erkennungsergebnisses in dem Erkennungsergebnis-Anzeigebereich 24.
  • Die Anzeigepriorität zeigt den Grad an, dass das Spracherkennungsergebnis mit einer höheren Priorität als andere Anzeigeinformationen (zum Beispiel Karteninformationen und so weiter) als das Spracherkennungsergebnis angezeigt werden sollte. Da, je höher die Anzeigepriorität ist, desto niedriger die Beurteilungswahrscheinlichkeit der Spracherkennung ist, wird die Spracherkennung einfach ausgeführt und die Ausgabefrequenz (Anzeigefrequenz) des Spracherkennungsergebnisses wird im Ergebnis hoch. Im Gegensatz dazu, da, je niedriger die Anzeigepriorität ist, desto höher die Beurteilungswahrscheinlichkeit der Spracherkennung ist, wird die Spracherkennung schwerer ausgeführt und die Ausgabefrequenz (Anzeigefrequenz) des Spracherkennungsergebnisses wird im Ergebnis niedrig. Insbesondere weisen die Anzeigepriorität und die Beurteilungswahrscheinlichkeit, welche für eine Spracherkennung verwendet wird, eine negative Korrelation zwischen diesen auf.
  • Als Nächstes wird, während durch die Anzeigepriorität-Berechnungseinheit 21 bestimmte Elemente und der Anzeigepriorität-Einstellwert (Einstellwert) für jedes Element erläutert werden wird, ein Verfahren zum Berechnen der Anzeigepriorität erläutert werden.
  • Es wird angenommen, dass jedes Element in eines der nachfolgenden Hauptelemente kategorisiert ist, wie in (1) bis (8) gezeigt, und die Anzeigepriorität-Berechnungseinheit 21 zumindest eine der Hauptelemente (1) bis (8) als ein Bestimmungsobjekt bestimmt. Ein oder mehrere Elemente können als das eine oder mehrere Hauptelemente, welche Bestimmungsobjekte sind, vorbestimmt werden oder der Anwender ist befähigt beliebig ein oder mehrere Elemente aus einem Einstellbildschirm auszuwählen.
  • (1) „Das Vorhandensein oder Abwesendsein des Erkennungsergebnis-Anzeigebereichs 24 in der Reiserichtung des Fahrzeugs”
  • 4 ist ein Diagramm, welches eine Beziehung zwischen dem Kartenbildschirm, der Reiserichtung des Fahrzeugs und dem Erkennungsergebnis-Anzeigebereich 24 zeigt.
  • Wenn eine Karte auf der Anzeige 15 angezeigt ist, während diese mit Norden nach oben orientiert ist, bedeutet die Reiserichtung „die Himmelsrichtung, in welche das Fahrzeug tatsächlich fährt”. Beispielsweise, wenn die Karte mit Norden nach oben orientiert ist und das Fahrzeug 31 nach Westen fährt, wird eine Anzeige erzeugt, wie in 4(a) gezeigt. Weiter zeigt 4(a) einen Fall, bei welchem der Erkennungsergebnis-Anzeigebereich 24 ein linker Teil in der Anzeige 15 ist.
  • Weiter, wenn eine Karte auf der Anzeige 15 angezeigt wird, während diese nach oben fahrend orientiert ist, bedeutet die Reiserichtung „eine nach oben gerichtete Richtung auf dem Anzeigebildschirm”. In diesem Fall wird beispielsweise eine Anzeige erzeugt, wie in 4(b) gezeigt. Diese 4(b) zeigt einen Fall, bei welchem der Erkennungsergebnis-Anzeigebereich 24 ein oberer Teil in der Anzeige 15 ist.
  • Zusätzlich zu den oben genannten Beispielen gibt es beispielsweise einen Fall, wie in 4(c) gezeigt, bei welchem, wenn der Erkennungsergebnis-Anzeigebereich 24 in einer Richtung existiert, in welcher das Fahrzeug 31 nach rechts (oder links) abbiegt, ist „die tatsächliche Himmelsrichtung nach dem Rechts-(oder Links-)Abbiegen” oder „eine Richtung auf dem Anzeigebildschirm nach dem Rechts-oder Links-)Abbiegen” die Reiserichtung.
  • Als Nächstes wird ein Bestimmungsverfahren erläutert werden, welches die Anzeigepriorität-Berechnungseinheit 21 verwendet.
  • Die folgende Erläuterung wird unter der Annahme gemacht werden, dass Informationen über die Position und einen Bereich in der Anzeige 15 des Erkennungsergebnis-Anzeigebereichs 24 in der Anzeigepriorität-Berechnungseinheit 21 gespeichert ist. Als eine Alternative können die Informationen in einer anderen Komponente wie beispielsweise der Anzeigesteuereinheit 14 gespeichert sein und können von dieser Komponente erfasst werden.
  • Wenn eine Karte angezeigt wird, während diese beispielsweise mit Norden nach oben orientiert ist, erfasst die Anzeigepriorität-Berechnungseinheit 21 die aktuelle Reiserichtung des Fahrzeugs von der Aktuelle-Position-Erkennungseinheit 4 und bestimmt, ob die Reiserichtung mit der Position des Erkennungsergebnis-Anzeigebereichs 24 übereinstimmt.
  • Weiter, wenn eine Karte angezeigt ist, während diese beispielsweise nach oben fahrend orientiert ist, bestimmt die Anzeigepriorität-Berechnungseinheit 21, ob die Position des Erkennungsergebnis-Anzeigebereichs 24 in einem oberen Teil des Anzeigebildschirms ist oder nicht.
  • Wenn der Erkennungsergebnis-Anzeigebereich 24 in der Reiserichtung des Fahrzeugs existiert, kann die Anzeigepriorität-Berechnungseinheit weiter bestimmen, ob Verkehrsinformationen auf der Straße in der Reiserichtung angezeigt sind oder nicht.
  • Beispielsweise bestimmt die Anzeigepriorität-Berechnungseinheit, ob eine Anzeige 32 von Stauinformationen auf der Straße in der Reiserichtung erzeugt ist, wie in 4(b) gezeigt. Die Verkehrsinformationen können entweder Verkehrsinformationen, welche zeigen, dass es auf der Straße einen Stau oder eine Baustelle gibt, oder ein Unfall aufgetreten ist, oder andere Verkehrsinformationen sein. In diesem Fall sollte die Anzeigepriorität-Berechnungseinheit 21 die Verkehrsinformationen nur von den Verkehrsinformationen-Sender und -Empfänger 5 erfassen.
  • Als Nächstes wird der Anzeigepriorität-Einstellwert erläutert werden.
  • 5 ist eine Tabelle, welche ein Beispiel einer Korrespondenz zwischen Informationen in der Reiserichtung des Fahrzeugs und eines Anzeigepriorität-Einstellwerts des Erkennungsergebnisses zeigt.
  • In diesem Fall wird angenommen, dass die Informationen in der Reiserichtung des Fahrzeugs für den Anwender wichtig sind, und ein Einstellwert zum Erniedrigen der Anzeigepriorität eingestellt wird. Weiter, wenn eine Anzeige der Verkehrsinformationen auf der Straße in der Reiserichtung des Fahrzeugs erzeugt wird, wird angenommen, dass für den Anwender wichtige Informationen weiter bereitgestellt werden, und ein Einstellwert zum weiteren Erniedrigen der Anzeigepriorität eingestellt wird.
  • Obwohl ein Anfangswert der Anzeigepriorität auf 50 eingestellt ist und die Anzeigepriorität zum Aufweisen eines Werts zwischen 0 bis 100 in dieser Ausführungsform 1 eingestellt ist, ist die Anzeigepriorität nicht auf irgendeinen dieser Werte beschränkt.
  • Weiter kann der Anfangswert der Anzeigepriorität und der Anzeigepriorität-Einstellwert für jedes Element, was später beschrieben werden wird, entsprechend einem Fall zum Berechnen der Anzeigepriorität unter Berücksichtigung des Bereichs, welchen die Anzeigepriorität aufweisen kann und einer Vielzahl von anderen Hauptelementen, was später beschrieben werden wird und so weiter, geändert werden.
  • Zusätzlich wird in dieser Ausführungsform 1 angenommen, dass, wenn das Ergebnis der Berechnung der Anzeigepriorität eine Obergrenze (Untergrenze) überschreitet (unterschreitet), die Anzeigepriorität auf 100 (0) eingestellt wird.
  • Nachfolgend wird das Verfahren zum Berechnen der Anzeigepriorität durch Verwenden eines konkreten numerischen Werts erläutert werden, während ein Fall, bei welchem die Bestimmungsobjekte nur dieses Element (1) umfassen, als ein Beispiel genommen wird.
  • Beispielsweise, wenn eine Karte angezeigt wird, während diese mit Norden nach oben orientiert ist, die Reiserichtung des Fahrzeugs 31 eine westliche Richtung ist und der Erkennungsergebnis-Anzeigebereich 24 als ein linker Teil in der Anzeige 15 eingestellt ist, wie in 4(d) gezeigt, bezieht sich die Anzeigepriorität-Berechnungseinheit 21 auf die Tabelle aus 5 und bestimmt einen Anzeigepriorität-Einstellwert auf –30, da der Erkennungsergebnis-Anzeigebereich 24 in der Reiserichtung des Fahrzeugs 31 vorhanden ist.
  • Weiter bestimmt in dem Fall aus dieser 4(d), da Stauinformationen weiter in der Reiserichtung des Fahrzeugs 31 angezeigt werden, die Anzeigepriorität-Berechnungseinheit 21 weiter einen Anzeigepriorität-Einstellwert auf –10 aus der Tabelle aus 5.
  • Im Ergebnis berechnet die Anzeigepriorität-Berechnungseinheit 21 die Anzeigepriorität = der Anfangswert von 50 + den Einstellwert (–30) + den Einstellwert (–10) = 10. Ein Verfahren zum Bestimmen einer Beurteilungswahrscheinlichkeit, welche zu der auf diese Weise berechneten Anzeigepriorität gehören, wird später genannt werden.
  • (2) „Das Vorhandensein oder Abwesendsein von aktuell in dem Erkennungsergebnis-Anzeigebereich 24 angezeigten Einrichtungssymbolen und der Anzahl von Einrichtungssymbolen”
  • 6 ist ein Diagramm, welches ein Beispiel des Bildschirms zeigt, auf welchem Einrichtungssymbole 33, wie beispielsweise Parkplätze, in dem Erkennungsergebnis-Anzeigebereich 24 in einem Zustand angezeigt werden, bei welchem ein Kartenbildschirm auf der Anzeige 15 angezeigt ist.
  • Für dieses Element (2) bestimmt die Anzeigepriorität-Berechnungseinheit 21, ob Einrichtungssymbole 33, wie beispielsweise Parkplätze, in dem Erkennungsergebnis-Anzeigebereich 24 angezeigt sind oder nicht. Die Anzeigepriorität-Berechnungseinheit 21 kann nicht nur das Vorhandensein oder Abwesendsein der Einrichtungssymbole 33, welche aktuell in dem Erkennungsergebnis-Anzeigebereich 24 angezeigt werden, sondern auch die Anzahl von Einrichtungssymbolen 33 bestimmen.
  • Beispielsweise erfasst die Anzeigepriorität-Berechnungseinheit 21 die durch die Anzeigesteuereinheit 14 erzeugten Karteninformationen und bestimmt das Vorhandensein oder Abwesendsein von Informationen über Einrichtungssymbole 33 und die Anzahl der Einrichtungssymbole mit Bezug zu einem zu dem Erkennungsergebnis-Anzeigebereich 24 gehörigen Bereich.
  • In diesem Fall wird, da ein Punkt, welcher durch jedes Einrichtungssymbol 33 gezeigt ist, ein wichtiger Punkt ist, bei welchem es eine hohe Wahrscheinlichkeit gibt, dass der Anwender anhalten wird, wenn das Einrichtungssymbol 33 innerhalb des Erkennungsergebnis-Anzeigebereichs 24 vorhanden ist, ein Einstellwert zum Erniedrigen der Anzeigepriorität des Spracherkennungsergebnisses eingestellt.
  • Beispielsweise wird, wenn Einrichtungssymbole 33 in dem Erkennungsergebnis-Anzeigebereich 24 vorhanden sind, einen Anzeigepriorität-Einstellwert auf –10 eingestellt, um somit die Anzeigepriorität zu erniedrigen. Weiter, wie in 7 gezeigt, kann ein Einstellwert zum weiteren Erniedrigen der Anzeigepriorität mit einem Erhöhen in der Anzahl von Einrichtungssymbolen 33 eingestellt werden.
  • 7 ist eine Tabelle, welche eine Korrespondenz zwischen der Anzahl von Einrichtungssymbolen 33 und einem Anzeigepriorität-Einstellwert zeigt. Beispielsweise, wenn drei Einrichtungssymbole 33 in dem Erkennungsergebnis-Anzeigebereich 24 vorhanden sind, wie in 6 gezeigt, wird –6 als der Anzeigepriorität-Einstellwert, welcher zu der Anzahl von Einrichtungssymbolen gehört, mit Bezug zu 7 bestimmt.
  • Insbesondere wenn drei Einrichtungssymbole 33 in dem Erkennungsergebnis-Anzeigebereich 24 vorhanden sind, wie in 6 gezeigt, wird der Anzeigepriorität-Einstellwert, welcher mit diesem Element (2) verknüpft ist, wie folgt bestimmt. „–10” wird bestimmt, da in dem Erkennungsergebnis-Anzeigebereich 24 Einrichtungssymbole 33 vorhanden sind, und „–6” wird bestimmt, da die Anzahl von Einrichtungssymbolen gleich drei ist und die Summe „–16” dieser Werte wird als der Einstellwert bestimmt.
  • (3) „Das Vorhandensein oder Abwesendsein von aktuell in dem Erkennungsergebnis-Anzeigebereich 24 angezeigten und durch den Anwender eingestellten Punkten und die Anzahl der Punkte”
  • Beispielsweise erfasst die Anzeigepriorität-Berechnungseinheit 21 die durch die Anzeigesteuereinheit 14 erzeugten Karteninformationen und bestimmt das Vorhandensein oder Abwesendsein von Informationen über ein Ziel, Wegepunkte, Registrierungsorte, etc., welche durch den Anwender eingestellt sind (von hier ab als „Einstellpunktsymbole” bezeichnet), und die Anzahl der Einstellpunktsymbole mit Bezug zu dem zu dem Erkennungsergebnis-Anzeigebereich 24 gehörenden Bereich.
  • In diesem Fall wird, da jeder durch den Anwender eingestellte Punkt ein für den Anwender wichtiger Punkt ist, wenn innerhalb des Erkennungsergebnis-Anzeigebereichs 24 Einstellpunktsymbole vorhanden sind, ein Einstellwert zum Erniedrigen der Anzeigepriorität eingestellt.
  • Beispielsweise wird, wenn Einstellpunktsymbole in dem Erkennungsergebnis-Anzeigebereich 24 vorhanden sind, ein Anzeigepriorität-Einstellwert auf –5 eingestellt, um somit die Anzeigepriorität zu erniedrigen. Weiter kann ein Einstellwert zum weiteren Erniedrigen der Anzeigepriorität mit einem Erhöhen der Anzahl von Einstellpunktsymbolen eingestellt werden, wie in dem Fall des oben genannten (2).
  • (4) „Der Typ der Straße, entlang welcher das Fahrzeug fährt”
  • Beispielsweise erfasst die Anzeigepriorität-Berechnungseinheit 21 durch die Aktuelle-Position-Erkennungseinheit 4 erfassten Fahrzeugpositionsinformationen und erfasst und bestimmt den Straßentyp der Straße, entlang welcher das Fahrzeug fährt, wobei der Straßentyp durch die von dem Karteninformationsspeicher 11 durch die Karteninformationen-Erfassungseinheit 12 durch Verwenden der Fahrzeugpositionsinformationen erfasst wird.
  • In diesem Fall wird als der Straßentyp beispielsweise „Autobahn”, „Ortstraße”, „Tunnel” oder Ähnliches bereitgestellt.
  • 8 ist eine Tabelle, welche ein Beispiel des Anzeigepriorität-Einstellwerts des Erkennungsergebnisses für jeden Straßentyp zeigt.
  • In diesem Fall wird, da angenommen werden kann, dass andere Informationen über die Umgebung als Parkplätze, Servicebereiche und Einfahrten keinen hohen Bedeutungsgrad für den Anwender aufweisen, wenn das Fahrzeug auf einer Autobahn fährt, ein Einstellwert zum Erhöhen der Anzeigepriorität des Erkennungsergebnisses eingestellt. Weiter wird, da angenommen werden kann, dass Informationen über die Umgebung einen hohen Bedeutungsgrad für den Anwender aufweisen, wenn das Fahrzeug entlang einer Ortsstraße fährt, ein Einstellwert zum Erniedrigen der Anzeigepriorität eingestellt. Weiter wird, da angenommen werden kann, dass es keine Informationen über die Umgebung gibt, welche für den Anwender von Bedeutung sind, wenn das Fahrzeug durch einen Tunnel fährt, ein Einstellwert zum Erhöhen der Anzeigepriorität des Erkennungsergebnisses eingestellt.
  • (5) „Der Bereich, in welchem das Fahrzeug fährt”
  • Beispielsweise erfasst die Anzeigepriorität-Berechnungseinheit 21 die durch die Aktuelle-Position-Erkennungseinheit 4 erkannten Fahrzeugpositionsinformationen und erfasst und bestimmt den Bereichstyp des Bereichs, in welchem das Fahrzeug fährt, wobei der Bereichstyp durch die Karteninformationen-Erfassungseinheit 12 aus dem Karteninformationsspeicher 11 durch Verwenden der Fahrzeugpositionsinformationen erfasst wird.
  • In diesem Fall wird als der Bereichstyp beispielsweise „Stadtbereich”, „Vorortsbereich”, „in den Bergen”, „auf See” oder Ähnliches bereitgestellt.
  • 9 ist eine Tabelle, welche ein Beispiel des Anzeigepriorität-Einstellwerts des Erkennungsergebnisses für jeden Bereichstyp zeigt.
  • In diesem Fall wird, da eine große Menge an Informationen auf einer Karte angezeigt wird, wenn das Fahrzeug in einem Stadtbereich fährt, ein Einstellwert zum Erniedrigen der Anzeigepriorität des Spracherkennungsergebnisses eingestellt.
  • Weiter wird, obwohl ein Einstellwert zum Erniedrigen der Anzeigepriorität eingestellt ist, wenn das Fahrzeug in einem Vorortsbereich fährt, der Einstellwerts derart eingestellt, dass der Wert zum Erniedrigen in der Anzeigepriorität kleinem Vergleich zu dem Zeitpunkt ist, wenn das Fahrzeug in einem Stadtbereich fährt, da die auf der Karte angezeigte Menge an Informationen im Vergleich zu dem Zeitpunkt klein ist, wenn das Fahrzeug in einem Stadtbereich fährt. Zusätzlich wird, da die auf der Karte angezeigte Menge an Information klein ist, wenn das Fahrzeug in den Bergen oder auf See fährt (zum Beispiel, wenn das Fahrzeug über die Akashi Kaikyoä fährt), ein Einstellwert zum Erhöhen der Anzeigepriorität eingestellt. Zusätzlich wird, wenn das Fahrzeug entlang einer Küstenstraße fährt und der Erkennungsergebnis-Anzeigebereich 24 auf See ist, ein Einstellwert zum Erhöhen der Anzeigepriorität eingestellt.
  • (6) „Die grafische Skala der Karte”
  • Beispielsweise erfasst und bestimmt die Anzeigepriorität-Berechnungseinheit 21 die aktuelle grafische Skala der Karte von der Anzeigesteuereinheit 14 oder einem Einstellungsspeicher (nicht gezeigt) oder Ähnlichem, welche verschiedene durch den Anwender gemachte Einstellungen speichert.
  • In diesem Fall wird als die grafische Skala „25 m”, „50 m”, „100 m”, ..., „500 m”, „1 km”, „3 km”, „5 km” oder Ähnliches, was die zu der Skala gehörige Strecke, welche als eine Referenz dient, ist, eingestellt.
  • 10 ist eine Tabelle, welche ein Beispiel des Anzeigepriorität-Einstellwerts des Erkennungsergebnisses für jede grafische Skala der Karte zeigt.
  • In diesem Fall wird, da, wenn die grafische Skala reduziert wird (die Karte vergrößert wird), der Bedeutungsgrad der aktuell angezeigten Karteninformationen höher wird, ein Einstellwert, welcher ebenso die Anzeigepriorität des Spracherkennungsergebnisses erniedrigt, mit einer Reduktion in der grafischen Skala eingestellt.
  • Beispielsweise wird der Anzeigepriorität-Einstellwert für die größte grafische Skala auf „+10” eingestellt und der Anzeigepriorität-Einstellwert wird mit einer Reduktion in der grafischen Skala reduziert.
  • (7) „Ob Führungsinformationen/Warnungsinformationen in dem Erkennungsergebnis-Anzeigebereich 24 angezeigt werden oder nicht”
  • 11 ist ein Diagramm, welches ein Beispiel des Bildschirms zeigt, auf welchem Führungsinformationen 34 oder Warnungsinformationen 35 in dem Erkennungsergebnis-Anzeigebereich 24 in einem Zustand angezeigt werden, bei welchem ein Kartenbildschirm auf der Anzeige 15 angezeigt ist.
  • Die Einheit 21 bestimmt, ob eine Anzeige von Führungsinformationen oder Warnungsinformationen, wie beispielsweise eine Anzeige einer Kreuzungsführung, wie in 11(a) gezeigt, eine Anzeige von einer durch DSRC erfassten Warnung über ein Annähern eines herannahenden Fahrzeugs, wie in 11(b) gezeigt, ein Anzeigen einer Warnung über ein Annähern eines Fußgängers oder eine Anzeige einer Katastropheninformation erzeugt wird oder nicht.
  • Beispielsweise erfasst die Anzeigepriorität-Berechnungseinheit 21 die durch die Anzeigesteuereinheit 14 erzeugten Karteninformationen und bestimmt, ob eine Ausgabe von Führungsinformationen oder Warnungsinformationen wie beispielsweise eine Anzeige von einer Kreuzungsführung oder eine Anzeige einer Warnung mit Bezug zu dem zu dem Erkennungsergebnis-Anzeigebereich 24 gehörenden Bereich erzeugt wird.
  • Weiter, wenn die Anzeigeposition von Führungsinformationen/Warnungsinformationen als identisch zu der Position des Erkennungsergebnis-Anzeigebereichs 24 bestimmt ist, sollte die Anzeigepriorität-Berechnungseinheit 21 nur die aktuelle Position von der Aktuelle-Position-Erkennungseinheit 4 erfassen, überprüfen, um zu sehen, ob mit der Position verknüpfte Führungsinformationen in dem Karteninformationsspeicher 11 über die Karteninformationen-Erfassungseinheit 12 vorhanden sind, durch Verwenden der Positionsinformationen und, bezüglich Warnungsinformationen, bei dem Verkehrsinformationen-Sender und -Empfänger 5 nach dem Vorhandensein oder Abwesendsein von Warnungsinformationen anfragen.
  • 12 ist eine Tabelle, welche ein Beispiel einer Korrespondenz zwischen Führungsinformationen/Warnungsinformationen und einem Anzeigepriorität-Einstellwert des Erkennungsergebnisses zeigt.
  • Da angenommen wird, dass Führungsinformationen/Warnungsinformationen einen Hohenbedeutungsgrad für den Anwender im Vergleich zu anderen Informationen aufweisen, wird ein Priorität-Einstellwert eingestellt, welcher den Erniedrigungsbetrag in der Anzeigepriorität größer als den für ein zu einem anderen Hauptelement gehörenden Element macht.
  • (8) „Eine Beziehung zwischen den Inhalten des Erkennungsergebnisses und dem Anzeigebildschirm”
  • Nachfolgend wird eine Erläuterung unter der Annahme gegeben werden, dass das Ziel für eine Spracherkennung beispielsweise mit einem Musiktitel verknüpfte Wörter sind, wie beispielsweise ein Künstlername, ein Albumsname oder ein Musiktitelname. In diesem Fall wird, wenn eine Spracherkennung an diesen Wörtern ausgeführt wird, eine einen Künstlernamen anzeigende Bedientaste, einen Albums Namen anzeigende Bedientaste, einen Musiktitel anzeigende Bedientaste oder Ähnliches als das Erkennungsergebnis angezeigt und, wenn der Anwender die Taste drückt, wird ein Musikstück wiedergegeben.
  • Zu diesem Zeitpunkt, wenn der aktuell auf der Anzeige 15 angezeigte Anzeigebildschirm ein AV-Bildschirm ist (Bildschirm zur Wiedergabe eines Musikstücks), da angenommen werden kann, dass der Anwender in einem Zustand ist, bei welchem der Anwender Musik hört, und, selbst wenn eine mit der Wiedergabe des Musikstücks verknüpfte Bedientaste als das Spracherkennungsergebnis angezeigt ist, könnte diese Anzeige den Anwender nicht behindern, und der Anwender vielmehr in einem Zustand ist, in welchem der Anwender durch Betätigen der Bedientaste wünscht, dass ein Musikstück wiedergegeben wird, wird ein Anzeigepriorität-Einstellwert eingestellt, welcher die Anzeigepriorität des Erkennungsergebnisses erhöht.
  • Im Gegensatz dazu, wenn der aktuell auf der Anzeige 15 angezeigte Anzeigebildschirm ein normaler Kartenbildschirm ist, da angenommen werden kann, dass der Anwender in einem Zustand ist, bei welchem der Anwender Karteninformationen über eine Routenführung betrachten möchte, und wenn eine mit einer Wiedergabe eines Musikstücks verknüpfte Bedientaste als das Spracherkennungsergebnis angezeigt wird, könnte diese Anzeige das Fahren des Fahrers beeinträchtigen, wird ein Priorität-Einstellwert eingestellt, welcher die Anzeigepriorität des Erkennungsergebnisses erniedrigt.
  • 13 ist eine Tabelle, welche ein Beispiel des Anzeigepriorität-Einstellwerts des Erkennungsergebnisses für jede Kombination der Inhalte des Erkennungsergebnisses und des aktuell angezeigten Anzeigebildschirms zeigt.
  • Daher, entsprechend der Beziehung zwischen den Inhalten des Spracherkennungsergebnisses und des aktuell auf dem Bildschirm 15 angezeigten Anzeigebildschirms, ein Priorität-Einstellwert, welcher die Anzeigepriorität erhöht, um es für das Erkennungsergebnis zu vereinfachen, angezeigt zu werden, wenn das Erkennungsergebnis eine für den Anwender zu diesem Zeitpunkt wichtige Information ist, wohingegen dieser die Anzeigepriorität erniedrigt, um es für das Erkennungsergebnis zu erschweren, angezeigt zu werden, wenn angenommen wird, dass der Anwender in einem Zustand ist, bei welchem das Erkennungsergebnis zu diesem Zeitpunkt nicht von Bedeutung ist.
  • Wie oben erwähnt, mit Bezug zu jedem der oben genannten Hauptelemente (1) bis (8) bestimmt die Anzeigepriorität-Berechnungseinheit 21 einen ein Anzeigepriorität-Einstellwert für jedes Element, welches ein vorbestimmtes Bestimmungsobjekt ist und berechnet eine Anzeigepriorität.
  • Die Erkennungsergebnis-Ausgabesteuereinheit 22 bestimmt eine Beurteilungswahrscheinlichkeit entsprechend der durch die Anzeigepriorität-Berechnungseinheit 21 berechneten Anzeigepriorität und stellt die Beurteilungswahrscheinlichkeit an der Spracherkennungseinheit 19 ein.
  • Dann, wenn die Wahrscheinlichkeit des Erkennungsergebnisses gleich oder größer als diese eingestellte Beurteilungswahrscheinlichkeit (oder größer als die Beurteilungswahrscheinlichkeit) ist, gibt die Spracherkennungseinheit 19 das Erkennungsergebnis aus.
  • Nachfolgend wird angenommen, dass die Beurteilungswahrscheinlichkeit und die Anzeigepriorität eine negative Korrelation zwischen diesen aufweist. 14 ist ein Diagramm, welches die Beziehung zwischen der Anzeigepriorität des Erkennungsergebnisses und der Beurteilungswahrscheinlichkeit zeigt.
  • Beispielsweise wird angenommen, dass die Beurteilungswahrscheinlichkeit durch Verwenden einer Funktion „Y = –aX + b” (a und b sind positive konstanten) bestimmt wird, welche die Beurteilungswahrscheinlichkeit proportional zu der Anzeigepriorität verringert, wobei die Beurteilungswahrscheinlichkeit durch Y wiedergegeben ist und die Anzeigepriorität durch X wiedergegeben ist. In dem in 14(a) gezeigten Beispiel, wird die Beurteilungswahrscheinlichkeit auf der Basis der folgenden Gleichung bestimmt: „Y = –4X + 700”.
  • Als eine Alternative kann die Beurteilungswahrscheinlichkeit schrittweise auf der Basis der Anzeigepriorität erniedrigt werden, wie in 14(b) gezeigt.
  • Dann, auf der Basis der Beziehung zwischen der Anzeigepriorität und der Beurteilungswahrscheinlichkeit, wie in 14 gezeigt, kann die Erkennungsergebnis-Ausgabesteuereinheit 22 die Beurteilungswahrscheinlichkeit bestimmen, welche zu der durch die Anzeigepriorität-Berechnungseinheit 21 berechneten Anzeigepriorität gehört, und stellt diese Beurteilungswahrscheinlichkeit an der Spracherkennungseinheit 19 ein.
  • Im Ergebnis, da die an der Spracherkennungseinheit 19 eingestellte vorbestimmte Beurteilungswahrscheinlichkeit einen höheren Wert aufweist, wenn die Anzeigepriorität gleich oder geringer als ein vorbestimmter Wert (oder geringer als der vorbestimmte Wert) ist, geht die Spracherkennungsvorrichtung in einen Zustand über, bei welchem diese das Erkennungsergebnis nicht ausgibt.
  • Die Erkennungsergebnis-Ausgabesteuereinheit 22 kann den durch die Spracherkennungseinheit 19 ausgeführten Erkennungsprozess auf der Basis der durch die Anzeigepriorität-Berechnungseinheit 21 berechneten Anzeigepriorität anhalten oder neu starten (dasselbe gilt für die nachfolgenden Ausführungsformen). Insbesondere, wenn die Anzeigepriorität gleich oder geringer als der vorbestimmte Wert (oder geringer als der vorbestimmte Wert) ist, kann die Erkennungsergebnis-Ausgabesteuereinheit den durch die Spracherkennungseinheit 19 ausgeführten Erkennungsprozess anhalten, wohingegen, wenn die Anzeigepriorität größer als der vorbestimmte Wert (oder gleich oder größer als der vorbestimmte Wert) ist, kann die Erkennungsergebnis-Ausgabesteuereinheit den durch die Spracherkennungseinheit 19 ausgeführten Erkennungsprozess neu starten.
  • Als Nächstes wird die durch die Navigationsvorrichtung ausgeführte Verarbeitung entsprechend Ausführungsform 1 durch Verwenden der in den 15 bis 17 gezeigten Flussdiagramme erläutert werden
  • 15 ist ein Flussdiagramm, welches einen Prozess zum Anzeigen von Bedientasten 23 zeigt, welche ein Spracherkennungsergebnis sind.
  • Als Erstes nimmt die Spracherfassungseinheit 18 eine durch das Mikrofon 8 gesammelte Äußerung des Anwenders auf, das heißt eine eingegebene Sprache, und A/D-wandelt diese eingegebene Sprache durch Verwenden von beispielsweise PCM um (Schritt ST01).
  • Als Nächstes erkennt die Spracherkennungseinheit 19 eine Sprachsektion, welche zu den Inhalten, welche der Anwender geäußert hat, gehört, aus einem Sprachsignal, welches durch die Spracherfassungseinheit 18 aufgenommen und digitalisiert ist, extrahiert eine Merkmalsgröße von Sprachdaten über diese Sprachsektion und führt einen Erkennungsprozess auf der Basis der Merkmalsgröße und mit Bezug zu dem Spracherkennung-Wörterbuch 20 aus (Schritt ST02).
  • Die Spracherkennungseinheit 19 bestimmt dann, ob die Wahrscheinlichkeit des Erkennungsergebnisses gleich oder größer als die vorbestimmte Beurteilungswahrscheinlichkeit (oder größer als die vorbestimmte Beurteilungswahrscheinlichkeit) ist (Schritt ST03). Wenn die Wahrscheinlichkeit des Erkennungsergebnisses gleich oder größer als die vorbestimmte Beurteilungswahrscheinlichkeit (oder größer als die vorbestimmte Beurteilungswahrscheinlichkeit) ist (wenn Ja in Schritt ST03), gibt die Spracherkennungseinheit das Spracherkennungsergebnis aus (Schritt ST04).
  • Danach gibt die Anzeigesteuereinheit 14 einen Befehl zum Anzeigen von zu dem durch die Spracherkennungseinheit 19 ausgegebenen Erkennungsergebnis gehörenden Bedientasten 23 in dem Erkennungsergebnis-Anzeigebereich 24 an die Anzeige 15 aus (Schritt ST05), und die Bedientasten 23 werden auf der Anzeige 15 angezeigt (Schritt ST06).
  • Im Gegensatz dazu, wenn die Wahrscheinlichkeit des Erkennungsergebnisses geringer als die vorbestimmte Beurteilungswahrscheinlichkeit (oder gleich oder geringer als die vorbestimmte Beurteilungswahrscheinlichkeit) ist (wenn Nein in Schritt ST03), kehrt die Navigationsvorrichtung zu dem Prozess aus Schritt ST01 zurück.
  • 16 ist ein Flussdiagramm, welches einen Prozess nach der Anzeige der Bedientasten 23 zeigt.
  • Die Steuereinheit 1 bestimmt, ob eine aktuell angezeigte Bedientaste 23 ausgewählt wurde (Schritt ST11). Dann, wenn eine Bedientaste 23 ausgewählt wurde (wenn ja in Schritt ST11), gibt die Steuereinheit einen Befehl zum Ausführen der zu der ausgewählten Bedientaste 23 zugeordneten Funktion aus und führt einen Prozess zum Ausführen dieser Funktion aus (Schritt ST12).
  • Im Gegensatz dazu, wenn keine Bedientaste 23 ausgewählt wurde (wenn Nein Schritt ST1), bestimmt die Steuereinheit für jede aktuell angezeigte Bedientaste 23, ob eine Zeit, welche, nachdem die Bedientaste angezeigt wurde, verstrichen ist, eine vorbestimmte Zeit überschreitet (Schritt ST13). Es wird angenommen, dass nach dem jede Bedientaste 23 angezeigt wird, die Zeit, welche, nachdem die Bedientaste angezeigt wurde, verstrichen ist, gemessen wird.
  • Dann, wenn die gemessene Zeit die vorbestimmte Zeit überschreitet (wenn ja in Schritt ST13) gibt die Steuereinheit einen Befehl zum Beenden der Anzeige der Bedientaste 23 an die Anzeigesteuereinheit 14 aus (Schritt ST14).
  • Im Gegensatz dazu, wenn die gemessene Zeit die vorbestimmte Zeit nicht überschreitet (wenn Nein in Schritt ST13), kehrt die Steuereinheit zu dem Schritt ST11 zurück und führt einen Prozess zum Bestimmen, ob die Bedientaste 23 ausgewählt wurde oder nicht, aus.
  • 17 ist ein Flussdiagramm, welches einen Prozess zum Einstellen der Beurteilungswahrscheinlichkeit zeigt.
  • Zuerst erfasst für jedes Hauptelement (eines oder mehrere der oben genannten Elemente (1) bis (8)), welches vorab bestimmt oder durch den Anwender ausgewählt ist, die Anzeigepriorität-Berechnungseinheit 21 zum Bestimmen der Anzeigepriorität notwendige Informationen (Schritt ST31) und berechnet die Anzeigepriorität auf der Basis der erfassten Informationen und des vorbestimmten Priorität-Einstellwerts (Schritt ST32).
  • Um mit einem konkreten Beispiel zu erläutern, wenn beispielsweise das Hauptelement (1) als ein Bestimmungsobjekt bestimmt ist, sind die zum Bestimmen der Anzeigepriorität notwendigen Informationen in Schritt ST31 die Fahrzeugpositionsinformationen, die Reiserichtung des Fahrzeugs, die Position des Erkennungsergebnis-Anzeigebereichs 24, Karteninformationen und Verkehrsinformationen (umfassend Stauinformationen, Baustelleninformationen, etc.) und die Anzeigepriorität-Berechnungseinheit 21 erfasst diese Teile von Informationen (Schritt ST31).
  • Dann, bezieht sich die Anzeigepriorität-Berechnungseinheit auf eine eine Korrespondenz zwischen Informationen in der Reiserichtung des Fahrzeugs und eines Anzeigepriorität-Einstellwerts des Erkennungsergebnisses zeigende Tabelle, wie in beispielsweise 5 gezeigt, und bestimmt einen Anzeigepriorität-Einstellwert.
  • Nachfolgend wird eine Erläuterung mit Bezug zu 18 durch Bereitstellen eines konkreten Beispiels gegeben werden. 18 ist ein Diagramm, welches ein Beispiel eines Bildschirmübergangs zeigt, welcher aus einer Beziehung zwischen der Reiserichtung des Fahrzeugs und der Bedientasten resultiert, welche in dem Erkennungsergebnis-Anzeigebereich angezeigt werden und welche das Erkennungsergebnis in einem Zustand sind, bei welchem ein Kartenbildschirm auf der Anzeige 15 angezeigt wird. Ebenso wird eine Erläuterung in diesem Fall unter der Annahme gegeben werden, dass der Anfangswert der Anzeigepriorität auf 50 eingestellt ist.
  • Obwohl 18(a) dasselbe Diagramm wie 4(b) ist, beispielsweise wenn eine Karte angezeigt wird, während diese mit Norden nach oben orientiert ist, die Reiserichtung des Fahrzeugs eine westliche Richtung ist und der Erkennungsergebnis-Anzeigebereich 24 eingestellt ist, um in einem linken Teil in der Anzeige 15 positioniert zu sein, wie in 18(a) gezeigt, bezieht sich die Anzeigepriorität-Berechnungseinheit 21 auf die Tabelle aus 5 und bestimmt einen Anzeigepriorität-Einstellwert auf –30, da der Erkennungsergebnis-Anzeigebereich 24 in der Reiserichtung des Fahrzeugs 31 positioniert ist.
  • Weiter, in diesem Fall dieser 18(a), da Stauinformationen in der Reiserichtung des Fahrzeugs 31 weiter angezeigt werden, bestimmt die Anzeigepriorität-Berechnungseinheit 21 weiter einen Anzeigepriorität-Einstellwert auf –10 aus der Tabelle aus 5.
  • Im Ergebnis berechnet die Anzeigepriorität-Berechnungseinheit 21 die Anzeigepriorität = der Anfangswert 50 + den Einstellwert (–30) + den Einstellwert (–10) = 10 (Schritt ST32).
  • Als Nächstes bestimmt die Erkennungsergebnis-Ausgabesteuereinheit 22 die Beurteilungswahrscheinlichkeit, welche zu der durch die Anzeigepriorität-Berechnungseinheit 21 berechneten Anzeigepriorität gehört (Schritt ST33), und stellt die Beurteilungswahrscheinlichkeit an der Spracherkennungseinheit 19 ein (Schritt ST34).
  • Konkret berechnet die Erkennungsergebnis-Ausgabesteuereinheit 22 die Beurteilungswahrscheinlichkeit, welche zu der durch die Anzeigepriorität-Berechnungseinheit 21 in Schritt ST32 berechneten Anzeigepriorität gehört, auf der Basis eines Berechnungsausdrucks in dem in 14(a) gezeigten Graphen, das heißt die Beurteilungswahrscheinlichkeit Y = –4X + 700 (X ist die Anzeigepriorität) (Schritt ST33). Im Ergebnis wird die zu der Anzeigepriorität = 10 gehörende Beurteilungswahrscheinlichkeit zu 660 berechnet und diese Beurteilungswahrscheinlichkeit wird als die vorbestimmte Beurteilungswahrscheinlichkeit an der Spracherkennungseinheit 19 eingestellt (Schritt ST34).
  • Ein konkretes Beispiel einer Anzeige des Erkennungsergebnisses wird durch Bereitstellen als ein Beispiel eines Falles erläutert werden, bei welchem der Anwender beispielsweise „Verbrauchermarkt” in diesem Zustand äußert. Zuerst nimmt die Spracherfassungseinheit 18 diese Sprache eines „Verbrauchermarkt” auf und A/D-wandelt die Sprache durch Verwenden von beispielsweise PCM um (Schritt ST01 aus 15). Als Nächstes führt die Spracherkennungseinheit 19 den Erkennungsprozess an der aufgenommenen Sprache aus und das Wort „Verbrauchermarkt” wird als die Sprache erkannt (Schritt ST02). In diesem Fall wird angenommen, dass die Wahrscheinlichkeit dieser Spracherkennung 520 ist.
  • In diesem Fall bestimmt die Spracherkennungseinheit 19, dass die Wahrscheinlichkeit von 520 des Erkennungsergebnisses geringer als die vorbestimmte Wahrscheinlichkeit von 660 ist (wenn Nein in Schritt ST03), und kehrt zu dem Prozess aus Schritt ST01 ohne Ausgeben des Erkennungsergebnisses zurück.
  • Im Ergebnis wird eine Bedientaste 23, welche das Erkennungsergebnis ist, nicht auf der Anzeige 15 angezeigt und die Navigationsvorrichtung verbleibt in einem Zustand, bei welchem der in 18(a) gezeigte Anzeigebildschirm angezeigt wird.
  • Es wird angenommen, dass danach das Fahrzeug in einen Zustand eintritt, bei welchem dieses eine Verkehrsstauzone passiert und seine Reiserichtung geändert hat, und in eine nördliche Richtung fährt, wie in 18(b) gezeigt. In diesem Fall, da der Erkennungsergebnis-Anzeigebereich 24 nicht in der Reiserichtung des Fahrzeugs 31 vorhanden ist, wird ein Anzeigepriorität-Einstellwert zu 0 als ein Ergebnis bestimmt, mit Bezugnahme auf die Tabelle, wie in 5 gezeigt, welche die Korrespondenz zwischen Informationen in der Reiserichtung des Fahrzeugs und einem Anzeigepriorität-Einstellwert des Erkennungsergebnisses zeigt.
  • Im Ergebnis berechnet die Anzeigepriorität-Berechnungseinheit 21 die Anzeigepriorität = den Anfangswert von 50 + den Einstellwert (0) = 50 (Schritt ST32).
  • Die Erkennungsergebnis-Ausgabesteuereinheit 22 berechnet dann die Beurteilungswahrscheinlichkeit auf der Basis des Berechnungsausdrucks in dem in 14(a) gezeigten Graphen, das heißt die Beurteilungswahrscheinlichkeit Y = –4X + 700 (X ist die Anzeigepriorität) (Schritt ST34).
  • Wenn der Anwender beispielsweise „Verbrauchermarkt” in diesem Zustand äußert, wie in dem Fall des zuvor gezeigten Beispiels, nimmt die Spracherfassungseinheit 18 diese Sprache eines „Verbrauchermarkt” auf und A/D-wandelt die Sprache durch Verwenden von beispielsweise PCM um (Schritt ST01 aus 15). Als Nächstes führt die Spracherkennungseinheit 19 den Erkennungsprozess an der aufgenommenen Sprache aus und das Wort „Verbrauchermarkt” wird als die Sprache erkannt (Schritt ST02). In diesem Fall wird ebenso angenommen, dass die Wahrscheinlichkeit dieser Spracherkennung gleich 520 ist.
  • In diesem Fall bestimmt die Spracherkennungseinheit 19, dass die Wahrscheinlichkeit von 520 des Erkennungsergebnisses gleich oder größer als die vorbestimmte Beurteilungswahrscheinlichkeit von 500 ist (wenn Ja in Schritt ST03) und gibt das Erkennungsergebnis aus (Schritt ST04).
  • Dann gibt die Anzeigesteuereinheit 14 einen Befehl zum Anzeigen einer Bedientaste 23, welche zu dem durch die Spracherkennungseinheit 19 ausgegebenen Erkennungsergebnis von „Verbrauchermarkt” gehört, in dem Erkennungsergebnis-Anzeigebereich 24 an die Anzeige 15 aus (Schritt ST05).
  • Im Ergebnis zeigt die Anzeige 15 die Bedientaste 23 an, welche das Erkennungsergebnis von „Verbrauchermarkt” ist, wie in 18(c) gezeigt (Schritt ST06).
  • Wie oben erwähnt, entsprechend dieser Ausführungsform 1, wenn der Erkennungsergebnis-Anzeigebereich 24 in der Reiserichtung des Fahrzeugs positioniert ist, wenn es entweder einen Punkt, welcher durch ein Einrichtungsgattungssymbol mit einer hohen Wahrscheinlichkeit zeigt, dass der Anwender anhalten wird, oder einen Punkt, welcher durch den Anwender in dem Erkennungsergebnis-Anzeigebereich 24 eingestellt ist, gibt und, wenn Führungsinformationen/Warnungsinformationen in dem Erkennungsergebnis-Anzeigebereich 24 angezeigt sind, wird die Ausgabefrequenz des Erkennungsergebnisses erniedrigt durch Erhöhen der Beurteilungswahrscheinlichkeit an der Spracherkennungseinheit 19; andernfalls wird die Ausgabefrequenz des Erkennungsergebnisses als ein Ergebnis durch Erhöhen der Beurteilungswahrscheinlichkeit erhöht. Im Ergebnis, wenn für den Anwender wichtige Informationen durch eine Anzeige des Erkennungsergebnisses verdeckt werden, während die Spracherkennungsvorrichtung die Frequenz, mit welcher die Erfassung der wichtigen Informationen durch den Anwender gehemmt ist, durch Unterdrücken der Anzeige des Erkennungsergebnisses, macht es die Spracherkennungsvorrichtung für den in der Äußerung umfassten Anwenderwunsch einfacher, als das Erkennungsergebnis angezeigt zu werden, und kann den Anwenderkomfort verbessern, wenn bestimmt wird, dass keine wichtigen Informationen verdeckt sind.
  • Weiter, wenn Stauinformationen in der Reiserichtung angezeigt sind, da die Spracherkennungsvorrichtung annimmt, dass der Anwender Karteninformationen in hohem Maße benötigt, und weiter die Ausgabefrequenz des Erkennungsergebnisses durch weiteres Erhöhen der Beurteilungswahrscheinlichkeit der Spracherkennung erhöht, kann die Spracherkennungsvorrichtung den Anwenderkomfort weiter verbessern.
  • Zusätzlich, wenn aus der Straße oder dem Bereich, entlang oder in welchem das Fahrzeug fährt, und der grafischen Skala bestimmt wird, dass der Anwender Karteninformationen sehr benötigt oder viele für den Anwender wichtige Informationen vorhanden sind, erniedrigt die Spracherkennungsvorrichtung die Frequenz, mit welcher die Erfassung der wichtigen Informationen durch den Anwender gehemmt wird, durch Unterdrücken der Anzeige des Erkennungsergebnisses; andernfalls macht es die Spracherkennungsvorrichtung für den in der Äußerung umfassten Anwenderwunsch einfacher, als das Erkennungsergebnis angezeigt zu werden, und kann den Anwenderkomfort verbessern.
  • Weiter kann durch Kombinieren der Vielzahl der oben genannten Hauptelemente (1) bis (8) und Berechnen der Anzeigepriorität die Spracherkennungsvorrichtung die Ausgabefrequenz des Erkennungsergebnisses mit einer Flexibilität entsprechend verschiedenen Bedingungen einstellen.
  • Obwohl in dieser Ausführungsform 1 erläutert wird, dass die Anzeigepriorität den Grad angibt, dass das Spracherkennungsergebnis (Bedientasten 23) mit einer höheren Priorität als andere Anzeigeinformationen (zum Beispiel Karteninformationen und so weiter) als das Spracherkennungsergebnis (Bedientasten 23) angezeigt werden sollte, kann die Anzeigepriorität alternativ zum Angeben des Grades eingestellt werden, dass andere Informationen als das Spracherkennungsergebnis (Bedientasten 23) mit einer höheren Priorität als das Spracherkennungsergebnis (Bedientasten 23) angezeigt werden sollten.
  • In diesem Fall ist ein Betrag zum Erhöhen oder Erniedrigen in der Anzeigepriorität, welche zu einem durch die Anzeigepriorität-Berechnungseinheit 21 bestimmten Element gehört, das Inverse des oben genannten Betrags zum Erhöhen oder Erniedrigen, die Anzeigepriorität und die Beurteilungswahrscheinlichkeit des Erkennungsergebnisses weisen eine positive Korrelation zwischen diesen auf (dasselbe gilt für die nachfolgenden Ausführungsformen).
  • Die Berechnung der Anzeigepriorität kann zu jeder Zeit ausgeführt werden oder kann zu vorbestimmten Intervallen ausgeführt werden.
  • Ausführungsform 2.
  • 19 ist ein Blockdiagramm, welches ein Beispiel der Struktur einer Sprachverarbeitungseinheit 9 entsprechend Ausführungsform 2 der vorliegenden Erfindung zeigt. Dieselben wie die in Ausführungsform 1 erläuterten strukturellen Komponenten werden mit denselben Bezugszeichen bezeichnet und eine doppelte Erläuterung der Komponenten wird nachfolgend ausgelassen werden. Die nachfolgend gezeigte Sprachverarbeitungseinheit entsprechend Ausführungsform 2 unterscheidet sich, verglichen mit der entsprechend Ausführungsform 1, darin, dass die Sprachverarbeitungseinheit weiter einen Spracherkennung-Wörterbuch-Wechselinformationen-Speicher 25 und dass ein Spracherkennung-Wörterbuch 20 aus einer Vielzahl von Spracherkennung-Wörterbüchern 1 bis N besteht. Die Sprachverarbeitungseinheit unterscheidet sich weiter darin, dass eine Erkennungsergebnis-Ausgabesteuereinheit 22 einen zu einer Anzeigepriorität gehörenden Spracherkennung-Wörterbuchnamen bestimmt und zwischen den Spracherkennung-Wörterbüchern 20 wechselt, anstatt eine zu der Anzeigepriorität gehörende Beurteilungswahrscheinlichkeit an einer Spracherkennungseinheit 19 einzustellen.
  • Der Spracherkennung-Wörterbuch-Wechselinformationen-Speicher 25 speichert Anzeigeprioritäten und Spracherkennung-Wörterbuchnamen, während die Spracherkennung-Wörterbuchnamen in Übereinstimmung mit den Anzeigeprioritäten gebracht werden. 20(a) ist eine Tabelle, welche ein Beispiel der Korrespondenz zwischen der Anzeigepriorität und einem Spracherkennung-Wörterbuchnamen zeigt, welche in dem Spracherkennung-Wörterbuch-Wechselinformationen-Speicher 25 gespeichert ist. Weiter ist 20(b) eine Tabelle, welche ein Beispiel einer Korrespondenz zwischen einem Spracherkennung-Wörterbuchnamen und der Anzahl von erkannten dem Wörterbuch gespeicherten Wörtern zeigt.
  • Beispielsweise, wie in 20(b) gezeigt, weisen jede Anzeigepriorität und die Anzahl von in dem Spracherkennung-Wörterbuch mit dem zugehörigen Spracherkennung-Wörterbuchnamen gespeicherten erkannten Wörtern eine positive Korrelation zwischen diesen auf. Als eine Alternative, in einem Fall, wobei jede Anzeigepriorität zum Angeben des Grades eingestellt ist, dass andere Informationen als Bedientasten 23 mit einer höheren Priorität als die Bedientasten 23 angezeigt werden sollten, weisen jede Anzeigepriorität und die Anzahl der in dem Spracherkennung-Wörterbuch mit dem zugehörigen Spracherkennung-Wörterbuchnamen gespeicherten erkannten Wörtern eine negative Korrelation zwischen diesen auf.
  • Die Erkennungsergebnis-Ausgabesteuereinheit 22 bezieht sich auf den Spracherkennung-Wörterbuch-Wechselinformationen-Speicher 25 und bestimmt den zu einer durch eine Anzeigepriorität-Berechnungseinheit 21 ausgegebenen Anzeigepriorität zugehörigen Spracherkennung-Wörterbuchnamen und wechselt das Spracherkennung-Wörterbuch 20, auf welches die Spracherkennungseinheit 19 Bezug nimmt, zu dem Spracherkennung-Wörterbuch 20 mit dem Spracherkennung-Wörterbuchnamen. Beispielsweise, wenn die Anzeigepriorität gleich 10 ist, wechselt die Erkennungsergebnis-Ausgabesteuereinheit auf das Spracherkennung-Wörterbuch 20 mit dem Spracherkennung-Wörterbuchnamen „Adic” und wechselt, wenn die Anzeigepriorität gleich 50 ist, zu dem Wörterbuch mit dem Spracherkennung-Wörterbuchnamen „Cdic”.
  • Als Nächstes wird ein durch eine Spracherkennungsvorrichtung entsprechend Ausführungsform 2 ausgeführte Verarbeitung durch Verwenden eines in 21 gezeigten Flussdiagramms erläutert werden.
  • Da Schritte ST41 und ST42 identisch zu den Schritten ST31 und ST32 aus Ausführungsform 1 sind, wird die Erläuterung der Schritte ausgelassen werden.
  • Die Erkennungsergebnis-Ausgabesteuereinheit 22 bezieht sich auf den Spracherkennung-Wörterbuch-Wechselinformationen-Speicher 25, bestimmt den zu der durch die Anzeigepriorität-Berechnungseinheit 21 ausgegebenen Anzeigepriorität gehörenden Spracherkennung-Wörterbuchnamen (Schritt ST43) und wechselt das Spracherkennung-Wörterbuch 20, auf welches sich die Spracherkennungseinheit 19 bezieht, zu dem Spracherkennung-Wörterbuch 20 mit dem Spracherkennung-Wörterbuchnamen (Schritt ST44).
  • Wie oben erwähnt, da die Spracherkennungsvorrichtung entsprechend Ausführungsform 2 die Ausgabefrequenz des Erkennungsergebnisses durch Wechseln des Spracherkennung-Wörterbuchs, welches erkannte Wörter aufweist, deren Anzahl von der Anzeigepriorität abhängt, einstellt, kann die Spracherkennungsvorrichtung den Anwenderkomfort ebenso wie entsprechend Ausführungsform 1 verbessern.
  • Ausführungsform 3.
  • 22 ist ein Blockdiagramm, welches ein Beispiel der Struktur einer Sprachverarbeitungseinheit 9 entsprechend Ausführungsform 3 der vorliegenden Erfindung zeigt. Dieselben wie die in Ausführungsform 1 erläuterten strukturellen Komponenten sind mit denselben Bezugszeichen bezeichnet und die doppelte Erläuterung der Komponenten wird nachfolgend ausgelassen werden. Die nachfolgend gezeigte Sprachverarbeitungseinheit entsprechend Ausführungsform 3 unterscheidet sich, verglichen mit der entsprechend Ausführungsform 1, darin, dass die Sprachverarbeitungseinheit weiter eine Anzahl-von-zu-erkennenden-Wörtern-Bestimmungseinheit 26 und einen Erkennungswortkandidatenspeicher 27 umfasst. Weiter unterscheidet sich die Sprachverarbeitungseinheit darin, dass eine Erkennungsergebnis-Ausgabesteuereinheit 22 ein Spracherkennung-Wörterbuch 20 auf der Basis der Anzahl von zu erkennenden Wörtern, welche zu einer Anzeigepriorität gehören, dynamisch erzeugt, anstatt eine zu der Anzeigepriorität gehörende Beurteilungswahrscheinlichkeit an einer Spracherkennungseinheit 19 einzustellen.
  • Die Anzahl-von-zu-erkennenden-Wörtern-Bestimmungseinheit 26 bestimmt die Anzahl von zu erkennenden Wörtern, welche zu einer durch eine Anzeigepriorität-Berechnungseinheit 21 ausgegebenen Anzeigepriorität gehört. Nachfolgend wird angenommen, dass die Anzeigepriorität und die Anzahl von zu erkennenden Wörtern eine positive Korrelation zwischen diesen aufweisen. 23 ist ein Diagramm, welches eine Beziehung zwischen einer Anzeigepriorität eines Anzeigeergebnisses und der Anzahl von zu erkennenden Wörtern zeigt.
  • Beispielsweise wird angenommen, dass die Anzahl von zu erkennenden Wörtern durch Verwenden einer Funktion „Y = cX + d” (c und d sind positive konstanten) bestimmt wird, welche die Anzahl von zu erkennenden Wörtern proportional zu der Anzeigepriorität ansteigen lässt, wobei die Anzahl von zu erkennenden Wörtern durch Y wiedergegeben ist und die Anzeigepriorität durch X wiedergegeben ist. In einem in 23(a) gezeigten Beispiel, wird die Anzahl von zu erkennenden Wörtern auf der Basis der folgenden Gleichung bestimmt: „Y = 0,2X + 10”.
  • In diesem Fall kann die Anzahl von zu erkennenden Wörtern schrittweise auf der Basis der Anzeigepriorität erhöht werden, wie in 23(b) gezeigt.
  • In einem Fall, bei welchem jede Anzeigepriorität zum Angeben des Grades eingestellt ist, dass andere Informationen als Bedientasten 23 mit einer höheren Priorität als die Bedientasten 23 angezeigt werden sollten, weisen die Anzeigepriorität und die zugehörige Anzahl von zu erkennenden Wörtern eine negative Korrelation zwischen diesen auf.
  • Der Erkennungswortkandidatenspeicher 27 speichert eine Angabe und eine Erkennungsrangfolge eines jeden Worts, welches ein zu erkennender Kandidat ist.
  • Die Erkennungsrangfolge gibt einen Grad einer Wahrscheinlichkeit an, dass die Erkennungsergebnis-Ausgabesteuereinheit 22, welche später erläutert werden wird, das Wort auswählt, und es wird angenommen, dass je geringer die Erkennungsrangfolge eines Worts ist, desto höher die Wahrscheinlichkeit ist, dass das Wort ausgewählt wird. 24 ist eine Tabelle, welche ein Beispiel einer Korrespondenz zwischen der Angabe und der Erkennungsrangfolge eines Worts, welches in dem Erkennungswortkandidatenspeicher 27 gespeichert ist und welches ein zu erkennender Kandidat ist, zeigt.
  • Obwohl nachfolgend eine Erläuterung unter der Annahme gemacht werden wird, dass je niedriger die Erkennungsrangfolge eines Worts ist, desto höher die Wahrscheinlichkeit ist, dass das Wort ausgewählt wird, können Bedientasten 23 kaum angezeigt werden, dadurch, dass ein Wort mit einer geringeren Wahrscheinlichkeit mit Erniedrigen dessen Erkennungsrangfolge ausgewählt werden wird. Als eine Alternative kann die Erkennungsrangfolge festgelegt werden oder das Speichern der Erkennungsrangfolge kann ausgelassen werden.
  • Anstelle der Erkennungsrangfolge kann die Anzahl von Malen, welche eine Erkennung ausgeführt wurde, für jedes Wort gespeichert werden, und dies kann ausgebildet werden, dass je höher die Anzahl von Malen ist, welche eine Erkennung ausgeführt wurde, desto höher die Wahrscheinlichkeit ist, dass ein Wort ausgewählt wird, während je niedriger die Anzahl von Malen ist, welche eine Erkennung ausgeführt wurde, desto niedriger die Wahrscheinlichkeit ist, dass das Wort ausgewählt wird.
  • In diesem Fall ist, was nötig ist, um eine Konfiguration bereitzustellen, welche eine Anzahl-von-Malen-einer-Erkennung-Einstelleinheit (nicht gezeigt) umfasst, welche den Erkennungswortkandidatenspeicher 27 durch Verwenden, als einen Suchschlüssel, des durch die Spracherkennungseinheit 19 ausgegebenen Erkennungsergebnisses durchsucht und welche die Anzahl von Malen einer Erkennung, welche zu einem übereinstimmenden Wort gehört, hochzählt.
  • Die Erkennungsergebnis-Ausgabesteuereinheit 22 erfasst die Angaben von Wörtern, deren Anzahl durch die Anzahl-von-zu-erkennenden-Wörtern-Bestimmungseinheit 26 aus dem Erkennungswortkandidatenspeicher 27 bestimmt wird, in aufsteigender Reihenfolge deren Erkennungsrangfolge oder in absteigender Reihenfolge der Anzahl von Malen einer Erkennung. Die Erkennungsergebnis-Ausgabesteuereinheit erzeugt dann ein Spracherkennung-Wörterbuch 20 durch Verwenden der erfassten Angaben der Wörter dynamisch.
  • Weiter, wenn keine Erkennungsrangfolge in dem Erkennungswortkandidatenspeicher 27 gespeichert ist, kann die Erkennungsergebnis-Ausgabesteuereinheit die Angaben der Wörter erfassen, deren Anzahl durch die Anzahl-von-zu-erkennenden-Wörtern-Bestimmungseinheit 26 zufällig bestimmt ist.
  • Als Nächstes wird eine durch eine Spracherkennungsvorrichtung gemäß Ausführungsform 3 ausgeführte Verarbeitung durch Verwenden eines in 25 gezeigten Flussdiagramms erläutert werden.
  • Da Schritte ST51 und ST52 identisch zu den Schritten ST31 und ST32 aus Ausführungsform 1 sind, wird die Erläuterung dieser Schritte ausgelassen werden.
  • Die Anzahl-von-zu-erkennenden-Wörtern-Bestimmungseinheit 26 bestimmt die Anzahl von zu erkennenden Wörtern, welche zu der durch die Anzeigepriorität-Berechnungseinheit 21 ausgegebenen Anzeigepriorität gehört (Schritt ST53). Die Erkennungsergebnis-Ausgabesteuereinheit 22 erfasst dann die Angaben der Wörter, deren Anzahl durch die Anzahl-von-zu-erkennenden-Wörtern-Bestimmungseinheit 26 aus dem Erkennungswortkandidatenspeicher 27 bestimmt ist, in aufsteigender Reihenfolge deren Erkennungsrangfolge (Schritt ST54) und erzeugt ein Spracherkennung-Wörterbuch durch Verwenden der erfassten Angaben der Wörter (Schritt ST55).
  • Wie oben erwähnt, da die Spracherkennungsvorrichtung gemäß dieser Ausführungsform 3 die Ausgabefrequenz des Erkennungsergebnisses durch dynamisches Erzeugen eines Spracherkennung-Wörterbuchs mit erkannten Wörtern, deren Anzahl von der Anzeigepriorität abhängt, einstellt, kann die Spracherkennungsvorrichtung den Anwenderkomfort ebenso wie entsprechend Ausführungsform 1 verbessern.
  • Ausführungsform 4.
  • Obwohl der Fall eines Anwendens der Spracherkennungsvorrichtung entsprechend der vorliegenden Erfindung auf eine in einem sich bewegenden Objekt, wie beispielsweise ein Fahrzeug, angebrachte Navigationsvorrichtung als ein Beispiel in den Ausführungsformen 1 bis 3 erläutert wird, ist die Anwendung nicht auf eine Navigationsvorrichtung für Fahrzeuge beschränkt. Die Spracherkennungsvorrichtung kann auf eine Navigationsvorrichtung für sich bewegende Objekte, umfassend Personen, Fahrzeuge, Schienenfahrzeuge, Schiffe oder Flugzeuge, angewendet werden oder kann auf einen Server für ein Spracherkennungssystem und einen Server für ein Navigationssystem angewendet werden. Weiter kann die Spracherkennungsvorrichtung auf ein System in einer Form wie beispielsweise eine Anwendung für ein Spracherkennungssystem, eine Anwendung für ein Navigationssystem etc. angewendet werden, welche in mobilen Informationsendgeräten wie beispielsweise Smartphones, Tablet-PCs und Mobiltelefonen installiert sind.
  • 26 ist ein Diagramm, welches einen Umriss eines Navigationssystems entsprechend Ausführungsform 4 der vorliegenden Erfindung zeigt. Dieses Navigationssystem kann eine von verschiedenen Formen aufweisen, welche eine Form, bei welcher eine in einem Fahrzeug angeordnete Einheit 100 einen Spracherkennungsprozess und eine Navigationsprozess in Zusammenarbeit mit einem mobilen Informationsendgerät 101, wie beispielsweise ein Smartphone, und/oder einem Server 102 ausführt, und eine Form, bei welcher ein mobiles Informationsendgerät 101, wie beispielsweise ein Smartphone, und/oder der Server 102 einen Spracherkennungsprozess und einen Navigationsprozess ausführt und die in einem Fahrzeug angeordnete Einheit 100 zum Anzeigen eines Erkennungsergebnisses und von Karteninformationen veranlasst, umfasst. Nachfolgend wird die Konfiguration des Navigationssystems erläutert werden.
  • Obwohl die Erläuterung in den Ausführungsformen 1 bis 3 unter der Annahme gemacht ist, dass die in 26 gezeigte in einem Fahrzeug angeordnete Einheit 100 alle Funktionen der Spracherkennungsvorrichtung entsprechend der vorliegenden Erfindung aufweist, wird ein Fall erläutert werden, bei welchem in dem Navigationssystem entsprechend dieser Ausführungsform 4 der Server 102 einen Spracherkennungsprozess ausführt und die in einem Fahrzeug angeordnete Einheit 100 zum Anzeigen eines Erkennungsergebnisses veranlasst, wodurch das Erkennungsergebnis dem Anwender bereitgestellt wird, und ein Fall, bei welchem in dem Navigationssystem das mobile Informationsendgerät 101 einen Spracherkennungsprozess in Zusammenarbeit mit dem Server 102 ausführt und die in einem Fahrzeug angeordnete Einheit 100 zum Anzeigen eines Erkennungsergebnisses veranlasst, wodurch das Erkennungsergebnis dem Anwender bereitgestellt wird.
  • Zuerst wird der Fall erläutert werden, bei welchem der Server 102 einen Spracherkennungsprozess ausführt und die in einem Fahrzeug angeordnete Einheit 100 zum Anzeigen eines Erkennungsergebnisses veranlasst, das heißt ein Fall, bei welchem die in einem Fahrzeug angeordnete Einheit 100 als eine Anzeigevorrichtung in Zusammenarbeit mit dem Server 102, welche eine Spracherkennungsfunktion aufweist, fungiert.
  • In dieser Konfiguration kann ein Fall angenommen werden, bei welchem die in einem Fahrzeug angeordnete Einheit 100 direkt mit dem Server 102 kommuniziert oder die in einem Fahrzeug angeordnete Einheit 100 mit dem Server 102 über das mobile Informationsendgerät 101 kommuniziert. Der Server 102 fungiert als eine Spracherkennungsvorrichtung, welche mit der in einer der oben genannten Ausführungsformen 1 bis 3 erläuterten Sprachverarbeitungseinheit 9 ausgestattet ist. Weiter fungiert die in einem Fahrzeug angeordnete Einheit 100 als eine Anzeigevorrichtung, welche mit zumindest einer Anzeige 15 versehen ist, um dem Anwender ein durch den Server 102 bereitgestelltes Erkennungsergebnis bereitzustellen.
  • In diesem Fall weist die in einem Fahrzeug angeordnete Einheit 100 im Wesentlichen nur eine Kommunikationsfunktion und eine Anzeigefunktion auf und empfängt ein durch den Server 102 bereitgestelltes Spracherkennungsergebnis und stellt dem Anwender das Spracherkennungsergebnis bereit.
  • Insbesondere ist das Server 102 eine Spracherkennungsvorrichtung, welche andere Komponenten als die Anzeige 15 umfasst, und der Server 102, welcher diese Spracherkennungsvorrichtung ist, erkennt eine von dem Anwender geäußerte Sprache und veranlasst die in einem Fahrzeug angeordnete Einheit 100, welche die Anzeigevorrichtung ist, eine Erkennungsergebnis anzuzeigen.
  • Selbst wenn das Navigationssystem auf diese Weise konfiguriert ist, kann das Navigationssystem dieselben Vorteile wie die durch eine der Ausführungsformen 1 bis 3 bereitgestellten bereitstellen.
  • Weiter wird der Fall erläutert werden, bei welchem das mobile Informationsendgerät 101 einen Spracherkennungsprozess in Zusammenarbeit mit dem Server 102 ausführt und die in einem Fahrzeug angeordnete Einheit 100 dem Anwender ein Erkennungsergebnis bereitstellt.
  • In dieser Konfiguration kann ein Fall angenommen werden, bei welchem die in einem Fahrzeug angeordnete Einheit 100 mit dem Server 102 über das mobile Informationsendgerät 101 kommuniziert und eine Anwendung für das mobile Informationsendgerät 101 einen Spracherkennungsprozess in Zusammenarbeit mit dem Server 102 ausführt. Weiter fungiert die in einem Fahrzeug angeordnete Einheit 100 als eine mit zumindest einer Anzeige 15 versehene Anzeigevorrichtung, um dem Anwender ein durch das mobile Informationsendgerät 101 und den Server 102 bereitgestelltes Erkennungsergebnis bereitzustellen.
  • In diesem Fall weist die in einem Fahrzeug angeordnete Einheit 100 ebenso im Wesentlichen nur eine Kommunikationsfunktion und eine Anzeigefunktion auf und empfängt ein Spracherkennungsergebnis, welches durch das mobile Informationsendgerät 101 und den Server 102 in Zusammenarbeit miteinander bereitgestellt ist, und stellt dem Anwender das Spracherkennungsergebnis bereit.
  • Insbesondere durch Verwenden der Anwendung für das mobile Informationsendgerät 101 veranlasst das Navigationssystem die in einem Fahrzeug angeordnete Einheit 100, welches die Anzeigevorrichtung ist, ein Erkennungsergebnis anzuzeigen, welches durch Erkennen einer von dem Anwender geäußerten Sprache erfasst ist.
  • Selbst wenn das Navigationssystem auf diese Weise konfiguriert ist, kann das Navigationssystem dieselben Vorteile wie die durch eine beliebige der Ausführungsformen 1 bis 3 bereitgestellten bereitstellen.
  • Während die Erfindung in dessen bevorzugten Ausführungsformen beschrieben wurde, ist dies so zu verstehen, dass eine beliebige Kombination von zwei oder mehr der oben genannten Ausführungsformen gemacht werden kann, verschiedene Änderungen in einer beliebigen Komponente entsprechend einer beliebigen der oben genannten Ausführungsformen gemacht werden kann und eine beliebige Komponente entsprechend einer beliebigen der oben genannten Ausführungsformen innerhalb des Schutzbereichs der Erfindung ausgelassen werden kann.
  • INDUSTRIELLE ANWENDBARKEIT
  • Die Spracherkennungsvorrichtung gemäß der vorliegenden Ausführungsform kann auf eine in einem sich bewegenden Objekt, wie beispielsweise einem Fahrzeug, angebrachte Navigationsvorrichtung, einen Server für ein in einem Fahrzeug angebrachtes Informationsbereitstellungssystem, eine Anwendung für ein in mobilen Informationsendgeräten, wie beispielsweise Smartphones, Tablet-PCs und Mobiltelefonen, etc. und so weiter angewendet werden.
  • Bezugszeichenliste
  • 1
    Steuereinheit
    2
    GPS-Empfänger
    3
    unabhängiger Navigationssensor
    4
    Aktuelle-Position-Erkennungseinheit
    5
    Verkehrsinformationen-Sender und -Empfänger
    6
    Routenbestimmungseinheit
    7
    Routenführung Einheit
    8
    Mikrofon
    9
    Sprachverarbeitungseinheit
    10
    Sprachsyntheseeinheit
    11
    Karteninformationsspeicher
    12
    Karteninformationen-Erfassungseinheit
    13
    Befehlseingabeeinheit
    14
    Anzeigesteuereinheit
    15
    Anzeige
    16
    Sprachsteuereinheit
    17
    Lautsprecher
    18
    Spracherfassungseinheit
    19
    Spracherkennungseinheit
    20
    Spracherkennung-Wörterbuch
    21
    Anzeigepriorität-Berechnungseinheit
    22
    Erkennungsergebnis-Ausgabesteuereinheit
    23
    Bedientaste (Erkennungsergebnis)
    24
    Erkennungsergebnis-Anzeigebereich
    25
    Spracherkennung-Wörterbuch-Wechselinformationen-Speicher
    26
    Anzahl-von-zu-erkennenden-Wörtern-Bestimmungseinheit
    27
    Erkennungswortkandidatenspeicher
    31
    Fahrzeug
    32
    Anzeige von Stauinformationen
    33
    Einrichtungssymbol
    34
    Führungsanzeige
    35
    Warnung Anzeige
    100
    in einem Fahrzeug angeordnete Einheit
    101
    mobiles Informationsendgerät
    102
    Server

Claims (18)

  1. Eine Spracherkennungsvorrichtung, welche eine von einem Anwender geäußerte Sprache erkennt und ein Erkennungsergebnis anzeigt, wobei die Spracherkennungsvorrichtung umfasst: eine Spracherfassungseinheit, welche eine von dem Anwender geäußerte Sprache detektiert und erfasst; eine Spracherkennungseinheit, welche zu jedem Zeitpunkt, während die Spracherkennungsvorrichtung aktiv ist, sich auf ein Spracherkennung-Wörterbuch bezieht, durch die Spracherfassungseinheit erfasste Sprachdaten erkennt und ein Erkennungsergebnis auf einer Basis einer vorbestimmten Beurteilungswahrscheinlichkeit ausgibt; eine Anzeige, welche das durch die Spracherkennungseinheit ausgegebene Erkennungsergebnis anzeigt; eine Anzeigesteuereinheit, welche einen Befehl zum Anzeigen des durch die Spracherkennungseinheit ausgegebenen Erkennungsergebnisses in einem vorbestimmten Erkennungsergebnis-Anzeigebereich der Anzeige ausgibt; eine Anzeigepriorität-Berechnungseinheit, welche eine Anzeigepriorität des Erkennungsergebnisses in dem vorbestimmten Erkennungsergebnis-Anzeigebereich berechnet; und eine Erkennungsergebnis-Ausgabesteuereinheit, welche eine Beurteilungswahrscheinlichkeit bestimmt, welche zu der durch die Anzeigepriorität-Berechnungseinheit berechneten Anzeigepriorität gehört, und diese Beurteilungswahrscheinlichkeit in der Spracherkennungseinheit als die vorbestimmte Beurteilungswahrscheinlichkeit einstellt.
  2. Eine Spracherkennungsvorrichtung, welche eine durch einen Anwender geäußerte Sprache erkennt und ein Erkennungsergebnis anzeigt, wobei die Spracherkennungsvorrichtung umfasst: eine Spracherfassungseinheit, welche eine von dem Anwender geäußerte Sprache detektiert und erfasst; eine Spracherkennungseinheit, welche zu jedem Zeitpunkt, während die Spracherkennungsvorrichtung aktiv ist, sich auf eine Vielzahl von Spracherkennung-Wörterbüchern bezieht, durch die Spracherfassungseinheit erfasste Sprachdaten erkennt und ein Erkennungsergebnis auf einer Basis einer vorbestimmten Beurteilungswahrscheinlichkeit ausgibt; eine Anzeige, welche das durch die Spracherkennungseinheit ausgegebene Erkennungsergebnis anzeigt; eine Anzeigesteuereinheit, welche einen Befehl zum Anzeigen des durch die Spracherkennungseinheit ausgegebenen Erkennungsergebnisses in einem vorbestimmten Erkennungsergebnis-Anzeigebereich der Anzeige ausgibt; eine Anzeigepriorität-Berechnungseinheit, welche eine Anzeigepriorität des Erkennungsergebnisses in dem vorbestimmten Erkennungsergebnis-Anzeigebereich berechnet; einen Spracherkennung-Wörterbuch-Wechselinformationen-Speicher, welcher die Anzeigepriorität speichert, während die Anzeigepriorität in Übereinstimmung mit einem Spracherkennung-Wörterbuchnamen gebracht wird, welches ein Name eines zu der Anzeigepriorität gehörenden Spracherkennung-Wörterbuchs ist; und eine Erkennungsergebnis-Ausgabesteuereinheit, welche sich auf den Spracherkennung-Wörterbuch-Wechselinformationen-Speicher bezieht, den zu der durch die Anzeigepriorität-Berechnungseinheit berechneten Anzeigepriorität gehörenden Spracherkennung-Wörterbuchnamen erfasst und ein Spracherkennung-Wörterbuch, auf welches sich die Spracherkennungseinheit bezieht, zu dem Spracherkennung-Wörterbuch mit dem erfassten Spracherkennung-Wörterbuchnamen wechselt.
  3. Eine Spracherkennungsvorrichtung, welche eine von einem Anwender geäußerte Sprache erkennt und ein Erkennungsergebnis anzeigt, wobei die Spracherkennungsvorrichtung umfasst: eine Spracherfassungseinheit, welche eine von dem Anwender geäußerte Sprache detektiert und erfasst; eine Spracherkennungseinheit, welche zu jedem Zeitpunkt, während die Spracherkennungsvorrichtung aktiv ist, sich auf ein Spracherkennung-Wörterbuch bezieht, durch die Spracherfassungseinheit erfasste Sprachdaten erkennt und ein Erkennungsergebnis auf einer Basis einer vorbestimmten Beurteilungswahrscheinlichkeit ausgibt; eine Anzeige, welche das durch die Spracherkennungseinheit ausgegebene Erkennungsergebnis anzeigt; eine Anzeigesteuereinheit, welche einen Befehl zum Anzeigen des durch die Spracherfassungseinheit ausgegebenen Erkennungsergebnisses in einem vorbestimmten Erkennungsergebnis-Anzeigebereich der Anzeige ausgibt; eine Anzeigepriorität-Berechnungseinheit, welche eine Anzeigepriorität des Erkennungsergebnisses in dem vorbestimmten Erkennungsergebnis-Anzeigebereich berechnet; eine Anzahl-von-zu-erkennenden-Wörtern-Bestimmungseinheit, welche eine Anzahl von Wörtern, welche in der Spracherkennungseinheit zu erkennende Gegenstände sind, auf einer Basis der durch die Anzeigepriorität-Berechnungseinheit berechneten Anzeigepriorität bestimmt; einen Erkennungswortkandidatenspeicher, welcher Angaben von Wörtern, welche in der Spracherkennungseinheit zu erkennende Gegenstände sind, speichert; und eine Erkennungsergebnisausgabesteuereinheit, welche Wörter, deren Anzahl von Wörtern durch die Anzahl-von-zu-erkennenden-Wörtern-Bestimmungseinheit bestimmt ist, aus dem Erkennungswortkandidaten-Speicher erfasst und das Spracherkennung-Wörterbuch durch Verwenden der erfassten Wörter erzeugt.
  4. Die Spracherkennungsvorrichtung gemäß Anspruch 3, wobei der Erkennungswortkandidatenspeicher Erkennungsrangfolge speichert, während diese jeweils in Übereinstimmung mit den Angaben der Wörter gebracht werden, und die Erkennungsergebnis-Ausgabesteuereinheit die Angaben der Wörter von dem Erkennungswortkandidatenspeicher auf einer Basis der Erkennungsrangfolge erfasst.
  5. Die Spracherkennungsvorrichtung gemäß Anspruch 3, wobei der Erkennungswortkandidatenspeicher eine Anzahl von Malen einer Erkennung speichert, während diese jeweils in Übereinstimmung mit den Angaben der Wörter gebracht werden und wobei die Spracherkennungsvorrichtung weiter eine Anzahl-von-Malen-einer-Erkennung-Einstelleinheit, welche den Erkennungswortkandidatenspeicher durch Verwenden, als einen Suchschlüssel, des durch die Spracherkennungseinheit ausgegebenen Erkennungsergebnisses durchsucht und welche eine Anzahl von Malen einer Erkennung, welche zu einer mit dem Suchschlüssel übereinstimmenden Angabe eines Wortes gehört, erhöht und die Erkennungsergebnis-Ausgabesteuereinheit die Angaben der Wörter von dem Erkennungswortkandidatenspeicher auf einer Basis der Anzahl von Malen einer Erkennung erfasst.
  6. Die Spracherkennungsvorrichtung gemäß Anspruch 1, wobei die Erkennungsergebnis-Ausgabesteuereinheit den durch die Spracherkennungseinheit ausgeführten Erkennungsprozess auf einer Basis der durch die Anzeigepriorität-Berechnungseinheit berechneten Anzeigepriorität anhält und neu startet.
  7. Die Spracherkennungsvorrichtung gemäß Anspruch 1, wobei die Spracherkennungsvorrichtung auf eine Navigationsvorrichtung angewendet ist, welche eine Karte auf der Anzeige anzeigt und eine Routenführung für ein sich bewegendes Objekt bereitstellt, und die Anzeigepriorität-Berechnungseinheit die Anzeigepriorität auf einer Basis einer Positionsbeziehung zwischen einer auf der Anzeige angezeigten Reiserichtung des sich bewegenden Objekts und dem Erkennungsergebnis-Anzeigebereich berechnet.
  8. Die Spracherkennungsvorrichtung gemäß Anspruch 1, wobei die Spracherkennungsvorrichtung auf eine Navigationsvorrichtung angewendet ist, welche eine Karte auf der Anzeige anzeigt und eine Routenführung für ein sich bewegendes Objekt bereitstellt und die Anzeigepriorität-Berechnungseinheit die Anzeigepriorität auf einer Basis eines Anzeigezustands von Verkehrsinformationen auf der Karte in dem Erkennungsergebnis-Anzeigebereich berechnet.
  9. Die Spracherkennungsvorrichtung gemäß Anspruch 1, wobei die Spracherkennungsvorrichtung auf eine Navigationsvorrichtung angewendet ist, welche eine Karte auf der Anzeige anzeigt und eine Routenführung für ein sich bewegendes Objekt bereitstellt und die Anzeigepriorität-Berechnungseinheit die Anzeigepriorität auf einer Basis eines Anzeigezustands von Symbolen auf der Karte in dem Erkennungsergebnis-Anzeigebereich berechnet.
  10. Die Spracherkennungsvorrichtung gemäß Anspruch 9, wobei, wenn die Symbole in dem Erkennungsergebnis-Anzeigebereich angezeigt sind, die Anzeigepriorität-Berechnungseinheit die Anzeigepriorität auf einen niedrigeren Wert als den, wenn die Symbole nicht angezeigt werden, erniedrigt.
  11. Die Spracherkennungsvorrichtung gemäß Anspruch 9, wobei die Anzeigepriorität-Berechnungseinheit die Anzeigepriorität derart berechnet, dass eine Anzahl der in dem Erkennungsergebnis-Anzeigebereich und die Anzeigepriorität eine negative Korrelation zwischen diesen aufweisen.
  12. Die Spracherkennungsvorrichtung gemäß Anspruch 1, wobei die Spracherkennungsvorrichtung auf eine Navigationsvorrichtung angewendet ist, welche eine Karte auf der Anzeige anzeigt und eine Routenführung für ein sich bewegendes Objekt bereitstellt, und die Anzeigepriorität-Berechnungseinheit die Anzeigepriorität auf einer Basis eines Typs einer Straße, entlang welcher das sich bewegende Objekt fährt, berechnet.
  13. Die Spracherkennungsvorrichtung gemäß Anspruch 1, wobei die Spracherkennungsvorrichtung auf eine Navigationsvorrichtung angewendet ist, welche eine Karte auf der Anzeige anzeigt und eine Routenführung für ein sich bewegendes Objekt bereitstellt, und die Anzeigepriorität-Berechnungseinheit die Anzeigepriorität auf einer Basis eines Typs eines Bereichs, in welchem das sich bewegende Objekt fährt, berechnet.
  14. Die Spracherkennungsvorrichtung gemäß Anspruch 1, wobei die Spracherkennungsvorrichtung auf eine Navigationsvorrichtung angewendet ist, welche eine Karte auf der Anzeige anzeigt und eine Routenführung für ein sich bewegendes Objekt bereitstellt, und die Anzeigepriorität-Berechnungseinheit die Anzeigepriorität auf einer Basis einer grafischen Skala der auf der Anzeige angezeigten Karte berechnet.
  15. Die Spracherkennungsvorrichtung gemäß Anspruch 1, wobei die Spracherkennungsvorrichtung auf eine Navigationsvorrichtung angewendet ist, welche eine Karte auf der Anzeige anzeigt und eine Routenführung für ein sich bewegendes Objekt bereitstellt, und die Anzeigepriorität-Berechnungseinheit die Anzeigepriorität auf einer Basis eines Anzeigezustands einer Routenführung/Warnungsanzeige auf der Karte in dem Erkennungsergebnis-Anzeigebereich berechnet.
  16. Die Spracherkennungsvorrichtung gemäß Anspruch 1, wobei die Anzeigepriorität-Berechnungseinheit die Anzeigepriorität auf einer Basis einer Beziehung zwischen Inhalten eines in dem Erkennungsergebnis-Anzeigebereich angezeigten Erkennungsergebnisses und eines auf der Anzeige angezeigten Anzeigebildschirms berechnet.
  17. Eine Spracherkennungsvorrichtung, welche eine durch einen Anwender geäußerte Sprache erkennt und ein Erkennungsergebnis auf einer Anzeigevorrichtung anzeigt, wobei die Spracherkennungsvorrichtung umfasst: eine Spracherfassungseinheit, welche eine durch den Anwender geäußerte Sprache erfasst; eine Spracherkennungseinheit, welche zu jeder Zeit, während die Spracherkennungsvorrichtung aktiv ist, sich auf ein Spracherkennung-Wörterbuch bezieht, durch die Spracherfassungseinheit erfasste Sprachdaten erkennt und ein Erkennungsergebnis auf einer Basis einer vorbestimmten Beurteilungswahrscheinlichkeit ausgibt; eine Anzeigesteuereinheit, welche einen Befehl zum Anzeigen des durch die Spracherkennungseinheit ausgegebenen Erkennungsergebnisses in einem vorbestimmten Erkennungsergebnis-Anzeigebereich der Anzeigevorrichtung anzeigt; eine Anzeigepriorität-Berechnungseinheit, welche eine Anzeigepriorität des Erkennungsergebnisses in dem vorbestimmten Erkennungsergebnis-Anzeigebereich berechnet; und eine Erkennungsergebnis-Ausgabesteuereinheit, welche eine Beurteilungswahrscheinlichkeit bestimmt, welche zu der durch die Anzeigepriorität-Berechnungseinheit berechneten Anzeigepriorität gehört, und die Beurteilungswahrscheinlichkeit in der Spracherkennungseinheit als die vorbestimmte Beurteilungswahrscheinlichkeit einstellt.
  18. Ein Spracherkennungsverfahren zum Erkennen einer von einem Anwender geäußerten Sprache und Anzeigen eines Erkennungsergebnisses auf einer Anzeigevorrichtung, welche eine Spracherkennungsvorrichtung verwendet, wobei das Spracherkennungsverfahren umfasst: einen Schritt einer Spracherfassungseinheit welche eine durch den Anwender geäußerte Sprache erfasst; einen Schritt einer Spracherkennungseinheit zu jedem Zeitpunkt, während die Spracherkennungsvorrichtung aktiv ist, welche auf ein Spracherkennung-Wörterbuch Bezug nimmt, durch die Spracherfassungseinheit erfasste Sprachdaten erkennt und ein Erkennungsergebnis auf einer Basis einer vorbestimmten Beurteilungswahrscheinlichkeit ausgibt; einen Schritt einer Anzeigesteuereinheit, welche einen Befehl zum Anzeigen des durch die Spracherkennungseinheit ausgegebenen Erkennungsergebnisses in einem vorbestimmten Erkennungsergebnis-Anzeigebereich der Anzeigevorrichtung ausgibt; einen Schritt einer Anzeigepriorität-Berechnungseinheit, welche eine Anzeigepriorität des Erkennungsergebnisses in dem vorbestimmten Erkennungsergebnis-Anzeigebereich berechnet; und einen Schritt einer Erkennungsergebnis-Ausgabesteuereinheit, welche eine Beurteilungswahrscheinlichkeit bestimmt, welche zu der durch die Anzeigepriorität-Berechnungseinheit berechneten Anzeigepriorität gehört, und die Beurteilungswahrscheinlichkeit in der Spracherkennungseinheit als die vorbestimmte Beurteilungswahrscheinlichkeit einstellt.
DE112013006384.0T 2013-01-09 2013-01-09 Spracherkennungsvorrichtung und Anzeigeverfahren Ceased DE112013006384T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/050203 WO2014109017A1 (ja) 2013-01-09 2013-01-09 音声認識装置および表示方法

Publications (1)

Publication Number Publication Date
DE112013006384T5 true DE112013006384T5 (de) 2015-09-24

Family

ID=51166688

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013006384.0T Ceased DE112013006384T5 (de) 2013-01-09 2013-01-09 Spracherkennungsvorrichtung und Anzeigeverfahren

Country Status (5)

Country Link
US (1) US9639322B2 (de)
JP (1) JP5921722B2 (de)
CN (1) CN104919278B (de)
DE (1) DE112013006384T5 (de)
WO (1) WO2014109017A1 (de)

Families Citing this family (131)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
JP5762660B2 (ja) * 2013-05-21 2015-08-12 三菱電機株式会社 音声認識装置、認識結果表示装置および表示方法
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
CN110442699A (zh) 2013-06-09 2019-11-12 苹果公司 操作数字助理的方法、计算机可读介质、电子设备和系统
JP6037026B2 (ja) * 2013-09-11 2016-11-30 株式会社デンソー 音声出力制御装置、プログラムおよび記録媒体
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
EP3480811A1 (de) 2014-05-30 2019-05-08 Apple Inc. Verfahren zur eingabe von mehreren befehlen mit einer einzigen äusserung
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
CN106462513B (zh) * 2014-06-30 2019-05-28 歌乐株式会社 信息处理系统及车载装置
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US11199962B2 (en) * 2015-04-27 2021-12-14 Shane Venis Freehand memo image authentication
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
JP6516585B2 (ja) * 2015-06-24 2019-05-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 制御装置、その方法及びプログラム
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
JP6608199B2 (ja) * 2015-07-07 2019-11-20 クラリオン株式会社 情報システムおよびコンテンツ開始方法
KR102505347B1 (ko) * 2015-07-16 2023-03-03 삼성전자주식회사 사용자 관심 음성 알림 장치 및 방법
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179343B1 (en) * 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
CN110663021B (zh) * 2017-11-06 2024-02-02 谷歌有限责任公司 关注出席用户的方法和系统
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11076039B2 (en) 2018-06-03 2021-07-27 Apple Inc. Accelerated task performance
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
JP7334420B2 (ja) * 2019-02-21 2023-08-29 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
US11061958B2 (en) 2019-11-14 2021-07-13 Jetblue Airways Corporation Systems and method of generating custom messages based on rule-based database queries in a cloud platform
KR20210133600A (ko) * 2020-04-29 2021-11-08 현대자동차주식회사 차량 음성 인식 방법 및 장치
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11043220B1 (en) 2020-05-11 2021-06-22 Apple Inc. Digital assistant hardware abstraction
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US20220028381A1 (en) * 2020-07-27 2022-01-27 Samsung Electronics Co., Ltd. Electronic device and operation method thereof
CN113436628A (zh) * 2021-08-27 2021-09-24 广州小鹏汽车科技有限公司 语音交互方法、装置、系统、交通工具及介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005101235A1 (ja) * 2004-04-12 2005-10-27 Matsushita Electric Industrial Co., Ltd. 対話支援装置
JP2006171305A (ja) 2004-12-15 2006-06-29 Nissan Motor Co Ltd ナビゲーション装置およびナビゲーション装置における音声認識による情報の検索方法
JP5119587B2 (ja) * 2005-10-31 2013-01-16 株式会社デンソー 車両用表示装置
JP4816409B2 (ja) * 2006-01-10 2011-11-16 日産自動車株式会社 認識辞書システムおよびその更新方法
JP4662861B2 (ja) * 2006-02-07 2011-03-30 日本電気株式会社 モニタリング装置、評価データ選別装置、応対者評価装置、応対者評価システムおよびプログラム
US20090287488A1 (en) * 2006-03-24 2009-11-19 Nec Corporation Text display, text display method, and program
JP4914632B2 (ja) * 2006-04-17 2012-04-11 クラリオン株式会社 ナビゲーション装置
JP2007303878A (ja) 2006-05-09 2007-11-22 Denso Corp ナビゲーション装置
JP4736982B2 (ja) * 2006-07-06 2011-07-27 株式会社デンソー 作動制御装置、プログラム
US20080153465A1 (en) * 2006-12-26 2008-06-26 Voice Signal Technologies, Inc. Voice search-enabled mobile device
JP2008180786A (ja) 2007-01-23 2008-08-07 Sanyo Electric Co Ltd ナビゲーションシステムおよびナビゲーション装置
JP5012123B2 (ja) 2007-03-22 2012-08-29 株式会社Jvcケンウッド ナビゲーション装置、制御方法及びプログラム
JP2010008601A (ja) * 2008-06-25 2010-01-14 Fujitsu Ltd 案内情報表示装置、案内情報表示方法及びプログラム
WO2010061751A1 (ja) * 2008-11-25 2010-06-03 旭化成株式会社 重み係数生成装置、音声認識装置、ナビゲーション装置、車両、重み係数生成方法、及び重み係数生成プログラム
JP4973722B2 (ja) 2009-02-03 2012-07-11 株式会社デンソー 音声認識装置、音声認識方法、及びナビゲーション装置
JP2010205130A (ja) * 2009-03-05 2010-09-16 Denso Corp 制御装置
JP2011091617A (ja) * 2009-10-22 2011-05-06 Denso Corp 車両用データ通信装置
WO2011077486A1 (ja) * 2009-12-24 2011-06-30 三菱電機株式会社 ナビゲーション装置
JP5496947B2 (ja) * 2011-05-27 2014-05-21 株式会社Nttドコモ 機能提示システム、端末装置及びプログラム
US9341492B2 (en) * 2011-11-10 2016-05-17 Mitsubishi Electric Corporation Navigation device, navigation method, and navigation program
JP5845860B2 (ja) * 2011-12-01 2016-01-20 株式会社デンソー 地図表示操作装置
JP6094399B2 (ja) * 2013-06-24 2017-03-15 株式会社デンソー ヘッドアップディスプレイ、及びプログラム

Also Published As

Publication number Publication date
US9639322B2 (en) 2017-05-02
US20150331664A1 (en) 2015-11-19
JPWO2014109017A1 (ja) 2017-01-19
WO2014109017A1 (ja) 2014-07-17
CN104919278A (zh) 2015-09-16
CN104919278B (zh) 2017-09-19
JP5921722B2 (ja) 2016-05-24

Similar Documents

Publication Publication Date Title
DE112013006384T5 (de) Spracherkennungsvorrichtung und Anzeigeverfahren
DE112014000297T5 (de) Spracherkennungsvorrichtung und Anzeigeverfahren
DE112007002388B4 (de) Navigationsvorrichtung
DE60318430T2 (de) Computergestütztes System und Verfahren zur Informationsausgabe an einen Fahrer eines Fahrzeuges
DE112013007521T5 (de) Server zur Navigation, Navigationssystem und Navigationsverfahren
DE112012006997B4 (de) Navigationsvorrichtung
DE112007002389B4 (de) Navigationsvorrichtung
EP2116984B1 (de) Assistenzsystem zur Fahrerunterstützung in Fahrzeugen
DE112007002882B4 (de) Navigationsvorrichtung
DE202016107361U1 (de) Verwalten von Nachrichten in Fahrzeugen
DE112012006617T5 (de) Bord-Informationsvorrichtung
DE112011105407T5 (de) Spracherkennungsvorrichtung und Navigationsvorrichtung
DE112013007103T5 (de) Spracherkennungssystem, Erkennungsergebnis-Anzeigevorrichtung und Anzeigeverfahren
DE112009000732T5 (de) Fahrzeug-Navigationsvorrichtung, tragbares Informationsterminal und Fahrzeug-Navigationssystem
DE112013007522T5 (de) Fahrassistenzgerät und Fahrassistenzverfahren
DE112011105417T5 (de) Navigationsvorrichtung
DE112007003266T5 (de) Navigationsvorrichtung
DE112011105833T5 (de) Navigationsvorrichtung und Navigationsverfahren
DE112015001118T5 (de) Meldevorrichtung
DE102010034684A1 (de) Technik zur Signalisierung von Telefonanrufen während einer Routenführung
DE102009047410A1 (de) Verfahren und Navigationsgerät zum dynamischen Ermitteln eines Routenverlaufs
DE112020003033T5 (de) Verfahren und Vorrichtung zum Verbessern einer Geolokalisierungsdatenbank
DE102020106746A1 (de) System und verfahren zur erhöhung der zufriedenheit derfahrgäste in einem fahrzeug mit automatisiertem fahrsystem
DE112010001691T5 (de) Navigationssystem
DE102007057989B4 (de) Vorrichtung zur Navigation

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R016 Response to examination communication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final