DE112009005470B4 - Navigationssystem - Google Patents

Navigationssystem Download PDF

Info

Publication number
DE112009005470B4
DE112009005470B4 DE112009005470.6T DE112009005470T DE112009005470B4 DE 112009005470 B4 DE112009005470 B4 DE 112009005470B4 DE 112009005470 T DE112009005470 T DE 112009005470T DE 112009005470 B4 DE112009005470 B4 DE 112009005470B4
Authority
DE
Germany
Prior art keywords
unit
information
target
destination
navigation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112009005470.6T
Other languages
English (en)
Other versions
DE112009005470T5 (de
Inventor
Toyoaki Kitano
Tsutomu Matsubara
Takashi Nakagawa
Hideto Miyazaki
Tomohiro Shiino
Tadashi Miyahara
Kuniyo Ieda
Minoru Ozaki
Syoji Tanaka
Wataru Yamazaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112009005470T5 publication Critical patent/DE112009005470T5/de
Application granted granted Critical
Publication of DE112009005470B4 publication Critical patent/DE112009005470B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3682Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities output of POI information on a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3617Destination input or retrieval using user history, behaviour, conditions or preferences, e.g. predicted or inferred from previous use or current movement
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Abstract

Es wird ein Navigationssystem bereitgestellt, das eine Diskriminierung zwischen einem Icon einer Einrichtung, die mit einer Route assoziiert ist, auf der erwartet wird, dass sich der Anwender ab jetzt bewegt, und einem normalen Icon ermöglicht. Um dies zu erzielen, beinhaltet es eine Zielabschätzeinheit zum Erfassen von Informationen zu einer Fahrhistorie und zum Abschätzen eines Ziels aus den Informationen zu der erfassten Fahrhistorie; eine Zeichnungsentscheidungs-Änderungseinheit zum Zeichnen eines durch die Zielentscheidungseinheit abgeschätzten Zielkandidaten in einer anderen Form als ein Icon eines Nicht-Zielkandidaten; und eine Informationsanzeigeeinheit, um das durch die Zeichnungsentscheidungs-Änderungseinheit gezeichnete Icon zu veranlassen, angezeigt zu werden.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich auf ein in einem Fahrzeug montiertes Navigationssystem, um verschiedene Führungen durchzuführen, und insbesondere auf eine Technik zur Unterscheidung eines geschätzten Ziels von Anderen.
  • HINTERGRUND
  • Als Navigationssystem offenbart beispielsweise die Japanische Offenlegungsschrift Nr. 2004-38871 eine Informationsbereitstellungsvorrichtung, die in der Lage ist, automatisch einem Anwender Informationen zu einer Route zu zeigen, von der aus der aktuellen Position des Anwender abgeschätzt wird, dass der Anwender sie ab jetzt fahren wird.
  • In der Informationsbereitstellungsvorrichtung erfasst eine Positionsinformationserfassungseinheit Informationen zur derzeitigen Position eines Anwenders und stellt aus der derzeitigen Position des Anwenders eine Bereichseinstelleinheit einer Informationserfassungsfläche ein, wo die Information zu erfassen ist. Dann erfasst die Informationserfassungseinheit Ziel-assoziierte Informationen aus einer Informationsdatenbank und extrahiert aus den Zielassoziierten Informationen die im durch die Bereichseinstelleinheit eingestellten Informationserfassungsbereich enthaltenen Informationen und eine Informationspräsentationseinheit präsentiert sie dem Anwender.
  • Dokument US 6,385,535 B2 betrifft ein Navigationssystem, das eine im Fahrzeug geführte Unterhaltung analysiert und hieraus Zielkandidaten ableitet. Hierzu sind den unterschiedlichen Zielkandidaten Schlüsselwörter zugeordnet und durch Erkennen der Schlüsselwörter wird eine Zielkategorie ermittelt.
  • Die im vorstehenden Patentdokument JP 2004-038 871 A offenbarte Informationsbereitstellungsvorrichtung hat das Problem, dass es für den Anwender schwierig ist, zu entscheiden, ob die präsentierte Information durch die Informationserfassung neu angezeigte Information ist, oder eine existierende Anzeige. Zusätzlich gibt es das Problem, dass, wenn keine Einrichtungen vorliegen, die der Anwender im Informationserfassungsbereich wünscht, sondern wenn sie außerhalb des Informationserfassungsbereichs liegen, nur Icons von Einrichtungen, die mit einer Route assoziiert sind, von der erwartet wird, dass sich ab jetzt der Anwender darauf bewegt, angezeigt werden, so dass der Anwender normale Icons nicht bestätigen kann und nicht die Information, wie etwa zu gewünschten Einrichtungen, erhalten kann.
  • Die vorliegende Erfindung ist gemacht worden, um die vorstehenden Probleme zu lösen. Daher ist es eine Aufgabe der vorliegenden Erfindung, ein Navigationssystem bereitzustellen, das eine Unterscheidung zwischen den Icons von Einrichtungen, die mit der Route assoziiert sind, von der erwartet wird, dass sich der Anwender ab jetzt darauf bewegt, und den normalen Icons erleichtern kann.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die Aufgabe wird gelöst durch den Gegenstand von Anspruch 1. Bevorzugte Ausführungsformen sind in den Unteransprüchen beschrieben.
  • Ein Navigationssystem gemäß einem Beispiel umfasst: eine Zielabschätzeinheit zum Erfassen von Informationen zu einer Fahrhistorie und zum Abschätzen eines Ziels aus den Informationen zur ermittelten Fahrhistorie; eine Zeichnungsentscheidungs-Änderungseinheit zum Zeichnen eines Zielkandidaten, der durch die Zielabschätzeinheit abgeschätzt wurde, in einer anderen Form als ein Icon eines Nicht-Zielkandidaten; eine Informationsanzeigeeinheit, um das durch die Zeichenentscheidungs-Änderungseinheit gezeichnete Icon zu veranlassen, angezeigt zu werden, und eine Spracherkennungsverarbeitungseinheit zum Erkennen einer geäußerten Sprache, wobei die Zielabschätzeinheit ein Ziel aus der Information zur ermittelten Fahrhistorie und aus einem durch die Spracherkennungsverarbeitungseinheit erkannten Wort abschätzt.
  • Gemäß dem Navigationssystem gemäß einem Beispiel, da es auf solche Weise konfiguriert ist, dass es den abgeschätzten Zielkandidaten in einer anderen Form als das Icon des Nicht-Zielkandidaten zeichnet und anzeigt, kann es die Sichtbarkeit für einen Anwender erhöhen. Als Ergebnis kann der Anwender leicht das Icon der Einrichtung, welche mit der Route, längs der sich der Anwender erwartungsgemäß ab jetzt bewegen wird, assoziiert ist, von üblichen Icons unterscheiden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm, das eine Konfiguration eines Navigationssystems einer Ausführungsform 1 gemäß der vorliegenden Erfindung zeigt;
  • 2 ist ein Blockdiagramm, das eine Funktionskonfiguration der Steuereinheit zeigt, welche das Navigationssystem der Ausführungsform 1 gemäß der vorliegenden Erfindung aufbaut;
  • 3 ist ein Flussdiagramm, welches die Verarbeitung der Anzeige einer geraden Linie von einem Start der Fahrt zu einem Zielkandidaten zeigt, der abgeschätzt ist, oder zu einem Zielkandidaten im Navigationssystem der Ausführungsform 1 gemäß der vorliegenden Erfindung;
  • 4 ist ein Diagramm, das ein Beispiel von Einrichtungs-Icons zeigt, die auf dem Bildschirm im Navigationssystem der Ausführungsform 1 gemäß der vorliegenden Erfindung angezeigt werden;
  • 5 ist ein Diagramm, das ein Beispiel von Einrichtungs-Icons mit verschiedenen detaillierten Informationen zu Einrichtungen an einem abgeschätzten Zielkandidaten zeigt, der auf dem Bildschirm des Navigationssystems von Ausführungsform 1 gemäß der vorliegenden Erfindung anzuzeigen ist;
  • 6 ist ein Diagramm, das ein Beispiel des Verbindens der derzeitigen Lokation mit Zielkandidaten durch gerade Linien und ihre Anzeige im Navigationssystem der Ausführungsform 1 gemäß der vorliegenden Erfindung zeigt;
  • 7 ist ein Diagramm, das ein Beispiel der Anzeige einer Mehrzahl von Icons, die im Navigationssystem der Ausführungsform 1 gemäß der vorliegenden Erfindung überlagert sind, zeigt;
  • 8 ist ein Blockdiagramm, das eine Konfiguration eines Navigationssystems einer Ausführungsform 2 gemäß der vorliegenden Erfindung zeigt;
  • 9 ist ein Blockdiagramm, das eine Funktionskonfiguration der das Navigationssystem der Ausführungsform 2 gemäß der vorliegenden Erfindung bildenden Steuereinheit zeigt; und
  • 10 ist ein Flussdiagramm, das die Verarbeitung der Abschätzung eines Ziels unter Verwendung von Spracherkennung im Navigationssystem der Ausführungsform 2 gemäß der vorliegenden Erfindung zeigt.
  • AUSFÜHRUNGSFORMEN ZUM AUSFÜHREN DER ERFINDUNG
  • Der beste Modus zum Ausführen der Erfindung wird nunmehr unter Bezugnahme auf die beigefügten Zeichnungen beschrieben.
  • AUSFÜHRUNGSFORM 1
  • 1 ist ein Blockdiagramm, das eine Konfiguration des Navigationssystems der Ausführungsform 1 gemäß der vorliegenden Erfindung zeigt. Das Navigationssystem umfasst eine Navigationseinheit 1, eine Fernsteuerung 2, eine Anzeigeneinheit 3 und einen Lautsprecher 4.
  • Die Navigationseinheit 1 steuert das Gesamt-Navigationssystem. Details der Navigationseinheit 1 werden später beschrieben.
  • Die Fernsteuerung 2 wird von einem Anwender verwendet, um dem Navigationssystem verschiedene Anweisungen zu erteilen, wie etwa, die Anzeigeneinheit 3 zu veranlassen, zu rollen, Eingeben eines Ziels oder eines Punktes längs der Route bei einer Routensuche oder Beantworten einer Nachricht, die eine Bedienung verlangt, welche aus der Anzeigeneinheit 3 oder dem Lautsprecher 4 ausgegeben wird. Übrigens kann statt der Fernsteuerung 2 oder in Kombination mit der Fernsteuerung 2 ein Bildschirm zur Eingabe verschiedener Anweisungen durch direktes Berühren eines auf dem Bildschirm der Anzeigeneinheit 3 montierten Berührungssensors bereitgestellt werden.
  • Die Anzeigeneinheit 3, die beispielsweise aus einem LCD (Flüssigkristallanzeige) aufgebaut ist, zeigt eine Karte, einen Fahrzeugpositionsmarkierung, eine Führungsroute und verschiedene andere Nachrichten in Reaktion auf ein aus der Navigationseinheit 1 geliefertes Anzeigesignal an. Der Lautsprecher 4 gibt eine Führungsnachricht in einer Stimme in Reaktion auf ein aus der Navigationseinheit 1 zugeführtes Sprachsignal aus, um gesprochene Führung zu geben.
  • Als Nächstes werden Details der Navigationseinheit 1 beschrieben. Die Navigationseinheit 1 umfasst eine Steuereinheit 11, einen GPS-(Globales Positionierungs-System)Empfänger 12, einen Fahrzeuggeschwindigkeitssensor 13, einen Gyrosensor 14, einen Straßeninformationsempfänger 15, eine Schnittstelleneinheit 16, eine Kartenabgleicheinheit 17, eine Routensucheinheit 18, eine Führungseinheit 19, eine Kartendatenbank 20, eine Kartendatenzugriffseinheit 21 und eine Kartenzeicheneinheit 22.
  • Die Steuereinheit 11, die beispielsweise aus einem Mikrocomputer besteht, steuert die gesamte Navigationseinheit 1. Bezüglich der vorstehenden Schnittstelleneinheit 16, Kartenabgleicheinheit 17, Routensucheinheit 18, Führungseinheit 19, Kartendatenzugriffseinheit 21 und Kartenzeicheneinheit 22 sind diese durch Anwendungsprogramme implementiert, welche durch den Mikrocomputer ausgeführt werden. Details der Steuereinheit 11 werden später beschrieben.
  • Der GPS-Empfänger 12 detektiert die derzeitige Position eines Fahrzeugs (nicht gezeigt), in dem ein Navigationssystem montiert ist, von aus GPS-Satelliten über eine Antenne empfangenen GPS-Signalen. Die derzeitigen Positionsdaten, welche die derzeitige Position des Fahrzeugs anzeigen, wie durch den GPS-Empfänger 12 detektiert, werden der Motoreinheit 11 zugeführt.
  • Gemäß dem aus dem Fahrzeug zugeführten Fahrzeuggeschwindigkeitssignal detektiert der Fahrzeuggeschwindigkeitssensor 13 die Reisegeschwindigkeit des Fahrzeugs. Die die Reisegeschwindigkeit des Fahrzeugs anzeigenden Geschwindigkeitsdaten, die durch den Fahrzeuggeschwindigkeitssensor 13 detektiert werden, werden der Steuereinheit 11 zugeführt. Der Gyrosensor 14 detektiert die Fahrtrichtung des Fahrzeugs. Die, die Fahrtrichtung des Fahrzeugs anzeigenden Richtungsdaten, die mit dem Gyrosensor 14 detektiert werden, werden der Steuereinheit 11 zugeführt.
  • Der Straßeninformationsempfänger 15 empfängt ein beispielsweise aus dem Fahrzeuginformations- und Kommunikationssystem gesendetes Straßeninformationssignal. Das vom Straßeninformationsempfänger 15 empfangene Straßeninformationssignal wird der Steuereinheit 11 zugeführt. Anhand der Straßeninformation (wie etwa Verkehrsstauinformation und Passierbar- oder Unpassierbar-Information), die durch das aus der Straßeninformationsempfänger 15 in regelmäßigen Intervallen zugeführte Straßeninformationssystem angezeigt sind, erzeugt die Steuereinheit 11 eine Nachricht, die beispielsweise einen Verkehrsstau einer Straße anzeigt, und veranlasst die Anzeigeneinheit 3, sie auf dem Bildschirm anzuzeigen, und den Lautsprecher 4, sie gesprochen auszugeben.
  • Die Schnittstelleneinheit 16 empfängt eine aus der Fernsteuerung 2 zugeführte oder über eine Operation eines nicht gezeigten Steuerpaneels empfangene Anweisung und sendet sie an die Steuereinheit 11. In Reaktion auf die Anweisung führt die Steuereinheit 11 die Verarbeitung zum Ausführen beispielsweise des Rollens des Bildschirms, einer Einrichtungssuche, Routensuche oder Führung aus.
  • Die Kartenabgleicheinheit 17 lokalisiert die durch die aus der Steuereinheit 11 zugeführten derzeitigen Positionsdaten angezeigte Fahrzeugposition auf der Karte, welche eine Repräsentation der aus der Kartendatenbank 20 über die Kartendatenzugriffseinheit 21 und Steuereinheit 11 eingelesenen Kartendaten ist, und führt die Verarbeitung der Bildung der Fahrzeugpositionsmarke auf der Karte aus. Das Verarbeitungsergebnis der Kartenabgleicheinheit 17 wird der Kartenzeicheneinheit 22 über die Steuereinheit 11 und die Kartendatenzugriffseinheit 21 zugeführt.
  • Die Routensucheinheit 18 sucht nach einer Route ab der derzeitigen Position des Fahrzeugs, welche durch die aus der Steuereinheit 11 zugeführten derzeitigen Positionsdaten repräsentiert wird, zum durch die aus der Fernsteuerung 2 oder einem nicht gezeigten Steuerpaneel über die Schnittstelleneinheit 16 und die Steuereinheit 11 zugeführten Anweisung angezeigten Ziel anhand der aus der Kartendatenbank 20 über die Kartendatenzugriffseinheit 21 und Steuereinheit 11 ermittelten Kartendaten. Die durch die Routensucheinheit 18 gesuchte Route wird über die Steuereinheit 11 zur Führungseinheit 19 und über die Steuereinheit 11 und die Kartendatenzugriffseinheit 21 zur Kartenzeicheneinheit 22 geführt.
  • Die Führungseinheit 19 erzeugt aus den aus der Kartendatenbank 20 über die Kartendatenzugriffseinheit 21 und Steuereinheit 11 eingelesenen Kartendaten eine Führungskarte und eine Führungsnachricht zum Führen des Fahrzeugs, wenn es auf der Route fährt, nach der die Routensucheinheit 18 sucht, und liefert sie an die Anzeigeneinheit 3 bzw. den Lautsprecher 4.
  • Dies veranlasst die Anzeigeneinheit 3 dazu, die Führungskarte anzuzeigen, und den Lautsprecher 4, die gesprochene Führungsnachricht zu erzeugen.
  • Die Kartendatenbank 20 speichert verschiedene sich auf die Karte beziehende Daten, wie etwa Straßendaten und Einrichtungsdaten, als die Kartendaten. Die in der Kartendatenbank 20 gespeicherten Kartendaten werden durch die Kartendatenzugriffseinheit 21 eingelesen. Die Kartendatenzugriffseinheit 21 liest die in der Kartendatenbank 20 gespeicherten Kartendaten in Reaktion auf eine Anweisung aus der Steuereinheit 11 aus und liefert sie an die Steuereinheit 11 und die Kartenzeicheneinheit 22.
  • Gemäß den aus der Kartendatenzugriffseinheit 21 zugeführten Kartendaten erzeugt die Kartenzeicheneinheit 22 Zeichendaten, um die Anzeigeneinheit 3 zu veranlassen, die Karte und dergleichen anzuzeigen. Die durch die Kartenzeicheneinheit 22 erzeugten Zeichendaten werden der Anzeigeneinheit 3 als das Anzeigesignal zugeführt. Dies veranlasst die Anzeigeneinheit 3, die Karte, die Fahrzeugpositionsmarkierung, Führungsroute und andere vermischte Nachrichten auf ihrem Bildschirm anzuzeigen.
  • Als Nächstes werden Details der Steuereinheit 11 beschrieben. 2 ist ein Blockdiagramm, das eine Funktionskonfiguration der Steuereinheit 11 zeigt, die nur einen mit der vorliegenden Erfindung assoziierten Teil zeigt. Die Steuereinheit 11 umfasst eine Positionsinformations-Erfassungseinheit 31, eine Bedieneingabeeinheit 32, eine Fahrzeuginformations-Erfassungseinheit 33, eine Externinformations-Erfassungseinheit 34, eine Informationsaufzeichnungseinheit 35, eine Ziel-Abschätzeinheit 36, eine Zeichenentscheidungs-Änderungseinheit 37, eine Informationsanzeigeeinheit 38 und eine Sprachausgabeeinheit 39.
  • Die Positionsinformations-Erfassungseinheit 31 erfasst die derzeitigen Positionsdaten aus dem GPS-Empfänger 12. Zusätzlich empfängt die Positionsinformations-Erfassungseinheit 31 die Geschwindigkeitsdaten aus dem Fahrzeuggeschwindigkeitssensor 13 und die Richtungsdaten aus dem Gyrosensor 14, detektiert die derzeitige Position des Fahrzeugs unter Verwendung von Koppelnavigation, basierend auf den Geschwindigkeitsdaten und Richtungsdaten, und erzeugt die derzeitigen Positionsdaten. Dies ermöglicht dem Navigationssystem, immer die richtige derzeitige Position des Fahrzeugs zu detektieren, weil es sie mittels der Koppelnavigation detektieren kann, selbst wenn der GPS-Empfänger 12 die derzeitige Position des Fahrzeugs nicht detektieren kann, weil das Fahrzeug beispielsweise in einen Tunnel oder eine Lücke zwischen hoch aufragenden Gebäude einfährt. Die durch die Positionsinformations-Erfassungseinheit 31 ermittelten oder erzeugten derzeitigen Positionsdaten werden der Ziel-Abschätzeinheit 36 zugeführt.
  • Die Bedieneingabeeinheit 32, welche die aus der Schnittstelleneinheit 16 in Reaktion auf die Bedienung der Fernsteuerung 2 zugeführte Anweisung empfängt, sendet sie an die Ziel-Abschätzeinheit 36.
  • Die Fahrzeuginformations-Erfassungseinheit 33 erfasst aus dem Fahrzeug, in dem das Navigationssystem montiert ist, Fahrzeuginformationen wie etwa verbleibenden Kraftstoff (im Falle eines Elektrofahrzeugs verbleibende Batterie-Lebensdauer), Anwesenheit oder Abwesenheit von Aufleuchten eines Warnlichts, verbleibende Batterie-Lebensdauer, die Anzahl der Passagiere, und Durchschnitts-Kraftstoffeffizienz, und übermittelt sie an die Ziel-Abschätzeinheit 36.
  • Die Externinformations-Erfassungseinheit 34 erfasst aus der Externinformations-Datenbank externe Informationen wie etwa Wetterinformationen, Informationen zu Schnäppchen, Preisinformationen von Tankstellen und Coupon-Informationen von Restaurants in gleichmäßigen Intervallen beispielsweise durch Kommunikation und sendet sie an die Ziel-Abschätzeinheit 36.
  • Die Informationsaufzeichnungseinheit 35 speichert alle Arten von Informationen, welche durch die Ziel-Abschätzeinheit 36 geschrieben sind, wie etwa Fahrhistorien-Information, Verkehrsstau-Information, Fahrzeuginformation und Straßeninformation. Die Fahrhistorien-Information beinhaltet übliche Fahrzustände (Geschwindigkeit, Straßen- und Fahrhistorien) eines Fahrers. Die in der Informationsaufzeichnungseinheit 35 gespeicherten Informationen werden durch die Ziel-Abschätzeinheit 36 ausgelesen. Übrigens können, hinsichtlich der in der Informationsaufzeichnungseinheit 35 gespeicherten Informationen, diese auf solche Weise konfiguriert sein, dass sie durch Kommunikation von außen oder aus einem Aufzeichnungsmedium, wie etwa einem USB-Speicher, ermittelt werden.
  • Übrigens speichert die Informationsaufzeichnungseinheit 35 eine Bedienhistorie zusätzlich zu den im Navigationssystem von Ausführungsform 1 gespeicherten Informationen. Die Bedienhistorie wird als eine der Entscheidungsmaterialien zum Abschätzen eines Zieles verwendet.
  • Die Ziel-Abschätzeinheit 36 schätzt das Ziel des Fahrzeugs aus den Informationen zur Fahrhistorie ab, oder spezifischer, aus den aus der Positionsinformations-Erfassungseinheit 31 zugeführten derzeitigen Positionsdaten, einer aus der Operationseingabeeinheit 32 zugeführten Anweisung, aus, aus der Fahrzeuginformations-Erfassungseinheit 33 zugeführten Fahrzeuginformationen, aus von der externen Informationserfassungseinheit 34 zugeführten externen Informationen und/oder allen möglichen von aus der Informationsaufzeichnungseinheit 35 ausgelesenen Informationen. Bezüglich der Abschätzung des Ziels durch die Ziel-Abschätzeinheit 36 können auch Identifikationsinformationen (wie etwa ein Fahrer, Passagier, Zeit und Datum, Wochentag oder Jahreszeit) verwendet werden. Die Zieldaten, welche das durch die Ziel-Abschätzeinheit 36 abgeschätzte Ziel anzeigen, werden der Zeichenentscheidungs-Änderungseinheit 37 und der Sprachausgabeeinheit 39 zugeführt.
  • Die Zeichenentscheidungs-Änderungseinheit 37 ändert Einrichtungs-Icons auf solche Weise, dass ein Einrichtungs-Icon hervorgehoben wird, an dem der Fahrer sehr wahrscheinlich am abgeschätzten Ziel stoppen wird, das heißt, am durch die aus der Ziel-Abschätzeinheit 36 zugeführten Zieldaten anzeigenden Ziel, um es von anderen üblichen Einrichtungs-Icon zu unterscheiden, oder die anderen üblichen Einrichtungs-Icon nicht hervorgehoben werden. Das Hervorheben oder Nichthervorheben kann durch Variieren eines Merkmals ausgeführt werden, wie etwa die Größe des Einrichtungs-Icons, einen Zustand mit oder ohne Farbe, Farbstärke oder Transparenz der Icon-Anzeige. Die das Einrichtungs-Icon repräsentierenden Einrichtungsdaten, geändert durch die Zeichenentscheidungs-Änderungseinheit 37, werden der Informationsanzeigeeinheit 38 zugeführt.
  • Die Informationsanzeigeeinheit 38 erzeugt die Anzeigedaten zur Anzeige der durch die Einrichtungsdaten, die aus der Zeichenentscheidungs-Änderungseinheit 37 zugeführt werden, angezeigten Einrichtung und sendet sie über die Kartendatenzugriffseinheit 21 an die Kartenzeicheneinheit 22. Anhand der aus der Kartendatenzugriffseinheit 21 zugeführten Anzeigedaten erzeugt die Kartenzeicheneinheit 22 die Zeichendaten, um die Anzeigeneinheit 3 zu veranlassen, eine Karte, welche das durch die Zeichenentscheidungs-Änderungseinheit 37 veränderte Einrichtungs-Icon beinhaltet, anzuzeigen, und sendet sie an die Anzeigeneinheit 3 als das Anzeigesignal. Somit zeigt die Anzeigeneinheit 3 die das durch die Zeichenentscheidungs-Änderungseinheit 37 geänderte Einrichtungs-Icon beinhaltende Karte auf ihrem Bildschirm an.
  • Die Sprachausgabeeinheit 39 erzeugt die Sprachdaten für die sprachliche Ausgabe des durch die aus der Ziel-Abschätzeinheit 36 zugeführten Zieldaten angezeigten Ziels und sendet sie an die Führungseinheit 19. Die Führungseinheit 19 erzeugt eine Führungsnachricht, welche das Ziel anzeigt, aus den Sprachdaten aus der Sprachausgabeeinheit 39 und sendet sie an den Lautsprecher 4. Somit gibt der Lautsprecher 4 das Ziel als eine gesprochene Führungsnachricht aus. Als Ergebnis kann der Anwender das Ziel wahrnehmen, ohne den Bildschirm während des Fahrens zu beobachten.
  • Als Nächstes wird der Betrieb des Navigationssystems der Ausführungsform 1 gemäß der vorliegenden Erfindung mit der vorstehenden Konfiguration beschrieben. Zuerst wird der allgemeine Betrieb des Navigationssystems beschrieben. Wenn das Navigationssystem eingeschaltet wird, werden die derzeitigen Positionsdaten und Kartendaten erfasst. Spezifischer sendet die Steuereinheit 11 die aus den durch den GPS-Empfänger 12 ermittelten derzeitigen Positionsdaten berechneten derzeitigen Positionsdaten oder durch Koppelnavigation berechnete derzeitige Positionsdaten an die Kartenabgleicheinheit 17.
  • Die Kartenabgleicheinheit 17 liest die Kartendaten aus der Kartendatenbank 20 über die Kartendatenzugriffseinheit 21 und Steuereinheit 11 aus und führt eine Abpassverarbeitung des Überlagerns der Fahrzeugpositionsmarke auf der, der aus der Steuereinheit 11 empfangenen derzeitigen Positionsdaten entsprechenden Position aus. Die die Abpassverarbeitung durchlaufenden Kartendaten werden der Kartenzeicheneinheit 22 über die Steuereinheit 11 und die Kartendatenzugriffseinheit 21 zugeführt. Die Kartenzeicheneinheit 22 erzeugt die Zeichendaten aus den, aus der Kartenabgleicheinheit 17 gelieferten Kartendaten und sendet sie an die Anzeigeneinheit 3 als das Anzeigesignal. Somit zeigt die Anzeigeneinheit 3 eine Karte mit der derzeitigen Position des Fahrzeugs in ihrem Zentrum platziert an.
  • Als Nächstes wird die Verarbeitung ab dem Start des Fahrens bis zur Anzeige eines abgeschätzten Zielkandidaten oder der geraden Linie zum Zielkandidaten unter Bezugnahme auf das in 3 gezeigte Flussdiagramm beschrieben.
  • Wenn das Fahren begonnen wird, werden eine Straße, die Fahrzeugposition auf der Straße und Einrichtungs-Icons um die Straße herum wie in 4(a) gezeigt, angezeigt. Wenn das Fahrzeug mit dem darin montierten Navigationssystem sich in diesem Zustand bewegt, wird zuerst das Ziel aus der Fahrtrichtung abgeschätzt (Schritt ST11). Spezifischer, wenn das Fahrzeug einige Entfernung gefahren ist, wird die Abschätzung des Ziels aus den Informationen zur Fahrhistorie vorgenommen. Konkret schätzt die Ziel-Abschätzeinheit 36 die Fahrtrichtung aus dem Übergangszustand der aus der Positionsinformations-Erfassungseinheit 31 zugeführten derzeitigen Positionsdaten ab und schätzt das Ziel aus der abgeschätzten Fahrtrichtung und aus den verschiedenen Informationen (wie etwa Fahrhistorie, Verkehrsstau-Informationen, Fahrzeuginformationen und Straßeninformationen), die aus der Informationsaufzeichnungseinheit 35 ermittelt werden, ab. Die, den Zielkandidaten anzeigenden Zieldaten, der durch die Ziel-Abschätzeinheit 36 abgeschätzt ist, werden an die Zeichenentscheidungs-Änderungseinheit 37 gesetzt.
  • Als Nächstes wird eine Prioritätsentscheidung der Zielkandidaten vorgenommen (Schritt ST12). Spezifischer, wenn eine Mehrzahl von Zielkandidaten in Schritt ST11 abgeschätzt werden, gibt die Ziel-Abschätzeinheit 36 den Zielkandidaten in aufsteigender Reihenfolge der Distanz oder in absteigender Reihenfolge der Häufigkeit des Auftretens Priorität. Die durch die Ziel-Abschätzeinheit 36 gegebene Priorität wird der Zeichenentscheidungs-Änderungseinheit 37 zugeführt.
  • Als Nächstes wird ein Icon eines Zielkandidaten auf dem Bildschirm angezeigt (Schritt ST13). Spezifischer ändert die Zeichenentscheidungs-Änderungseinheit 37 beispielsweise die Größe des Einrichtungs-Icons, den Zustand mit oder ohne Farbe, die Farbstärke oder die Transparenz der Icon-Anzeige, um so ein Einrichtungs-Icon des abgeschätzten Ziels hervorzuheben, das heißt, des durch die aus der Ziel-Abschätzeinheit 36 zugeführten Zieldaten angezeigten Ziels, um es von anderen üblichen Einrichtungs-Icons zu unterscheiden, oder die anderen üblichen Einrichtungs-Icons nicht hervorzuheben. 4(b) zeigt ein Beispiel des Hervorhebens von Einrichtungs-Icons am Zielkandidaten, wobei ihre Größe verändert wird. In diesem Fall, wenn der Einrichtungskandidat Einrichtungsinformationen detailliert aufgeführt hat, wird ein Einrichtungs-Icon am Zielkandidaten mit „!” angezeigt, wie in 5(b) gezeigt. Somit kann der Anwender auf einen Blick erkennen, ob der abgeschätzte Zielkandidat detaillierte Einrichtungsinformationen hat oder nicht.
  • Als Nächstes wird Sprachführung ausgeführt (Schritt ST14). Spezifischer erzeugt die Sprachausgabeeinheit 39 eine Sprachführung, welche anzeigt, dass der durch die Ziel-Abschätzeinheit 36 abgeschätzte Zielkandidat angezeigt wird.
  • Spezifischer erzeugt die Sprachausgabeeinheit 39 die Sprachdaten zur gesprochenen Ausgabe des durch die aus der Ziel-Abschätzeinheit 36 zugeführten Zieldaten angezeigten Ziels und sendet sie an die Führungseinheit 19. Die Führungseinheit 19 erzeugt eine Führungsnachricht, die das Ziel anzeigt, aus den Sprachdaten und sendet sie an den Lautsprecher 4. Somit gibt der Lautsprecher 4 das Ziel sprachlich als eine Führungsnachricht aus. Als Ergebnis kann der Anwender das Ziel erkennen, ohne den Bildschirm während des Fahrens zu beobachten.
  • Als Nächstes wird eine Überprüfung vorgenommen, ob eine Anweisung zur Anzeige der Details gegeben wird oder nicht (Schritt ST15). Spezifischer, wie in 5(b) beispielhaft gezeigt, wenn ein Einrichtungs-Icon am Zielkandidat daran ein „!” angebracht hat, um anzuzeigen, dass er die detaillierten Kandidateninformationen aufweist, wird eine Überprüfung vorgenommen, ob das Einrichtungs-Icon gedrückt worden ist, oder nicht.
  • In Schritt ST15 wird, falls eine Entscheidung getroffen wird, dass die Anweisung gegeben wird, die Details anzuzeigen (”JA” in Schritt ST15), eine Ziel-Aktualisierungsinformations-Detailanzeige ausgeführt (Schritt ST16). Spezifischer, wenn das durch die Ziel-Abschätzeinheit 36 abgeschätzte Ziel detaillierte Informationen oder Aktualisierungsinformationen aufweist, fügt die Zeichenentscheidungs-Änderungseinheit 37 „!” das dies anzeigt, zum Einrichtungs-Icon am Zielkandidaten hinzu und zeichnet es. In diesem Zustand, wenn der Anwender „!” drückt, wird die detaillierte Information zur durch das Einrichtungs-Icon angezeigten Einrichtung angezeigt. In Schritt ST15, falls eine Entscheidung getroffen wird, dass keine Anweisung zur Anzeige der Details gegeben wird (”NEIN” in Schritt ST15), wird die Verarbeitung in Schritt ST16 übersprungen. Die Verarbeitung ermöglicht es dem Anwender, intuitiv wahrzunehmen, dass die detaillierte Aktualisierungsinformation bereitgestellt wird, und die verschiedenen detaillierten Information zu veranlassen, leicht durch Drücken des Icons anzuzeigen.
  • Als Nächstes werden der derzeitige Ort und Zielkandidaten zusammen mit zwischen ihnen verbundenen geraden Linien angezeigt (Schritt ST17). Spezifischer erzeugt die Zeichenentscheidungs-Änderungseinheit 37 die Zeichendaten zum Zeichnen der geraden Linien, die die durch die Ziel-Abschätzeinheit 36 abgeschätzten Zielkandidaten mit dem derzeitigen Ort verbinden und sendet die Zeichendaten als das Anzeigesignal an die Anzeigeneinheit 3. Somit, wie in 6(b) gezeigt, zeigt die Anzeigeneinheit 3 auf ihrem Bildschirm eine Karte an, welche die, die Einrichtungs-Icons, welche die Zeichenentscheidungs-Änderungseinheit 37 ändert, mit der derzeitigen Position des Fahrzeugs verbindenden geraden Linien beinhaltet. Entsprechend kann der Anwender die Richtung des abgeschätzten Ziels leicht lernen.
  • Übrigens ist auch eine Konfiguration möglich, in der die Ziel-Abschätzeinheit 36 den Zielkandidaten in aufsteigender Reihenfolge der Distanz oder in absteigender Reihenfolge der Auftrittshäufigkeit Priorität gibt, und die Zeichenentscheidungs-Änderungseinheit 37 den Typ, die Dicke, Farbe und/oder ob angezeigt oder nicht, der geraden Linien gemäß der, durch die Ziel-Abschätzeinheit 36 gegebenen Priorität ändert. Alternativ ist auch eine Konfiguration möglich, welche den Einrichtungs-Icons am Zielkandidaten gemäß der Häufigkeit oder der Möglichkeit des Auftretens eine Priorität gibt und Icons auf der Anzeigeneinheit 3 auf solche Weise anzeigt, dass stärkere Betonung auf die Icons mit höherer Priorität gelegt wird, wie in 7 gezeigt, und, wenn die Einrichtungs-Icons überlagert werden, die Icons mit höherer Priorität, die auf der näheren Seite zu platzieren sind, zu zeichnen.
  • Als Nächstes wird eine Echtzeit-Aktualisierungsinformationsanzeige ausgeführt (Schritt ST18). Spezifischer aktualisiert die Zeichenentscheidungs-Änderungseinheit 37 eine Abschätzung des Ziels in regulären Intervallen anhand der weiteren Bewegung der Fahrzeugposition. Danach endet die Verarbeitung.
  • Wie oben beschrieben, veranlasst gemäß dem Navigationssystem der Ausführungsform 1 gemäß der vorliegenden Erfindung es den abgeschätzten Zielkandidaten, in einer sich von anderen Icons als den Zielkandidaten unterscheidenden Weise angezeigt zu werden, wodurch es in der Lage ist, die Sichtbarkeit für einen Anwender zu erhöhen. Als Ergebnis kann der Anwender die Icons von mit der Route, auf der der Anwender erwartet wird, sich von jetzt ab zu bewegen, assoziierten Einrichtungen von üblichen Einrichtungen leicht unterscheiden.
  • Übrigens ist auch eine Konfiguration möglich, die einen Anwender in die Lage versetzt, das Ziel durch Knicken des Icons des wie oben beschrieben abgeschätzten Zielkandidaten einzustellen. Alternativ ist auch eine Konfiguration möglich, die einem Anwender ermöglicht, einen beim Ziel anzurufen oder über ein Netz aus einem Untermenü mit einer ähnlichen Operation eine Reservierung vorzunehmen.
  • AUSFÜHRUNGSFORM 2
  • Das Navigationssystem nach Ausführungsform 2 gemäß der vorliegenden Erfindung ist auf solche Weise konfiguriert, dass es ein Ziel unter Verwendung von Inhalten einer im Fahrzeug geäußerten Stimme zusätzlich zur zum Abschätzen der Zielkandidaten im Navigationssystem der Ausführungsform 1, wie oben beschrieben, verwendeten Fahrhistorie abschätzt. Übrigens wird die nachfolgende Beschreibung vorgenommen, indem auf sich zum Navigationssystem der Ausführungsform 1 verschiedene Teile zentriert wird.
  • 8 ist ein Blockdiagramm, das eine Konfiguration des Navigationssystems der Ausführungsform 2 gemäß der vorliegenden Erfindung zeigt. Das Navigationssystem umfasst eine Spracheingabeeinheit 5 zusätzlich zur Konfiguration des Navigationssystems der in 1 gezeigten Ausführungsform 1 und eine Spracherkennungsverarbeitungseinheit 23 und eine Spracherkennungswörterbucheinheit 24 werden der Navigationsvorrichtung 1 hinzugefügt, und die Steuereinheit 11 in der Navigationseinheit 1 wird zur Steuereinheit 11a modifiziert.
  • Die Spracheingabeeinheit 5, die beispielsweise aus einem Mikrofon besteht, erzeugt Sprachsignale durch Umwandeln von Inhalten einer Unterhaltung zwischen Passagieren in Fahrzeugen in ein elektrisches Signal, und sendet sie an die Spracherkennungsverarbeitungseinheit 23 als Sprachinformation.
  • Die Spracherkennungsverarbeitungseinheit 23 führt Spracherkennung durch Vergleichen der aus dem, aus der Spracheingabeeinheit 5 gesendeten Sprachsignal erzeugten Sprachinformation mit der Sprachinformation des in der Spracherkennungswörterbucheinheit 24 gespeicherten Spracherkennungswörterbuch aus. Ein durch die Spracherkennungsverarbeitung in der Spracherkennungsverarbeitungseinheit 23 erkanntes Wort wird an die Steuereinheit 11a geliefert.
  • Die Spracherkennungswörterbucheinheit 24 speichert das für die Spracherkennungsverarbeitung verwendete Spracherkennungswörterbuch. Das Spracherkennungswörterbuch schreibt die Entsprechung zwischen Sprachinformationen und erkannten Wörtern. Auf das in der Spracherkennungswörterbucheinheit 24 gespeicherte Spracherkennungswörterbuch wird wie oben beschrieben durch die Spracherkennungsverarbeitungseinheit 23 zugegriffen.
  • Als Nächstes werden Details der Steuereinheit 11a beschrieben. 9 ist ein Blockdiagramm, das eine funktionelle Konfiguration der Steuereinheit 11a zeigt. Die Steuereinheit 11a wird durch Hinzufügen einer Spracherkennungsinformations-Erfassungseinheit 40 zur Steuereinheit 11 in der Navigationseinheit 1 des Navigationssystems der in 1 gezeigten Ausführungsform 1 konfiguriert.
  • Die Spracherkennungsinformations-Erfassungseinheit 40 erfasst einen Einrichtungsnamen oder Ortsnamen, der durch die Spracherkennungsverarbeitung in der Spracherkennungsverarbeitungseinheit 23 erhalten wird, und sendet ihn an die Ziel-Abschätzeinheit 36.
  • Als Nächstes wird der Betrieb des Navigationssystems der Ausführungsform 2 gemäß der vorliegenden Erfindung mit der vorstehenden Konfiguration unter Bezugnahme auf das in 10 gezeigte Flussdiagramm beschrieben, wobei auf die Abschätzverarbeitung zentriert wird, die ein Ziel aus der Spracherkennung abschätzt. Die Abschätzverarbeitung wird anstatt des Schritts ST11 der in 3 gezeigten Verarbeitung ausgeführt.
  • Bei der Abschätzverarbeitung wird zuerst die Spracherkennungsfunktion gestartet (Schritt ST21). Die Spracherkennungsfunktion wird automatisch in Reaktion auf den Start des Motors des Fahrzeugs gestartet. Als Nächstes werden Stimmen der Passagiere gesammelt (Schritt ST22). Spezifischer erzeugt die Spracheingabeeinheit 5 das Sprachsignal durch Umwandeln der Konversationsinhalte im Fahrzeug in das elektrische Signal und liefert es an die Spracherkennungsverarbeitungseinheit 23 als Sprachinformation.
  • Als Nächstes werden die Sprachinhalte analysiert (Schritt ST23). Spezifischer führt die Spracherkennungsverarbeitungseinheit 23 eine Spracherkennung durch Vergleichen der durch das aus der Spracheingabeeinheit 5 empfangenen Sprachsignal repräsentierten Sprachinformation mit der Sprachinformation im in der Spracherkennungswörterbucheinheit 24 gespeicherten Spracherkennungswörterbuch aus und führt das durch die Spracherkennung ermittelte Wort der Steuereinheit 11a zu.
  • Als Nächstes wird eine Überprüfung vorgenommen, ob ein Schlüsselwort erfasst wird oder nicht (Schritt ST24). Spezifischer überprüft die Steuereinheit 11a, ob das aus der Spracherkennungsverarbeitungseinheit 23 zugeführte Wort ein Schlüsselwort enthält, wie etwa einen Ortsnamen, Einrichtungsnamen oder ein Einrichtungsnamen-Alternativwort. Hier bezieht sich der Ausdruck „Einrichtungsnamen-Alternativwort” auf das Folgende. Beispielsweise ist „Ich bin hungrig” ein Einrichtungsalternativwort einer „umgebenden Einrichtung, die eine Mahlzeit serviert”, und „Ich habe Bauchschmerzen” ist ein Einrichtungsalternativwort für ein „Krankenhaus in der Umgebung”.
  • Falls in diesem Schritt ST24 eine Entscheidung getroffen wird, dass kein Schlüsselwort erfasst wird, kehrt die Abfolge zu Schritt ST22 zurück, um die oben beschriebene Verarbeitung zu wiederholen. Falls andererseits in dem Schritt ST24 eine Entscheidung getroffen wird, dass ein Schlüsselwort erfasst wird, wird dann eine Validitätsanalyse des Schlüsselwortes vorgenommen (Schritt ST25). Bei der Validitätsanalyse wird beispielsweise eine Entscheidung aus der derzeitigen Lokation oder der aktuellen Zeit getroffen, ob das Schlüsselwort als ein abgeschätzter Zielkandidat angemessen ist, ob es inkonsistent (wie in der Richtung entgegengesetzt) zum Zielkandidaten ist, der bereits als angemessen bewertet worden ist oder nicht, und ob es wiederholt geäußert wird (worüber als gültig entschieden wird, wenn eine vorgegebene Anzahl oder öfter wiederholt).
  • Als Nächstes wird eine Überprüfung vorgenommen, ob das Schlüsselwort als eine „Zielabschätzung” gehandhabt werden kann oder nicht (Schritt ST26). Spezifischer wird bezüglich des Schlüsselwortes wie einem Ortsnamen oder einem Einrichtungsnamen, der in der Validitätsanalyse des Schlüsselwortes im Schritt ST25 angemessen aufgefasst wurde, eine Überprüfung vorgenommen, ob es als Zielabschätzung gehandhabt werden kann. Falls in diesem Schritt ST26 eine Entscheidung getroffen wird, dass das Schlüsselwort nicht als „Zielabschätzung” gehandhabt werden kann, kehrt die Abfolge zu Schritt ST22 zurück und die oben beschriebene Verarbeitung wird wiederholt.
  • Falls andererseits in Schritt ST26 eine Entscheidung getroffen wird, dass das Schlüsselwort als eine „Zielabschätzung” gehandhabt werden kann, wird eine Überprüfung vorgenommen, ob das Schlüsselwort ein Ortsname oder ein Einrichtungsname ist (Schritt ST27). Falls in diesem Schritt ST27 eine Entscheidung getroffen wird, dass es ein Ortsname ist, wird eine Abschätzung der Richtung des Ziels vorgenommen (Schritt ST28). Spezifischer schätzt die Ziel-Abschätzeinheit 36 die Bewegungsrichtung aus dem, aus der Spracherkennungsinformations-Erfassungseinheit 40 zugeführten Ortsnamen ab und schätzt ein Ziel aus einer abgeschätzten Bewegungsrichtung und aus verschiedenen Informationen (Fahrhistorien-Information, Verkehrsstau-Information, Fahrzeuginformation, Straßeninformation und dergleichen), die aus der Informationsaufzeichnungseinheit 35 ermittelt werden. ab. Die, den durch die Ziel-Abschätzeinheit 36 abgeschätzten Zielkandidaten anzeigenden Zieldaten werden der Zeichenentscheidungs-Änderungseinheit 37 zugeführt. Danach endet die Abschätzverarbeitung.
  • Falls andererseits in diesem Schritt ST27 eine Entscheidung getroffen wird, dass das Schlüsselwort ein Einrichtungsname ist, wird eine Abschätzung der Zieleinrichtung vorgenommen (Schritt ST29). Spezifischer schätzt die Ziel-Abschätzeinheit 36 die Bewegungsrichtung aus dem, aus der Spracherkennungsinformations-Erfassungseinheit 40 zugeführten Einrichtungsnamen ab und schätzt das Ziel aus der abgeschätzten Bewegungsrichtung und den verschiedenen Informationen (Fahrhistorien-Information, Verkehrsstau-Information, Fahrzeuginformation, Straßeninformation und dergleichen), die aus der Informationsaufzeichnungseinheit 35 erfasst werden, ab. Die, den durch die Ziel-Abschätzeinheit 36 abgeschätzten Zielkandidaten anzeigenden Zieldaten werden der Zeichenentscheidungs-Änderungseinheit 37 zugeführt. Danach wird die Abschätzverarbeitung beendet.
  • Wie oben beschrieben kann gemäß dem Navigationssystem von Ausführungsform 2 gemäß der vorliegenden Erfindung, da es auf solche Weise konfiguriert ist, dass es das Ziel unter Verwendung der Inhalte an einer im Fahrzeug geäußerten Sprache abschätzt, zusätzlich zur Fahrhistorie, es die Abschätzungsgenauigkeit verbessern. Darüber hinaus, da es automatisch die Spracherkennungsfunktion in Reaktion auf einen Start des Motors des Fahrzeugs startet und den Ortsnamen oder Einrichtungsnamen des Ziels aus den Konversationsinhalten im Fahrzeug abschätzt, ist es für den Anwender nicht nötig, eine Äußerung zum Entscheiden über das Ziel vorzunehmen.
  • Übrigens kann das Navigationssystem der Ausführungsform 2, wie oben beschrieben, auf solche Weise konfiguriert sein, dass, wenn dasselbe Wort wiederholt irgendeine Anzahl von Malen (eine vorgegebene Anzahl oder mehr), in der Konversation des Anwenders geäußert wird, es der dem Wort entsprechende Einrichtungsinformationen höherer Priorität gibt und ihr Icon anzeigt, wobei es dieses von anderen Icons differenziert. Gemäß der Konfiguration kann der Anwender auf einen Blick erfahren, dass der dem Wort, das mehrere Male wiederholt wurde, entsprechenden Einrichtungsinformation eine höhere Priorität gegeben wird.
  • Zusätzlich, bezüglich des durch die Spracherkennung abgeschätzten Zielkandidaten, da die abgeschätzte Einrichtungsinformation variiert, wenn die Konversationsinhalte variieren, ist eine Konfiguration möglich, die alte Einrichtungsinformationen löscht, die abgeschätzt worden sind, und neue Einrichtungsinformationen hinzufügt, wenn die Konversationsinhalte variieren. Übrigens, obwohl eine Konfiguration möglich ist, welche die alten und neuen Einrichtungsinformationen alle auf einmal austauscht, ist auch eine Konfiguration möglich, die die alten Einrichtungsinformationen und neue Einrichtungsinformationen für eine Weile simultan anzeigt und einen Teil der Informationen anhand des Fortschrittszustands der Konversation löscht. Zusätzlich ist auch eine Konfiguration möglich, die zwischen Icons der neuen und alten Einrichtungsinformationen unterscheidet und sie unter Differenzierung zwischen ihnen anzeigt. Anhand dieser Konfiguration kann sie mit Konversationsinhalten klar kommen, die von Moment zu Moment variieren.
  • Zusätzlich, wenn die Einrichtungsinformation an dem abgeschätzten Ziel unter Verwendung der Historieninformation des Anwenders mit der Einrichtungsinformation am durch die Spracherkennung abgeschätzten Ziel übereinstimmt, kann irgendeines der Icons verwendet werden. Bezüglich welchem Icon Priorität zu geben ist, kann dies der Anwender frei einstellen. Übrigens ist auch eine Konfiguration möglich, welche die Icons der Einrichtungsinformationen, die zueinander übereinstimmen, vollständig unterschiedlich machen, wodurch die Icons differenziert werden. Gemäß der Konfiguration kann der Anwender den Icons eine Priorität frei zuweisen.
  • Weiterhin, obwohl das Navigationssystem der oben beschriebenen Ausführungsform 2 in einer solchen Weise konfiguriert ist, dass es die Spracherkennungsverarbeitung innerhalb von sich selbst ausführt, ist auch eine Konfiguration möglich, welche die Spracheinformationseingabe aus der Spracheingabeeinheit 5 über ein Netzwerk an einen Server sendet, den Server veranlasst, die Spracherkennungsverarbeitung auszuführen und ein durch die Spracherkennungsverarbeitung ermitteltes Wort an das Navigationssystem zurückzugeben, und die Anzeige der Einrichtungs-Icon im Navigationssystem unter Verwendung des aus dem Server empfangenen Wortes zu ändern. Da die Spracherkennungsverarbeitung durch den Server ausgeführt wird, kann gemäß dieser Konfiguration die Genauigkeit der Spracherkennung verbessert werden. Als Ergebnis kann sie die Abschätzgenauigkeit des Ziels verbessern.
  • INDUSTRIELLE ANWENDBARKEIT
  • Die vorliegende Erfindung kann auf ein Autonavigationssystem oder dergleichen angewendet werden, das ein Ziel abschätzt und eine abgeschätzte Einrichtung anzeigt, wobei sie sich von anderen unterscheidet.

Claims (10)

  1. Navigationssystem, umfassend: eine Zielabschätzeinheit (36) zum Erfassen von Informationen zu einer Fahrhistorie und zum Abschätzen zumindest eines Zielkandidaten aus den Informationen zur ermittelten Fahrhistorie; eine Informationsanzeigeeinheit (3, 38), welche Straßen und Icons für Einrichtungen anzeigt; eine Zeichnungsentscheidungs-Änderungseinheit (37) zum Zeichnen des Zielkandidaten, der durch die Zielabschätzeinheit (36) abgeschätzt wurde, wobei die Zeichnungsentscheidungs-Änderungseinheit (37) ein Icon für diejenige Einrichtung, die dem Zielkandidaten entspricht, unter Berücksichtigung einer Priorität der Zielkandidaten in eine andere Form ändert, als Icons für Einrichtungen, die nicht den Zielkandidaten entsprechen; und wobei die Informationsanzeigeeinheit (3, 38) das durch die Zeichenentscheidungs-Änderungseinheit (37) geänderte Icon veranlasst, angezeigt zu werden; und eine Spracherkennungsverarbeitungseinheit (23) zum Erkennen geäußerter Worte, wobei den Einrichtungen Schlüsselwörter zugeordnet sind, wobei die Zielabschätzeinheit (36) ein Ziel aus der Information zur ermittelten Fahrhistorie und aus einem durch die Spracherkennungsverarbeitungseinheit erkannten Schlüsselwort abschätzt, und eine höhere Priorität dem Zielkandidaten zuweist, dessen Schlüsselwort eine gegebene Anzahl oder mehr erkannt wird.
  2. Navigationssystem gemäß Anspruch 1, wobei die Zeichnungsentscheidungs-Änderungseinheit (37) Größe, einen Zustand mit oder ohne Farbe, Farbstärke und/oder Transparenz der Anzeige eines Icons des durch die Zielabschätzeinheit (36) abgeschätzten Zielkandidaten vom Icon des Nicht-Zielkandidaten differenziert, wodurch das Icon des Zielkandidaten hervorgehoben wird oder das Icon des Nicht-Zielkandidaten nicht hervorgehoben wird.
  3. Navigationssystem gemäß Anspruch 1, wobei die Zielabschätzeinheit (36) das Ziel unter Verwendung von Informationen zur Fahrhistorie abschätzt, die eine übliche Fahrhistorie eines Fahrers, Fahrzeuginformationen und Identifikationsinformationen wie Zeit, Datum, Wochentag oder Jahreszeit beinhaltet.
  4. Navigationssystem gemäß Anspruch 1, wobei die Zeichnungsentscheidungs-Änderungseinheit (37), wenn der Zielkandidat Einrichtungsinformationen aufweist, das Icon für die betreffende Einrichtung mit einer Markierung versieht.
  5. Navigationssystem gemäß Anspruch 1, wobei die Zeichenentscheidungs-Änderungseinheit (37) von außen in gleichmäßigen Intervallen Wetterinformation, Sonderangebots-Informationen, Preisinformationen einer Tankstelle, Sonderangebots-Informationen eines Restaurants und Straßeninformationen, einschließlich Verkehrsstau-Informationen zum Zielkandidaten erfasst und sie mit dem durch die Zielabschätzeinheit (36) abgeschätzten Zielkandidaten zeichnet.
  6. Navigationssystem gemäß Anspruch 1, weiter umfassend: eine Spracheausgabeeinheit (39) zur sprachlichen Ausgabe des Ziels wenn der durch die Zielabschätzeinheit (36) abgeschätzte Zielkandidat angezeigt wird.
  7. Navigationssystem gemäß Anspruch 1, wobei die Informationsanzeigeeinheit (3, 38) eine Karte mit Einrichtungs-Icons und einer derzeitigen Position darstellt, und die Zeichnungsentscheidungs-Änderungseinheit (37) eine, den Zielkandidaten mit der derzeitigen Position verbindende, gerade Linie zeichnet.
  8. Navigationssystem gemäß Anspruch 7, wobei die Zielabschätzeinheit (36) den abgeschätzten Zielkandidaten in aufsteigender Reihenfolge eines Abstands von der derzeitigen Position, oder in abnehmender Reihenfolge einer Auftrittshäufigkeit des Zielkandidaten Priorität gibt; und die Zeichnungsentscheidungs-Änderungseinheit (37) die gerade Linie zeichnet, während ein Typ, eine Dicke, eine Farbe und/oder Anzeige, oder Nichtanzeige, der geraden Linie, variiert wird, gemäß der durch die Zielabschätzeinheit gegebenen Priorität.
  9. Navigationssystem gemäß Anspruch 1, wobei die Zeichnungsentscheidungs-Änderungseinheit (37), wenn eine Mehrzahl von Zielkandidaten durch die Zielabschätzeinheit (36) abgeschätzt werden, Prioritäten der Zielkandidaten anhand einer Auftrittshäufigkeit oder Wahrscheinlichkeit des Auftretens vergibt und ein Icon mit höherer Priorität mit größerer Betonung zeichnet und, wenn die Icons überlappen, ein Icon mit höherer Priorität in einer Weise zeichnet, dass es vorne zu liegen kommt.
  10. Navigationssystem gemäß Anspruch 1, wobei die Zielabschätzeinheit (36), wenn ein durch die Spracherkennungsverarbeitungseinheit erkanntes Wort variiert, einen abgeschätzten alten Zielkandidaten eliminiert, und das neu erkannte Wort als neuen Zielkandidaten hinzufügt.
DE112009005470.6T 2009-12-24 2009-12-24 Navigationssystem Active DE112009005470B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/007182 WO2011077486A1 (ja) 2009-12-24 2009-12-24 ナビゲーション装置

Publications (2)

Publication Number Publication Date
DE112009005470T5 DE112009005470T5 (de) 2012-10-04
DE112009005470B4 true DE112009005470B4 (de) 2014-07-17

Family

ID=44195050

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112009005470.6T Active DE112009005470B4 (de) 2009-12-24 2009-12-24 Navigationssystem

Country Status (4)

Country Link
US (1) US20120173245A1 (de)
JP (1) JP5340418B2 (de)
DE (1) DE112009005470B4 (de)
WO (1) WO2011077486A1 (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013136453A1 (ja) * 2012-03-13 2013-09-19 パイオニア株式会社 表示情報生成装置、表示情報生成方法及び表示情報生成用プログラム並びに情報記録媒体
WO2014109017A1 (ja) * 2013-01-09 2014-07-17 三菱電機株式会社 音声認識装置および表示方法
JP6288956B2 (ja) * 2013-06-10 2018-03-07 アルパイン株式会社 電子装置およびアイコンの表示方法
US9695760B2 (en) 2014-03-31 2017-07-04 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for improving energy efficiency of a vehicle based on known route segments
US9290108B2 (en) 2014-03-31 2016-03-22 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for adaptive battery temperature control of a vehicle over a known route
US9008858B1 (en) 2014-03-31 2015-04-14 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for providing adaptive vehicle settings based on a known route
US9266443B2 (en) 2014-03-31 2016-02-23 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for adaptive battery charge and discharge rates and limits on known routes
KR102301880B1 (ko) * 2014-10-14 2021-09-14 삼성전자 주식회사 전자 장치 및 이의 음성 대화 방법
US9628415B2 (en) * 2015-01-07 2017-04-18 International Business Machines Corporation Destination-configured topic information updates
JP6827629B2 (ja) * 2017-08-10 2021-02-10 トヨタ自動車株式会社 情報提供装置、情報提供システム
JP7197272B2 (ja) * 2018-01-11 2022-12-27 トヨタ自動車株式会社 音声出力システム、音声出力方法、及びプログラム
JP7068965B2 (ja) * 2018-08-20 2022-05-17 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6385535B2 (en) * 2000-04-07 2002-05-07 Alpine Electronics, Inc. Navigation system
JP2004038871A (ja) * 2002-07-08 2004-02-05 Sharp Corp 情報提供方法、情報提供プログラム、情報提供プログラムを記録した記録媒体、および情報提供装置
US8411830B2 (en) * 2006-01-23 2013-04-02 Icall, Inc. System, method and computer program product for extracting user profiles and habits based on speech recognition and calling history for telephone system advertising

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4497748B2 (ja) * 2001-04-27 2010-07-07 パイオニア株式会社 ナビゲーション装置、ナビゲーションシステム用のサーバ装置、目的地推定処理プログラムおよび目的地推定処理プログラムを記録した記録媒体
JP2004348658A (ja) * 2003-05-26 2004-12-09 Nissan Motor Co Ltd 車両用情報提供方法および車両用情報提供装置
JP3948441B2 (ja) * 2003-07-09 2007-07-25 松下電器産業株式会社 音声認識方法及び、車載装置
JP4130828B2 (ja) * 2004-07-13 2008-08-06 松下電器産業株式会社 移動先表示装置および移動先表示方法
JP4225356B2 (ja) * 2007-04-09 2009-02-18 トヨタ自動車株式会社 車両用ナビゲーション装置
DE102007037386A1 (de) * 2007-08-08 2009-02-19 Navigon Ag Verfahren zum Betrieb eines Navigationssystems
US7925438B2 (en) * 2007-10-30 2011-04-12 Alpine Electronics, Inc. Method and apparatus for displaying route guidance list for navigation system
JP2009237243A (ja) * 2008-03-27 2009-10-15 Seiko Epson Corp 表示装置、表示方法、および、表示プログラム
JP2009271006A (ja) * 2008-05-09 2009-11-19 Clarion Co Ltd 経路情報案内装置及びその制御方法並びに制御プログラム
JP2010014455A (ja) * 2008-07-02 2010-01-21 Aisin Aw Co Ltd ナビゲーション装置、ナビゲーション方法、及びナビゲーションプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6385535B2 (en) * 2000-04-07 2002-05-07 Alpine Electronics, Inc. Navigation system
JP2004038871A (ja) * 2002-07-08 2004-02-05 Sharp Corp 情報提供方法、情報提供プログラム、情報提供プログラムを記録した記録媒体、および情報提供装置
US8411830B2 (en) * 2006-01-23 2013-04-02 Icall, Inc. System, method and computer program product for extracting user profiles and habits based on speech recognition and calling history for telephone system advertising

Also Published As

Publication number Publication date
DE112009005470T5 (de) 2012-10-04
WO2011077486A1 (ja) 2011-06-30
JPWO2011077486A1 (ja) 2013-05-02
JP5340418B2 (ja) 2013-11-13
US20120173245A1 (en) 2012-07-05

Similar Documents

Publication Publication Date Title
DE112009005470B4 (de) Navigationssystem
DE60318430T2 (de) Computergestütztes System und Verfahren zur Informationsausgabe an einen Fahrer eines Fahrzeuges
DE102005044631A1 (de) Navigationsvorrichtung
DE112009005414B4 (de) Navigationssystem
DE112012006997B4 (de) Navigationsvorrichtung
DE69837064T2 (de) Nachrichtenverarbeitungssystem und Verfahren für die Verarbeitung von Nachrichten
DE69726662T2 (de) Landfahrzeugsnavigationsgerät mit lokaler Routenführungsselektivität und Speichermedium dafür
DE112009000732T5 (de) Fahrzeug-Navigationsvorrichtung, tragbares Informationsterminal und Fahrzeug-Navigationssystem
DE102016202973B4 (de) Verfahren zum Erkennen einer Straßenbaustelle
DE112007003067B4 (de) Navigationsvorrichtung
DE112011105833B4 (de) Navigationsvorrichtung, Navigationsverfahren und Navigationsprogramm
EP1307707B1 (de) Verfahren zur routenberechnung
DE102011005692A1 (de) Routenführungssystem und fahrzeug-audiogerät und dasselbe verwendendes verfahren zum führen einer route
DE112013007521T5 (de) Server zur Navigation, Navigationssystem und Navigationsverfahren
DE102007014674A1 (de) Navigationsvorrichtung und Verfahren zum Navigieren eines Fahrzeugs
EP0905662A2 (de) Eingabesystem wenigstens für Orts- und/oder Strassennamen
DE112009001449T5 (de) Fahrzeugnavigationsvorrichtung
EP1176395A1 (de) Verfahren zur Auswahl einer Ortsbezeichnung in einem Navigationssystem durch Spracheingabe
EP2420800B1 (de) Technik zur Signalisierung von Telefonanrufen während einer Routenführung
DE10260678A1 (de) Verfahren zum Senden von Kartendaten sowie Kartenanzeigegerät und -system
DE112007001471T5 (de) Navigationssystem
DE10361407A1 (de) Navigationssystem und Programm und Speicherträger zur Verwendung in diesem
DE102018118575A1 (de) Informationsbereitstellungsvorrichtung und informationsbereitstellungssystem
DE19600700B4 (de) Navigationsgerät
DE112007003266T5 (de) Navigationsvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R084 Declaration of willingness to licence