DE60109979T2 - Navigationssystem - Google Patents

Navigationssystem Download PDF

Info

Publication number
DE60109979T2
DE60109979T2 DE60109979T DE60109979T DE60109979T2 DE 60109979 T2 DE60109979 T2 DE 60109979T2 DE 60109979 T DE60109979 T DE 60109979T DE 60109979 T DE60109979 T DE 60109979T DE 60109979 T2 DE60109979 T2 DE 60109979T2
Authority
DE
Germany
Prior art keywords
language
speech
image
route
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60109979T
Other languages
English (en)
Other versions
DE60109979D1 (de
Inventor
Kouichi Shinagawa-ku Satoh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Application granted granted Critical
Publication of DE60109979D1 publication Critical patent/DE60109979D1/de
Publication of DE60109979T2 publication Critical patent/DE60109979T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf Navigationssysteme zur Anzeige einer Karte der Umgebung eines Fahrzeugs des Anwenders und zum Leiten eines Endanwenders entlang einer Reiseroute.
  • Im Allgemeinen finden in Fahrzeugen installierte Navigationssysteme die aktuelle Position des Fahrzeugs und lesen Kartendaten aus dessen Umgebung von einem Datenspeichermedium, z.B. CD oder DVD, um die Daten auf einem Bildschirm anzuzeigen. Eine Fahrzeugpositionsmarkierung, welche die Position des Fahrzeugs darstellt, wird auf dem Bildschirm angezeigt. Die Kartendaten der Umgebung werden entsprechend dem Vorankommen des Fahrzeugs verschoben, so dass die Fahrzeugpositionsmarkierung immer im Zentrum des Bildschirms ist und die Karteninformation der Umgebung des Fahrzeugs immer verstanden wird.
  • Die meisten der jüngsten Navigationssysteme für Fahrzeuginstallation sind mit einer Routenführungsfunktion ausgestattet, welche dem Endanwender erlaubt, zu einem gewünschten Ziel zu reisen, ohne sich zu verirren. Entsprechend dieser Routenführungsfunktion wird die Route mit dem geringsten Aufwand, welche eine Verbindung zwischen einem Ausgangspunkt und einem Zielpunkt herstellt, automatisch gesucht unter Verwendung von Kartendaten durch Durchführen einer Simulation, z.B. einer Breadth-First Search (BFS) Methode oder einem Dijkstra Algorithmus. Die recherchierte Route wird als Führungsroute gespeichert. Während des Fahrens erfolgt auf dem Bildschirm eine Anzeige derart, dass die Führungsroute durch dicke Linien mit einer anderen Farbe angezeigt wird als die Farben, welche für die anderen Straßen verwendet werden, und die nächste Kreuzung, welcher sich das Fahrzeug nähert, ist vergrößert, und die Endanwender werden zu dem Ziel durch eine Sprachführungsausgabe geführt. Da eine in dem oben beschriebenen konventionellen Navigationssystem verwendete Sprache zum Zeitpunkt des Kaufs fest eingestellt ist, kann es sein, dass der Endanwender nicht in der Lage ist, den Inhalt der angezeigten Karte und der Sprachausgabe zur Führung zu verstehen, wenn die tat sächliche durch den Endanwender verwendete Sprache und die im Navigationssystem verwendete Sprache unterschiedlich sind. Wenn beispielsweise ein Ausländer ein in Japan gekauftes Navigationssystem mit japanischer Spezifikation verwendet, sind die in der Karte und in der Sprachführung enthaltenen Zeichen japanisch, selbst wenn der Endanwender beispielsweise Englisch verwendet. Wenn der Endanwender Grenzen von Ländern in Europa oder dergleichen überquert bei Verwendung des Navigationssystems, bei welchem die Karte mit der örtlichen Sprache jedes Landes angezeigt wird, ist es für den Endanwender schwierig, den Inhalt zu verstehen. 14 zeigt beispielsweise wie ein Synonym (Bezeichnung) des Namens "GERMANY" für jedes Land unterschiedlich ist.
  • Die vorliegende Erfindung wurde in Erwägung der oben erwähnten Gesichtspunkte gemacht, und ihr Ziel ist es, ein Navigationssystem bereitzustellen, welches das Verständnis des Anzeigeinhalts bei dem Endanwender unterstützt, unabhängig von der durch den Endanwender verwendeten Sprache.
  • Um das genannte Problem zu lösen bewirkt ein Navigationssystem gemäß der vorliegenden Erfindung, dass eine Spracherkennungseinrichtung bei einer Spracheingabe eine Spracherkennungsverarbeitung durchführt, während bewirkt wird, dass ein Sprachbestimmungseinrichtung die durch einen Sprecher verwendete Sprache basierend auf dem Erkennungsergebnis bestimmt. Die Navigationsberechnung entsprechend dieser bestimmten (festgestellten) zu verwendenden Sprache wird durch eine Navigationsberechnungseinrichtung durchgeführt. Da die Navigationsberechnungseinrichtung einen vorher bestimmten Navigationsvorgang durchführt, welcher die durch den Sprecher (Endanwender) verwendete Sprache berücksichtigt, kann der Endanwender ohne Schwierigkeiten die durch den Navigationsvorgang erhaltene Anzeige und Sprachausgabe verstehen.
  • Insbesondere wird die obige Navigationsberechnung zur Verfügung gestellt mit einer Kartenanzeigevorrichtung, welche Karteninformation aus der Umgebung des Fahrzeugs anzeigt. Die Kartenanzeigevorrichtung verwendet vorzugsweise die Sprache, welche durch die Sprachbestimmungseinrichtung bestimmt wur de, als Sprache der in den Karteninformationen enthaltenen Zeichen, welche ein Ziel anzeigen. Indem die in der Karteninformation enthaltenen Zeichen mit der durch den Endanwender verwendeten Sprache zur Übereinstimmung gebracht wird, kann der Inhalt der Karteninformation ohne Schwierigkeiten verstanden werden.
  • Wenn die genannte Navigationsberechnungseinrichtung mit einer Routensucheinrichtung und einer Routenführungseinrichtung ausgestattet ist, erzeugt die Routenführungseinrichtung vorzugsweise eine Führungssprache, welche der verwendeten Sprache entspricht. Da die Führungssprache unter Verwendung der benutzten Sprache erzeugt wird, kann der Endanwender den Inhalt deutlich verstehen.
  • Vorzugsweise bestimmt die genannte Sprachbestimmungseinrichtung durch Untersuchen der Sprache entsprechend jedem in der Spracheingabe enthaltenen Wort die Sprache, die mehrheitlich in diesem untersuchten Ergebnis vorkommt, als verwendete Sprache. Selbst in einem Fall, in welchem die Muttersprache und importierte Wörter gemischt werden, kann die Muttersprache, welche häufiger benutzt wird, als verwendete Sprache bestimmt werden.
  • Vorzugsweise enthält die Sprachbestimmungseinrichtung eine Datenbank zum Speichern des während der Untersuchung für jeden Anwender extrahierten Merkmals und bestimmt die von jedem Endanwender verwendete Sprache. Da die Besonderheit eines jeden Endanwenders die Bestimmung der verwendeten Sprache beeinflusst, kann die Bestimmungsgenauigkeit erhöht werden.
  • Wenn ein Bild eines aufgenommenen vorher bestimmten Straßenwegweiseschildes eingegeben wird und außerdem eine Bilderkennungseinrichtung zum Bestimmen des Inhalts der in diesem Bild enthaltenen Zeichen vorgesehen ist, umfasst die Navigationsberechnungseinrichtung vorzugsweise eine Führungseinrichtung zum Durchführen eines Vorgangs, bei welchem von einer Anzeige und einer Sprachausgabe mindestens eine dadurch erhalten wird, dass die Zeichen, deren Inhalt durch die Bilderkennungseinrichtung bestimmt wurde, durch andere Zeichen ersetzt werden, welche in der Sprache sind, welche durch die Sprachbestimmungseinrichtung bestimmt wurde, und welche die gleiche Bedeutung wie die genannten Zeichen haben. Obwohl der Inhalt der Straßenführung die Schreibweise der örtlichen Sprache verwendet und die für die Führung verwendete Sprache sich von der durch den Endanwender verwendeten Sprache unterscheidet, kann der Inhalt der Führung auf jeden Fall verstanden werden.
  • Vorzugsweise wird die Übertragung von detaillierter Information in Abhängigkeit von der durch die Sprachbestimmungseinrichtung verwendeten Sprache angefordert durch eine Übertragungsanfragevorrichtung und die gemäß dieser Anfrage von außen übertragene detaillierte Information wird durch eine Informationsempfangseinrichtung empfangen. Da nur für die Bestimmung der verwendeten Sprache benötigte Information zur Verfügung gestellt werden muss, kann die Menge an Information, welche jeder der zu verwendenden Sprachen entspricht, verringert werden. Die Größe des Speichermediums kann reduziert werden, was Kosten erspart. Außerdem kann die Anzahl an zu verwendenden Sprachen, welche als Zielsprachen bestimmt werden müssen, vergrößert werden durch Verringern der Menge an Information, welche immer entsprechend jeder der Sprachen gespeichert werden muss, da die Menge an speicherbarer Information begrenzt ist.
  • Weitere Ziele, Merkmale und Vorteile der vorliegenden Erfindung werden ersichtlich von der folgenden Beschreibung der bevorzugten Ausführungsformen mit Bezug auf die angefügten Zeichnungen.
  • 1 ist ein Blockdiagramm, welches die Konstruktion eines fahrzeuginstallierten Navigationssystems gemäß einer Ausführungsform der vorliegenden Erfindung darstellt;
  • 2 ist ein Blockdiagramm, welches die detaillierte Konstruktion der Navigationssteuereinrichtung darstellt;
  • 3 zeigt das Verhältnis zwischen Kartenzeichnungsdaten, welche in einem VRAM gespeichert sind, und einem Anzeigebild, welches durch eine Lesesteuerungseinrichtung gelesen wird;
  • 4 ist ein Diagramm, welches den Inhalt von jedem Kartendatenblatt zeigt;
  • 5 ist ein Diagramm, welches den detaillierten Inhalt einer Kreuzungseinheit zeigt;
  • 6 ist ein Diagramm, welches den detaillierten Inhalt einer Kreuzungsaufzeichnung darstellt;
  • 7 ist ein Flussdiagramm, welches einen Betriebsvorgang zum Bestimmen einer durch einen Endanwender verwendeten Sprache darstellt;
  • 8 ist ein Flussdiagramm, welches ein Betriebsverfahren zum Anzeigen eines Kartenbildes der Umgebung des Fahrzeugs während des Fahrens darstellt;
  • 9A und 9B sind Diagramme, welche beispielhafte Anzeigen des Kartenbildes der Umgebung des Fahrzeugs darstellen;
  • 10 ist ein Flussdiagramm, welches ein Betriebsverfahren zum Durchführen eines Führens an einer Kreuzung während des Routenführens darstellt;
  • 11 ist ein Flussdiagramm, welches einen Betriebsvorgang für einen Fall darstellt, bei welchem der Inhalt eines Straßenwegweiserschildes, das während des Fahrens aufgenommen wird, gelesen wird und das Führen basierend auf dem gelesenen Inhalt durchgeführt wird;
  • 12A und 12B sind beispielhafte Darstellungen eines Führungsbildes, welches dem Straßenwegweiserschild entspricht;
  • 13 ist ein Flussdiagramm, welches einen Betriebsvorgang für einen Fall darstellt, bei welchem die Kartendaten, welche der durch den Endanwender verwendeten Sprache entsprechen, erhalten werden durch eine Kommunikationseinrichtung; und
  • 14 ist ein Diagramm, welches Variationen von Synonymen und Bezeichnungen entsprechend einer Mehrzahl von Sprachen darstellt.
  • Im Folgenden ist ein Navigationssystem gemäß einer Ausführungsform, bei welcher die vorliegende Erfindung angewendet wird, mit Bezug auf die angehängten Zeichnungen beschrieben.
  • (1) Konstruktion des Navigationssystems
  • 1 ist ein Diagramm, welches die Konstruktion eines im Fahrzeug installierten Navigationssystems gemäß einer Ausführungsform mit Anwendung der vorliegenden Erfindung zeigt. Das in 1 gezeigte Navigationssystem ist aufgebaut mit einem Mikrofon 1, einer Spracherkennungseinrichtung 2, einer Spracherkennungs-Lexikonspeichereinrichtung 3, einer Identitätslerneinrichtung 4, einer Identitätsdatenbank (DB) 5, einer Navigationssteuerungsvorrichtung 6, einer DVD (Digital Versatile Disc) 7, einer Disc-Lesevorrichtung 8, einer Fernsteuerungseinrichtung (RC) 9, einem GPS(Global Positioning System)-Empfänger 10, einem Sensor für die relative Positionierung des Autos 11, einer Anzeigevorrichtung 12, einer Audioeinrichtung 13, einem Mobiltelefon 14, einer Kamera 15, einer Bilderkennungsvorrichtung 16, einer Bilderkennungs-Lexikonspeichervorrichtung 17, und einem Informationszentrum 18.
  • Das Mikrofon konvertiert das durch den Endverbraucher Gesprochene in ein elektrisches Signal und gibt das konvertierte Signal weiter. Die Spracherkennungsvorrichtung führt eine vorherbestimmte Spracherkennung durch Analysieren eines von dem Mikrofon 1 ausgegebenen Audiosignals durch und spezifiziert eine Zeichenfolge, welche dem von einem Endanwender Gesprochenen entspricht, um die vom Endanwender gesprochene Sprache basierend auf der Zeichenfolge zu bestimmen.
  • Die Spracherkennungs-Lexikonspeichervorrichtung 3 speichert Signalwellenformen, welche Standard-Gesprochenem entsprechen, als Spracherkennungslexikon und speichert zusätzlich ein Lexikon, welches Sprachen der Wörter anzeigt, die den Signalwellenformen entsprechen. Das Lexikon ist mit einer Mehrzahl von zu verwendenden Sprachen ausgestattet.
  • Die Identitätslerneinrichtung 4 empfängt das Ergebnis der Bestimmung bezüglich der durch den Endanwender verwendeten Sprache, welches von der Spracherkennungsvorrichtung 2 ausgegeben wird, und lernt für jedes Wort die Häufigkeit des Auftretens von Sprachen, welche von dem Anwender gesprochen werden. Das Lernergebnis der Identitätslerneinrichtung 4 wird in der Identitätsdatenbank 5 gespeichert. Immer wenn Gesprochenes eingegeben wird, erhält die Identitätslerneinrichtung 4 die verwendete Sprache entsprechend dem Gesprochenen und aktualisiert den Inhalt der Identitätsdatenbank 5.
  • Die Navigationssteuerungsvorrichtung 6 führt verschiedene Arten von Steuerung durch, um einen vorbestimmten Navigationsvorgang zu verwirklichen. Eine detaillierte Konstruktion der Navigationssteuerungsvorrichtung 6 ist im Folgenden beschrieben.
  • Die DVD 7 speichert verschiedene Arten von Kartendaten, welche benötigt sind für Kartenanzeige, Suchen der Route und Ähnliches. Die Disc-Lesevorrichtung 8 hat eine oder eine Mehrzahl von darin montierbaren DVDs 7 und liest die Kartendaten von einer oder mehreren der DVDs 7 unter Kontrolle der Navigationssteuerungsvorrichtung 6. Die zu montierende Disc muss nicht notwendigerweise eine DVD oder eine CD sein. Alternativ können sowohl DVD als auch CD selektiv montierbar sein.
  • Die Fernbedienungseinrichtung 9 ist mit verschiedenen Bedientasten ausgestattet, z.B. eine Suchtaste zum Anweisen der Routensuche, eine Routenführungsmodustaste, um den Routenführungsmodus einzustellen, eine Zieleingabetaste, eine Rechts-Links-Hoch-Runter-Cursortaste, eine Taste zur Kartenvergrößerung/Verkleinerung und eine Eingabetaste zur Eingabestätigung für ein Element auf dem Anzeigebild, welches von dem Cursor angezeigt wird. Ein Infrarotsignal wird zu der Navigationssteuerungsvorrichtung 6 gemäß einem Tastenbetätigungszustand übertragen.
  • Der GPS-Empfänger 10 empfängt elektrische Wellen, welche von einer Mehrzahl von GPS-Satelliten übertragen werden, berechnet die absolute Position und die Richtung des Fahrzeugs durch Durchführen von dreidimensionaler oder zweidimensionaler Positionsmessungsberechnung (berechnet die Richtung des Fahrzeugs basierend auf der aktuellen Position des Fahrzeugs und der Position des Fahrzeugs zu einer Abtastzeit ΔT vor der aktuellen Position), und gibt die Ergebnisse zusammen mit der gemessenen Zeit aus. Der Sensor für die relative Autopositionierung 11 ist mit einem Winkelsensor ausgestattet, z.B. einem Vibrationsgyroskop, um den Fahrzeugdrehwinkel als eine relative Richtung zu bestimmen, und einem Entfernungssensor, welcher einen Puls pro vorherbestimmte zurückgelegte Distanz ausgibt. So werden die relative Position und die Richtung des Fahrzeugs bestimmt.
  • Die Anzeigevorrichtung 12 zeigt Karteninformation über die Umgebung des Fahrzeugs basierend auf der Zeichnungsdatenausgabe der Navigationssteuerungsvorrichtung 6 an und überlagert die Führungsroute, vorherbestimmte Führungsbilder und Ähnliches auf diese Karte und zeigt sie an. Die Audioeinrichtung 13 führt eine Sprachausgabe durch, z.B. Sprache zur Führung an Kreuzungen, basierend auf Sprachdatenausgabe von der Navigationssteuerungsvorrichtung 6.
  • Das Mobiltelefon 14 ist mit der Navigationssteuerungsvorrichtung 6 über eine externe Daten-Eingabe/Ausgabe-Einrichtung verbunden, welche im Hauptteil des Telefons vorgesehen ist. Das Mobiltelefon 14 wird verwendet zum Empfangen verschiedener Daten aus dem Informationszentrum 18 durch Übertragen und Empfangen der elektrischen Wellen zu und von einer Bodenstation in der Umgebung des Fahrzeugs. Ein Zellennetz-Mobiltelefon, ein PHS-Telefon oder Ähnliches, welche verbreitet erhältlich sind, kann als Mobiltelefon 14 verwendet werden.
  • Die Kamera 15, welche in einer vorherbestimmten Position im Fahrzeug vorgesehen ist, nimmt hauptsächlich Straßenwegweiserschilder vor dem Fahrzeug auf.
  • Die Bilderkennungsvorrichtung 16 führt eine vorbestimmte Bilderkennungsverarbeitung mit dem durch die Kamera 15 aufgenommenen Bild des Straßenwegweiserschildes durch. Die Bilderkennungsvorrichtung 16 erkennt den wegweisenden Inhalt einschließlich in diesem Bild enthaltener Zeichenketten, um Straßenformen, Ortsnamen und Ähnliches zu extrahieren. Die Bildererkennungs-Lexikonspeichervorrichtung 17 speichert als Bildererkennungslexikon Bilddaten mit Standardkontrast, um zu bewirken, dass die Bildererkennungsvorrichtung 16 den Inhalt der Straßenwegweiserschilder erkennt.
  • Das Informationszentrum 18 überträgt Kartendaten, welche mit einer Mehrzahl von Sprachen ausgestattet sind, basierend auf einer Übertragungsanfrage von der Navigationssteuerungsvorrichtung 6, und enthält eine mehrsprachige Datenbank 19. Die mehrsprachige Datenbank 19 speichert Kartendaten, welche mit einer Mehrzahl von Sprachen ausgestattet sind, z.B. Englisch, Deutsch, Französisch und Japanisch.
  • 2 ist ein Diagramm, welches detailliert die Konstruktion der Navigationssteuerungsvorrichtung 6 zeigt. Die im Diagramm gezeigte Navigationssteuerungsvorrichtung 6 ist ausgestattet mit einem Kartenpuffer 30 zum Anzeigen eines vorherbestimmten Kartenbildes, einer vergrößerten Ansicht einer Kreuzung und Ähnlichem auf der Anzeigevorrichtung 12 und zum Ausgeben von die Kreuzung betreffender Sprachführung; einer Kartenlesekontrolleinrichtung 32; einer Kartenzeichnungseinrichtung 34; einem VRAM 36; einer Lesekontrolleinrichtung 38; einer Kreuzungsführungseinrichtung 40; einer Sprachdatenerzeugungseinrichtung 42; einer Führungszeicheneinrichtung 44; einer Bildersynthetisiereinrichtung 46; einer Fahrzeugpositionsberechnungseinrichtung 50 zum Berechnen der Position des Fahrzeugs, um einen Vorgang des Abgleichens mit der Karte, eine Routensuchverarbeitung und eine Routenführungsbearbeitung durchzuführen und um die Ergebnisse anzuzeigen; einer Routensuch-Verarbeitungseinrichtung 52; einem Routenführungsspeicher 54; einer Routenfüh rungszeicheneinrichtung 56; einer Fernsteuerungseinrichtung 60 zum Anzeigen verschiedener Betriebsanzeigebilder für den Endanwender und zum Übertragen von Betriebsanweisungen von der Fernsteuerungseinrichtung 9 zu jeder Komponente davon; einer Einrichtung 62 zur Berechnung der Cursor-Position; einer Einrichtung 64 zum Erzeugen des Betriebsanzeigebildes; und einer Kommunikationsverarbeitungseinrichtung 70 zum Übertragen und Empfangen verschiedener Daten zum beziehungsweise vom Informationszentrum 18 über das Mobiltelefon 14.
  • Der Kartenpuffer 30 speichert vorübergehend Kartendaten, welche von der DVD 7 durch die Disc-Lesevorrichtung 8 gelesen wurden. Wenn die Fahrzeugpositionsberechnungseinrichtung 50 die Position des Fahrzeugs berechnet, sendet die Kartenlesesteuerungseinrichtung 32 zu der Disc-Lesevorrichtung 8 eine Leseanfrage für Kartendaten mit einem vorherbestimmten Bereich, welcher diese Fahrzeugposition umfasst, und liest die für eine Kartenanzeige benötigten Kartendaten von der DVD 7, um die Kartendaten im Kartenpuffer 30 zu speichern.
  • Die Kartenzeichnungseinrichtung 34 erzeugt Kartenzeichnungsdaten, welche benötigt werden für eine Anzeige basierend auf einer Zeichnungseinrichtung, enthalten in den im Kartenspeicher 30 gespeicherten Kartendaten. Die erstellten Kartenzeichnungsdaten werden in dem VRAM 36 gespeichert. Die Lesekontrolleinrichtung 38 liest ein Anzeigebild der Kartenzeichnungsdaten, welche der Fahrzeugposition entsprechen, oder liest die Cursor-Position und gibt die Daten an die Bildersynthetisiereinrichtung 46.
  • 3 ist ein Diagramm, welches das Verhältnis zwischen den im VRAM 36 gespeicherten Kartenzeichnungsdaten und dem von der Lesekontrolleinrichtung 38 gelesenen Anzeigebild zeigt. In 3 sind Regionen A bis I jeweils Kartenbilder, welche erzeugt wurden basierend auf neun Blättern von Kartendaten, welche aus dem Kartenpuffer 30 gelesen wurden. Diese neun Blätter von Kartenzeichnungsdaten werden im VRAM 36 gespeichert. Eine Region P ist eine vorherbestimmte Region, welche eingestellt wird basierend auf der Zentralposition des Anzeigebildes. Während die Information tatsächlich angezeigt wird, wird ein Kartenbild korrespondierend mit der Region P durch die Lesekontrolleinrichtung 38 gelesen und auf dem Anzeigebild der Anzeigevorrichtung 12 über die Bildersynthetisiereinrichtung 46 angezeigt.
  • Daher findet das Scrollen des Kartenbildes statt, während sich die Region P gemäß der Bewegung der Anzeigebildzentrumsposition verschiebt. Wenn die Anzeigebildzentrumsposition die Zentrumsregion E verlässt, werden neun Blätter an Kartendaten, welche auf eine Region zentriert sind (irgendeine von A–D oder F–I), einschließlich der Anzeigebildzentrumsposition zu diesem Zeitpunkt, neu abgelesen und in dem Kartenpuffer 30 gespeichert.
  • Die Kreuzungsführungseinrichtung 40 führt unter Verwendung von Bildanzeigen und Sprache an der Kreuzung, welcher sich das Fahrzeug nähert. Während des tatsächlichen Routenführens, wenn sich das Fahrzeug innerhalb eines vorbestimmten Abstands von der vorausliegenden Kreuzung bewegt, werden Bilddaten der näher kommenden Kreuzung erzeugt, welche der Führungskarte entsprechen (der vergrößerten Ansicht der Kreuzung und des Reiserichtungspfeils), während Informationen bezüglich der Reiserichtung und Ähnlichem an die Sprachdaten-Erzeugungseinrichtung 42 ausgegeben werden. Die Sprachdatenerzeugungseinrichtung 42 gibt Sprachdaten basierend auf Informationen bezüglich der Reiserichtung und Ähnlichem an die Audioeinrichtung 13 aus, welche von der Kreuzungsführungseinrichtung 40 eingegeben wurden, um die Reiserichtung und Ähnliches durch Sprachausgabe zu führen.
  • Die Führungszeichen-Erzeugungseinrichtung 44 erzeugt ein vorherbestimmtes Führungszeichenbild basierend auf den Zeichenketten, welche die Straßenformen, die Ortsnamen und Ähnliches bilden, ausgegeben von der Bilderkennungsvorrichtung 16. Die Bilderzeugungseinrichtung 46 führt eine Bildsynthetisierung durch, um synthetisierte Daten zu der Anzeigevorrichtung 12 auszugeben durch Überlagern der Kartenzeichnungsdaten, welche von dem VRAM 36 gelesen wurden, und Bilddaten, welche von jeder der Führungszeichen-Erzeugungsvorrichtung 44, der Führungsrouten-Zeichnungseinrichtung 56 und der Betriebsbildschirmerzeugungseinrichtung 64 ausgegeben wurden. Wenn Zeichnungsdaten entsprechend der Kreuzungsführungskarte, z.B. der vergrö ßerten Ansicht der Kreuzung, von der Kreuzungsführungseinrichtung 40 ausgegeben werden, gibt die Bildersynthetisiereinrichtung 46 diese Zeichnungsdaten an die Anzeigevorrichtung 12 aus.
  • Die Fahrzeugpositionsberechnungseinrichtung 50 berechnet die Position des Fahrzeugs basierend auf den Daten, welche sowohl vom GPS-Empfänger 10 als auch vom Sensor der relativen Autoposition 11 empfangen werden, während Berechnungen zur Übereinstimmung mit der Karte durchgeführt werden, um die Fahrzeugsposition zu modifizieren in dem Fall, dass die berechnete Fahrzeugsposition auf einer Straße angeordnet ist, welche nicht in den Kartendaten enthalten ist. Die Routensuchverarbeitung 52 sucht eine Reiseroute, welche eine Verbindung zwischen einer vorher bestimmten Zielposition und einer Startposition unter einer vorbestimmten Bedingung schafft. Die Routenführung mit den geringsten Aufwand wird durch verschiedene Bedingungen, z.B. kürzeste Distanz oder kürzeste Zeit, bestimmt. Als typisches Routensuchverfahren ist das „Breadth-First Search"(BFS)-Verfahren oder ein Dijkstra-Algorithmus bekannt. Die eingestellte Führungsroute wird in dem Führungsroutenspeicher 54 gespeichert.
  • An diesem Punkt wählt die Führungsrouten-Zeichnungseinheit 56 das, was von dem in dem VRAM 36 gezeichneten Kartengebiet umfasst ist, aus den Führungsroutendaten, welche durch die Routensuchverarbeitungseinrichtung 52 festgesetzt und in dem Führungsroutenspeicher 54 gespeichert werden, aus. Danach zeichnet die Führungsrouten-Zeichnungseinrichtung 56 die Führungsroute in dicken Linien, welche in einer vorher bestimmten Farbe dem Kartenbild überlagert werden.
  • Die Spracherkennungsvorrichtung 2 und die Spracherkennungslexikon-Speichervorrichtung 3 entsprechen der Spracherkennungseinrichtung; die Identitätslerneinrichtung 4 und die Identitätsdatenbank 5 entsprechen der Sprachbestimmungseinrichtung; und die Navigationssteuerungsvorrichtung 6, die DVD 7, die Disc-Lesevorrichtung 8, der GPS-Empfänger 10, der Sensor der relativen Fahrzeugposition 11, die Anzeigevorrichtung 12 und die Audioeinrichtung 13 entsprechen der Navigationsberechnungseinrichtung. Die DVD 7, die Disc- Lesevorrichtung 8, der GPS-Empfänger 10, der Sensor der relativen Fahrzeugsposition 11, die Anzeigevorrichtung 12, der Kartenpuffer 30, die Kartenlesesteuerungseinrichtung 32, die Kartenzeichnungseinrichtung 34, das VRAM 36, die Lesesteuerungseinrichtung 38 und die Fahrzeugspositionsberechnungseinrichtung 50 entsprechen der Kartenanzeigevorrichtung; die Routensuch-Berechnungseinrichtung 52 entspricht der Routensucheinrichtung; der Führungsroutenspeicher 54, die Kreuzungsleiteinrichtung 40 und die Sprachdatenerzeugungseinrichtung 42 entsprechen der Routenführungseinrichtung. Die Bilderkennungsvorrichtung 16 und die Bilderkennungslexikonspeichereinrichtung 17 entsprechen der Bilderkennungseinrichtung; die Führungszeichen-Erzeugungseinrichtung 44 und die Sprachdaten erzeugende Einrichtung 42 entsprechen der Führungseinrichtung; und das Mobiltelefon 14 und die Kommunikationsverarbeitungseinrichtung 70 entsprechen der Übertragungsanforderungseinrichtung und Informationsempfangseinrichtung.
  • (2) Detaillierte Inhalte der Kartendaten
  • Im Folgenden werden die auf der DVD 7 gespeicherten Kartendaten detailliert beschrieben. Die auf der DVD 7 gespeicherten Kartendaten verwenden als Einheit ein rechteckiges Blatt, welches durch vorgegebene Längengrade und Breitengrade definiert ist. Jedes Kartendatenblatt kann identifiziert und gelesen werden durch Spezifizieren der Blattnummer. 4 ist ein Diagramm, welches den Inhalt der Kartendaten für jedes Blatt zeigt. Wie in 4 gezeigt, umfassen die Kartendaten für jedes Blatt (1) die Zeichnungseinheit, welche verschiedene für das Anzeigen der Karte benötigten Daten hat, (2) eine Straßeneinheit, welche Daten hat, die nötig für verschiedene Verarbeitungen sind, z.B. Karten abgleichen, Routen suchen und Routen führen, und (3) eine Kreuzungseinheit, mit detaillierten Daten bezüglich Kreuzungen und Ähnlichem.
  • Die oben erwähnte Zeichnungseinheit umfasst Hintergrundsschichtdaten zum Anzeigen von Gebäuden, Flüssen und Ähnlichem, und Zeichenschichtdaten zum Anzeigen der Namen von Großstädten, Kleinstädten und Dörfern, Straßennamen und Ähnlichem. Diese Zeichenschichtdaten sind für jede Sprache vorgesehen. Wenn die verwendete Sprache spezifiziert wird, wird die Zeichenschicht gelesen, welche der verwendeten Sprache entspricht.
  • In der oben erwähnten Straßeneinheit wird eine Verbindung zwischen zwei willkürlichen Punkten auf der Straße als Link bezeichnet und ein benachbarter Punkt, welcher eine Verbindung zwischen zwei oder mehr Links bildet, wird als Knoten bezeichnet. Die Straßeneinheit umfasst eine Einheitsüberschrift, damit dies als die Straßeneinheit identifiziert werden kann, eine Verbindungsknotentabelle zum Speichern detaillierter Daten aller Knoten und eine Linktabelle zum Speichern detaillierter Daten des durch zwei benachbarte Knoten spezifizierten Links.
  • 5 ist ein Diagramm, welches detaillierte Inhalte der Kreuzungseinheit zeigt. Wie in 5 gezeigt, ist für jede Kreuzung in der Kreuzungseinheit eine Kreuzungsaufzeichnung gespeichert, einschließlich Daten betreffend die Kreuzung selbst, eine Kreuzungsrichtungsinfomationsaufzeichnung, aufweisend Daten, welche das Ziel einer Straße betreffen, die sich von der Kreuzung erstreckt, und eine Kreuzungsspurinformationsaufzeichnung, welche Daten für jede Spur der Straßen umfasst, welche die Kreuzung bilden.
  • Wie in 6 gezeigt, umfasst die Kreuzungsaufzeichnung für jede der existierenden Kreuzungen:
    • a. Das „Kreuzungsinformationsmarkierungszeichen" einschließlich eines Signalmarkierungszeichens, welches anzeigt, ob eine Ampel an dieser Kreuzung existiert;
    • b. die „Anzahl der Überkreuzungen an der Kreuzung", welche die Anzahl der Überkreuzungen dieser Kreuzung anzeigt;
    • c. die Koordinaten des Kreuzungsnamens, falls der Kreuzungsname angezeigt ist;
    • d. die Zeichenkette des anzuzeigenden Kreuzungsnamens; und
    • e. die Link-Identifikation von jedem Link, welcher diese Kreuzung bildet, und die Speicherposition der Kreuzungsführungsinformationsaufzeichnung, welche diesem Link (für jede der Überkreuzungen der Kreuzung) entspricht.
  • Die genannten Daten der Kreuzungseinheit sind für jede Sprache vorgesehen, wobei die Inhalte gewechselt werden gemäß der durch den Endanwender verwendeten Sprache. Beispielsweise sind die Kreuzungszeichnungsaufzeichnungen und die Kreuzungsnamenszeichenketten und ähnliche in den Kreuzungsaufzeichnungen in jeder Sprache vorgesehen. Wenn die durch den Endanwender verwendete Sprache spezifiziert ist, werden die Inhalte entsprechend dieser Sprache gelesen.
  • (3) Betrieb des Navigationssystems
  • Im Folgenden wird der Betrieb des Navigationssystems gemäß der vorliegenden Ausführungsform in Fälle kategorisiert, und jeder Fall wird beschrieben.
  • (3-1) Vorgang zur Bestimmung der verwendeten Sprache
  • 7 ist ein Flussdiagramm, welches einen Betriebsablauf zum Bestimmen der durch den Endanwender verwendeten Sprache zeigt. Es ist der Betriebsablauf gezeigt für den Fall, in welchem durch Aufnahme von Gesprochenem des Endanwenders (ein Fahrer oder eine Begleitperson), welcher beispielsweise das Mikrophon 1 verwendet, welches in einer vorher bestimmten Position innerhalb des Fahrzeugs vorgesehen ist, die durch diesen Endanwender verwendete Sprache bestimmt wird.
  • Die Spracherkennungsvorrichtung 2 bestimmt, ob Gesprochenes in das Mikrophon 1 eingegeben wird (Schritt 100). Wenn das Gesprochene des Endanwenders eingegeben wird, wird das Merkmal dieses Gesprochenen extrahiert (Schritt 101). Während der Endanwender das Gesprochene spricht, unterscheiden sich die Zeitspannen für ein Wort des Gesprochenen untereinander. Daher führt die Spracherkennungsvorrichtung 2 einen Normalisierungsvorgang mit dem extrahierten Merkmal bezüglich der Zeitbasis durch (Schritt 102) durch. Dann führt die Spracherkennungsvorrichtung 2 einen Musterabgleich durch, basierend auf Information, welche in einem Lexikon enthalten ist, welches in der Spracherkennungslexikonspeichereinrichtung 3 gespeichert ist (Schritt 103), und die Sprache für jedes Wort wird bestimmt (Schritt 104).
  • Im Folgenden zählt die Identitätslerneinrichtung 4 die Anzahl des Auftretens einer Sprache für jedes von der Spracherkennungsvorrichtung 2 bestimmte Wort und berechnet die Häufigkeit des Auftretens der Sprachen (Schritt 105). Die Inhalte der Identitätsdatenbank 5 werden aktualisiert (Schritt 106). Wenn beispielsweise der Endanwender das gleiche Wort mehrfach spricht, wird die Zahl für das Auftreten der Sprache des Wortes erhöht.
  • Im Folgenden bestimmt die Identitätslerneinrichtung 4 die durch den Endanwender verwendete Sprache, basierend auf der Häufigkeit des Auftretens jeder der in der Identitätsdatenbank 5 gespeicherten Sprachen (Schritt 107). Wenn beispielsweise eine japanische Person Japanisch spricht, werden importierte Wörter, welche die KATAKANA-Schrift verwenden, die englische Synonyme phonetisch imitiert, während einer Unterhaltung gesprochen. Obwohl diese importierten Wörter als Englisch bestimmt werden, ist während einer normalen Unterhaltung das Auftreten von muttersprachlichem Japanisch häufiger als das Auftreten der importierten Wörter. Dementsprechend zeigen die Häufigkeitsverteilungen der Sprachen, welche in der Identitätsdatenbank 5 gespeichert sind, dass Japanisch die Mehrheit in der Verteilung ist. Während des Prozesses des Bestimmens der Sprache, welche als Schritt 107 verwendet wird, wird die verwendete Sprache als „Japanisch" bestimmt.
  • Auf diese Weise kann das Navigationssystem der vorliegenden Ausführungsform die Sprache für jedes Wort bestimmen durch Durchführen von Spracherkennungsverarbeitung der Spracheingabe des Endanwenders, in Kombination mit einer Mehrzahl von Sprachen. Die durch den Endanwender verwendete Sprache kann problemlos festgestellt werden durch Berechnen der Häufigkeiten des Auftretens der Sprachen für jedes Wort und Untersuchen der Sprache mit der höchsten Häufigkeit des Auftretens.
  • In der beschriebenen Ausführungsform wird die verwendete Sprache für einen einzelnen Endanwender bestimmt, oder ohne in Erwägung zu ziehen, ob die Anzahl der Endanwender einer oder mehrere ist. Die verwendete Sprache kann für jeden der Endanwender bestimmt werden, indem bewirkt wird, dass die Spracherkennungsvorrichtung 2 das Merkmal von jedem der unterschiedlichen Endanwender extrahiert und Daten der Identitätsdatenbank 5 entsprechend dem Endanwender speichert. In diesem Fall kann die durch jeden der Endanwender verwendete Sprache genau bestimmt werden.
  • (3-2) Kartenanzeigevorgang in der Umgebung des Fahrzeugs
  • 8 ist ein Flussdiagramm, welches einen Arbeitsvorgang zum Anzeigen eines Kartenbildes der Umgebung des Fahrzeugs während des Fahrens zeigt. Die Fahrzeugspositionsberechnungseinrichtung 50 berechnet die aktuelle Position des Fahrzeugs basierend auf der Ausgabe des GPS-Empfängers 10 und des Sensors der relativen Fahrzeugsposition 11 (Schritt 200). Die aktuelle Position dieses Fahrzeugs wird in die Lesesteuerungsvorrichtung 38 als Anzeigebildmittelposition eingegeben. Die Lesesteuerungseinrichtung 38 liest einen vorher bestimmten Bereich von Kartenzeichnungsdaten einschließlich der aktuellen Position des Fahrzeugs vom VRAM 36, um die abgelesenen Daten auf der Anzeigevorrichtung 12 zu zeigen (Schritt 201). Wenn sich die aktuelle Position des Fahrzeugs bewegt, wird der Bereich der Kartenzeichnungsdaten, der von dem VRAM 36 gelesen wird, entsprechend geändert. Daher wird das Kartenbild der Umgebung des Fahrzeugs, welches auf der Anzeigevorrichtung 12 angezeigt wird, durch Scrollen verschoben, während sich das Fahrzeug bewegt.
  • Die Kartenlesesteuerungseinrichtung 32 bestimmt, ob ein neues Kartendatenblatt von der DVD 7 gelesen werden muss, wenn sich die aktuelle Position des Fahrzeugs ändert (Schritt 202). Wie bei 3 beschrieben, müssen dann, wenn sich der Bereich P gemäß dem Vorankommen des Fahrzeugs bewegt, Kartendaten, welche den in der Reiserichtung vorgesehenen Blättern entsprechen, sequentiell gelesen werden.
  • Wenn ein neues Kartendatenblatt gelesen werden muss, wird eine bestätigende Bestimmung gemacht bei der Bestimmung bei Schritt 202. Danach spezifiziert die Kartenlesesteuerungseinrichtung 32 die durch den Endanwender verwendete Sprache basierend auf dem Bestimmungsergebnis der Identitätslerneinrichtung 4 (Schritt 203). Die Kartenlesesteuerungseinrichtung 32 fordert von der Disk-Lesevorrichtung 8 an, die Kartendaten zu lesen, welche dieser spezifizierten verwendeten Sprache entsprechen. Die Kartenlesevorrichtung 8 liest Kartendaten von der DVD 7 entsprechend dieser Anforderung (Schritt 204). In einem Teil, welcher von der verwendeten Sprache abhängt (der für jede verwendete Sprache vorhergesehene Teil) werden aus den auf diese Weise gelesenen Kartendaten nur die Kartendaten als zu lesendes Ziel verwendet, die der spezifizierten Sprache entsprechen. Beispielsweise werden nur der verwendeten Sprache entsprechende Daten aus der in der Zeichnungseinrichtung enthaltenen Kettenschicht, aus der in der Kreuzungseinrichtung enthaltenen Kreuzungszeichnungsaufzeichnung und Dergleichen gelesen und dann im Kartenpuffer 30 gespeichert.
  • Wenn die Inhalte der in dem Kartenpuffer 30 gespeicherten Kartendaten aktualisiert sind, erzeugt die Kartenzeichnungseinrichtung 34 Kartenzeichnungsdaten basierend auf diesen aktualisierten Kartendaten, um den Inhalt des VRAM 36 zu aktualisieren (Schritt 205). Danach kehrt der Vorgang zurück zu dem obigen Schritt 200 und wiederholt das Bearbeiten.
  • Wenn das erfindungsgemäße Navigationssystem ein neues Kartendatenblatt während des Vorankommens des Fahrzeugs liest, werden die Kartendaten gelesen, welche der verwendeten Sprache entsprechen. Dementsprechend kann der Endanwender, der die Anzeige sieht, wenn das Kartenbild der Umgebung des Fahrzeugs gezeigt wird, problemlos den Anzeigeninhalt verstehen, da die Zeichen der verwendeten Sprache benutzt werden können. Insbesondere gibt es kein Erfordernis, die verwendete Sprache umzuschalten, da die Bestimmung der verwendeten Sprache automatisch durchgeführt wird unter Verwendung von Spracherkennungsverarbeitung, was die Betriebsfähigkeit verbessern kann.
  • 9A und 9B sind Diagramme, welche beispielhafte Anzeigen des Kartenbilds der Umgebung des Fahrzeugs zeigen. Die in 9A gezeigte beispielhafte Anzeige entspricht einem Fall, in welchem der Endanwender Japanisch spricht. Die Zeichenkettenschicht in der Zeichnungseinheit, welche Japanisch entspricht, wird verwendet, was bewirkt, dass die Notationen der Ortsnamen und Einrichtungsnamen Japanisch sind. Eine beispielhafte Anzeige in 9 ent spricht einem Fall, bei welchem der Endanwender Englisch spricht. Die in der Zeicheneinheit umfasste Zeichenkettenschicht, die verwendet wird, entspricht dem Englischen, was bewirkt, dass die Notationen der Ortsnamen und Einrichtungsnamen Englisch sind. Da die gleiche Hintergrundsdatenschicht unabhängig von der verwendeten Sprache verwendet wird, sind die beiden beispielhaften Anzeigen in 9A und 9B bis auf die Zeichen gleich.
  • (3-3) Kreuzungsführungsvorgang beim Routenführen
  • 10 ist ein Diagramm, welches einen Betriebsvorgang zum Durchführen eines Kreuzungsführungsvorgangs beim Routenführen zeigt. Die Routensuchberechnungseinrichtung 52 führt eine Suchberechnung auf der Route durch, welche zwischen einer vorbestimmten Startposition und der Zielposition erstellt wurde. Die Routeninformation ist als Suchergebnis im Führungsroutenspeicher 54 gespeichert.
  • Die Kreuzungsführungseinheit 40 liest die in dem Führungsroutenspeicher 54 gespeicherte Information (Schritt 300) und bestimmt, ob das Fahrzeug das Ziel erreicht, und zwar durch Vergleichen der Koordinaten des Ziels mit den Koordinaten der aktuellen Position des Fahrzeugs, welche durch die Fahrzeugspositionsberechnungseinrichtung 50 berechnet wurden (Schritt 301). Wenn das Fahrzeug das Ziel erreicht, ist der Kreuzungsführungsvorgang in einer Sequenz von Routenführung vervollständigt.
  • Wenn das Fahrzeug das Ziel nicht erreicht, bestimmt die Kreuzungsführungseinrichtung 40, ob es ein Führungszeitpunkt für eine nächste Kreuzung ist (Schritt 302). Wenn beispielsweise der Führungszeitpunkt gegeben ist, wenn der Abstand bis zu einer nächsten Kreuzung mit Rechtsabbiegung/Linksabbiegung einen vorherbestimmten Wert erreicht, wird andernfalls eine negative Feststellung bei der Feststellung bei Schritt 302 gemacht. Das Verfahren gelangt zurück zu Schritt 300 und wiederholt das Berechnen.
  • Wenn ein Führungszeitpunkt für die Kreuzung besteht, macht die Kreuzungsführungseinrichtung 40 Folgendes: sie spezifiziert die durch den Endanwender verwendete Sprache, welche durch die Identitätslerneinrichtung 4 (Schritt 303) bestimmt wurde, erzeugt das Kreuzungsführungsbild, welches dieser verwendeten spezifizierten Sprache entspricht (Schritt 304) und zeigt das Bild auf der Anzeigevorrichtung 12 (Schritt 305). Die Kreuzungsführungseinrichtung 40 fordert von der Spracherzeugungseinrichtung 42, dass Sprachführungsdaten erzeugt werden, die dieser verwendeten spezifizierten Sprache entsprechen. Die Sprachdatenerzeugungseinrichtung 42 generiert Sprachdaten, welche der durch den Endanwender verwendeten Sprache entsprechen und gibt die erzeugten Daten in die Audioeinrichtung 13 ein (Schritt 306). Die Kreuzungsführungssprache, welche die von dem Endanwender benutzte Sprache verwendet, wird von der Audioeinrichtung 13 ausgegeben (Schritt 307). Danach gelangt der Prozess zu Schritt 300 zurück und das Verarbeiten wiederholt sich.
  • Daher leistet das Navigationssystem entsprechend der vorliegenden Ausführungsform Kreuzungsführung durch das Führungsbild und Führungssprache, welche die von dem Endanwender verwendete Sprache während des Routenführens benutzen. Daher kann der Endanwender den Inhalt der Kreuzungsführung unabhängig von der verwendeten Sprache verstehen.
  • (3-4) Betrieb in dem Fall, bei welchem der Inhalt eines Straßenwegweiserschildes unter Verwendung von Bilderkennungsverarbeitung gelesen wird
  • 11 ist ein Flussdiagramm, welches einen Betriebsvorgang für einen Fall zeigt, bei welchem der Inhalt eines Straßenwegweiserschildes gelesen wird, welches während des Fahrens aufgenommen wird, und Führung basierend auf dem Inhalt durchgeführt wird.
  • Die Bilderkennungsvorrichtung 16 bestimmt, ob ein zu erkennendes Bild durch die Kamera 15 während des Fahrens aufgenommen wird (Schritt 400). Wenn das zu erkennende Bild von der Kamera 15 eingegeben wird, wird eine bestätigende Feststellung durchgeführt und die Straßenform, welche in dem Straßenwegweiserschild enthalten ist, wird extrahiert (Schritt 401) und Zeichenketten, z.B. Ortsnamen, werden extrahiert (Schritt 402). In einem Fall, in welchem kein zu erkennendes Bild vorhanden ist, wird eine negative Feststellung beim Schritt 400 gemacht und der Prozess bestimmt wiederholt, ob das zu erkennende Bild aufgenommen wird. Das Straßenwegweiserschild enthält normalerweise die Zeichenketten von Ortsnamen zusammen mit einer Darstellung, welche die Straße auf einer rechteckigen blauen oder grünen Platte darstellt. Beispielsweise erhält die Bilderkennungsvorrichtung 16 das Objekt, welches diese Bedingungen erfüllt, und bestimmt, dass dieses Objekt das zu erkennende Bild ist.
  • Die Bilderkennungsvorrichtung 16 führt eine Abgleichsbestimmung durch, durch Vergleichen des extrahierten Kettenbilds mit den Zeichenbildern, die in der Bilderkennungslexikonspeichereinrichtung 16 registriert sind, um die Sprache der Zeichen festzustellen (Schritt 403).
  • Im Folgenden spezifiziert die Führungszeichen erzeugende Einrichtung 44 die durch den Endanwender verwendete Sprache, die durch die Identitätslerneinrichtung 4 festgestellt wurde (Schritt 404), und bestimmt, ob diese spezifizierte verwendete Sprache und die Sprache der in dem Straßenwegweiserschild enthaltenen Zeichen übereinstimmen (Schritt 405). Wenn ein Nichtübereinstimmen vorliegt, wird eine negative Feststellung gemacht.
  • Danach erzeugt die Führungszeichen erzeugende Einheit 44 ein Führungsbild, welches erhalten wird durch Ersetzen der Sprache der im Straßenwegweiserschild enthaltenen Zeichen mit der durch den Endanwender verwendeten Sprache (Schritt 406) und zeigt das erzeugte Bild auf der Anzeigevorrichtung (Schritt 408). Wenn die durch den Endanwender verwendete Sprache und die Sprache der Zeichen in dem Straßenwegweiserschild übereinstimmen, wird das Führungsbild erzeugt ohne Ersetzen der Sprache der Zeichen (Schritt 407). In diesem Fall wird das ursprüngliche Bild des Straßenwegweiserschilds, welches durch die Bilderkennungsvorrichtung 16 erhalten wurde, weiterhin angezeigt, oder der Inhalt der bekannten Zeichen kann wieder angezeigt werden mit einem vorherbestimmten Schrifttyp.
  • Die Führungszeichen erzeugende Einrichtung 44 fordert von der Sprachdaten erzeugenden Einrichtung 42 an, dass Führungssprachdaten erzeugt werden, welche den Inhalt des Straßenwegweiserschildes erklären unter Verwendung der durch den Endanwender verwendeten Sprache. Die Sprachdaten erzeugende Einrichtung 42 erzeugt die Sprachdaten entsprechend der durch den Endanwender verwendeten Sprache gemäß dieser Anfrage und gibt die erzeugte Sprache in die Audioeinrichtung 13 ein (Schritt 409) und die Kreuzungsführungssprache wird von der Audioeinrichtung 13 ausgegeben unter Verwendung der durch den Endanwender verwendeten Sprache (Schritt 410). Diese Führungssprache umfasst beispielsweise die Straßenform und den Ortsnamen entsprechend der Zeichenkette, welche in dieser Führungssprache enthalten sind. Danach kehrt der Prozess zu Schritt 400 zurück und wiederholt das Berechnen.
  • Somit kann das Navigationssystem der vorliegenden Erfindung die Sprache der in diesem Straßenwegweiserschild enthaltenen Zeichen bestimmen durch Aufnehmen des Straßenwegweiserschildes unter Verwendung der Kamera 15 und Durchführen von Bilderkennungsverarbeitung mit dem Inhalt des Straßenwegweiserschildes. Wenn diese Sprache sich von der durch den Endanwender verwendeten Sprache unterscheidet, wird die Führungsbildanzeige oder die Führungssprachausgabe entsprechend dem Straßenwegweiserschild durchgeführt unter Verwendung der durch den Endanwender verwendeten Sprache. Daher kann der Endanwender problemlos den Inhalt des Straßenwegweiserschildes verstehen.
  • 12A und 12B sind Diagramme, welche beispielhafte Anzeigen des Führungsbildes zeigen, welches dem Straßenwegweiserschild entspricht. 12A zeigt eine beispielhafte Anzeige in einem Fall, in welchem japanische Zeichenketten in dem Straßenwegweiserschild enthalten sind und die durch den Endanwender verwendete Sprache Japanisch ist. 12B zeigt eine beispielhafte Anzeige in einem Fall, in welchem englische Zeichen in dem Straßenwegweiserschild enthalten sind und die durch den Endanwender verwendete Sprache Englisch ist. In dem in 12B gezeigten Bild ist die Sprache der Zeichenketten, die in dem in 12A gezeigten Bild enthalten sind, von Japanisch nach Englisch verändert, so dass auch der Endanwender, welcher Englisch gut versteht und Japanisch nicht gut versteht, den Inhalt des Straßenwegweiser schildes problemlos verstehen kann. Wenn die Sprache der in dem Straßenwegweiserschild enthaltenen Zeichenketten mit der Sprache, die durch den Endanwender verwendet wird, abgeglichen bzw. angepasst wird, da die Art der lokalen Sprachnotationen, die verwendet werden, nicht gekannt werden kann, können die Zeichenketten, welche die lokale Sprachnotation verwenden, auch so gezeigt werden, dass sie benachbart zu dem ersetzten Ortsnamen oder ähnliches sind.
  • (3-5) Betrieb in dem Fall, bei welchem Kartendaten, welche mit der durch den Endanwender verwendeten Sprache korrespondieren, durch Kommunikation erhalten werden
  • Die Datenmengen für Ortsnamen, Einrichtungsnamen und Ähnliches sind immens. Es ist nicht leicht, immer solche Daten mit vielen Sprachen in der DVD 7 zu speichern. Außerdem verwenden Endanwender, welche das Navigationssystem benutzen, nicht notwendigerweise viele Sprachen. Dementsprechend werden bezüglich der Daten, die eine Mehrzahl von zu verwendenden Sprachen betreffen, die minimalen Daten, die benötigt werden, um die Sprache zu spezifizieren, in der DVD 7 gespeichert. Die anderen weniger häufig verwendeten Daten, z.B. Ortsnamen, Einrichtungsnamen und Ähnliches, werden vorzugsweise von dem Informationszentrum 18 gesendet, wenn sie verwendet werden.
  • 13 ist ein Flussdiagramm eines Betriebsvorgangs für einen Fall, in welchem Kartendaten, die der durch den Endanwender verwendeten Sprache entsprechen, durch Kommunikationsmittel erhalten werden. Wenn die Fahrzeugspositionsberechnungseinrichtung 50 die aktuelle Position des Fahrzeugs berechnet (Schritt 500), bestimmt die Kartenlesesteuerungseinrichtung 32, ob ein neues Kartendatenblatt von der DVD 7 gelesen werden muss (Schritt 501). Diese Bestimmung wird auf die gleiche Weise wie bei dem in 8 gezeigten Bestimmungsschritt 202 durchgeführt.
  • Wenn ein neues Kartendatenblatt gelesen werden muss, wird eine bestätigende Bestimmung bei Schritt 501 gemacht. Danach spezifiziert die Kartenlesesteuerungseinrichtung 32 die durch den Endanwender verwendete Sprache, basie rend auf dem Bestimmungsergebnis der Identitätslerneinheit 4 (Schritt 502) und bestimmt, ob Kartendaten, die dieser Sprache entsprechen, in der DVD 7 gespeichert sind (Schritt 503). Beispielsweise enthält die DVD 7 Kartendaten für Japanisch und Englisch und enthält keine Kartendaten, welche anderen Sprachen entsprechen.
  • Wenn die spezifizierte Sprache weder Japanisch noch Englisch ist, wird eine negative Feststellung in dem Feststellungsschritt 503 gemacht. Danach sendet die Kartenlesesteuerungseinrichtung 22 zu der Lesevorrichtung 8 eine Anfrage zum Lesen von Kartendaten unabhängig von der verwendeten Sprache. Die Disk-Lesevorrichtung 8 liest Kartendaten von der DVD 7 entsprechend dieser Anforderung (Schritt 504) und speichert diese gelesenen Kartendaten in dem Speicherpuffer 30 (Schritt 505). Diese Kartendaten umfassen nicht die Zeichenschichtdaten und Ähnliches, welche in der Zeichnungseinheit enthalten sind.
  • Dann sendet die Kommunikationsverarbeitungseinrichtung 70 an das Informationszentrum 18 Kartendaten abhängig von der durch den Endanwender verwendeten Sprache über das Mobiltelefon 14 (Schritt 506). Danach überwacht die Kommunikationsverarbeitungseinrichtung 70, ob die Kartendaten, welche dieser Übertragungsanforderung entsprechen, empfangen werden (Schritt 507). Wenn die Kartendaten empfangen werden, werden diese Kartendaten in der Empfangsreihenfolge gelesen (Schritt 508) und in dem Kartenspeicher 30 gespeichert (Schritt 509).
  • Wenn die spezifizierte, verwendete Sprache beim Verarbeiten bei Schritt 502 Japanisch oder Englisch ist, wird, da alle benötigten Kartendaten für diese Sprache auf der DVD 7 gespeichert sind, eine bestätigende Feststellung gemacht. Dementsprechend werden die normalen Kartendaten gelesen (Schritt 510) und in dem Kartenspeicher 30 (Schritt 511) gespeichert.
  • Daher werden in dem Navigationssystem gemäß der vorliegenden Ausführungsform Kartendaten von weniger häufig verwendeten Sprachen in der mehrsprachigen Datenbank 19 des Informationszentrums 18 gespeichert. Wenn diese Kartendaten benötigt werden, wird eine Übertragungsanforderung ge sendet, so dass die notwendigen Kartendaten durch Kommunikationsmittel erhalten werden können. Da das Navigationssystem nur mit Information ausgestattet werden muss, welche zum Bestimmen der Sprache verwendet wird, kann die Menge an gespeicherten Daten, welche jeder verwendeten Sprache entspricht, reduziert werden. Da die Speichermenge der DVD 7 reduziert werden kann, kann eine Kostenabsenkung erreicht werden. Da außerdem die Menge an Daten, die gespeichert werden können, eingeschränkt ist, kann die Anzahl von verwendeten Sprachen, die bestimmt werden sollen, erhöht werden, durch Verringern der Menge an Daten, welche für jede der Sprachen ständig gespeichert werden muss.

Claims (7)

  1. Navigationssystem, aufweisend: eine Spracherkennungseinrichtung (2, 3) zum Durchführen von Spracherkennungsverarbeitung einer Spracheingabe; gekennzeichnet durch eine Sprachbestimmungseinrichtung (4, 5) zum Bestimmen einer Sprache, welche durch einen Sprecher der Spracheingabe verwendet wird, basierend auf dem Inhalt der von der Spracherkennungseinrichtung (2, 3) erkannten Spracheingabe; und eine Navigationsberechnungseinrichtung (6, 7, 8, 10, 11, 12, 13) zum Durchführen eines Navigationsvorgangs, welcher mit der Sprache korrespondiert, welche durch die Sprachbestimmungseinrichtung (4, 5) bestimmt wurde.
  2. Navigationssystem nach Anspruch 1, dadurch gekennzeichnet, dass die Navigationsberechnungseinrichtung (6, 7, 8, 10, 11, 12, 13) eine Kartenanzeigevorrichtung (7, 8, 10, 11, 12, 30, 32, 34, 36, 38, 50) zum Anzeigen von Karteninformation aus der Umgebung eines Fahrzeugs aufweist; und dass die Kartenanzeigevorrichtung (7, 8, 10, 11, 12, 30, 32, 34, 36, 38, 50) die Sprache, welche durch die Sprachbestimmungseinrichtung (4, 5) bestimmt wurde, als eine Sprache der Zeichen verwendet, welche in der angezeigten Karteninformation enthalten sind.
  3. Navigationssystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Navigationsberechnungsvorrichtung (6, 7, 8, 10, 11, 12, 13) eine Routensucheinrichtung (52) zum Suchen einer Route zu dem Ziel und eine Routenführungseinrichtung (40, 42, 54) zum Führen des Fahrzeugs durch Sprachführung entlang der Route, welche unter Verwendung der Suchberechnung durch die Routensucheinrichtung (52) festgesetzt wurde, aufweist; und dass die Routenführungseinrichtung (40, 42, 54) die Sprachführung korrespondierend zu der Sprache generiert, welche durch die Sprachbestimmungseinrichtung (4, 5) bestimmt wurde.
  4. Navigationssystem entsprechend einem der Ansprüche 1 bis 3, dadurch gekennzeichnet dass, die Sprachbestimmungseinrichtung (4, 5) die Sprache korrespondierend zu jedem Wort untersucht, welches in der Spracheingabe enthalten ist, und die Sprache mit der Mehrheit in diesem Ergebnis als verwendete Sprache bestimmt.
  5. Navigationssystem nach Anspruch 4, dadurch gekennzeichnet, dass die Sprachbestimmungseinrichtung (4, 5) eine Datenbank zum Speichern des während der Untersuchung für jeden Anwender extrahierten Merkmals aufweist und dass die verwendete Sprache für jeden Anwender bestimmt wird.
  6. Navigationssystem nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass außerdem eine Bilderkennungseinrichtung (16, 17) vorgesehen ist, in welche ein Bild eines aufgenommenen vorher bestimmten Straßenwegweiserschildes eingegeben wird und der Inhalt der in diesem Bild enthaltenen Zeichen bestimmt wird; und dass die Navigationsberechnungseinrichtung (6, 7, 8, 10, 11, 12, 13) eine Führungseinrichtung (42, 44) umfasst für eine Anzeige und/oder Sprachausgabe durch Ersetzen der Zeichen, deren Inhalt durch die Bilderkennungseinrichtung (16, 17) bestimmt wurde, mit anderen Zeichen, welche in der Sprache sind, welche durch die Sprachbestimmungseinrichtung (4, 5) bestimmt wurde, und welche die gleiche Bedeutung wie die genannten Zeichen haben.
  7. Navigationssystem nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass es ferner aufweist: eine Übertragungs-Anfragevorrichtung (14, 70) zum Anfragen der Übertragung von detaillierter Information bezüglich der Sprache, welche durch die Sprachbestimmungsvorrichtung (4, 5) bestimmt wurde; und eine Informationsempfangseinrichtung (14, 70) zum Empfangen der detaillierten Information, welche von außen gemäß der Anfrage durch die Übertragungsanfragevorrichtung übertragen wurde.
DE60109979T 2000-04-14 2001-03-26 Navigationssystem Expired - Lifetime DE60109979T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000114244 2000-04-14
JP2000114244A JP3908437B2 (ja) 2000-04-14 2000-04-14 ナビゲーションシステム

Publications (2)

Publication Number Publication Date
DE60109979D1 DE60109979D1 (de) 2005-05-19
DE60109979T2 true DE60109979T2 (de) 2006-02-23

Family

ID=18626081

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60109979T Expired - Lifetime DE60109979T2 (de) 2000-04-14 2001-03-26 Navigationssystem

Country Status (4)

Country Link
US (1) US7277846B2 (de)
EP (1) EP1146316B1 (de)
JP (1) JP3908437B2 (de)
DE (1) DE60109979T2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006049902B4 (de) * 2005-10-25 2017-07-06 Denso Corporation Verfahren und System zur Anwendungsregelung
WO2018133981A1 (de) 2017-01-23 2018-07-26 Audi Ag Verfahren zum betreiben eines kraftfahrzeugs mit einer bedienvorrichtung

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050264431A1 (en) * 2002-04-09 2005-12-01 Bachelder Aaron D Forwarding system for long-range preemption and corridor clearance for emergency response
US20030202683A1 (en) * 2002-04-30 2003-10-30 Yue Ma Vehicle navigation system that automatically translates roadside signs and objects
JP4092976B2 (ja) * 2002-08-05 2008-05-28 ソニー株式会社 ガイドシステム、コンテンツサーバ、及び情報処理プログラム
US7098806B2 (en) * 2002-08-15 2006-08-29 California Institute Of Technology Traffic preemption system
US20040252191A1 (en) * 2003-06-13 2004-12-16 Davis J. Roger Automobile entertainment apparatus display with integrated antenna
WO2005036494A2 (en) * 2003-10-06 2005-04-21 E-Views Safety Systems, Inc. Detection and enforcement of failure-to-yield in an emergency vehicle preemption system
JP2005115868A (ja) * 2003-10-10 2005-04-28 Sony Corp 私的情報蓄積装置及び私的情報蓄積方法、並びに、私的情報管理装置及び私的情報管理方法
JP2005115867A (ja) * 2003-10-10 2005-04-28 Sony Corp 私的情報蓄積装置及び私的情報蓄積方法、並びに、私的情報管理装置及び私的情報管理方法
JP2005122484A (ja) * 2003-10-16 2005-05-12 Sony Corp 私的情報管理装置及び私的情報管理方法
JP4281559B2 (ja) 2004-01-15 2009-06-17 株式会社デンソー ナビゲーション装置
US20070040700A1 (en) * 2004-03-24 2007-02-22 Bachelder Aaron D Cellular-based preemption system
JP4765274B2 (ja) * 2004-07-08 2011-09-07 ソニー株式会社 音声合成装置及び音声合成方法
WO2006020337A2 (en) * 2004-07-20 2006-02-23 E-Views Safety Systems, Inc. Distributed, roadside-based real-time id recognition system and method
EP2765533A1 (de) 2004-07-26 2014-08-13 Automotive Systems Laboratory, Inc. Schutzsystem für gefährdete Straßenbenutzer
US20060031071A1 (en) * 2004-08-03 2006-02-09 Sony Corporation System and method for automatically implementing a finite state automaton for speech recognition
JP2006058347A (ja) * 2004-08-17 2006-03-02 Matsushita Electric Ind Co Ltd ナビゲーション装置
US7265683B2 (en) 2004-08-18 2007-09-04 California Institute Of Technology Roadside-based communication system and method
JP4883750B2 (ja) * 2005-01-20 2012-02-22 株式会社国際電気通信基礎技術研究所 音響評定装置、およびプログラム
TW200638294A (en) * 2005-04-22 2006-11-01 Mitac Int Corp Navigation system and method capable of switching to multinational language operating interface
KR100657962B1 (ko) 2005-06-21 2006-12-14 삼성전자주식회사 3차원 그래픽 디스플레이 장치 및 방법
JP4693107B2 (ja) * 2005-09-21 2011-06-01 株式会社ゼンリン ナビゲーション装置及び交差点標識データのデータ構造
KR101063607B1 (ko) * 2005-10-14 2011-09-07 주식회사 현대오토넷 음성인식을 이용한 명칭 검색 기능을 가지는 네비게이션시스템 및 그 방법
WO2007043436A1 (ja) * 2005-10-14 2007-04-19 Pioneer Corporation 経路案内装置、経路案内方法、経路案内プログラムおよびコンピュータに読み取り可能な記録媒体
JP4711818B2 (ja) 2005-12-14 2011-06-29 アルパイン株式会社 ナビゲーション装置及び地図表示方法
EP1801709A1 (de) * 2005-12-23 2007-06-27 Harman Becker Automotive Systems GmbH Sprachgenerierungssystem
US20070208506A1 (en) * 2006-03-03 2007-09-06 Ford Motor Company Travel system for a vehicle
JP4997796B2 (ja) * 2006-03-13 2012-08-08 株式会社デンソー 音声認識装置、及びナビゲーションシステム
JP4935145B2 (ja) * 2006-03-29 2012-05-23 株式会社デンソー カーナビゲーション装置
JP2007292713A (ja) * 2006-03-30 2007-11-08 Denso Corp ナビゲーション装置
US20090306989A1 (en) * 2006-03-31 2009-12-10 Masayo Kaji Voice input support device, method thereof, program thereof, recording medium containing the program, and navigation device
US8442965B2 (en) * 2006-04-19 2013-05-14 Google Inc. Query language identification
US7835903B2 (en) * 2006-04-19 2010-11-16 Google Inc. Simplifying query terms with transliteration
US8762358B2 (en) * 2006-04-19 2014-06-24 Google Inc. Query language determination using query terms and interface language
US8380488B1 (en) 2006-04-19 2013-02-19 Google Inc. Identifying a property of a document
US8255376B2 (en) 2006-04-19 2012-08-28 Google Inc. Augmenting queries with synonyms from synonyms map
JP2007322308A (ja) * 2006-06-02 2007-12-13 Xanavi Informatics Corp ナビゲーションシステム、ナビゲーション装置
US20080046175A1 (en) * 2006-07-31 2008-02-21 Nissan Technical Center North America, Inc. Vehicle navigation system
GB2440958A (en) * 2006-08-15 2008-02-20 Tomtom Bv Method of correcting map data for use in navigation systems
US7873517B2 (en) 2006-11-09 2011-01-18 Volkswagen Of America, Inc. Motor vehicle with a speech interface
AU2007343392A1 (en) * 2007-01-10 2008-07-17 Tomtom International B.V. Improved search function for portable navigation device
CN101275854A (zh) * 2007-03-26 2008-10-01 日电(中国)有限公司 更新地图数据的方法和设备
DE102007023765A1 (de) * 2007-05-22 2008-11-27 Robert Bosch Gmbh Verfahren und Anordnung zur Ausgabe von Zielführungshinweisen
US9015029B2 (en) * 2007-06-04 2015-04-21 Sony Corporation Camera dictionary based on object recognition
US8131018B2 (en) * 2008-02-08 2012-03-06 Tk Holdings Inc. Object detection and recognition system
JP2009205579A (ja) * 2008-02-29 2009-09-10 Toshiba Corp 音声翻訳装置およびプログラム
US20100088096A1 (en) * 2008-10-02 2010-04-08 Stephen John Parsons Hand held speech recognition device
JP4810594B2 (ja) * 2009-06-24 2011-11-09 京セラ株式会社 携帯端末、言語設定プログラムおよび言語設定方法
JP5554045B2 (ja) * 2009-10-21 2014-07-23 アルパイン株式会社 地図表示装置及び地図表示方法
US8700405B2 (en) 2010-02-16 2014-04-15 Honeywell International Inc Audio system and method for coordinating tasks
JP5126272B2 (ja) * 2010-03-31 2013-01-23 株式会社デンソー ナビゲーションシステム
JP5631362B2 (ja) * 2011-08-08 2014-11-26 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP5096610B2 (ja) * 2011-12-01 2012-12-12 オリンパスイメージング株式会社 ガイド装置およびガイド方法
JP2014011676A (ja) * 2012-06-29 2014-01-20 Casio Comput Co Ltd コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム
DE102012019994A1 (de) * 2012-10-12 2014-04-17 Audi Ag Kraftwagen mit einem Sprachübersetzungssystem
JP6029985B2 (ja) * 2013-01-11 2016-11-24 クラリオン株式会社 情報処理装置、操作システム、および、情報処理装置の操作方法
CN103888902B (zh) * 2014-03-18 2017-11-10 惠州Tcl移动通信有限公司 一种以移动终端归属地语言显示道路信息的方法及系统
CN104978015B (zh) * 2014-04-14 2018-09-18 博世汽车部件(苏州)有限公司 具有语种自适用功能的导航系统及其控制方法
US9536521B2 (en) * 2014-06-30 2017-01-03 Xerox Corporation Voice recognition
US9293132B2 (en) * 2014-08-06 2016-03-22 Honda Motor Co., Ltd. Dynamic geo-fencing for voice recognition dictionary
US9552830B2 (en) * 2014-10-17 2017-01-24 James E. Niles Vehicle language setting system
US10134386B2 (en) 2015-07-21 2018-11-20 Rovi Guides, Inc. Systems and methods for identifying content corresponding to a language spoken in a household
JP6578214B2 (ja) * 2016-01-20 2019-09-18 株式会社トヨタマップマスター ナビゲーションシステム、poi提示方法、poi提示プログラム、記録媒体
CN107796415B (zh) * 2016-09-07 2022-11-18 阿尔派株式会社 导航装置及其显示控制方法
WO2019023908A1 (en) 2017-07-31 2019-02-07 Beijing Didi Infinity Technology And Development Co., Ltd. SYSTEM AND METHOD FOR LANGUAGE SERVICE CALL
US10832046B1 (en) * 2018-10-23 2020-11-10 Architecture Technology Corporation Systems and methods for processing document images
KR102142204B1 (ko) * 2019-01-03 2020-08-06 이화여자대학교 산학협력단 포터블 네비게이션을 구비한 경로 안내 장치 및 방법
JP6830141B1 (ja) * 2019-09-12 2021-02-17 三菱電機インフォメーションネットワーク株式会社 デジタル名札表示切替システム、デジタル名札表示切替装置およびデジタル名札表示切替プログラム
EP4160390B1 (de) * 2021-09-29 2024-03-27 Siemens Aktiengesellschaft Verfahren und anordnung zur inbetriebnahme einer aktualisierten anwendung für eine industrielle automatisierungsanordnung

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0673800A (ja) 1992-06-22 1994-03-15 Sekisui Chem Co Ltd 建物ユニット
JPH06243391A (ja) 1993-02-15 1994-09-02 Hitachi Ltd ナビゲーションシステム
US6037936A (en) * 1993-09-10 2000-03-14 Criticom Corp. Computer vision system with a graphic user interface and remote camera control
US5548507A (en) * 1994-03-14 1996-08-20 International Business Machines Corporation Language identification process using coded language words
US5543789A (en) * 1994-06-24 1996-08-06 Shields Enterprises, Inc. Computerized navigation system
FR2734938A1 (fr) * 1995-05-31 1996-12-06 Philips Electronics Nv Appareil d'information routiere muni d'un generateur de messages polyglotte
JPH09114489A (ja) 1995-10-16 1997-05-02 Sony Corp 音声認識装置,音声認識方法,ナビゲーション装置,ナビゲート方法及び自動車
KR100224326B1 (ko) * 1995-12-26 1999-10-15 모리 하루오 차량용 네비게이션장치
JPH09292255A (ja) * 1996-04-26 1997-11-11 Pioneer Electron Corp ナビゲーション方法及び装置
US5844505A (en) * 1997-04-01 1998-12-01 Sony Corporation Automobile navigation system
US6061646A (en) * 1997-12-18 2000-05-09 International Business Machines Corp. Kiosk for multiple spoken languages
JPH11219105A (ja) 1998-01-29 1999-08-10 Toyota Motor Corp ナビゲーション装置
US6081803A (en) * 1998-02-06 2000-06-27 Navigation Technologies Corporation Support for alternative names in a geographic database used with a navigation program and methods for use and formation thereof
JPH11288296A (ja) 1998-04-06 1999-10-19 Denso Corp 情報処理装置
DE19840890A1 (de) 1998-09-03 2000-04-06 Siemens Ag Verfahren zum akustischen Ausgeben von Text und Sprachausgabesystem
IL130847A0 (en) * 1999-07-08 2001-01-28 Shlomo Orbach Translator with a camera
JP4292646B2 (ja) * 1999-09-16 2009-07-08 株式会社デンソー ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体
US6598018B1 (en) * 1999-12-15 2003-07-22 Matsushita Electric Industrial Co., Ltd. Method for natural dialog interface to car devices
US20010032070A1 (en) * 2000-01-10 2001-10-18 Mordechai Teicher Apparatus and method for translating visual text
JP2001289661A (ja) * 2000-04-07 2001-10-19 Alpine Electronics Inc ナビゲーション装置
US6490521B2 (en) * 2000-12-28 2002-12-03 Intel Corporation Voice-controlled navigation device utilizing wireless data transmission for obtaining maps and real-time overlay information

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006049902B4 (de) * 2005-10-25 2017-07-06 Denso Corporation Verfahren und System zur Anwendungsregelung
WO2018133981A1 (de) 2017-01-23 2018-07-26 Audi Ag Verfahren zum betreiben eines kraftfahrzeugs mit einer bedienvorrichtung
DE102017200976A1 (de) 2017-01-23 2018-07-26 Audi Ag Verfahren zum Betreiben eines Kraftfahrzeugs mit einer Bedienvorrichtung
DE102017200976B4 (de) 2017-01-23 2018-08-23 Audi Ag Verfahren zum Betreiben eines Kraftfahrzeugs mit einer Bedienvorrichtung
US11501767B2 (en) 2017-01-23 2022-11-15 Audi Ag Method for operating a motor vehicle having an operating device

Also Published As

Publication number Publication date
EP1146316A3 (de) 2002-02-20
US20010037203A1 (en) 2001-11-01
EP1146316B1 (de) 2005-04-13
JP3908437B2 (ja) 2007-04-25
US7277846B2 (en) 2007-10-02
JP2001296882A (ja) 2001-10-26
DE60109979D1 (de) 2005-05-19
EP1146316A2 (de) 2001-10-17

Similar Documents

Publication Publication Date Title
DE60109979T2 (de) Navigationssystem
DE69514298T2 (de) Navigationsvorrichtung eines sich bewegenden Objektes
DE69933422T2 (de) System und Verfahren zur Routenführung mit einem Navigationsanwendungsprogram
DE69422449T2 (de) Navigationssystem
DE69526346T2 (de) Elektronisches navigationssystem und verfahren
DE69726662T2 (de) Landfahrzeugsnavigationsgerät mit lokaler Routenführungsselektivität und Speichermedium dafür
DE69738536T2 (de) Navigator
DE69331485T2 (de) Navigationssystem für Fahrzeuge
DE69632242T2 (de) Fahrzeugnavigationssystem und Verfahren zur Eingabe und Speicherung von Kursänderungspunkten
DE69428841T2 (de) Navigationssystem
DE69625142T2 (de) Fahrzeugnavigationssystem
DE69734633T2 (de) Informationsanzeigesystem für Fahrzeugnavigation
DE69731860T2 (de) Navigationsgerät für Landfahrzeuge mit beschränkter Anzeige für die Zielführung zur Verbesserung der Lesbarkeit
DE69830124T2 (de) Verfahren und Vorrichtung zur Darstellung und Verwendung von Forminformation in geographischen Datenbanken
DE69509817T2 (de) Fahrzeugnavigationssystem
DE69313167T2 (de) Navigationsvorrichtung mit verbesserter Positionsanzeigefunktion
DE112007002119B4 (de) Karteninformations-Verarbeitungsvorrichtung
DE69628904T2 (de) Navigationssystem für Fahrzeuge
DE69731159T2 (de) Navigationssystem für Landfahrzeug mit Auswahl des Anzeigemodus
DE19934190C2 (de) Bildanzeigevorrichtung für ein Navigationssystem, Verfahren zur Anzeige eines Bildes und Speichermedium mit Programm zur Durchführung des Verfahrens
DE60020008T2 (de) Verfahren zum Datensammeln mittels Sprachbefehlen für eine geographische Datenbank sowie System dafür
DE69620084T2 (de) Navigationssystem für Fahrzeuge
DE10307591B4 (de) Navigationsvorrichtung und Navigationsverfahren
DE69521783T2 (de) Navigationsvorrichtung für ein landfahrzeug mit mitteln zur erzeugung einer frühzeitigen sprachnachricht mit mehreren elementen, sowie fahrzeug damit
DE19919139A1 (de) Fahrzeugnavigationssystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition