DE112007000809T5 - Navigationsgerät - Google Patents

Navigationsgerät Download PDF

Info

Publication number
DE112007000809T5
DE112007000809T5 DE112007000809T DE112007000809T DE112007000809T5 DE 112007000809 T5 DE112007000809 T5 DE 112007000809T5 DE 112007000809 T DE112007000809 T DE 112007000809T DE 112007000809 T DE112007000809 T DE 112007000809T DE 112007000809 T5 DE112007000809 T5 DE 112007000809T5
Authority
DE
Germany
Prior art keywords
guide
map
data
storage unit
map data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112007000809T
Other languages
English (en)
Inventor
Kazutoshi Hayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112007000809T5 publication Critical patent/DE112007000809T5/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/3673Labelling using text of road map data items, e.g. road names, POI names
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

Navigationsgerät mit:
einer Kartendatenspeichereinheit zum Speichern von Kartendaten, in denen ein Führungskartenortzeiger in Daten eingeschlossen ist, die jeden Führungspunkt zeigen;
einer Führungskartendatenspeichereinheit zum Speichern für jeden Führungspunkt einer Vielzahl von Führungskartendaten, die zum Zeichnen unterschiedlicher Ansichten verwendet werden, als Führungskarten;
einer Positions-detektierenden Einheit zum Detektieren einer gegenwärtigen Position;
einer Situations-erfassenden Einheit zum Erfassen einer gegenwärtigen Situation;
einer Verarbeitungseinheit, wenn die gegenwärtige Position, die von der Positions-detektierenden Einheit detektiert wird, einen Führungspunkt erreicht, der durch Kartendaten gezeigt wird, die von der Kartendatenspeichereinheit erhalten werden, zum Erhalten von Führungskartendaten entsprechend der gegenwärtigen Situation, die von der Situations-erfassenden Einheit erfasst wird, von einem Ort der Führungskartendatenspeichereinheit, der von einem Führungskartenortzeiger gezeigt wird, der in Daten eingeschossen ist, die den Führungspunkt zeigen und dann Kombinieren der erhaltenen Führungskartendaten mit den Kartendaten, die von der Kartendatenspeichereinheit erhalten werden, um so Anzeigedaten zu erzeugen; und einer Anzeigeausgabeeinheit zum Anzeigen einer Karte...

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Navigationsgerät, das einen Benutzer, wenn ein mit dem Navigationsgerät ausgerüstetes Fahrzeug einen Führungspunkt erreicht, der in der Nähe zum Beispiel eines Kreuzungs- oder eines Zweigpunktes eingerichtet ist, durch Anzeigen einer Ansicht des Führungspunktes als eine Führungskarte führt. Insbesondere betrifft diese eine Technologie zum Anzeigen einer Führungskarte mit ausgezeichneter Sichtbarkeit.
  • Hintergrund der Erfindung
  • Herkömmlicherweise ist ein Navigationsgerät bekannt, das eine Karte auf einer Anzeige anzeigt und eine Routenführung durchführt. Wenn ein Benutzer ein Ziel einstellt, sucht dieses Navigationsgerät nach einer optimalen Route von der gegenwärtigen Position eines Fahrzeuges, das mit dem Navigationsgerät ausgerüstet ist, zu einem Ziel und speichert diese optimale Route als eine Route, die bereist werden soll. Wenn das Fahrzeug mit dem Reisen beginnt und das Navigationsgerät die Routenführung startet, führt das Navigationsgerät sequentiell eine Detektion der gegenwärtigen Position des Fahrzeuges durch, zeigt die gegenwärtige Position des Fahrzeuges und die zu bereisende Route auf einer Karte auf einem Bildschirm einschließlich der detektierten, gegenwärtigen Position an und führt eine Führung durch. Wenn das Fahrzeug dann eine Umgebung eines Zweigpunktes der zu bereisenden Route erreicht, zeigt das Navigationsgerät eine Führungskarte an, die aus einem dreidimensionalen Bild besteht, das für den Fahrer leicht mit einer Vorwärtsansicht zu vergleichen ist, die der Fahrer tatsächlich sieht und stellt ebenso eine Führung für den Fahrer durch Erzeugen eines Geräusches bereit. Daher ermöglicht es das Navigationsgerät dem Benutzer, leicht die Reiserichtung zu der Zeit, wenn das Fahrzeug die zu bereisende Route bereist, mit der Karte und der Führung unter Verwendung der Führungskarte auszuwählen.
  • Für ein derartiges Navigationsgerät ist eine Technologie eines Wiedergebens einer Ansicht auf dem Bildschirm bekannt, die nahe an einer tatsächlichen Ansicht liegt, die von dem Fahrzeug aus beobachtet werden kann. Zum Beispiel offenbart die Patentreferenz 1 ein Bildanzeigeverfahren eines Anzeigens eines Bildes, wie zum Beispiel einer Karte, die mit einer Zeit verknüpft ist oder eine Karte mit einem Jahreszeitensinn. Gemäß diesem Bildanzeigeverfahren überwacht ein Kalenderzeitschaltwerk das gegenwärtige Datum, eine Multiplikationskonstanten-erzeugende Einheit erzeugt Multiplikationskonstanten CR, CG und CB für R-, G- bzw. B-Daten in einer derartigen Weise, dass das Bild einen Farbton gemäß der gegenwärtigen Zeit, der gegenwärtigen Jahreszeit oder Ähnlichem aufweist, wobei Multiplikatoren für R-, G- und B-Stücke von Farbinformation (RGB-Daten) der Karte, die von einer Farbpalette ausgegeben wird, mit den Multiplikationskonstanten CR, CG bzw. CB multiplizieren, um so die Stücke von Farbinformation des Kartenbildes zu manipulieren und das Bild wird dann auf der Basis der Stücke von Farbinformation angezeigt, die durch diese Manipulation erhalten werden. Gemäß diesem Bildanzeigeverfahren kann die Anzeigefarbe des Kartenbildschirmes in Synchronisation mit entweder einer voreingestellten Zeitzone oder der gegenwärtigen Jahreszeit geändert werden, eine Atmosphäre einer Tages- oder Nachtzeit kann ausgedrückt werden und die Sichtbarkeit kann erhöht werden.
    • [Patentreferenz 1] JP,9-311623,A
  • Ein Problem bei der von der oben-erwähnten Patentreferenz 1 offenbarten Technologie ist jedoch, dass, da die Farbpaletten, die alle einen Farbton aufweisen, der für eine der unterschiedlichen Situationen geeignet ist, im Voraus erzeugt werden und wenn ein Bild angezeigt wird, eine Farbpalette, die zu jener Zeit optimal ist, ausgewählt wird und das Bild angezeigt wird, wenn zum Beispiel die Anzahl von Situationen, die im Voraus eingestellt worden sind, n beträgt und die Anzahl von maximalen Farben, die für jede Farbpalette definiert werden können, m beträgt, die Anzahl von Farben, die in einer bestimmten Situation ausgedrückt werden kann, auf m/n beschränkt ist. Ein anderes Problem ist, dass im Falle eines Anzeigens eines Bildes in einem Bitmap-Format, das Bild nicht realistisch angezeigt werden kann, da die maximale Anzahl von Farben, die für jede Farbpalette definiert werden können, auf 256 beschränkt ist. Ein weiteres Problem ist, dass, da eine Farbpalette mit einem unterschiedlichen Farbton auf Bilddaten ausschließlich von Farbinformation angewendet wird, es eine Beschränkung gibt, dass das Bild selbst nicht gemäß der Situation geändert werden kann.
  • Die vorliegende Erfindung wurde durchgeführt, um die oben-erwähnten Probleme zu lösen und es ist daher ein Ziel der vorliegenden Erfindung, ein Navigationsgerät bereitzustellen, das eine Führungskarte gemäß der gegenwärtigen Situation anzeigen kann, ohne die Anzahl von Farben zu beschränken.
  • Offenbarung der Erfindung
  • Um die oben-erwähnten Probleme zu lösen umfasst ein Navigationsgerät gemäß der vorliegenden Erfindung: eine Kartendatenspeichereinheit zum Speichern von Kartendaten, in denen ein Führungskartenortszeiger in Daten eingeschlossen ist, die jeden Führungspunkt zeigen; eine Führungskartendatenspeichereinheit zum Speichern für jeden Führungspunkt einer Vielzahl von Führungskartendaten, die zum Zeichnen unterschiedlicher Ansichten als Führungskarten verwendet werden; eine Positions-detektierende Einheit zum Detektieren einer gegenwärtigen Position; eine Situations-erfassende Einheit zum Erfassen einer gegenwärtigen Situation; eine Verarbeitungseinheit, wenn die gegenwärtige Position, die von der Positions-detektierenden Einheit detektiert wird, einen Führungspunkt erreicht, der durch Kartendaten gezeigt wird, die von der Kartendatenspeichereinheit erhalten werden, zum Erhalten von Führungskartendaten entsprechend der gegenwärtigen Situation, die von der Situations-erfassenden Einheit erfasst wird, aus einem Ort der Führungskartendatenspeichereinheit, der von einem Führungskartenortszeiger gezeigt wird, der in Daten eingeschossen ist, die den Führungspunkt zeigen und dann Kombinieren der erhaltenen Führungskartendaten mit den Kartendaten, die von der Kartendatenspeichereinheit erhalten werden, um so Anzeigedaten zu erzeugen; und eine Anzeigeausgabeeinheit zum Anzeigen einer Karte und eine Führungskarte gemäß den Anzeigedaten, die von der Verarbeitungseinheit erzeugt werden.
  • Das Navigationsgerät gemäß der vorliegenden Erfindung speichert eine Vielzahl von Führungskartendaten, die zum Zeichnen unterschiedlicher Ansichten verwendet werden, als Führungskarten für jeden Führungspunkt und erhält Führungskartendaten entsprechend der gegenwärtigen Situation zu der Zeit und kombiniert die Führungskartendaten mit Kartendaten, um eine Führungskarte und eine Karte anzuzeigen, wenn die gegenwärtige Position einen Führungspunkt erreicht, der von Kartendaten gezeigt wird. Als ein Ergebnis, kann, da das Navigationsgerät gar keine Farbpalette verwendet, das Navigationsgerät die Anzahl von Farben erhöhen, die angezeigt werden können. Da darüber hinaus das Navigationsgerät unterschiedliche Bilder gemäß möglichen Situationen erzeugen kann, kann das Navigationsgerät ein Bild anzeigen, das näher an einer Vorwärtsansicht ist, die der Fahrer tatsächlich sieht, wodurch die Sichtbarkeit der Führungskarte verbessert wird. Zusätzlich stellt die vorliegende Erfindung einen Vorteil bereit, in der Lage zu sein, die Führungskarte mit hoher Qualität anzuzeigen.
  • Kurze Beschreibung der Figuren
  • 1 ist ein Blockdiagramm, das die funktionale Struktur eines Navigationsgerätes gemäß Ausführungsform 1 der vorliegenden Erfindung zeigt;
  • 2 ist ein Diagramm, das die Datenstruktur von Kartendaten und Führungskartendaten zur Verwendung in dem Navigationsgerät gemäß Ausführungsform 1 der vorliegenden Erfindung zeigt;
  • 3 ist ein Flussdiagramm, das kurz den Betrieb des Navigationsgerätes gemäß Ausführungsform 1 der vorliegenden Erfindung zeigt;
  • 4 ist ein Diagramm, das die Datenstruktur von Kartendaten und Führungskartendaten zur Verwendung in Navigationsgeräten gemäß Ausführungsformen 2 und 4 der vorliegenden Erfindung zeigt;
  • 5 ist ein Flussdiagramm, das die Details eines Bilderhaltungsprozesses für ein anzuzeigendes Objekt zeigt, der von den Navigationsgeräten gemäß Ausführungsformen 2 und 4 der vorliegenden Erfindung ausgeführt wird;
  • 6 ist ein Diagramm, das die Datenstruktur von Kartendaten und Führungskartendaten zur Verwendung in einem Navigationsgerät gemäß Ausführungsform 3 der vorliegenden Erfindung zeigt;
  • 7 ist ein Flussdiagramm, das die Details eines Bilderhaltungsprozesses für ein anzuzeigendes Objekt zeigt, der von dem Navigationsgerät gemäß Ausführungsform 3 der vorliegenden Erfindung ausgeführt wird;
  • 8 ist ein Flussdiagramm, das die Details eines Bilderhaltungsprozesses für ein anzuzeigendes Objekt zeigt, der von einem Navigationsgerät gemäß Ausführungsform 4 der vorliegenden Erfindung ausgeführt wird;
  • 9 ist ein Diagramm, das die Datenstruktur von Kartendaten und Führungskartendaten zur Verwendung in einem Navigationsgerät gemäß Ausführungsform 5 der vorliegenden Erfindung zeigt; und
  • 10 ist ein Flussdiagramm, das die Details eines Bilderhaltungsprozesses für ein anzuzeigendes Objekt zeigt, der von dem Navigationsgerät gemäß Ausführungsform 5 der vorliegenden Erfindung ausgeführt wird.
  • Bevorzugte Ausführungsformen der Erfindung
  • Um hiernach die Erfindung im größeren Detail zu erklären, werden bevorzugte Ausführungsformen der vorliegenden Erfindung unter Bezug auf die begleitenden Zeichnungen beschrieben.
  • Ausführungsform 1
  • 1 ist ein Blockdiagramm, das die funktionale Struktur eines Navigationsgerätes gemäß Ausführungsform 1 der vorliegenden Erfindung zeigt. Dieses Navigationsgerät umfasst eine Karteninformations-Speichereinheit 11, eine Speichereinheit 12, eine Positions-detektierende Einheit 13, eine Situations-erfassende Einheit 14, eine Anzeigeausgabeeinheit 15, eine Eingabeeinheit 16 und eine Verarbeitungseinheit 17.
  • Die Kateninformations-Speichereinheit 11 kann ein Speichermedium umfassen, wie zum Beispiel eine CD-ROM, eine DVD-ROM oder eine Festplatte und ein Laufwerk zum Lesen von Daten, die auf das Speichermedium aufgezeichnet sind. Als eine Alternative kann die Karteninformations-Speichereinheit 11 ein Kommunikationsgerät zum Empfangen von Daten von außerhalb des Navigationsgerätes über Übermittlungen oder Ähnliches umfassen. Diese Karteninformations-Speichereinheit umfasst eine Kartendaten-Speichereinheit 11a und eine Führungskartendaten-Speichereinheit 11b.
  • Die Kartendaten-Speichereinheit 11a speichert Kartendaten, in denen ein Führungskartenortszeiger in Daten eingeschlossen ist, die jeden Führungspunkt von Straßennetzdaten zeigen. Die Führungskartendaten-Speichereinheit 11b speichert eine Vielzahl von Führungskartendaten, die jeweils zum Zeichnen einer Vielzahl von Führungskarten verwendet werden, von denen jede ein dreidimensionales Bild einer Ansicht umfasst. Kartendaten, die von der Kartendaten-Speichereinheit 11a gelesen werden und Führungskartendaten, die von der Führungskartendaten-Speichereinheit 11b gelesen werden, werden an die Verarbeitungseinheit 17 gesendet.
  • Die Speichereinheit 12 umfasst zum Beispiel ein RAM und wird von der Verarbeitungseinheit 17 aus zugegriffen. Die Speichereinheit 12 wird verwendet, temporär Daten zu speichern, die die Verarbeitungseinheit 17 verarbeitet. Zum Beispiel werden Daten, die eine optimale Route zeigen, die durch einen Routen-suchenden Prozess erhalten wird, der von der Verarbeitungseinheit 17 ausgeführt wird, temporär als Daten für die zu bereisende Route in der Speichereinheit 12 gespeichert.
  • Die Positions-detektierende Einheit 13 umfasst einen GPS-Empfänger, einen Geschwindigkeitssensor, ein Gyroskop und so weiter und detektiert die gegenwärtige Position eines Fahrzeuges, das mit dem Navigationsgerät ausgerüstet ist, auf der Basis von Positionsdaten, die eine gegenwärtige Position zeigen, die von dem GPS-Empfänger detektiert wird, Geschwindigkeitsdaten, die die Geschwindigkeit des Fahrzeuges zeigen, die von dem Geschwindigkeitssensor detektiert wird und Richtungsdaten, die die Reiserichtung zeigen, in der sich das Fahrzeug bewegt, die von dem Gyroskop detektiert wird. Gegenwärtige Positionsdaten, die die gegenwärtige Position des Fahrzeuges zeigen, die von der Positions-detektierenden Einheit 13 detektiert wird, werden an die Verarbeitungseinheit 17 gesendet.
  • Die Situations-erfassende Einheit 14 umfasst zum Beispiel unterschiedliche Sensoren und Schalter, die innerhalb und außerhalb des Fahrzeuges montiert sind und erfasst Situationsdaten, die eine gegenwärtige Situation zeigen, die als Bedingungen zur Zeit eines Schaltens zwischen Führungskarten dienen. Genau erfasst die Situations-erfassende Einheit 14 ein gegenwärtiges Datum und eine gegenwärtige Zeit von einem nicht gezeigten Zeitregister, erfasst eine gegenwärtige Intensität einer Beleuchtung von einem nicht gezeigten Beleuchtungsmesser und erfasst einen An-/Aus-Zustand von einem nicht gezeigten Beleuchtungsschalter zum Beleuchten einer Beleuchtungsvorrichtung für die Nacht. Die Situationsdaten, die durch diese Situations-erfassende Einheit 14 erfasst werden, werden an die Verarbeitungseinheit 17 gesendet.
  • Die Anzeigeausgabeeinheit 15 umfasst zum Beispiel ein CRT-Anzeigengerät oder einer Flüssigkristallanzeige und zeigt eine Karte einschließlich der gegenwärtigen Situation des Fahrzeuges und eine Führungsroute gemäß den Anzeigedaten an, die an diese von der Verarbeitungseinheit 17 gesendet werden und zeigt ebenso eine Führungskarte an, wenn das Fahrzeug einen Führungspunkt erreicht.
  • Die Eingabeeinheit 16 umfasst zum Beispiel ein Berührungsfeld, das auf dem Bildschirm der Anzeigeausgabeeinheit 15 angeordnet ist, eine Fernbedienung und einen Betriebsschalter und wird verwendet, damit der Benutzer ein Ziel usw. eingibt und um unterschiedliche Einstellungen durchzuführen. Daten, die in dieser Eingabeeinheit 16 eingegeben werden, werden an die Verarbeitungseinheit 17 gesendet.
  • Die Verarbeitungseinheit 17 besteht aus zum Beispiel einem Mikrocomputer und steuert das gesamte Navigationsgerät. Zum Beispiel führt die Verarbeitungseinheit 17 einen Routen-suchenden Prozess eines Suchens nach einer optimalen Route von der gegenwärtigen Position des Fahrzeuges, die von der Positions-detektierenden Einheit 13 detektiert wird, zu dem Ziel, das von der Eingabeeinheit 16 eingegeben wird, auf der Basis der Kartendaten durch, die von der Kartendaten-Speichereinheit 11a erhalten werden. Wenn die gegenwärtige Position des Fahrzeuges, die von den gegenwärtigen Positionsdaten angezeigt wird, die von der Positions-detektierenden Einheit 13 gesendet werden, einen Führungspunkt auf den Kartendaten erreicht, die von der Kartendaten-Speichereinheit 11a erhalten werden, führt die Verarbeitungseinheit 17 einen Führungskartenanzeigeprozess eines Anzeigens einer Führungskarte gemäß den Situationsdaten aus, die von der Situations-erfassenden Einheit 14 erfasst werden (was unten im Detail erläutert wird).
  • Als nächstes wird die Datenstruktur der Kartendaten und der Führungskartendaten zur Verwendung in dem Navigationsgerät gemäß Ausführungsform 1 der vorliegenden Erfindung unter Bezug auf 2 erklärt.
  • Die Kartendaten, die in der Kartendaten-Speichereinheit 11a gespeichert sind, weisen eine bekannte Struktur auf und ein Führungskartenortszeiger 20 ist in den Daten eingeschlossen, die jeden Führungspunkt der Straßennetzdaten zeigen, die in den Kartendaten eingeschlossen sind. Ein Führungskartenortszeiger 20 hält einen Speicherort in einer Bilddaten-Verwaltungstabelle 21.
  • Die Führungskartendaten-Speichereinheit 11b speichert die Führungskartendaten für jeden Führungspunkt. Die Führungskartendaten für jeden Führungspunkt, umfassen eine Bilddatenverwaltungstabelle 21 und Bilddaten 22. Die Bilddatenverwaltungstabelle 21 hält Zeiger, die die Orte einer Vielzahl von Bilddaten anzeigen (Bilder 1, 2, ..., und n – 1), die jeweils einer Vielzahl von Situationsdaten entsprechen (Situationen 0, 1, ..., und n – 1), von denen alle zu der Situations-erfassenden Einheit 14 gesendet werden können.
  • Die Bilddaten 22 sind Daten, die zum Zeichnen einer Führungskarte verwendet werden, die angezeigt werden kann, wenn das Fahrzeug den entsprechenden Führungspunkt erreicht und umfassen eine Vielzahl von Bilddaten, von denen alle zum Zeichnen eines dreidimensionalen Vollfarbbildes (eine Führungskarte) mit einer unterschiedlichen Ansicht des einzelnen, entsprechenden Führungspunktes verwendet werden können. Die Bilddaten 22 können in unterschiedlichen Formaten erzeugt werden, wie zum Beispiel einem Bitmap-Format und einem JPEG-Format. Alle Bilddaten, die in den Bilddaten 22 umfasst sind, müssen nicht gemeinsam an einem Ort gespeichert werden und die Reihenfolge, in der Bilddaten gespeichert werden, muss nicht der Reihenfolge folgen, in der die Zeiger in der Bilddatenverwaltungstabelle 21 gespeichert werden.
  • Als nächstes wird der Betrieb des Navigationsgerätes gemäß Ausführungsform 1 der vorliegenden Erfindung, das, wie oben erläutert konstruiert ist, unter Bezug auf ein in 3 gezeigtes Flussdiagramm durch Konzentrieren auf den Prozess eines Anzeigens einer Führungskarte erläutert, wenn das Fahrzeug einen Führungspunkt auf der zu bereisenden Route erreicht.
  • Zunächst wird der Routen-suchende Prozess (Schritt ST31) ausgeführt. Insbesondere sucht die Verarbeitungseinheit 17 nach einer optimalen Route von der gegenwärtigen Position des Fahrzeuges, die von der Positions-detektierenden Einheit 13 detektiert wird, zu dem Ziel, das von der Eingabeeinheit 16 eingegeben wird, auf der Basis der Kartendaten, die von der Karteninformations-Speichereinheit 11 gelesen werden. Daten, die die optimale Route zeigen, die durch diesen Routen-suchenden Prozess erhalten werden, werden als Daten für eine zu bereisende Route in der Speichereinheit 12 gespeichert. Nachdem der Routen-suchende Prozess beendet ist, werden Kartendaten von der Kartendaten-Speichereinheit 11a gelesen und in der Speichereinheit 12 gespeichert und ein Kartenanzeigeprozess wird dann ausgeführt. Als ein Ergebnis wird eine Karte auf der Anzeigeausgabeeinheit 15 angezeigt. Danach wird eine Routenführung gestartet, wenn sich das Fahrzeug zu bewegen beginnt.
  • Wenn die Routenführung gestartet wird, wird ein Suchen nach der Position des Fahrzeuges ausgeführt (Schritt ST32). Insbesondere erhält die Verarbeitungseinheit 17 die gegenwärtigen Positionsdaten, die die gegenwärtige Position des Fahrzeuges zeigen, von der Positions-detektierenden Einheit 13. Die Verarbeitungseinheit 17 überprüft dann, um zu erkennen, ob eine Anzeige einer Führungskarte erforderlich ist oder nicht (Schritt ST33). Genau urteilt die Verarbeitungseinheit 17, ob das Fahrzeug einen Punkt erreicht hat, bei dem das Navigationsgerät eine Führungskarte anzeigen muss, d. h. einen Führungspunkt, durch Vergleichen der Daten für eine zu bereisende Route, die in Schritt ST31 erhalten werden, mit den gegenwärtigen Positionsdaten, die in Schritt ST32 erhalten werden. Zum Beispiel kann ein Führungspunkt ein Punkt sein, der 500 m vor einem Zweigpunkt auf der zu bereisenden Route angeordnet ist. Wenn die Verarbeitungseinheit in diesem Schritt ST33 urteilt, dass keine Anzeige einer Führungskarte erforderlich ist, kehrt das Navigationsgerät zurück zu Schritt ST32 und wiederholt das oben-erläuterte Verarbeiten, bis das Fahrzeug einen Führungspunkt erreicht.
  • Wenn im Gegensatz die Verarbeitungseinheit in Schritt ST33 urteilt, dass eine Anzeige einer Führungskarte erforderlich ist, führt die Verarbeitungseinheit dann einen Prozess eines Erfassens einer gegenwärtigen Situation aus (Schritt ST34). Insbesondere erfasst die Verarbeitungseinheit 17 Situationsdaten bei der gegenwärtigen Zeit von der Situations-erfassenden Einheit 14. Die Verarbeitungseinheit erhält dann ein anzuzeigendes Bild (Schritt ST35). Insbesondere erhält die Verarbeitungseinheit 17 den Führungskartenortszeiger 20, der in den Daten eingeschlossen ist, die den Führungspunkt der Straßennetzdaten zeigen, die in den Kartendaten eingeschlossen sind, die bereits von der Speichereinheit 12 gelesen worden sind, um eine Karte anzuzeigen und erhält dann eine Bilddatenverwaltungstabelle 21 von dem Ort der Führungskartendaten-Speichereinheit 12b, der von diesem Führungskartenortszeiger 20 angezeigt wird. Die Verarbeitungseinheit vergleicht dann die Situationsdaten, die in Schritt ST34 erhalten werden, mit der Bilddatenverwaltungstabelle 21, um so einen Zeiger entsprechend den Situationsdaten von der Bilddatenverwaltungstabelle 21 auszuwählen und erhält dann Bilddaten, die von diesem ausgewählten Zeiger spezifiziert werden, aus den Bilddaten 22.
  • Schließlich führt das Navigationsgerät eine Anzeige eines Bildes aus (Schritt ST36). Insbesondere kombiniert die Verarbeitungseinheit 17 die Bilddaten (das Bild der Führungskarte), die in Schritt ST35 erhalten werden und die Bilddaten (das Bild der Karte), das auf der Basis der Kartendaten erzeugt wird, um so Anzeigedaten zu erzeugen und sendet die Anzeigedaten zu der Anzeigeausgabeeinheit 15. Dadurch werden die Karte und die Führungskarte auf dem Bildschirm der Anzeigeausgabeeinheit 15 angezeigt. In diesem Fall kann die Verarbeitungseinheit die Anzeigedaten in einer derartigen Weise erzeugen, dass zum Beispiel die Verarbeitungseinheit die Karte, die die zu bereisende Route umfasst, und eine gegenwärtige Positionsmarkierung auf einer linken Hälfte des Bildschirmes der Anzeigeausgabeeinheit 15 anzeigt und die Führungskarte auf einer rechten Hälfte des Bildschirmes anzeigt.
  • Wie zuvor erläutert, ist das Navigationsgerät gemäß Ausführungsform 1 der vorliegenden Erfindung in einer derartigen Weise konstruiert, um im Voraus Bilddaten 22 zu erzeugen, die zum Zeichnen einer Vielzahl von Führungskarten verwendet werden, die jeweils einer Vielzahl von Situationen entsprechen und zeigt eine Führungskarte gemäß einer gegenwärtigen Situation an, die von der Situations-erfassenden Einheit 14 erfasst wird, wenn die gegenwärtige Position des Fahrzeuges einen Führungspunkt erreicht, der von den Kartendaten gezeigt wird. Daher kann, verglichen mit einem herkömmlichen Navigationsgerät, das Farbpaletten mit unterschiedlichen Farbtönen erzeugt, unter den Farbtönen gemäß einer gegenwärtigen Situation umschaltet und dann eine Führungskarte anzeigt, da das Navigationsgerät gemäß Ausführungsform 1 der vorliegenden Erfindung nicht von derartigen Farbpaletten abhängt und daher keine Beschränkungen für die Anzahl von Farben annehmen muss, das Navigationsgerät eine Vollfarbführungskarte anzeigen. Da daher das Navigationsgerät eine Führungskarte bereitstellen kann, die nahe an einer Ansicht ist, die der Fahrer tatsächlich sieht, kann die Sichtbarkeit der Führungskarte verbessert werden und der Fahrer kann leicht die Reiserichtung auswählen, in die er oder sie wünscht, zu seinem oder ihrem Ziel zu reisen.
  • Ausführungsform 2
  • Ein Navigationsgerät gemäß Ausführungsform 2 der vorliegenden Erfindung wird aus dem Navigationsgerät gemäß Ausführungsform 1 in einer derartigen Weise modifiziert, dass das Navigationsgerät gemäß Ausführungsform 2 eine gegenwärtige Zeit von einer Situations-erfassenden Einheit 14 erfasst, wenn ein Fahrzeug, das mit dem Navigationsgerät ausgerüstet ist, durch einen Führungspunkt hindurch passiert und dann eine Führungskarte entsprechend eines Zeitbereich anzeigt, zu dem die erfasste, gegenwärtige Zeit gehört. Die Struktur des Navigationsgerätes gemäß dieser Ausführungsform 2 ist die gleiche wie jene des Navigationsgerätes, das in 1 gezeigt ist, außer für die Funktionen der Situations-erfassenden Einheit 14. Die Situations-erfassende Einheit 14 erfasst als Situationsdaten eine Zeitinformation, die die gegenwärtigen Zeit zeigt, aus einem nicht gezeigten Zeitregister.
  • 4 ist ein Diagramm, das die Datenstruktur von Kartendaten und Führungskartendaten zur Verwendung in dem Navigationsgerät gemäß Ausführungsform 2 der vorliegenden Erfindung zeigt. Bilddaten 22 umfassen Bilddaten für ein Bild am Morgen, ein Bild zur Tageszeit, ein Bild am Abend und ein Bild zur Nachtzeit. In einer Bilddatenverwaltungstabelle 21 werden ein Morgenbildspeicherort, der den Speicherort des Bildes am Morgen anzeigt, ein Tageszeitbildspeicherort, der den Speicherot des Bildes zur Tageszeit anzeigt, ein Abendbildspeicherort, der den Speicherort des Bildes am Abend anzeigt und ein Nachtzeitbildspeicherort gespeichert, der den Speicherort des Bildes zur Nachtzeit anzeigt.
  • Als nächstes wird ein Betrieb des Navigationsgerätes gemäß Ausführungsform 2 der vorliegenden Erfindung erklärt, das, wie oben erläutert, konstruiert ist. Der Betrieb des Navigationsgerätes gemäß Ausführungsform 2 unterscheidet sich von jenem des Navigationsgerätes gemäß Ausführungsform 1 in dem Prozess eines Erhaltens eines anzuzeigenden Bildes (Schritt ST35). Daher werden die Details des Prozesses eines Erhaltens eines anzuzeigenden Bildes hiernach unter Bezug auf ein Flussdiagramm erklärt, das in 5 gezeigt ist. Beim Durchführen des Prozesses eines Erhaltens eines anzuzeigenden Bildes überprüft das Navigationsgerät, um zu erkennen, ob die gegenwärtige Zeit zunächst am Morgen ist (Schritt ST51). Insbesondere extrahiert die Verarbeitungseinheit 17 die Zeitinformation von der Situations-erfassenden Einheit 14 und überprüft dann, um zu erkennen, ob die gegenwärtige Zeit, die durch diese extrahierte Zeitinformation gezeigt wird, zu dem Zeitbereich des Morgens gehört. Wenn in diesem Schritt ST51 geurteilt wird, dass die gegenwärtige Zeit am Morgen ist, erhält die Verarbeitungseinheit das Bild für einen Morgen (Schritt ST52). Insbesondere extrahiert die Verarbeitungseinheit 17 den Morgenbildspeicherort aus der Bilddatenverwaltungstabelle 21 und erhält die Bilddaten für das Bild für einen Morgen aus den Bilddaten 22 durch Verwenden dieses extrahierten Morgenbildspeicherortes als den Zeiger. Danach endet der Prozess eines Erhaltens des anzuzeigenden Bildes.
  • Wenn in dem oben-erläuterten Schritt ST51 geurteilt wird, dass die gegenwärtige Zeit nicht der Morgen ist, überprüft die Verarbeitungseinheit, um zu erkennen, ob die gegenwärtige Zeit in der Tageszeit liegt (Schritt ST53). Insbesondere extrahiert die Verarbeitungseinheit 17 die Zeitinformation von der Situations-erfassenden Einheit 14 und überprüft, um zu erkennen, ob die gegenwärtige Zeit, die von dieser extrahierten Zeitinformation gezeigt wird, zu dem Zeitbereich der Tageszeit gehört. Wenn es in diesem Schritt ST53 geurteilt wird, dass die gegenwärtige Zeit die Tageszeit ist, erhält die Verarbeitungseinheit das Bild für eine Tageszeit (Schritt ST54). Insbesondere extrahiert die Verarbeitungseinheit 17 den Tageszeitbildspeicherort aus der Bilddatenverwaltungstabelle 21 und erhält die Bilddaten über das Bild zur Tageszeit aus den Bilddaten 22 durch Verwenden dieses extrahierten Tageszeitbildspeicherortes als den Zeiger.
  • Danach beendet die Verarbeitungseinheit den Prozess eines Erhaltens des anzuzeigenden Bildes.
  • Wenn in dem oben-erläuterten Schritt ST53 geurteilt wird, dass die gegenwärtige Zeit nicht die Tageszeit ist, überprüft die Verarbeitungseinheit 17 dann, um zu erkennen, ob die gegenwärtige Zeit am Abend ist (Schritt ST55). Insbesondere extrahiert die Verarbeitungseinheit 17 die Zeitinformation von der Situations-erfassenden Einheit 14 und überprüft, um zu erkennen, ob die gegenwärtige Zeit, die durch diese extrahierte Zeitinformation gezeigt wird, zu dem Zeitbereich des Abends gehört. Wenn in diesem Schritt ST55 beurteilt wird, dass die gegenwärtige Zeit am Abend liegt, erhält die Verarbeitungseinheit das Bild für einen Abend (Schritt ST56). Insbesondere extrahiert die Verarbeitungseinheit 17 den Abendbildspeicherort aus der Bilddatenverwaltungstabelle 21 und erhält Bilddaten über das Bild für einen Abend aus den Bilddaten 22 durch Verwenden dieses extrahierten Abendbildspeicherortes als den Zeiger. Danach beendet die Verarbeitungseinheit den Prozess eines Erhaltens des anzuzeigenden Bildes.
  • Wenn in dem oben-erläuterten Schritt ST55 geurteilt wird, dass die gegenwärtige Zeit nicht am Abend ist, erkennt die Verarbeitungseinheit, dass die gegenwärtige Zeit in der Nachtzeit liegt und erhält das Bild für eine Nachtzeit (Schritt ST57). Insbesondere extrahiert die Verarbeitungseinheit 17 den Nachtzeitbildspeicherort aus der Bilddatenverwaltungstabelle 21 und erhält die Bilddaten für das Bild für eine Nachtzeit aus den Bilddaten 22 durch Verwenden dieses extrahierten Nachtzeitbildspeicherortes als den Zeiger. Danach beendet die Verarbeitungseinheit den Prozess eines Erhaltens des anzuzeigenden Bildes.
  • Die Urteile in den Schritten ST51, ST53 und ST55 basieren auf Bedingungen, die durch die Gleichungen (1) bis (4) gezeigt sind und zum Beispiel werden diese Bedingungen im Voraus in entweder der Verarbeitungseinheit 17 oder der Speichereinheit 12 gespeichert. Als eine Alternative können die Bedingungen, die von den Gleichungen (1) bis (4) gezeigt sind, von der Eingabeeinheit 16 eingegeben werden.
  • Zeitbereich von einer Anzeige eines Bildes für einen Morgen: T1 <= Zeit zur Zeit eines Hindurchpassierens durch einen Führungspunkt < T2... (1)
  • Zeitbereich eines Anzeigens eines Bildes für eine Tageszeit: T2 <= Zeit zur Zeit eines Hindurchpassierens durch einen Führungspunkt < T3... (2)
  • Zeitbereich eines Anzeigens eines Bildes für einen Abend: T3 <= Zeit zur Zeit eines Hindurchpassierens durch einen Führungspunkt < T4... (3)
  • Zeitbereich eines Anzeigens eines Bildes für eine Nachtzeit: T4 <= Zeit zur Zeit eines Hindurchpassierens durch einen Führungspunkt < T1... (4)
  • Wie zuvor erklärt ist das Navigationsgerät gemäß Ausführungsform 2 der vorliegenden Erfindung in einer derartigen Weise konstruiert, um eine Führungskarte gemäß dem Zeitbereich anzuzeigen, zu dem die Zeit gehört, wenn das Fahrzeug durch einen Führungspunkt hindurch passiert. Daher kann das Navigationsgerät eine Führungskarte, die auf der Anzeigeausgabeeinheit 15 angezeigt wird, einer Ansicht annähern, die der Fahrer tatsächlich sieht und ermöglicht es für den Fahrer, leicht die Reiserichtung auszuwählen, in der er oder sie es wünscht, zu seinem oder ihrem Ziel zu reisen.
  • Ausführungsform 3
  • Ein Navigationsgerät gemäß Ausführungsform 3 der vorliegenden Erfindung wird aus dem Navigationsgerät gemäß Ausführungsform 1 in einer derartigen Weise modifiziert, dass das Navigationsgerät gemäß Ausführungsform 3 den An-/Aus-Zustand einer Beleuchtung von einer Situations-erfassenden Einheit 14 erhält und eine Führungskarte gemäß diesem erfassten An-/Aus-Zustand der Beleuchtung erhält, wenn ein Fahrzeug, das mit dem Navigationsgerät ausgerüstet ist, durch einen Führungspunkt hindurch passiert. Dies Struktur des Navigationsgerätes gemäß dieser Ausführungsform 3 ist die gleiche wie des in 1 gezeigten Navigationsgerätes außer für die Funktionen der Situations-erfassenden Einheit 14. Die Situations-erfassende Einheit 14 erfasst als Situationsdaten Daten, die den An-/Aus-Zustand eines Beleuchtungsschalters (nicht gezeigt) zeigen, der eine Beleuchtungsvorrichtung für eine Nacht beleuchtet.
  • 6 ist ein Diagramm, das die Datenstruktur von Kartendaten und Führungskartendaten zur Verwendung in dem Navigationsgerät gemäß Ausführungsform 3 der vorliegenden Erfindung zeigt. Bilddaten 22 umfassen Bilddaten über ein Bild zur Tageszeit, das ein anzuzeigendes Bild zu der Zeit des Aus-Zustandes der Beleuchtung ist und Daten über ein Bild zur Nachtzeit, das ein anzuzeigendes Bild zur Zeit eines An-Zustandes der Beleuchtung ist. Ein Tageszeitbildspeicherort, der den Speicherort der Karte zur Tageszeit zeigt und ein Nachtzeitbildspeicherort, der den Speicherot der Karte zur Nachtzeit zeigt, werden in einer Bilddatenverwaltungstabelle 21 gespeichert.
  • Als nächstes wird der Betrieb des Navigationsgerätes gemäß Ausführungsform 3 der vorliegenden Erfindung erläutert, die wie oben erwähnt konstruiert ist. Der Betrieb des Navigationsgerätes gemäß dieser Ausführungsform 3 unterscheidet sich von jenem des Navigationsgerätes gemäß Ausführungsform 1 in dem Prozess eines Erhaltens eines anzuzeigenden Bildes (Schritt ST35). Daher werden die Details des Prozesses eines Erhaltens eines anzuzeigenden Bildes hiernach unter Bezug auf ein Flussdiagramm erläutert, das in 7 gezeigt ist.
  • Beim Durchführen des Prozesses eines Erhaltens eines anzeigenden Bildes überprüft das Navigationsgerät, um zu erkennen, ob zunächst die Beleuchtung eingeschaltet worden ist oder nicht (Schritt ST71). Insbesondere extrahiert die Verarbeitungseinheit 17 Daten, die den An-/Aus-Zustand des Beleuchtungsschalters zeigen, von der Situations-erfassenden Einheit 14 und überprüft, um zu erkennen, ob diese extrahierten Daten, die den An-/Aus-Zustand zeigen, einen An-Zustand anzeigen. Wenn in diesem Schritt ST71 geurteilt wird, dass die Beleuchtung eingeschaltet worden ist, erhält die Verarbeitungseinheit das Bild für eine Nachtzeit (Schritt ST72). Insbesondere extrahiert die Verarbeitungseinheit 17 den Nachtzeitbild-Speicherort aus der Bilddatenverwaltungstabelle 21 und erhält die Bilddaten über das Bild zu einer Nachtzeit aus den Bilddaten 22 durch Verwenden dieses extrahierten Nachtzeitbild-Speicherortes als den Zeiger. Danach beendet die Verarbeitungseinheit den Prozess eines Erhaltens des anzuzeigenden Bildes.
  • Wenn im Gegensatz in diesem Schritt ST71 geurteilt wird, dass die Beleuchtung noch nicht eingeschaltet worden ist, erhält die Verarbeitungseinheit das Bild für eine Tageszeit (Schritt ST73). Insbesondere extrahiert die Verarbeitungseinheit 17 den Tageszeitbild-Speicherort aus der Bilddatenverwaltungstabelle 21 und erhält die Bilddaten für das Bild für eine Tageszeit aus den Bilddaten 22 durch Verwenden dieses extrahierten Tageszeitbild-Speicherortes als den Zeiger. Danach beendet die Verarbeitungseinheit den Prozess eines Erhaltens des anzuzeigenden Bildes.
  • Wie zuvor erklärt, ist das Navigationsgerät gemäß Ausführungsform 3 der vorliegenden Erfindung in einer derartigen Weise konstruiert, um eine Führungskarte gemäß dem An-/Aus-Zustand des Beleuchtungsschalters anzuzeigen, der die Beleuchtungsvorrichtung für eine Nacht des Fahrzeuges einschaltet. Daher kann das Navigationsgerät eine Führungskarte, die auf der Anzeigeausgabeeinheit 15 angezeigt wird, einer Ansicht annähern, die der Fahrer tatsächlich sieht und ermöglicht es dem Fahrer, leicht die Reiserichtung auszuwählen, in der er oder sie es wünscht, zu seinem oder ihrem Ziel zu reisen.
  • Ausführungsform 4
  • Ein Navigationsgerät gemäß Ausführungsform 4 der vorliegenden Erfindung wird aus dem Navigationsgerät gemäß Ausführungsform 1 in einer derartigen Weise modifiziert, dass das Navigationsgerät gemäß Ausführungsform 4 eine gegenwärtige Intensität einer Beleuchtung von einer Situations-erfassenden Einheit 14 erfasst und eine Führungskarte entsprechend dieser erfassten, gegenwärtigen Intensität einer Beleuchtung anzeigt, wenn ein Fahrzeug, das mit dem Navigationsgerät ausgerüstet ist, durch einen Führungspunkt hindurch passiert. Die Struktur des Navigationsgerätes gemäß dieser Ausführungsform 4 ist die gleiche wie jene des in 1 gezeigten Navigationsgerätes außer für die Funktionen der Situations-erfassenden Einheit 14. Die Situations-erfassende Einheit 14 erfasst als Situationsdaten eine gegenwärtige Intensität einer Beleuchtung, die von einem nicht-gezeigten Beleuchtungsmesser gemessen wird.
  • Die Datenstruktur von Kartendaten und Führungskartendaten zur Verwendung in dem Navigationsgerät gemäß Ausführungsform 4 der vorliegenden Erfindung ist die gleiche wie jene aus Ausführungsform 2, wie in 4 gezeigt. In dieser Ausführungsform wird ein Schalten zwischen einem Bild für einen Morgen, einem Bild zur Tageszeit, einem Bild am Abend und einem Bild zur Nachtzeit gemäß der gegenwärtigen Intensität einer Beleuchtung ausgeführt.
  • Als nächstes wird der Betrieb des Navigationsgerätes gemäß Ausführungsform 4 der vorliegenden Erfindung erläutert, das wie oben erläutert konstruiert ist. Der Betrieb des Navigationsgerätes gemäß Ausführungsform 4 unterscheidet sich von jenem des Navigationsgerätes gemäß Ausführungsform 1 in dem Prozess eines Erhaltens eines anzuzeigenden Bildes (Schritt ST35). Daher werden die Details des Prozesses eines Erhaltens eines anzuzeigenden Bildes hiernach unter Bezug auf ein Flussdiagramm erläutert, das in 8 gezeigt ist.
  • Beim Durchführen des Prozesses eines Erhaltens eines anzuzeigenden Bildes überprüft das Navigationsgerät, um zu erkennen, ob die gegenwärtige Intensität einer Beleuchtung den Morgen anzeigt (Schritt ST81). Insbesondere extrahiert die Verarbeitungseinheit 17 die gegenwärtige Intensität einer Beleuchtung von der Situations-erfassenden Einheit 14 und überprüft, um zu erkennen, ob diese extrahierte Intensität einer Beleuchtung dem Zeitbereich des Morgens entspricht. Wenn in diesem Schritt ST81 geurteilt wird, dass die gegenwärtige Intensität einer Beleuchtung den Morgen zeigt, erhält die Verarbeitungseinheit das Bild für einen Morgen (Schritt ST82). Der Prozess dieses Schrittes ST82 ist der gleiche wie jener des Schrittes ST52, der in 5 gezeigt ist. Danach beendet die Verarbeitungseinheit den Prozess eines Erhaltens des anzuzeigenden Bildes.
  • Wenn in dem oben-erläuterten Schritt ST81 geurteilt wird, dass die gegenwärtige Intensität einer Beleuchtung nicht den Morgen zeigt, überprüft die Verarbeitungseinheit, um zu erkennen, ob die gegenwärtige Intensität einer Beleuchtung die Tageszeit zeigt (Schritt ST83). Insbesondere extrahiert die Verarbeitungseinheit 17 die gegenwärtige Intensität einer Beleuchtung von der Situations-erfassenden Einheit 14 und überprüft, um zu erkennen, ob diese extrahierte, gegenwärtige Intensität einer Beleuchtung dem Zeitbereich der Tageszeit entspricht. Wenn in diesem Schritt ST83 geurteilt wird, dass die gegenwärtige Intensität einer Beleuchtung die Tageszeit zeigt, erhält die Verarbeitungseinheit das Bild für eine Tageszeit (Schritt ST84). Der Prozess dieses Schrittes ST84 ist der gleiche wie jener des Schrittes ST54, der in 5 gezeigt ist. Danach beendet die Verarbeitungseinheit den Prozess eines Erhaltens des anzuzeigenden Bildes.
  • Wenn in dem oben-erläuterten Schritt ST83 geurteilt wird, dass die gegenwärtige Intensität einer Beleuchtung nicht die Tageszeit zeigt, überprüft die Verarbeitungseinheit, um zu erkennen, ob die gegenwärtige Intensität einer Beleuchtung den Abend zeigt (Schritt ST85). Insbesondere extrahiert die Verarbeitungseinheit 17 die gegenwärtige Intensität einer Beleuchtung von der Situations-erfassenden Einheit 14 und überprüft, um zu erkennen, ob diese extrahierte, gegenwärtige Intensität einer Beleuchtung dem Zeitbereich des Abends entspricht. Wenn in diesem Schritt ST85 geurteilt wird, dass die gegenwärtige Intensität einer Beleuchtung den Abend zeigt, erhält die Verarbeitungseinheit das Bild für einen Abend (Schritt ST86). Der Prozess dieses Schrittes ST86 ist der gleiche wie jener des Schrittes ST56, der in 5 gezeigt ist. Danach beendet die Verarbeitungseinheit den Prozess eines Erhaltens des anzuzeigenden Bildes.
  • Wenn in dem oben-erläuterten Schritt ST85 geurteilt wird, dass die gegenwärtige Intensität einer Beleuchtung nicht den Abend zeigt, erkennt die Verarbeitungseinheit, dass die gegenwärtige Intensität einer Beleuchtung die Nachtzeit zeigt und erhält das Bild für eine Nachtzeit (Schritt ST87). Der Prozess dieses Schrittes ST87 ist der gleiche wie jener des Schrittes ST57, der in 5 gezeigt ist. Danach beendet die Verarbeitungseinheit den Prozess eines Erhaltens des anzuzeigenden Bildes.
  • Die Urteile in den Schritten ST81, ST83 und ST85 basieren auf Bedingungen, die durch Gleichungen (5) bis (8) gezeigt sind und zum Beispiel werden diese Bedingungen im Voraus in entweder der Verarbeitungseinheit 17 oder der Speichereinheit 12 gespeichert. Als eine Alternative können die Bedingungen, die durch die Gleichungen (5) bis (8) gezeigt sind, von der Eingabeeinheit 16 eingegeben werden.
  • Intensität einer Beleuchtung zur Anzeige eines Bildes für einen Morgen: B1 <= Intensität einer Beleuchtung zur Zeit eines Passierens durch einen Führungspunkt < B2... (5)
  • Intensität einer Beleuchtung zur Anzeige eines Bildes für eine Tageszeit: B2 <= Intensität einer Beleuchtung zur Zeit eines Passierens durch einen Führungspunkt < B3... (6)
  • Intensität einer Beleuchtung zur Anzeige eines Bildes für einen Abend: B3 <= Intensität einer Beleuchtung zu der Zeit eines Passierens durch einen Führungspunkt < B4... (7)
  • Intensität einer Beleuchtung zur Anzeige eines Bildes für eine Nachtzeit: B4 <= Intensität einer Beleuchtung zur Zeit eines Passierens durch einen Führungspunkt < B1... (8)
  • Wie zuvor erläutert, ist das Navigationsgerät gemäß Ausführungsform 4 der vorliegenden Erfindung in einer derartigen Weise konstruiert, um eine Führungskarte gemäß der gegenwärtigen Intensität einer Beleuchtung der Umgebung anzuzeigen, d. h. der Helligkeit der Umgebung. Daher kann das Navigationsgerät eine Führungskarte, die auf der Anzeigeausgabeeinheit 15 angezeigt wird, einer Ansicht annähern, die der Fahrer tatsächlich sieht und ermöglicht es dem Fahrer, leicht die Reiserichtung auszuwählen, in der er oder sie es wünscht, zu seinem oder ihrem Ziel zu reisen.
  • Ausführungsform 5
  • Ein Navigationsgerät gemäß Ausführungsform 5 der vorliegenden Erfindung wird aus dem Navigationsgerät gemäß Ausführungsform 1 in einer derartigen Weise modifiziert, dass das Navigationsgerät gemäß Ausführungsform 5 Daten, die eine gegenwärtige Jahreszeit zeigen, von einer Situations-erfassenden Einheit 14 erhält und eine Führungskarte entsprechend der gegenwärtigen Jahreszeit passiert. Die Struktur des Navigationsgerätes gemäß dieser Ausführungsform 5 ist die gleiche wie des in 1 gezeigten Navigationsgeräts außer für die Funktionen der Situations-erfassenden Einheit 14. Die Situations-erfassende Einheit 14 erfasst als Situationsdaten Daten über ein gegenwärtiges Datum aus einem nicht-gezeigten Zeitregister.
  • 9 ist ein Diagramm, das die Datenstruktur von Kartendaten und Führungskartendaten zur Verwendung in dem Navigationsgerät gemäß Ausführungsform 5 der vorliegenden Erfindung zeigt. Bilddaten 22 umfassen Daten über ein Bild für einen Frühling, Daten über ein Bild für einen Sommer, Daten über ein Bild für einen Herbst und Daten über ein Bild für einen Winter. Ein Frühlingsbild-Speicherort, der den Speicherort des Bildes für einen Frühling anzeigt, ein Sommerbild-Speicherort, der den Speicherort des Bildes für einen Sommer anzeigt, ein Herbstbild-Speicherort, der den Speicherot des Bildes für einen Herbst anzeigt und ein Winterbild-Speicherort, der den Speicherort des Bildes für einen Winter anzeigt, sind in einer Bilddatenverwaltungstabelle 21 gespeichert. In diesem Fall kann zum Beispiel das Bild für einen Frühling das einer Ansicht sein, die Frühlingsblumen umfasst und das Bild für einen Herbst kann das einer Ansicht sein, die Herbstblätter umfasst.
  • Als nächstes wird der Betrieb des Navigationsgerätes gemäß Ausführungsform 5 der vorliegenden Erfindung erläutert, das wie oben erläutert konstruiert ist. Der Betrieb des Navigationsgerätes gemäß dieser Ausführungsform 5 unterscheidet sich von jenem des Navigationsgerätes gemäß Ausführungsform 1 in dem Prozess eines Erhaltens eines anzuzeigenden Bildes (Schritt ST3). Daher werden die Details des Prozesses eines Erhaltens eines anzuzeigenden Bildes hiernach unter Bezug auf ein Flussdiagramm erläutert, das in 10 gezeigt ist.
  • In dem Prozess eines Erhaltens eines anzuzeigenden Bildes überprüft das Navigationsgerät, um zu erkennen, ob zunächst die gegenwärtige Jahreszeit Frühling ist (Schritt ST101). Insbesondere extrahiert die Verarbeitungseinheit 17 Datumsdaten, die das gegenwärtige Datum zeigen, von der Situations-erfassenden Einheit 14 und überprüft, um zu erkennen, ob das Datum, das von diesem extrahierten Datum gezeigt wird, zum Frühling gehört. Wenn in diesem Schritt ST101 geurteilt wird, dass die gegenwärtige Jahreszeit Frühling ist, erhält die Verarbeitungseinheit das Bild für einen Frühling (Schritt ST102). Insbesondere extrahiert die Verarbeitungseinheit 17 den Frühlingsbild-Speicherort aus der Bilddatenverwaltungstabelle 21 und erhält die Bilddaten über das Bild für einen Frühling aus den Bilddaten 22 durch Verwenden dieses extrahierten Frühlingsbild-Speicherortes als den Zeiger. Danach beendet die Verarbeitungseinheit den Prozess eines Erhaltens des anzuzeigenden Bildes.
  • Wenn in dem oben-erwähnten Schritt ST101 geurteilt wird, dass die gegenwärtige Jahreszeit nicht Frühling ist, überprüft die Verarbeitungseinheit, um zu erkennen, ob die gegenwärtige Jahreszeit Sommer ist oder nicht (Schritt ST103). Insbesondere extrahiert die Verarbeitungseinheit 17 die Datumsdaten von der Situations-erfassenden Einheit 14 und überprüft, um zu erkennen, ob das Datum, das von diesen extrahierten Datumsdaten gezeigt wird, zum Sommer gehört. Wenn in diesem Schritt ST103 geurteilt wird, dass die gegenwärtige Jahreszeit Sommer ist, erhält die Verarbeitungseinheit das Bild für einen Sommer (Schritt ST104). Insbesondere extrahiert die Verarbeitungseinheit 17 den Sommerbild-Speicherort aus der Bilddatenverwaltungstabelle 21 und erhält Bilddaten über das Bild für einen Sommer aus den Bilddaten 22 durch Verwenden dieses extrahierten Sommerbild-Speicherortes als den Zeiger. Danach beendet die Verarbeitungseinheit den Prozess eines Erhaltens des anzuzeigenden Bildes.
  • Wenn in dem oben-erwähnten Schritt ST103 geurteilt wird, dass die gegenwärtige Jahreszeit nicht Sommer ist, überprüft die Verarbeitungseinheit dann, um zu erkennen, ob die gegenwärtige Jahreszeit Herbst ist oder nicht (Schritt ST105).
  • Insbesondere extrahiert die Verarbeitungseinheit 17 die Datumsdaten von der Situations-erfassenden Einheit 14 und überprüft, um zu erkennen, ob das Datum, das von diesen extrahierten Datumsdaten gezeigt wird, zum Herbst gehört. Wenn in diesem Schritt ST105 geurteilt wird, dass die gegenwärtige Jahreszeit Herbst ist, erhält die Verarbeitungseinheit das Bild für einen Herbst (Schritt ST106). Insbesondere extrahiert die Verarbeitungseinheit 17 den Herbstbild-Speicherort aus der Bilddatenverwaltungstabelle 21 und erhält die Bilddaten über das Bild für einen Herbst aus den Bilddaten 22 durch Verwenden dieses extrahierten Herbstbild-Speicherortes als den Zeiger. Danach beendet die Verarbeitungseinheit den Prozess eines Erhaltens des anzuzeigenden Bildes.
  • Wenn in dem oben-erwähnten Schritt ST105 geurteilt wird, dass die gegenwärtige Jahreszeit nicht Herbst ist, erkennt die Verarbeitungseinheit, dass die gegenwärtige Jahreszeit Winter ist, und erhält dann das Bild für einen Winter (Schritt ST107). Insbesondere extrahiert die Verarbeitungseinheit 17 den Winterbild-Speicherort aus der Bilddatenverwaltungstabelle 21 und erhält die Bilddaten über das Bild für einen Winter aus den Bilddaten 22 durch Verwenden dieses extrahierten Winterbild-Speicherortes als den Zeiger. Danach beendet die Verarbeitungseinheit den Prozess eines Erhaltens eines anzuzeigenden Bildes.
  • Die Urteile in den Schritten ST101, ST103 und ST105 basieren auf Bedingungen, die von Gleichungen (9) bis (12) gezeigt werden und zum Beispiel werden diese Bedingungen im Voraus in entweder der Verarbeitungseinheit 17 oder der Speichereinheit 12 gespeichert. Als eine Alternative können die Bedingungen, die von den Gleichungen (9) bis (12) gezeigt werden, von der Eingabeeinheit 16 eingegeben werden.
  • Zeitraum einer Anzeige eines Bildes für Frühling: D1 <= Datum zur Zeit eines Hindurchpassierens durch einen Führungspunkt < D2... (9)
  • Zeitraum einer Anzeige eines Bildes für Sommer: D2 <= Datum zur Zeit eines Hindurchpassierens durch einen Führungspunkt < D3... (10)
  • Zeitraum einer Anzeige eines Bildes für Herbst: D3 <= Datum zur Zeit eines Hindurchpassierens durch einen Führungspunkt < D4... (11)
  • Zeitraum einer Anzeige eines Bildes für Winter: D4 <= Datum zu der Zeit eines Hindurchpassierens durch einen Führungspunkt < D1... (12)
  • Darüber hinaus kann für die Gleichungen (9) bis (12) der Satz von D1 bis D4 für jede Region erzeugt werden, da die vier Zeiträume, die als die vier Jahreszeiten definiert sind, sich von Region zu Region verändern. In diesem Fall erhält die Verarbeitungseinheit Daten, die die Region zeigen, in der das Navigationsgerät verwendet wird, aus der Positions-detektierenden Einheit 13 und verwendet den Satz von D1 bis D4 entsprechend der Region auf der Basis der Daten, die die Region zeigen.
  • Wie zuvor erläutert, ist das Navigationsgerät gemäß Ausführungsform 5 der vorliegenden Erfindung in einer derartigen Weise konstruiert, um eine unterschiedliche Führungskarte gemäß der Jahreszeit zu der Zeit zu zeigen, wenn das Fahrzeug durch einen Führungspunkt hindurchpassiert. Daher kann das Navigationsgerät eine Führungskarte, die auf der Anzeigeausgabeeinheit 15 angezeigt wird, einer Ansicht annähern, die der Fahrer tatsächlich sieht und ermöglicht es dem Fahrer, leicht die Reiserichtung auszuwählen, in der er oder sie es wünscht, zu seinem oder ihrem Ziel zu reisen.
  • Industrielle Anwendbarkeit
  • Wie zuvor erwähnt ist das Navigationsgerät gemäß der vorliegenden Erfindung in einer derartigen Weise konstruiert, um eine Führungskarte gemäß der Situation anzuzeigen, die die Position eines Fahrzeuges umgibt, das mit dem Navigationsgerät ausgerüstet ist, wodurch dieses in der Lage ist, eine Hochqualitäts-Führungskarte bereitzustellen, die näher an einer Ansicht ist, die der Fahrer tatsächlich sieht und die Sichtbarkeit der Führungskarte verbessert. Daher ist das Navigationsgerät gemäß der vorliegenden Erfindung geeignet, als Fahrzeug-montiertes Navigationsgerät verwendet zu werden.
  • Zusammenfassung
  • Ein Navigationsgerät mit: einer Kartendatenspeichereinheit 11a zum Speichern von Kartendaten, in denen ein Führungskartenortzeiger in Daten eingeschlossen ist, die jeden Führungspunkt zeigen; einer Führungskartendatenspeichereinheit 11b zum Speichern für jeden Führungspunkt einer Vielzahl von Führungskartendaten, die zum Zeichnen unterschiedlicher Ansichten verwendet werden, als Führungskarten; einer Positions-detektierenden Einheit 13 zum Detektieren einer gegenwärtigen Position; einer Situations-erfassenden Einheit 14 zum Erfassen einer gegenwärtigen Situation; einer Verarbeitungseinheit 17, wenn die detektierte, gegenwärtige Position einen Führungspunkt erreicht, der durch Kartendaten gezeigt wird, die von der Kartendatenspeichereinheit erhalten werden, zum Erhalten von Führungskartendaten entsprechend der gegenwärtigen Situation, die von der Situations-erfassenden Einheit erfasst wird, von einem Ort der Führungskartendatenspeichereinheit, der von einem Führungskartenortzeiger gezeigt wird, der in Daten eingeschossen ist, die den Führungspunkt zeigen und dann Kombinieren der erhaltenen Führungskartendaten mit den Kartendaten, die von der Kartendatenspeichereinheit erhalten werden, um so Anzeigedaten zu erzeugen; und einer Anzeigeausgabeeinheit zum Anzeigen einer Karte und eine Führungskarte gemäß den Anzeigedaten, die von der Verarbeitungseinheit erzeugt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - JP 9-311623 A [0003]

Claims (5)

  1. Navigationsgerät mit: einer Kartendatenspeichereinheit zum Speichern von Kartendaten, in denen ein Führungskartenortzeiger in Daten eingeschlossen ist, die jeden Führungspunkt zeigen; einer Führungskartendatenspeichereinheit zum Speichern für jeden Führungspunkt einer Vielzahl von Führungskartendaten, die zum Zeichnen unterschiedlicher Ansichten verwendet werden, als Führungskarten; einer Positions-detektierenden Einheit zum Detektieren einer gegenwärtigen Position; einer Situations-erfassenden Einheit zum Erfassen einer gegenwärtigen Situation; einer Verarbeitungseinheit, wenn die gegenwärtige Position, die von der Positions-detektierenden Einheit detektiert wird, einen Führungspunkt erreicht, der durch Kartendaten gezeigt wird, die von der Kartendatenspeichereinheit erhalten werden, zum Erhalten von Führungskartendaten entsprechend der gegenwärtigen Situation, die von der Situations-erfassenden Einheit erfasst wird, von einem Ort der Führungskartendatenspeichereinheit, der von einem Führungskartenortzeiger gezeigt wird, der in Daten eingeschossen ist, die den Führungspunkt zeigen und dann Kombinieren der erhaltenen Führungskartendaten mit den Kartendaten, die von der Kartendatenspeichereinheit erhalten werden, um so Anzeigedaten zu erzeugen; und einer Anzeigeausgabeeinheit zum Anzeigen einer Karte und eine Führungskarte gemäß den Anzeigedaten, die von der Verarbeitungseinheit erzeugt werden.
  2. Navigationsgerät nach Anspruch 1, dadurch gekennzeichnet, dass die Führungskartendatenspeichereinheit für jeden Führungspunkt eine Vielzahl von Führungskartendaten, die zum Zeichnen von Ansichten entsprechend unterschiedlicher Zeitbereiche verwendet werden, als Führungskarten speichert, wobei die Situations-erfassende Einheit eine gegenwärtige Zeit erfasst und wenn die gegenwärtige Position, die von der Positions-detektierenden Einheit detektiert wird, einen Führungspunkt erreicht, der durch die Kartendaten gezeigt wird, die von der Kartendatenspeichereinheit erhalten werden, die Verarbeitungseinheit Führungskartendaten entsprechend einem Zeitbereich, zu dem die gegenwärtige Zeit gehört, die von der Situations-erfassenden Einheit erfasst wird, von einem Ort der Führungskartendatenspeichereinheit erhält, der von einem Führungskartenortzeiger gezeigt wird, der in den Daten eingeschlossen ist, die den Führungspunkt zeigen, und dann die erhaltenen Führungskartendaten mit den Kartendaten kombiniert, die von der Kartendatenspeichereinheit erhalten werden, um so Anzeigedaten zu erzeugen.
  3. Navigationsgerät nach Anspruch 1, dadurch gekennzeichnet, dass die Führungskartendatenspeichereinheit für jeden Führungspunkt eine Vielzahl von Führungskartendaten, die zum Zeichnen einer Tageszeitansicht und einer Nachtansicht verwendet werden, als Führungskarten speichert, wobei die Situations-erfassende Einheit einen An-/Aus-Zustand eines Beleuchtungsschalters erfasst, der eine Beleuchtungsvorrichtung einschaltet, und wenn die gegenwärtige Position, die von der Positions-detektierenden Einheit detektiert wird, einen Führungspunkt erreicht, der durch die Kartendaten gezeigt wird, die von der Kartendatenspeichereinheit erhalten werden, die Verarbeitungseinheit Führungskartendaten entsprechend dem An-/Aus-Zustand des Beleuchtungsschalters, der von der Situations-erfassenden Einheit erfasst wird, von einem Ort der Führungskartendatenspeichereinheit erhält, der von einem Führungskartenortzeiger gezeigt wird, der in den Daten eingeschlossen ist, die den Führungspunkt zeigen, und dann die erhaltenen Führungskartendaten mit den Kartendaten kombiniert, die von der Kartendatenspeichereinheit erhalten werden, um so Anzeigedaten zu erzeugen.
  4. Navigationsgerät nach Anspruch 1, dadurch gekennzeichnet, dass die Führungskartendatenspeichereinheit für jeden Führungspunkt eine Vielzahl von Führungskartendaten, die zum Zeichnen von Ansichten entsprechend unterschiedlicher Zeitbereiche verwendet werden, als Führungskarten speichert, wobei die Situations-erfassende Einheit eine gegenwärtige Intensität einer Beleuchtung erfasst, und wenn die gegenwärtige Position, die von der Positions-detektierenden Einheit detektiert wird, einen Führungspunkt erreicht, der durch die Kartendaten gezeigt wird, die von der Kartendatenspeichereinheit erhalten werden, die Verarbeitungseinheit Führungskartendaten entsprechend der gegenwärtigen Intensität einer Beleuchtung, die von der Situations-erfassenden Einheit erfasst wird, von einem Ort der Führungskartendatenspeichereinheit erhält, der von einem Führungskartenortzeiger gezeigt wird, der in den Daten eingeschlossen ist, die den Führungspunkt zeigen, und dann die erhaltenen Führungskartendaten mit den Kartendaten kombiniert, die von der Kartendatenspeichereinheit erhalten werden, um so Anzeigedaten zu erzeugen.
  5. Navigationsgerät nach Anspruch 1, dadurch gekennzeichnet, dass die Führungskartendatenspeichereinheit für jeden Führungspunkt eine Vielzahl von Führungskartendaten, die zum Zeichnen von Ansichten entsprechend unterschiedlicher Jahreszeiten verwendet werden, als Führungskarten speichert, wobei die Situations-erfassende Einheit ein gegenwärtiges Datum erfasst, und wenn die gegenwärtige Position, die von der Positions-detektierenden Einheit detektiert wird, einen Führungspunkt erreicht, der durch die Kartendaten gezeigt wird, die von der Kartendatenspeichereinheit erhalten werden, die Verarbeitungseinheit Führungskartendaten entsprechend einer Jahreszeit, zu der das gegenwärtige Datum gehört, das von der Situations-erfassenden Einheit erfasst wird, von einem Ort der Führungskartendatenspeichereinheit erhält, der von einem Führungskartenortzeiger gezeigt wird, der in den Daten eingeschlossen ist, die den Führungspunkt zeigen, und dann die erhaltenen Führungskartendaten mit den Kartendaten kombiniert, die von der Kartendatenspeichereinheit erhalten werden, um so Anzeigedaten zu erzeugen.
DE112007000809T 2006-04-26 2007-01-09 Navigationsgerät Ceased DE112007000809T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006122367 2006-04-26
JP2006-122367 2006-04-26
PCT/JP2007/050094 WO2007125658A1 (ja) 2006-04-26 2007-01-09 ナビゲーション装置

Publications (1)

Publication Number Publication Date
DE112007000809T5 true DE112007000809T5 (de) 2009-04-30

Family

ID=38655198

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112007000809T Ceased DE112007000809T5 (de) 2006-04-26 2007-01-09 Navigationsgerät

Country Status (5)

Country Link
US (1) US8918283B2 (de)
JP (2) JPWO2007125658A1 (de)
CN (1) CN101389926B (de)
DE (1) DE112007000809T5 (de)
WO (1) WO2007125658A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100852615B1 (ko) 2006-04-27 2008-08-18 팅크웨어(주) 계절 및 지형 변화에 따른 지도 표현 방법 및 시스템
US8157853B2 (en) * 2008-01-24 2012-04-17 Medtronic, Inc. Delivery systems and methods of implantation for prosthetic heart valves
US9218682B2 (en) * 2008-10-15 2015-12-22 Nokia Technologies Oy Method and apparatus for generating an image
JP5556485B2 (ja) * 2010-08-05 2014-07-23 アイシン・エィ・ダブリュ株式会社 情報提供装置、情報提供方法、及び情報提供プログラム
US9544869B2 (en) * 2013-05-16 2017-01-10 Qualcomm Incorporated Method for adapting to venue positioning capabilities

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09311623A (ja) 1996-05-21 1997-12-02 Alpine Electron Inc 画像表示方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2801798B2 (ja) 1991-07-10 1998-09-21 パイオニア株式会社 ナビゲーションシステム
JP2750079B2 (ja) 1993-12-27 1998-05-13 アイシン・エィ・ダブリュ株式会社 車両用情報表示装置
EP0660083B1 (de) * 1993-12-27 2000-09-27 Aisin Aw Co., Ltd. Fahrzeuginformationsanzeigesystem
JP3351650B2 (ja) * 1995-03-28 2002-12-03 アルパイン株式会社 ナビゲーション装置のデモンストレーション方法
JPH09113291A (ja) 1995-10-19 1997-05-02 Toshiba Corp 地図表示処理装置
JPH10148534A (ja) 1996-11-18 1998-06-02 Nissan Motor Co Ltd 車載情報表示装置
JPH10267668A (ja) 1997-03-27 1998-10-09 Fujitsu Ten Ltd ナビゲーション装置
JP3460784B2 (ja) 1997-06-10 2003-10-27 松下電器産業株式会社 経路案内システム
JPH1138872A (ja) * 1997-07-17 1999-02-12 Toyota Motor Corp 地図データ配信システム、およびそのシステムに適する地図データ取得装置
JP4219474B2 (ja) * 1999-03-31 2009-02-04 パナソニック株式会社 走行位置表示装置
JP3806541B2 (ja) 1999-04-08 2006-08-09 株式会社ケンウッド 車載用ナビゲーション装置
US20040204848A1 (en) * 2002-06-20 2004-10-14 Shigeru Matsuo Navigation apparatus for receiving delivered information
JP2003185453A (ja) * 2001-12-20 2003-07-03 Mitsubishi Electric Corp ナビゲーション装置および経路探索方法
US6937936B2 (en) * 2002-04-25 2005-08-30 Aisin Aw Co., Ltd. Navigation system
AU2003223091A1 (en) * 2002-04-30 2003-11-17 Telmap Ltd. Dynamic navigation system
CN2687613Y (zh) 2002-08-09 2005-03-23 爱信艾达株式会社 地图显示装置
JP3981040B2 (ja) * 2003-04-18 2007-09-26 アルパイン株式会社 ナビゲーション装置およびその装置における地図データのアクセス方法
US7342516B2 (en) * 2003-10-08 2008-03-11 Hitachi, Ltd. Method and apparatus for communicating map and route guidance information for vehicle navigation
JP4189297B2 (ja) * 2003-10-29 2008-12-03 株式会社ナビタイムジャパン 経路案内システム、携帯端末、サーバ、プログラム、記録媒体
JP2005214693A (ja) 2004-01-28 2005-08-11 Alpine Electronics Inc 車載用ナビゲーション装置及びその画面表示方法
JP2006154538A (ja) * 2004-11-30 2006-06-15 Aisin Aw Co Ltd 地図描画方法、地図描画システム、ナビゲーション装置及び入出力装置
US7698061B2 (en) * 2005-09-23 2010-04-13 Scenera Technologies, Llc System and method for selecting and presenting a route to a user
JP4745045B2 (ja) * 2005-12-15 2011-08-10 アルパイン株式会社 ナビゲーション装置
JP4257661B2 (ja) * 2006-06-30 2009-04-22 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置
JP4809900B2 (ja) * 2006-11-17 2011-11-09 パイオニア株式会社 ナビゲーション装置、地図表示方法及び地図表示プログラム
WO2008072412A1 (ja) * 2006-12-11 2008-06-19 Mitsubishi Electric Corporation ナビゲーション装置
JP4869356B2 (ja) * 2007-02-05 2012-02-08 三菱電機株式会社 ナビゲーション装置
CN102057251B (zh) * 2008-06-04 2012-11-14 株式会社日立制作所 导航装置、导航方法及导航系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09311623A (ja) 1996-05-21 1997-12-02 Alpine Electron Inc 画像表示方法

Also Published As

Publication number Publication date
JPWO2007125658A1 (ja) 2009-09-10
CN101389926A (zh) 2009-03-18
US8918283B2 (en) 2014-12-23
CN101389926B (zh) 2011-11-09
JP2010185880A (ja) 2010-08-26
WO2007125658A1 (ja) 2007-11-08
US20090005976A1 (en) 2009-01-01

Similar Documents

Publication Publication Date Title
DE10354850B4 (de) Kartendaten-Verarbeitungseinheit
DE69208915T2 (de) Bordnavigationsgerät
DE69731159T2 (de) Navigationssystem für Landfahrzeug mit Auswahl des Anzeigemodus
DE112004001405B4 (de) Kartenanzeigeverfahren
DE102008045406B4 (de) Bordeigene Anzeigevorrichtung und Anzeigeverfahren für eine bordeigene Anzeigevorrichtung
DE10230479A1 (de) Fahrerinformationsvorrichtung
DE112013007590T5 (de) Fahrunterstützungsbild-Erzeugungsvorrichtung, Fahrunterstützungsbild-Anzeigevorrichtung, Fahrunterstützungsbild-Anzeigesystem und Fahrunter-stützungsbild-Erzeugungsprogramm
DE10336581A1 (de) Einheit und Programm zum Darstellen einer Karte
DE102004059129A1 (de) Fahrzeug-Anzeigesystem
DE112007000809T5 (de) Navigationsgerät
DE102007038463A1 (de) Verfahren zum Betrieb eines Navigationssystems
DE112010001396T5 (de) Navigationssystem
DE10361407A1 (de) Navigationssystem und Programm und Speicherträger zur Verwendung in diesem
DE102008000424A1 (de) Elektronisches Schließsystem und tragbare Einheit
DE19956112A1 (de) Navigationssystem mit verbesserter Objektauswahl
DE112008002657T5 (de) Karteninformationsprozessor und Datenstruktur von Karteninformationen
DE102011003165A1 (de) Kartendatensatz, Navigationsvorrichtung mit Kartendatensatz und Verfahren zum Erzeugen eines Kartendatensatzes
EP3365632A1 (de) Verfahren zur veränderten bildlichen darstellung der ortslagen ausgewählter zielpunkte in karten
DE112007003266T5 (de) Navigationsvorrichtung
DE112019004319T5 (de) Verfahren und system zum erkennen eines schildes
DE102010028090A1 (de) Navigationssystem und Navigationsverfahren für Fahrzeuge
DE102018204941A1 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Bereitstellen von Inhalten zur Anzeige für einen Insassen eines Kraftfahrzeugs
EP2813999B1 (de) Augmented-Reality-System und Verfahren zum Erzeugen und Anzeigen von Augmented-Reality-Objektdarstellungen für ein Fahrzeug
DE102009045040A1 (de) Navigationssystem
DE102008043756A1 (de) Verfahren und Steuergerät zum Bereitstellen einer Verkehrszeicheninformation

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R016 Response to examination communication
R084 Declaration of willingness to licence
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final