DE112008003481T5 - Navigationsgerät - Google Patents

Navigationsgerät Download PDF

Info

Publication number
DE112008003481T5
DE112008003481T5 DE112008003481T DE112008003481T DE112008003481T5 DE 112008003481 T5 DE112008003481 T5 DE 112008003481T5 DE 112008003481 T DE112008003481 T DE 112008003481T DE 112008003481 T DE112008003481 T DE 112008003481T DE 112008003481 T5 DE112008003481 T5 DE 112008003481T5
Authority
DE
Germany
Prior art keywords
route
vehicle
unit
arrow
video image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112008003481T
Other languages
English (en)
Inventor
Yoshihisa Yamaguchi
Takashi Nakagawa
Toyoaki Kitano
Hideto Miyazaki
Tsutomu Matsubara
Katsuya Kawai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112008003481T5 publication Critical patent/DE112008003481T5/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096855Systems involving transmission of navigation instructions to the vehicle where the output is provided in a suitable form to the driver
    • G08G1/096861Systems involving transmission of navigation instructions to the vehicle where the output is provided in a suitable form to the driver where the immediate route instructions are output to the driver, e.g. arrow signs for next turn
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/006Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
    • G09B29/007Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes using computer methods
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Automation & Control Theory (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Ecology (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

Ein Navigationsgerät, umfassend:
eine Kartendatenbank, die Kartendaten hält;
eine Orts- und Richtungs-Messeinheit, die einen momentanen Ort und Richtung eines Fahrzeugs misst;
eine Routenberechnungseinheit, die auf Grundlage von Kartendaten, die gelesen werden von der Kartendatenbank, eine Route berechnet von dem momentanen Ort, der gemessen wird durch die Orts- und Richtungs-Messeinheit, zu einem Ziel;
eine Kamera, die Videobilder vor dem Fahrzeug aufnimmt;
eine Videobild-Erfassungseinheit, die die Videobilder vor dem Fahrzeug erfasst, die aufgenommen werden durch die Kamera;
eine Wegbreiten-Erfassungseinheit, die auf Grundlage von Wegbreitendaten, enthalten in den Kartendaten, gelesen von der Kartendatenbank, die Breite eines Wegsegments berechnet, das als letztes in eine Kreuzung eintritt, zu der das Fahrzeug zu führen ist, von Wegsegmenten, die die Route bilden, die berechnet wird durch die Routenberechnungseinheit;
eine Videobild-Zusammensetz-Verarbeitungseinheit, die die Länge eines Teils begrenzt, das eine Abbiegerichtung eines Routenführungspfeils begrenzt, auf die Wegbreite, die berechnet wird durch die...

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein Navigationsgerät, das einen Benutzer an ein Ziel führt, und insbesondere eine Technologie zum Anzeigen von Führungsinformation auf einem Live-Aktions- oder echtem Video, das durch eine Kamera aufgenommen wird.
  • STAND DER TECHNIK
  • Bekannte Technologien in herkömmlichen Autonavigationsgeräten enthalten beispielsweise Routenführungstechnologien, in denen eine fahrzeugeigene Kamera Bilder vor einem Fahrzeug während eines Fahrens aufnimmt, und Führungsinformation in der Form von CG (Computergrafik) wird angezeigt durch Überlagern eines Videos, das erhalten wird durch die obige Bildaufnahme (beispielsweise Patentdokument 1).
  • Als ähnliche Technologie offenbart Patentdokument 2 ein Autonavigationsgerät, in dem Navigationsinformationselemente angezeigt werden, so dass sie sofort intuitiv erfasst werden. In diesem Autonavigationsgerät nimmt eine an der Nase oder ähnlichem eines Fahrzeugs angebrachte Bildgebungskamera den Hintergrund in der Fahrtrichtung auf solch eine Art und Weise auf, dass ein Kartenbild und ein Live-Aktions-Video bzw. ein Video einer momentanen Aktion mit Bezug auf eine Hintergrundanzeige von Navigationsinformationselementen durch einen Auswähler ausgewählt werden können, und die Navigationsinformationselemente werden angezeigt auf einem Anzeigegerät durch Überlagern auf dem Hintergrundbild mittels einer Bildzusammensetzeinheit. Patentdokument 2 zeigt, dass neben einem Live-Aktions-Video auch eine Karte mit einem unterschiedlichen Anzeigemodus oder Skala simultan angezeigt werden kann und offenbart eine Technik zum Anzeigen herkömmlicher Karten nebeneinander.
    • Patentdokument 1: Japanisches Patent mit der Nummer 2915508
    • Patentdokument 2: Japanische Patentanmeldungsveröffentlichung mit der Nummer 11/108684 ( JP 11-108684 A )
  • Zwischenzeitlich ist es erwünscht, da der zu. führende Weg zwischen Gebäuden und ähnlichem entlang des Wegs geht, dass Führungsinformation, die zu überlagern ist auf dem Video, richtig überlagert wird auf den Gebäuden auf dem Video. In den obigen herkömmlichen Technologien wird jedoch Führungsinformation einfach auf einem Video überlagert, und deshalb wird die Führungsinformation näher im Vordergrund angezeigt als (oder vor) all die Elemente auf dem Video (Gebäude, Schilder und ähnliches). Folglich gibt es eine Möglichkeit für einen Benutzer, eine Kreuzung zu erfassen, in die fälschlicher Weise eingebogen wird.
  • Die vorliegende Erfindung wurde durchgeführt, um das zuvor erwähnte Problem zu lösen, und es ist eine Aufgabe der vorliegenden Erfindung, ein Navigationsgerät bereitzustellen, das in der Lage ist, eine passende Führungsinformation auf einem realen bzw. wirklichen Video anzuzeigen.
  • OFFENBARUNG DER ERFINDUNG
  • Um das obige Problem zu lösen, umfasst ein Navigationsgerät gemäß der vorliegenden Erfindung eine Kartendatenbank, die Kartendaten hält; eine Orts- und Richtungs-Messeinheit, die einen momentanen Ort und eine Richtung eines Fahrzeugs misst; eine Routenberechnungseinheit, die auf Grundlage von aus der Kartendatenbank gelesenen Kartendaten eine Route aus dem momentanen Ort berechnet, der gemessen wird durch die Orts- und Richtungs-Messeinheit, zu einem Ziel; eine Kamera, die Videobilder vor dem Fahrzeug aufnimmt; eine Videobild-Erfassungseinheit, die die Videobilder vor dem Fahrzeug erfasst, die aufgenommen werden durch die Kamera; eine Wegbreiten-Erfassungseinheit, die auf Grundlage von Wegbreitendaten, enthalten in den Kartendaten, gelesen von der Kartendatenbank, die Breite eines Wegsegments berechnet, das als letztes in eine Kreuzung eintritt, zu der das Fahrzeug zu führen ist, von Wegsegmenten, die die durch die Routenberechnungseinheit berechnete Route bilden; eine Videobild-Zusammensetz-Verarbeitungseinheit, die die Länge eines Teils begrenzt, die eine Abbiegerichtung eines Routenführungspfeils kennzeichnet, auf die Wegbreite, die berechnet wird durch die Wegbreiten-Erfassungseinheit, und die den Pfeil auf die Videobilder setzt, die erfasst werden durch die Videobild-Erfassungseinheit in einer überlagernden Art und Weise; und eine Anzeigeeinheit, die das Videobild anzeigt, das zusammengesetzt wird durch die Videobild-Zusammensetz-Verarbeitungseinheit.
  • Gemäß dem Navigationsgerät gemäß der vorliegenden Erfindung wird die Länge eines Teils eines Routenführungspfeils, der eine Abbiegerichtung kennzeichnet, eingestellt gemäß der Wegbreite während des Anzeigens eines Routenführungspfeils, eingeblendet oder überlagert auf einem Video der Umgebungen eines Fahrzeugs, das erhalten wird eine Kamera-7-Aufnahme, auf solch eine Art und Weise, dass der Routenführungspfeil nicht überlagert wird auf Gebäuden, die näher im Vordergrund anzuzeigen sind als der Routenführungspfeil. Dies erlaubt es, das Problem eines Anzeigens einer fehlerhaften Überlagerungsbeziehung zwischen einem Routenführungspfeil und Gebäuden entlang des Wegs zu vermeiden, und erlaubt auch ein passendes Anzeigen von Führungsinformation auf einem Life-Aktions-Video bzw. ein Video einer momentanen Aktion bzw. Vorgangs.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein Blockdiagramm, das die Konfigurierung eines Autonavigationsgeräts gemäß Ausführungsform 1 der vorliegenden Erfindung zeigt;
  • 2 zeigt ein Diagramm zum Darstellen eines Wegsegments, das verwendet wird in der Berechnung einer Wegbreite in dem Autonavigationsgerät gemäß Ausführungsform 1 der vorliegenden Erfindung;
  • 3 zeigt ein Flussdiagramm, das den Betrieb des Autonavigationsgeräts gemäß Ausführungsform 1 der vorliegenden Erfindung darstellt unter Fokussierung auf einen Anzeigeprozess einer Fahrzeugsumgebungsinformation;
  • 4 zeigt ein Flussdiagramm, das die Einzelheiten eines Inhalts-zusammengesetzten Videoerzeugungsprozesses darstellt, der ausgeführt wird in dem Fahrzeugsumgebungsinformations-Anzeigeprozess des Autonavigationsgerät gemäß Ausführungsform 1 der vorliegenden Erfindung;
  • 5 zeigt ein Flussdiagramm, das die Einzelheiten eines Inhaltserzeugungsprozesses darstellt, der ausgeführt wird in dem Inhalts-zusammengesetzten Videoerzeugungsprozess des Autonavigationsgeräts gemäß Ausführungsform 1 der vorliegenden Erfindung;
  • 6 zeigt ein Flussdiagramm, das die Details eines Inhaltserzeugungsprozesses einer Pfeilinformation darstellt, der ausgeführt wird in dem Inhaltserzeugungsprozess des Autonavigationsgeräts gemäß Ausführungsform 1 der vorliegenden Erfindung;
  • 7 zeigt ein Diagramm zum Darstellen eines Wegbereichs, der berechnet wird in dem Autonavigationsgerät gemäß Ausführungsform 1 der vorliegenden Erfindung;
  • 8 zeigt ein Diagramm, das ein Beispiel von Videos zeigt, die angezeigt werden auf dem Bildschirm einer Anzeigeeinheit in dem Autonavigationsgerät gemäß Ausführungsform 1 der vorliegenden Erfindung;
  • 9 zeigt ein Diagramm zum Darstellen von Links-Rechts-Abbiegeführungs-Pfeilinformation, die verwendet wird in einem Autonavigationsgerät gemäß Ausführungsform 2 der vorliegenden Erfindung;
  • 10 zeigt ein Diagramm, das ein Beispiel von Videos zeigt, die angezeigt werden auf dem Bildschirm einer Anzeigeeinheit in dem Autonavigationsgerät gemäß Ausführungsform 2 der vorliegenden Erfindung;
  • 11 zeigt ein Blockdiagramm, das die Konfigurierung eines Autonavigationsgeräts gemäß Ausführungsform 4 der vorliegenden Erfindung zeigt;
  • 12 zeigt ein Diagramm zum Darstellen einer Umgehungseinrichtung bei einer Kreuzung, an die ein Fahrzeug geführt wird, die verwendet wird in dem Autonavigationsgerät gemäß Ausführungsform 4 der vorliegenden Erfindung;
  • 13 zeigt ein Flussdiagramm, das die Einzelheiten eines Inhaltserzeugungsprozesses von Zusatzinformation darstellt, der ausgeführt wird in dem Inhaltserzeugungsprozess des Autonavigationsgeräts gemäß Ausführungsform 4 der vorliegenden Erfindung;
  • 14 zeigt ein Diagramm zum Darstellen eines blockierenden Gebäudes, das erfasst wird durch das Autonavigationsgerät gemäß Ausführungsform 4 der vorliegenden Erfindung;
  • 15 zeigt ein Flussdiagramm, das die Einzelheiten eines Videozusammensetzprozesses darstellt, der ausgeführt in dem Inhalts-zusammengesetzten Videoerzeugungsprozess des Autonavigationsgeräts gemäß Ausführungsform 4 der vorliegenden Erfindung;
  • 16 zeigt ein Diagramm, das Videos sequentiell erzeugt in dem Inhaltserzeugungsprozess zeigt, der ausgeführt wird in dem Inhaltszusammengesetzten Videoerzeugungsprozess des Autonavigationsgeräts gemäß Ausführungsform 4 der vorliegenden Erfindung;
  • 17 zeigt ein Diagramm, das ein Beispiel von Videos zeigt, die angezeigt werden auf dem Bildschirm einer Anzeigeeinheit in dem Autonavigationsgerät gemäß Ausführungsform 4 der vorliegenden Erfindung;
  • 18 zeigt ein Diagramm, das ein anderes Beispiel eines Videos zeigt, das angezeigt wird auf dem Bildschirm einer Anzeigeeinheit in dem Autonavigationsgerät gemäß Ausführungsform 4 der vorliegenden Erfindung; und
  • 19 zeigt ein Diagramm, das ein Beispiel eines Videos zeigt, das angezeigt wird auf dem Bildschirm einer Anzeigeeinheit in einem Autonavigationsgerät gemäß Ausführungsform 5 der vorliegenden Erfindung.
  • BESTER MODUS ZUM AUSFÜHREN DER ERFINDUNG
  • Die vorliegende Erfindung wird im Einzelnen unten erklärt auf Grundlage bevorzugter Ausführungsformen zum Realisieren der Erfindung mit Bezug auf begleitende Zeichnungen.
  • Ausführungsform 1
  • 1 zeigt ein Blockdiagramm, das die Konfigurierung eines Navigationsgeräts gemäß Ausführungsform 1 der vorliegenden Erfindung zeigt, insbesondere ein Autonavigationsgerät, das in einem Fahrzeug verwendet wird. Das Autonavigationsgerät enthält einen GPS-(globales Positionierungssystem)-Empfänger 1, einen Fahrzeuggeschwindigkeitssensor 2, einen Rotationssensor (Kreisel) 3, eine Orts- und Richtungs-Messeinheit 4, eine Kartendatenbank 5, eine Eingabebetriebseinheit 6, eine Kamera 7, eine Videobild-Erfassungseinheit 8, eine Navigationssteuereinheit 9 und eine Anzeigeeinheit 10.
  • Der GPS-Empfänger 1 misst einen Fahrzeugort durch Empfangen von Radiowellen von einer Vielzahl von Satelliten. Der Fahrzeugort, der gemessen wird durch den GPS-Empfänger 1, wird gesendet als Fahrzeugortssignal an die Orts- und Richtungs-Messeinheit 4. Der Fahrzeuggeschwindigkeitssensor 2 misst sequentiell die Geschwindigkeit des Fahrzeugs. Der Fahrzeuggeschwindigkeitssensor 2 ist im Allgemeinen zusammengesetzt aus einem Sensor, der Radumdrehungen misst. Die Geschwindigkeit des Fahrzeugs, die gemessen wird durch den Fahrzeuggeschwindigkeitssensor 2, wird als Fahrzeuggeschwindigkeitssignal an die Orts- und Richtungs-Messeinheit 4 gesendet. Der Rotationssensor 3 misst sequentiell die Fahrtrichtung des Fahrzeugs. Die Fahrtrichtung (hier im Folgenden einfach als ”Richtung” bezeichnet) des Fahrzeugs, wie durch den Rotationssensor 3 gemessen, wird gesendet als ein Richtungssignal an die Orts- und Richtungs-Messeinheit 4.
  • Die Orts- und Richtungs-Messeinheit 4 misst den momentanen Ort und Richtung des Fahrzeugs auf Grundlage des Fahrzeugortssignals, gesendet von dem GPS-Empfänger 1. In dem Fall, in dem der Raum über dem Fahrzeug blokiert ist durch einen Tunnel, umgebende Gebäude oder ähnliches, ist die Anzahl der Satelliten, die Radiowellen empfangen können, Null oder verringert, um den Empfangsstatus zu beeinträchtigen. Es kann daher vorkommen, dass der momentane Ort und Richtung nicht gemessen werden können auf Grundlage des Fahrzeugortssignals des GPS-Empfänger 1 alleine, oder selbst wenn die Messung möglich ist, kann die Genauigkeit verschlechtert werden. Deshalb wird der Fahrzeugort gemessen, um eine Verarbeitung zum Kompensieren von Messungen auszuführen, die durchgeführt werden den GPS-Empfänger 1, durch Koppelnavigation bzw. Dead Reckoning (autonome Navigation) unter Verwendung des Fahrzeuggeschwindigkeitssignals von dem Fahrzeuggeschwindigkeitssensor 2 und dem Richtungssignal von dem Rotationssensor 3.
  • Der momentane Ort und Richtung des Fahrzeugs, wie durch die Orts- und Richtungs-Messeinheit 4 gemessen, enthält verschiedene Fehler, die beispielsweise auftreten von einer beeinträchtigten Messgenauigkeit aufgrund einer Verschlechterung des Empfangsstatus in dem GPS-Empfänger 1 stammen, wie oben bemerkt, oder Fahrzeuggeschwindigkeitsfehler aufgrund von Änderungen im Durchmesser der Räder, aufgrund von Abnutzung derselben und/oder Temperaturänderungen oder Fehler, die auf die Präzision der Sensoren selbst zurückzuführen sind. Die Orts- und Richtungs-Messeinheit 4 korrigiert deshalb den momentanen Ort und Richtung des Fahrzeugs, die erhalten werden durch Messungen, und enthalten Fehler durch Kartenabgleichen unter Verwendung von Wegdaten, die erfasst werden von den Kartendaten, die gelesen werden aus der Kartendatenbank 5. Der korrigierte momentane Ort und Richtung des Fahrzeugs werden als Fahrzeugs-Orts- und Richtungsdaten an die Navigationssteuereinheit 9 gesendet.
  • Die Kartendatenbank 5 hält Kartendaten, die Wegdaten enthalten, wie zum Beispiel Wegort, Wegart (Autobahn, Mautstraße, gewöhnliche Straße, enge Straße und ähnliches), Beschränkungen bezüglich des Wegs (Geschwindigkeitsbeschränkungen, Einbahnstraßenverkehr und ähnliches), oder Anzahl der Spuren in der Nähe einer Kreuzung, sowie Daten hinsichtlich Einrichtungen um den Weg herum. Wege werden repräsentiert als Vielzahl von Knoten und geradlinigen Verbindungen, die Knoten verbinden. Ein Wegort wird ausgedrückt durch Aufnehmen des Längengrads und Breitengrads des Knotens. Beispielsweise kennzeichnen drei oder mehr Verbindungen, verbunden in einem gegebenen Knoten, eine Vielzahl von Wegen, die bei dem Ort des Knotens überkreuzen. Die in der Kartendatenbank 5 gehaltenen Kartendaten werden gelesen durch die Orts- und Richtungs-Messeinheit 4, wie oben beschrieben, und auch durch die Navigationssteuereinheit 9.
  • Die Eingabebetriebseinheit 6 ist mindestens zusammengesetzt aus einem von dem Folgenden einer Fernsteuerung, einem berührungsempfindlichen Feld, einem Spracherkennungsgerät, und so weiter, und wird betrieben durch den Benutzer betrieben, das heißt, dem Fahrer oder einem Passagier, zum Eingeben eines Ziels oder zum Auswählen von Information, die zugeführt wird durch das Autonavigationsgerät. Die Daten, die erzeugt werden durch die Betriebe bzw. Operationen in der Eingabebetriebseinheit 6, werden als Betriebsdaten an die Navigationssteuereinheit 9 gesendet.
  • Die Kamera 7 ist zusammengesetzt aus mindestens einem von einer Kamera, die Bilder vor dem Fahrzeug aufnimmt, einer Kamera, die in der Lage ist, Bilder simultan über einen großen Bereich von Richtungen enthaltend die gesamten Umgebungen, aufzunehmen oder ähnlichem. Die Kamera 7 nimmt Bilder der Nachbarschaft des Fahrzeugs enthaltend die Fahrtrichtung des Fahrzeugs auf. Die Videobilder, die erhalten werden durch Aufnehmen von Bildern durch die Kamera 7, werden gesendet an die Videobild-Erfassungseinheit 8.
  • Die Videobild-Erfassungseinheit 8 wandelt die Videosignale um, die gesendet werden von der Kamera 7, in digitale Signale, die von einem Computer verarbeitet werden können. Die digitalen Signale, die erhalten werden durch Umwandlung durch die Videobild-Erfassungseinheit 8, werden gesendet als Videodaten an die Navigationssteuereinheit 9.
  • Die Navigationssteuereinheit 9 führt Datenverarbeitungen aus, um eine Funktion bereitzustellen zum Darstellen einer Karte der Umgebungen des Fahrzeugs, in dem das Autonavigationsgerät bereitgestellt ist, wobei die Funktion ein Berechnen einer Führungsroute zu einem Ziel enthalten kann, das eingegeben wird von der Eingabebetriebseinheit 6, sowie ein Erzeugen von Führungsinformation gemäß der Führungsroute und dem momentanen Ort und Richtung des Fahrzeugs, oder Erzeugen einer Führungskarte, die eine Karte der Umgebungen des Fahrzeugorts und eine Fahrzeugmarkierung kombinieren, die den Fahrzeugort kennzeichnet; und eine Funktion zum Führen des Fahrzeugs and das Ziel. Zusätzlich führt die Navigationssteuereinheit 9 Datenverarbeitungen zum Suchen nach Information, wie zum Beispiel Verkehrsinformation, Besichtigungsorte, Restaurants, Läden und ähnlichem mit Bezug auf das Ziel oder der Führungsroute aus, und zum Suchen nach Einrichtungen, die die von der Eingabebetriebseinheit 6 eingegebenen Bedingungen treffen. Die Navigationssteuereinheit 9 wird im Detail unten erklärt. Die Anzeigedaten, die erhalten werden durch die Verarbeitungen in der Navigationssteuereinheit 9, werden gesendet an die Anzeigeeinheit 10.
  • Die Anzeigeeinheit 10 ist beispielsweise zusammengesetzt aus einer LCD (Flüssigkristallanzeige) und zeigt eine Karte und/oder Live-Aktions-Videos auf dem Bildschirm an auf Grundlage der Anzeigedaten, die gesendet werden von der Navigationssteuereinheit 9.
  • Als Nächstes werden die Einzelheiten der Navigationssteuereinheit 9 beschrieben. Die Navigationssteuereinheit 9 enthält eine Zieleinstelleinheit 11, eine Routenberechnungseinheit 12, eine Führungsanzeige-Erzeugungseinheit 13, eine Videobild-Zusammensetz-Verarbeitungseinheit 14, eine Anzeigeentscheidungseinheit 15 und eine wegbreiten-Erfassungseinheit 16. Zum Vermeiden, dass die Figur überladen wird, werden Teile der Verbindungen zwischen den verschiedenen zusammensetzenden Elementen oben in 1 weggelassen. Die weggelassenen Teile werden erklärt wie sie auftreten.
  • Die Zieleinstelleinheit 11 stellt ein Ziel gemäß der Betriebsdaten ein, die gesendet werden von der Eingabebetriebseinheit 6. Das Ziel, das eingestellt wird durch die Zieleinstelleinheit 11, wird gesendet als Zieldaten an die Routenberechnungseinheit 12. Die Routenberechnungseinheit 12 berechnet eine Führungsroute zu dem Ziel auf Grundlage der Zieldaten, die gesendet werden von der Zieleinstelleinheit 11, Fahrzeugorts- und Richtungsdaten, die gesendet werden von der Orts- und Richtungs-Messeinheit 4, und Kartendaten, die gelesen werden von der Kartendatenbank 5. Die Führungsroute, die berechnet wird durch die Routenberechnungseinheit 12, wird gesendet als Führungsroutendaten an die Anzeigeentscheidungseinheit 15.
  • In Ansprechen auf eine Instruktion bzw. Befehl von der Anzeigeentscheidungseinheit 15 erzeugt die Führungsanzeige-Erzeugungseinheit 13 eine Führungskarte (hier im Folgenden bezeichnet als ”Grafik-Führungskarte”) auf Grundlage einer Grafik, die in herkömmlichen Autonavigationsgeräten verwendet wird. Die Grafik-Führungskarte, die erzeugt wird durch die Führungsanzeige-Erzeugungseinheit 13, enthält verschiedene Führungskarten, die nicht ein Live-Aktions-Videobild verwenden, beispielsweise planimetrische Karten, Kreuzungsnahaufnahmekarten, schematische Autobahnkarten und ähnliches. Die Grafik-Führungskarte ist nicht begrenzt auf eine planimetrische Karte und kann eine Führungskarte sein, die eine dreidimensionale CG verwendet, oder eine Führungskarte, die eine Vogelperspektivenansicht einer planimetrischen Karte ist. Techniken zum Erzeugen einer Grafik-Führungskarte sind gut bekannt, und eine detaillierte Erklärung derselben wird weggelassen. Die Grafik-Führungskarte, die erzeugt wird durch die Führungsanzeige-Erzeugungseinheit 13, wird gesendet als Grafik-Führungskartendaten an die Anzeigeentscheidungseinheit 15.
  • In Ansprechen auf eine Instruktion durch die Anzeigeentscheidungseinheit 15 erzeugt die Videobild-Zusammensetz-Verarbeitungseinheit 14 eine Führungskarte, die ein Live-Aktions-Video (hier im Folgenden bezeichnet als ”Live-Aktions-Führungskarte”) verwendet. Beispielsweise erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 von den von der Kartendatenbank 5 gelesenen Kartendaten Information hinsichtlich naher Objekte um das Fahrzeug, wie zum Beispiel Wegnetze, Orientierungshilfen bzw. Sehenswürdigkeiten und Kreuzungen, und erzeugt eine Live-Aktions-Führungskarte, gebildet aus einem Inhaltszusammengesetzten Video, in dem eine Grafik überlagert wird zum Beschreibender Form, Inhalt und ähnliches von nahen Objekten, sowie Zeichenfolgen, Bilder und ähnliches (hier im Folgenden bezeichnet als ”Inhalt”), um die nahen Objekte, die vorliegen in einem Live-Aktions-Video, das die Videodaten repräsentiert, die gesendet werden von der Videobild-Erfassungseinheit 8.
  • Wie oben beschrieben, instruiert die Anzeigeentscheidungseinheit 15 die Führungsanzeige-Erzeugungseinheit 13, eine Grafik-Führungskarte zu erzeugen, und instruiert auch die Videobild-Zusammensetz-Verarbeitungseinheit 14, Live-Aktions-Führungskarten zu erzeugen. Die Anzeigeentscheidungseinheit 15 entscheidet über den auf dem Bildschirm der Anzeigeeinheit 10 anzuzeigenden Inhalt auf Grundlage von Fahrzeugorts- und Richtungsdaten, die gesendet werden von der Orts- und Richtungs-Messeinheit 4, Kartendaten der Fahrzeugumgebungen, die gelesen werden von der Kartendatenbank 5, Betriebsdaten, die gesendet werden von der Eingabebetriebseinheit 6, Grafik-Führungs-Kartendaten, die gesendet werden von der Führungsanzeige-Erzeugungseinheit 13, und Live-Aktions-Führungskartendaten, die gesendet werden von der Videobild-Zusammensetz-Verarbeitungseinheit 14. Die Daten, die dem Anzeigeinhalt, bestimmt durch die Anzeigeentscheidungseinheit 15, entsprechen, werden gesendet als Anzeigedaten an die Anzeigeeinheit 10.
  • Auf solch eine Art und Weise zeigt die Anzeigeeinheit 10 beispielsweise eine Nahaufnahmensicht einer Kreuzung an, wenn das Fahrzeug sich einer Kreuzung annähert, oder zeigt ein Menu an, wenn eine Menu-Taste der Eingabebetriebseinheit 6 gedrückt wird, oder zeigt eine Live-Aktions-Führungskarte an unter Verwendung eines Live-Aktions-Videos, wenn ein Live-Aktions-Anzeigemodus eingestellt ist durch die Eingabebetriebseinheit 6. Schalten zu einer Live-Aktions-Führungskarte, die ein Live-Aktions-Video verwendet, kann konfiguriert werden, um auch dann stattzufinden, wenn der Abstand zu einer Kreuzung, bei der das Fahrzeug abbiegen soll, gleich ist zu oder kleiner als ein vorgegebener Wert zusätzlich zu wenn ein Live-Aktions-Anzeigemodus eingestellt wird.
  • Die Führungskarte, die angezeigt wird auf dem Bildschirm der Anzeigeeinheit 10, kann auch derart konfiguriert werden, dass sie simultan in einem Bildschirm eine Live-Aktions-Führungskarte und eine Grafik-Führungskarte derart anzeigt, dass die Grafik-Führungskarte (beispielsweise eine planimetrische Karte), erzeugt durch die Führungsanzeige-Erzeugungseinheit 13, angeordnet ist auf der linken Seite des Bildschirms, und eine Live-Aktions-Führungskarte (beispielsweise eine Nahansicht der Kreuzung unter Verwendung eines Live-Aktions-Videos), erzeugt durch die Videobild-Zusammensetz-Verarbeitungseinheit 14, angeordnet ist auf der rechten Seite des Bildschirms.
  • In Ansprechen auf eine Instruktion von der Videobild-Zusammensetz-Verarbeitungseinheit 14 erfasst die Wegbreiten-Erfassungseinheit 16 die Breite eines Wegsegments, das als letztes in eine Kreuzung eintritt, in die das Fahrzeug geführt wird (bezeichnet durch eine dicke Linie in 2) von den Wegsegmenten, die die Route von dem Fahrzeugort zu der Kreuzung bilden, an die das Fahrzeug geführt wird, wie in 2 dargestellt. Insbesondere erfasst die Wegbreiten-Erfassungseinheit 16 Führungsroutendaten von der Routenberechnungseinheit 12 über die Videobild-Zusammensetz-Verarbeitungseinheit 14; entscheidet über das Wegsegment, das als letztes in eine Kreuzung eintritt, in die das Fahrzeug geführt wird, durch Vergleichen der erfassten Führungsroutendaten mit Kartendaten, die gelesen werden von der Kartendatenbank 5, erfasst Wegdaten, die den bestimmten Weg repräsentieren von Kartendaten, die gelesen werden von der Kartendatenbank 5,; und erfasst Wegbreitendaten, enthalten in den erfassten Wegdaten. Die Wegbreitendaten, die erfasst werden durch die Wegbreiten-Erfassungseinheit 16, werden gesendet an die Videobild-Zusammensetz-Verarbeitungseinheit 14.
  • Als Nächstes wird mit Bezug auf das in 3 dargestellte Flussdiagramm der Betrieb des Autonavigationsgeräts gemäß Ausführungsform 1 der vorliegenden Erfindung mit der obigen Konfigurierung beschrieben mit Fokussierung auf einen Fahrzeug- Umgebungsinformations-Anzeigeprozess. In dem Fahrzeug-Umgebungsinformations-Anzeigeprozess wird eine Fahrzeugumgebungskarte erzeugt, als Grafikführungskarte, die aus einem Überlagern einer Grafik (Fahrzeugmarkierung) resultiert, die den Fahrzeugort auf einer Karte der Umgebungen des Fahrzeugs bezeichnet, und es wird auch ein Inhalts-zusammengesetztes Video (was unten im Detail beschrieben wird) als Live-Aktions-Führungskarte erzeugt gemäß der Bewegung des Fahrzeugs, so dass die Fahrzeugumgebungskarte um das Inhalts-zusammengesetzte Video kombiniert werden, und das Ergebnis angezeigt wird auf der Anzeigeeinheit 10.
  • In dem Fahrzeug-Umgebungsinformations-Anzeigeprozess wird zuerst überprüft, ob eine Fahrzeug-Umgebungsinformations-Anzeige vorbei ist oder nicht (Schritt ST11). Speziell bestimmt die Navigationssteuereinheit 9, ob die Eingabebetriebseinheit 6 ein Ende der Fahrzeug-Umgebungsinformations-Anzeige instruiert hat. Der Fahrzeug-Umgebungsinformations-Anzeigeprozess wird beendet, wenn im Schritt ST11 bestimmt wird, dass die Fahrzeug-Umgebungsinformations-Anzeige vorbei ist. Andererseits wird, wenn in Schritt ST11 bestimmt wird, dass die Fahrzeug-Umgebungsinformations-Anzeige nicht vorbei ist, der Fahrzeugort und Richtung dann erfasst (Schritt ST12). Speziell erfasst die Navigationssteuereinheit 9 Fahrzeugorts- und Richtungsdaten von der Orts- und Richtungs-Messeinheit 4.
  • Dann wird eine Fahrzeugumgebungskarte erzeugt (Schritt ST13). Speziell sucht die Führungsanzeige-Erzeugungseinheit 13 der Navigationssteuereinheit 9 in der Kartendatenbank 5 nach Kartendaten der Fahrzeugumgebungen in der Skala, die eingestellt wird zu diesem Zeitpunkt, auf Grundlage der Fahrzeugorts- und Richtungsdaten, die erfasst werden in Schritt ST12. Eine Fahrzeugumgebungskarte wird dann erzeugt, die eine Fahrzeugmarkierung darstellt, die einen Fahrzeugort und Richtung bezeichnet, auf einer Karte, die repräsentiert wird durch die in der Suche erhaltenen Kartendaten.
  • Zusätzlich wird das Ziel eingestellt und die Führungsroute entsprechend berechnet in der Zieleinstelleinheit 11, und der Routenberechnungseinheit 12 der Navigationssteuereinheit 9. Wenn eine Führung an das Ziel ein Links- oder Rechtsabbiegen benötigt, erzeugt die Führungsanzeige-Erzeugungseinheit 13 ferner eine Fahrzeugumgebungskarte, die eine Grafik, wie zum Beispiel einen Pfeil zum Kennzeichnen des Wegs, den das Fahrzeug zu fahren hat (hier im Folgenden bezeichnet als ”Routenführungspfeil”), der überlagert wird auf der Fahrzeugumgebungskarte, kombiniert.
  • Dann wird der Inhalts-zusammengesetzte Videoerzeugungsprozess ausgeführt (Schritt ST14). Speziell sucht die Videobild-Zusammensetz-Verarbeitungseinheit 14 der Navigationssteuereinheit 9 nach Information hinsichtlich naher Objekte um das Fahrzeug von Kartendaten, die gelesen werden von der Kartendatenbank 5, und erzeugt ein Inhalts-zusammengesetztes Video, in dem Inhalt hinsichtlich eines nahen Objekts überlagert wird um das nahe Objekt in einem Video der Umgebungen des Fahrzeugs, erfasst durch die Videobild-Erfassungseinheit 8. Die Besonderheiten dese Inhalts-zusammengesetzten Videoerzeugungsprozesses des Schritts ST14 werden erklärt in weiteren Einzelheiten unten mit Bezug auf das in 4 gezeigte Flussdiagramm.
  • Dann wird ein Anzeigeerzeugungsprozess ausgeführt (Schritt ST15). Speziell erzeugt die Anzeigeentscheidungseinheit 15 der Navigationssteuereinheit 9 Anzeigedaten pro Bildschirm durch Kombinieren einer Grafik-Führungskarte, die die Fahrzeugumgebungskarte umfasst, die erzeugt wird durch die Führungsanzeige-Erzeugungseinheit 13 in Schritt ST13, und die Live-Aktions-Führungskarte, die das Inhalts-zusammengesetzte Video umfasst, das erzeugt wird durch die Videobild-Zusammensetz-Verarbeitungseinheit 14 in Schritt ST14. Die erzeugten Anzeigedaten werden gesendet an die Anzeigeeinheit 10, wobei die Grafik-Führungskarte und die Live-Aktions-Führungskarte angezeigt werden auf dem Bildschirm der Anzeigeeinheit 10. Der Ablauf kehrt danach zurück zu Schritt ST11, und der oben beschriebene Prozess wird wiederholt.
  • Als Nächstes werden die Einzelheiten des Inhaltszusammengesetzten Videoerzeugungsprozesses, der ausgeführt wird in Schritt ST14, beschrieben mit Bezug auf das in 4 gezeigte Flussdiagramm. Der Inhalts-zusammengesetzte Videoerzeugungsprozess wird ausgeführt hauptsächlich durch die Videobild-Zusammensetz-Verarbeitungseinheit 14.
  • In dem Inhalts-zusammengesetzten Videoerzeugungsprozess werden Videos sowie auch der Fahrzeugort und Richtung zuerst erfasst (Schritt ST21). Speziell erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 Fahrzeugorts- und Richtungsdaten, die erfasst werden in Schritt ST12 des Fahrzeug Umgebungsinformations-Anzeigeprozesses (3), sowie Videodaten, die erzeugt werden zu diesem Zeitpunkt durch die Videobild-Erfassungseinheit 8.
  • Dann wird ein Inhalt erzeugt (Schritt ST22) Speziell sucht die Videobild-Zusammensetz-Verarbeitungseinheit 14 nach nahen Objekten des Fahrzeugs auf Grundlage der Kartendaten, die gelesen werden von der Kartendatenbank 5, und erzeugt von den gesuchten nahen Objekten Inhaltsinformation, die dem Benutzer zu präsentieren ist. Im Fall einer Führung an das Ziel durch Kennzeichnen von Links- und Rechts-Abbiegen für den Benutzer, enthält die Inhaltsinformation beispielsweise eine Zeichenfolge mit dem Namen der Kreuzung, die Koordinaten der Kreuzung und die Koordinaten eines Routenführungspfeils. Wenn das Fahrzeug zu einer bemerkenswerten Sehenswürdigkeit den Umgebungen des Fahrzeugs zu führen ist, enthält die Inhaltsinformation beispielsweise eine Zeichenfolge oder Bilder mit Information bezüglich der Sehenswürdigkeit, wie zum Beispiel eine Zeichenfolge mit dem Namen der Sehenswürdigkeit, die Koordinaten der Sehenswürdigkeit, sowie der Geschichte, Höhepunkten, Öffnungszeiten und ähnlichem bezüglich der Sehenswürdigkeit. Zusätzlich zu dem Obigen kann die Inhaltsinformation auch Koordinaten auf dem Wegenetz enthalten, das das Fahrzeug umgibt, und Karteninformation hinsichtlich beispielsweise einer Anzahl von Spuren und Verkehrsbeschränkungsinformation, wie zum Beispiel Einbahnstraßenverkehr oder nicht erlaubtem Eintreten für jeden Weg des Wegenetzes um das Fahrzeug. Die Besonderheiten des Inhaltserzeugungsprozesses, der ausgeführt wird in Schritt ST22, werden im Detail unten beschrieben.
  • Die Koordinaten in der Inhaltsinformation werden durch ein Koordinatensystem (hier im Folgenden bezeichnet als ”Referenzkoordinatensystem”) gegeben, das eindeutig auf dem Boden bestimmt ist, beispielsweise Breitengrad und Längengrad. Im Schritt ST22 wird der dem Benutzer zu präsentierende Inhalt bestimmt, sowie die Gesamtzahl der Inhalte a.
  • Dann wird der Wert i des Zählers initialisiert (Schritt ST23). Dies bedeutet, dass der Wert i des Zählers zum Zählen der Anzahl der Inhalte, die schon zusammengesetzt sind, auf ”1” gesetzt ist. Der Zähler wird in der Videobild-Zusammensetz-Verarbeitungseinheit 14 bereitgestellt.
  • Dann wird überprüft, ob der Zusammensetzprozess für alle Teile der Inhaltsinformation vorbei ist (Schritt ST24). Speziell bestimmt die Videobild-Zusammensetz-Verarbeitungseinheit 14, ob oder ob nicht die Anzahl der Inhalte i, was schon gebildet ist, und der Wert des Zählers ist, größer ist als die Gesamtzahl der Inhalte a. Wenn in Schritt ST24 bestimmt wird, dass der Zusammensetzprozess bzw. Bildungsprozess für die gesamte Inhaltsinformation vorbei ist, das heißt, dass die Anzahl der Inhalte i, die schon zusammengesetzt sind, größer ist als die Gesamtzahl der Inhalte a, wird der Inhalts-zusammengesetzte Videoerzeugungsprozess beendet, und die Abfolge kehrt zurück zu dem Fahrzeug-Umgebungsinformations-Anzeigeprozess.
  • Andererseits wird, wenn in Schritt ST24 bestimmt wird, dass der Zusammensetzprozess nicht für die gesamte Inhaltsinformation vorüber ist, das heißt, dass die Anzahl der Inhalte i, die schon zusammengesetzt sind, nicht größer ist als die Gesamtanzahl, die i-te Inhaltsinformation erfasst (Schritt ST25). Speziell erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 ein i-tes Inhaltsinformationselement von der in Schritt ST22 erzeugten Inhaltsinformation.
  • Dann wird der Ort der Inhaltsinformation auf dem Video durch eine perspektivische Transformation berechnet (Schritt ST26). Speziell berechnet die Videobild-Zusammensetz-Verarbeitungseinheit 14 den Ort des Inhalts, der erfasst wird in Schritt ST25, in dem Referenzkoordinatensystem, in dem der Inhalt anzuzeigen ist, auf Grundlage des Fahrzeugorts und Richtung, erfasst in Schritt ST21 (Ort und Richtung des Fahrzeugs in dem Referenzkoordinatensystem); des Orts und Richtung der Kamera 7 in dem Koordinatensystem, das Bezug nimmt auf das Fahrzeug; und charakteristischen Werten der Kamera 7, die im Vorhinein erfasst werden, wie zum Beispiel Feldwinkel und Fokusabstand. Die obige Berechnung ist identisch zu einer Koordinatentransformationsberechnung genannt perspektivische Transformation oder perspektivische Transformierung bzw. Transformation.
  • Dann wird ein Videozusammensetzprozess ausgeführt (Schritt ST27). Speziell setzt bzw. stellt die Live-Aktions-Videobild-Zusammensetz-Verarbeitungseinheit 14 Inhalte zusammen, wie beispielsweise Grafiken, Zeichenfolgen oder Bilder, beschrieben durch Inhaltsinformation, die erfasst wird in Schritt ST25, bei den Orten, die berechnet werden in Schritt ST26 auf dem in Schritt ST21 erfassten Video.
  • Dann wird der Wert i des Zählers erhöht (Schritt ST28). Speziell erhöht die Videobild-Zusammensetz-Verarbeitungseinheit 14 (+1) den Wert des Zählers. Die Abfolge kehrt zurück danach zu Schritt ST24, und der oben beschriebene Prozess wird wiederholt.
  • Es wird bemerkt, dass die oben beschriebene Videobild-Zusammensetz-Verarbeitungseinheit 14 konfiguriert ist, so dass Inhalt auf Video zusammengesetzt werden kann unter Verwendung einer perspektivischen Transformation, aber auch konfiguriert werden kann, so dass Ziele innerhalb des Videos erkannt werden durch Unterziehen des Videos eines Bilderkennungsprozesses, und durch Zusammenstellen bzw. Bilden von Inhalt auf dem erkannten Video.
  • Als Nächstes werden die Einzelheiten des Inhaltserzeugungsprozesses, der ausgeführt wird in Schritt ST22 des oben beschriebenen Inhalts-zusammengesetzten Videoerzeugungsprozesses (4) beschrieben mit Bezug auf das in 5 gezeigte Flussdiagramm.
  • In dem Inhaltserzeugungsprozess wird zuerst überprüft, ob das Fahrzeug in der Links-Rechts-Abbiegeführung ist (Schritt ST31). Spezifische Bedingungen zum Entscheiden bzw. Bestimmen, ob das Fahrzeug in der Links-Rechts-Abbiegeführung ist, enthalten beispielsweise, das eine Route zu einem Ziel, gesetzt durch den Benutzer, gesucht wird durch Berechnung durch die Routenberechnungseinheit 12, und dass das Fahrzeug die Peripherie der Kreuzung erreicht hat entlang der gesuchten Route, bei der das Fahrzeug nach Links oder Rechts abbiegen soll. Die ”Peripherie der Kreuzung” ist beispielsweise ein Bereich, der eingestellt wird durch den Benutzer oder den Hersteller oder das Autonavigationsgerät, und kann beispielsweise 500 m vor der Kreuzung sein.
  • Wenn in Schritt ST31 bestimmt wird, dass das Fahrzeug nicht in der Links-Rechts-Abbiegeführung ist, geht die Sequenz bzw. Abfolge zu Schritt ST34. Andererseits, wenn in Schritt ST31 bestimmt wird, dass das Fahrzeug in der Links-Rechts-Abbiegeführung ist, wird es bestätigt, dass ein Routenführungspfeil benötigt wird als Inhalt, worauf ein Pfeilinformationsinhalt dann erzeugt wird (Schritt ST32). Der zu erzeugende Pfeilinformationsinhalt bezeichnet hierin eine Grafik eines Links-Rechts-Abbiegeführungspfeils, der überlagert wird auf dem Live-Aktions-Video, um dem Benutzer die Richtung zu zeigen, in die er abbiegen soll, links oder rechts, an dem Wegpunkt, wo das Fahrzeug nach links oder rechts abbiegen soll. Der Links-Rechts-Abbiegeführungspfeil, erzeugt in Schritt ST32, wird hinzugefügt als ein Anzeigeinhalt. Der Inhaltserzeugungsprozess der Pfeilinformation in Schritt ST32 wird erklärt im Detail weiter unten.
  • Dann wird ein Zusatzinformationsinhalt erzeugt (Schritt ST33). Hierin bezeichnet der Zusatzinformationsinhalt einen Zusatzinhalt, der anders ist als der Links-Rechts-Abbiegeführungspfeil, der notwendig ist zum Ausführen einer Links-Rechts-Abbiegeführung, beispielsweise einer Markierung, die das Zentrum der Kreuzung kennzeichnet, und den Abstand von dem Fahrzeug zu der Kreuzung. Der Zusatzinformationsinhalt, der erzeugt wird in Schritt ST33, wird hinzugefügt als ein Anzeigeinhalt. Abhängig von den Einstellungen des Autonavigationsgeräts wird in einigen Fällen kein Zusatzinformationsinhalt zu erzeugen gebraucht, und daher wird kein Inhalt erzeugt. Die Abfolge geht danach zu Schritt ST34.
  • Andere Inhalte werden in Schritt ST34 erzeugt. Speziell werden Inhalte, abgesehen von Inhalten, die notwendig sind für eine Links-Rechts-Abbiegeführung erzeugt, um hinzugefügt zu werden als Inhalte zur Anzeige. Der in Schritt ST34 erzeugte Inhalt kann beispielsweise eine Route zu einem Ziel oder ein Wegenetz enthalten, das das Fahrzeug umgibt. Nach diesem wird der Inhaltzusammensetzprozess vervollständigt, um zu dem Inhalts-zusammengesetzten Videoerzeugungsprozess zurückzukehren (4).
  • Als Nächstes werden die Einzelheiten des Inhaltserzeugungsprozesses der Pfeilinformation, die ausgeführt wird in Schritt ST32 des oben beschriebenen Inhaltserzeugungsprozesses (5) beschrieben mit Bezug auf das in 6 dargestellte Flussdiagramm.
  • In dem Inhaltserzeugungsprozess für Pfeilinformation wird zuerst ein Wegbereich (Schritt ST41) berechnet. Ein Wegbereich bezeichnet hierin einen Bereich, der frei ist von Gebäuden in den Umgebungen, wie von dem Ort eines fahrenden Fahrzeugs gesehen, beispielsweise, wie in 7 dargestellt. Speziell instruiert die Videobild-Zusammensetz-Verarbeitungseinheit 14 die Wegbreiten-Erfassungseinheit 16, Wegbreitendaten zu erfassen. Die Wegbreiten-Erfassungseinheit 16 erfasst Wegbreitendaten auf dem Weg, den das Fahrzeug fährt von den Wegdaten, die enthalten sind in den Kartendaten, die gelesen werden von der Kartendatenbank 5, und sendet die erfassten Wegbreitendaten an die Videobild-Zusammensetz-Verarbeitungseinheit 14. Die Videobild-Zusammensetz-Verarbeitungseinheit 14 berechnet als Wegbereich, den Bereich, der daraus resultiert aus einem Nehmen der Hälfte der Breite, beschrieben durch die Wegbreitendaten, auf der linken Seite und rechten Seite der Fahrtrichtung des Fahrzeugs. Der Wegbereich kann auch bestimmt werden durch Inbetrachtziehen von beispielsweise der Fahrtrichtung des Fahrzeugs, der Fahrspuren, der Anzahl der Spuren in dem Weg und so weiter.
  • Dann wird eine Routenfolge und ein Links-Rechts-Abbiegewegpunkt (Schritt ST42) erhalten. Speziell erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 eine Routenfolge und einen Links-Rechts-Abbiegewegpunkt, wie in 7 dargestellt, von Wegdaten, die enthalten sind in den Kartendaten, die gelesen werden von der Kartendatenbank 5. Die Routenfolge ist eine Routenfolge von Koordinaten, erzeugt durch eine Routensuche, die die Route beschreibt von dem momentanen Wegpunkt zu einem Ziel. Der Links-Rechts-Abbiegewegpunkt ist die nächste Kreuzung, bei der das Fahrzeug nach links oder rechts abbiegen soll, und wird repräsentiert durch die Koordinaten eines relevanten Punkts in der Routenfolge.
  • Dann werden eine Gerade-Fahrtfolge und ein Führungswegpunkt erfasst (Schritt ST43). Speziell entscheidet die Videobild-Zusammensetz-Verarbeitungseinheit 14 über eine Gerade-Fahrtfolge und einen Führungswegpunkt, wie die in 7 dargestellten auf Grundlage der Routenfolge und des Links-Rechts-Abbiegewegpunkts, erfasst in Schritt ST42. Die Gerade-Fahrtfolge ist eine Folge, die die Segmente bezeichnet, die das Fahrzeug in einer geraden Linie von dem momentanen Wegpunkt zu fahren hat, und wird repräsentiert beispielsweise durch eine Folge von Koordinaten von dem momentanen Wegpunkt in der Routenfolge zu einem Links-Rechts-Abbiegewegpunkt. Führungswegpunkte sind Wegpunkte, die die Richtung, links oder rechts, kennzeichnen, in die das Fahrzeug abzubiegen hat. Die Führungswegpunkte werden repräsentiert durch beispielsweise Koordinaten, die gehalten werden neben solchen eines Links-Rechts-Abbiegewegpunkts in einer Routenfolge.
  • Dann wird eine Pfeilinformation erzeugt (Schritt ST44). Speziell erzeugt die Videobild-Zusammensetz-Verarbeitungseinheit 14 einen Inhalt mit Information hinsichtlich Links-Rechts-Abbiegeführungspfeilen auf Grundlage der Gerade-Fahrtfolge und des Führungswegpunkts Information hinsichtlich eines Links-Rechts-Abbiegeführungspfeils enthält beispielsweise eine Gerade-Fahrtfolge, einen Pfeilbeendigungswegpunkt und Anzeigeformatinformation. Ein Pfeilbeendigungswegpunkt ist ein Wegpunkt in der Richtung, zu der das Fahrzeug abbiegt, links oder rechts, und der nicht über den Wegbereich geht, wie in 7 dargestellt. Der Pfeilbeendigungswegpunkt liegt beispielsweise auf einem Segment, das einen Links-Rechts-Abbiegewegpunkt und einen Führungswegpunkt verbindet. Pfeilbeendigungswegpunkte werden repräsentiert durch Koordinaten von Wegpunkten innerhalb des Wegbereichs. Anzeigeformatinformation ist Formatinformation, die beispielsweise eine Dicke, Helligkeit, Saturierung, Farbe, Durchsichtigkeit und Ähnliches bezeichnet. Danach wird der Inhaltserzeugungsprozess der Pfeilinformation beendet, um zu dem Inhaltserzeugungsprozess zurückzukehren (5).
  • Es wird bemerkt, dass die Koordinaten, die in dem Inhaltserzeugungsprozess der Pfeilinformation verwendet werden, Werte sind, die eindeutige Orte auf einer zweidimensionalen Karte, beispielsweise Längengrad und Breitengrad, bestimmen können.
  • 8 zeigt ein Beispiel von Videos, die angezeigt werden auf dem Bildschirm der Anzeigeeinheit 10 auf Grundlage der oben beschriebenen Prozesse. 8(a) zeigt ein Anzeigebeispiel eines Routenführungspfeils in einem herkömmlichen Autonavigationsgerät. Die Länge des Teils des Routenführungspfeils, kennzeichnend die Abbiegerichtung, ist begrenzt auf den Führungswegpunkt unabhängig von der Breite des Wegs. Folglich können der Routenführungspfeil und eine Sehenswürdigkeit bei dem Weg miteinander überlappen, was hervorrufen kann, dass der Benutzer die Kreuzung verwechselt, bei der das Fahrzeug abzubiegen hat. In dem Anzeigebeispiel des Routenführungspfeils des Autonavigationsgeräts gemäß Ausführungsform 1, gezeigt in 8(b), wird im Gegensatz dazu die Länge des Teils des Routenführungspfeils, die die Abbiegerichtung kennzeichnet, begrenzt auf die Wegbreite. Folglich überlappen der Routenführungspfeil und eine Sehenswürdigkeit bzw. Orientierungshilfe, die neben dem Weg existieren, nicht, und daher kann der Benutzer leicht die Kreuzung identifizieren, bei der das Fahrzeug abzubiegen hat.
  • Wie oben beschrieben, ist in dem Autonavigationsgerät gemäß Ausführungsform 1 der vorliegenden Erfindung die Länge des Teils des Routenführungspfeils, der die Abbiegerichtung kennzeichnet, begrenzt auf die Wegbreite, auf solch eine Art und Weise, dass der Routenführungspfeil und Gebäude, die näher im Vordergrund anzuzeigen sind als (oder vor) der Routenführungspfeil nicht überlagert von einander, wenn der Routenführungspfeil angezeigt wird in einer überlagernden Art und Weise auf dem Fahrzeugumgebungsvideo, aufgenommen durch die Kamera 7. Deshalb erlaubt das Autonavigationsgerät gemäß Ausführungsform 1, das Problem eines Anzeigens einer fehlerhaften überlagernden Beziehung zwischen einem Routenführungspfeil und Gebäuden entlang des Wegs, zu vermeiden.
  • Ausführungsform 2
  • In dem Autonavigationsgerät nach Ausführungsform 2 der vorliegenden Erfindung wird ein Links-Rechts-Abbiegeführungspfeil, welches einer der Routenführungspfeile ist, aufgeteilt in einen sichtbaren Teil und einen geblockten Teil, so dass das Blockierungsverhältnis zu den Gebäuden visualisiert wird durch Verändern der obigen zwei Anzeigeformen. Der sichtbare Teil ist ein Teil des Links-Rechts-Abbiegeführungspfeils, der nicht geblockt wird, und der wie gewöhnlich gesehen werden kann. Der blockierte Teil ist ein Teil des Links-Rechts-Abbiegeführungspfeils, der anzuzeigen ist als geblockt durch ein Gebäude. Die Konfiguration des Autonavigationsgeräts gemäß Ausführungsform 2 ist identisch zu der gemäß Ausführungsform 1, wie in 1 gezeigt.
  • Außer dem Inhaltserzeugungsprozess der Pfeilinformation (Schritt ST32 in 5 und 6) ist der Betrieb des Autonavigationsgeräts gemäß Ausführungsform 2 identisch zu dem des Autonavigationsgeräts gemäß Ausführungsform 1. In Folgenden wird der Inhaltserzeugungsprozess der Pfeilinformation in dem Autonavigationsgerät gemäß Ausführungsform 2 beschrieben mit Bezug auf das in 6 dargestellte Flussdiagramm, was verwendet wird zum Beschreiben des Inhaltserzeugungsprozesses der Pfeilinformation in dem Autonavigationsgerät gemäß Ausführungsform 1.
  • Der Inhaltserzeugungsprozess der Pfeilinformation von Schritt ST41 bis Schritt ST43 ist identisch zu dem Inhaltserzeugungsprozess der Pfeilinformation des Autonavigationsgeräts gemäß Ausführungsform 1, und nur der Pfeilinformations-Erzeugungsprozess, der ausgeführt wird in Schritt ST44 ist unterschiedlich. Daher werden nur Merkmale, die unterschiedlich sind von denen der Ausführungsform 1, unten erklärt.
  • Pfeilinformation wird erzeugt in Schritt ST44. Speziell erzeugt die Videobild-Zusammensetz-Verarbeitungseinheit 14 einen Inhalt mit Information hinsichtlich eines Links-Rechts-Abbiegeführungspfeils auf Grundlage einer Gerade-Fahrfolge und einem Führungswegpunkt. Information hinsichtlich eines Links-Rechts-Abbiegeführungspfeils enthält beispielsweise eine Gerade-Fahrtfolge, einen Pfeilbeendigungswegpunkt, einen Pfeilumschaltwegpunkt, Anzeigeformatinformation hinsichtlich des sichtbaren Teils und Anzeigeformatinformation hinsichtlich des geblockten Teils. Der Pfeilbeendigungswegpunkt wird repräsentiert durch die Koordinaten eines Führungswegpunkts in der Richtung, zu der das Fahrzeug nach links oder rechts abbiegt, wie in 9 dargestellt. Wie in 9 gezeigt, ist ein Pfeilumschaltwegpunkt ein Wegpunkt an der Grenze zwischen dem sichtbaren Teil und dem geblockten Teil eines Links-Rechts-Abbiegeführungspfeils. Der Pfeilumschaltwegpunkt liegt auf einem Segment, das einen Links-Rechts-Abbiegewegpunkt und einen Pfeilbeendigungswegpunkt verbindet, und wird repräsentiert durch Koordinaten eines Wegpunkts innerhalb des Wegbereichs. Die Anzeigeformatinformation des sichtbaren Teils ist Information zum sichtbaren Kennzeichnen, dass der Pfeil ein gewöhnlicher Pfeil ist. Die Anzeigeformatinformation des geblockten Teils ist Information zum sichtbaren Kennzeichnen, dass Teil des Pfeils ein geblockter Teil ist, mittels Informationsattributen, die unterschiedlich sind, von denen des sichtbaren Teils. Danach wird der Inhaltserzeugungsprozess der Pfeilinformation beendet, um zu dem Inhaltserzeugungsprozess zurückzukehren (5).
  • Attribute der Anzeigeformatinformation für den oben erwähnten visuellen Unterschied kann beispielsweise enthalten Dicke, Helligkeit, Saturierung, Farbe, Durchsichtigkeit und ähnliches. Wenn Teile durch Dicke unterschieden werden beispielsweise, kann der geblockte Teil dünner sein als der sichtbare Teil. Wenn Teile durch Helligkeit beispielsweise unterschieden werden, kann der geblockte Teil weniger saturiert sein als der sichtbare Teil. Wenn Teile durch Farbe beispielsweise unterschieden werden, kann der sichtbare Teil dargestellt werden mit warmen Farben, wie zum Beispiel Gelb oder Orange, und der geblockte Teil mit kalten Farben, wie zum Beispiel Blau oder Grün. Wenn Teile durch Durchsichtigkeit beispielsweise unterschieden werden, kann der sichtbare Teil lichtundurchlässig sein, und der geblockte Teildurchlässig sein.
  • 10 zeigt ein Beispiel des auf dem Bildschirm der Anzeigeeinheit 10 angezeigten Videos als Ergebnis des oben beschriebenen Prozesses. 10(a) zeigt ein Anzeigebeispiel eines Routenführungspfeils in einem herkömmlichen Autonavigationsgerät. Die Länge des Teils des Routenführungspfeils, der die Abbiegerichtung kennzeichnet, erreicht den Führungswegpunkt unabhängig von der Breite des Wegs. Deshalb können der Routenführungspfeil und eine Sehenswürdigkeit an der Straße aufeinander überlagert werden, was den Benutzer dazu bringt, sich in der Kreuzung zu irren, bei der das Fahrzeug abbiegen soll. In dem Anzeigebeispiel des Routenführungspfeils des Autonavigationsgeräts gemäß Ausführungsform 2, gezeigt in 10(b), gibt es, obwohl die Länge des Teils des Routenführungspfeils, der die Abbiegerichtung kennzeichnet, den Führungswegpunkt erreicht, eine Änderung des Anzeigeformats des Teils über der Wegbreite, wobei das Wegbreitenteil als Grenze genommen wird, so dass die Farbe eines Teils, bei dem der Routenführungspfeil und Gebäude überlappen, unterschiedlich ist von der Farbe eines Teils, wo keine Gebäude überlappen. Folglich kann der Benutzer leicht die Kreuzung erfassen, bei der das Fahrzeug abbiegen soll.
  • Wie oben beschrieben wird in dem Autonavigationsgerät gemäß Ausführungsform 2 der vorliegenden Erfindung der Routenführungspfeil visuell modifiziert durch Ändern des Anzeigeformats (beispielsweise Dicke, Farbe, Durchsichtigkeit, Helligkeit, oder Saturierung) des Teils des Routenführungspfeils über die Wegbreite bei einem Teil, wo der Routenführungspfeil überlagert wird mit Gebäuden, die anzuzeigen sind vor dem Routenführungspfeil, wenn der Routenführungspfeil angezeigt wird in einer überlagernden Art und Weise auf einem Fahrzeugumgebungsvideo, aufgenommen durch die Kamera 7. Eine korrigierte überlagernde Beziehung zwischen dem Routenführungspfeil und Gebäuden entlang des Wegs kann angezeigt werden als Ergebnis für den Benutzer.
  • Ausführungsform 3
  • Wenn die Kartendatenbank 5 keine Wegbreitendaten des Wegs hält, den das Fahrzeug bereist, schätzt das Autonavigationsgerät gemäß Ausführungsform 3 der vorliegenden Erfindung die Wegbreite auf Grundlage anderer Information ab, und bestimmt einen Wegbereich basierend auf den Schätzergebnissen. Die Konfigurierung des Autonavigationsgeräts der Ausführungsform 3 ist identisch zu der der in 1 dargestellten Ausführungsform 1.
  • Außer dem Inhaltserzeugungsprozess der Pfeilinformation (Schritt ST32 in 5 und 6) ist der Betrieb des Autonavigationsgeräts gemäß Ausführungsform 3 identisch zu dem Betrieb des Autonavigationsgeräts gemäß Ausführungsform 1. Im Folgenden wird der Inhaltserzeugungsprozess der Pfeilinformation in dem Autonavigationsgerät gemäß Ausführungsform 3 beschrieben mit Bezug auf das in 6 dargestellte Flussdiagramm, was verwendet wird zum Beschreiben des Inhaltserzeugungsprozesses der Pfeilinformation in dem Autonavigationsgerät gemäß Ausführungsform 1.
  • In dem Inhaltserzeugungsprozess für Pfeilinformation wird zuerst ein Wegbereich berechnet (Schritt ST41). Speziell erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 beispielsweise eine Wegart und Anzahl von Spuren von den Wegdaten, die enthalten sind in Kartendaten, die gelesen werden von der Kartendatenbank 5 und berechnet die Wegbreite als 3,0 × Anzahl der Spuren (m), falls die Wegart ein gewöhnlicher Weg ist, und 3,5 × Anzahl der Spuren (m) in dem Fall einer Autobahn oder Schnellstraße.
  • Wie in dem Inhaltserzeugungsprozess der Pfeilinformation in den Autonavigationsgeräten gemäß Ausführungsform 1 und Ausführungsform 2, werden eine Routenfolge und ein Links-Rechts-Abbiegewegpunkt erfasst (Schritt ST42), eine Gerade-Fahrtfolge und ein Führungswegpunkt werden erfasst (Schritt ST43) und Pfeilinformation wird erzeugt (Schritt ST44). Danach wird der Inhaltserzeugungsprozess der Pfeilinformation beendet, um zu dem Inhaltserzeugungsprozess zurückzukehren (5).
  • Wie oben beschrieben wird, wenn die Kartendatenbank 5 des Autonavigationsgeräts keine Wegbreitendaten in dem Autonavigationsgerät gemäß Ausführungsform 3 der vorliegenden Erfindung hält, die Wegbreite berechnet auf Grundlage der Anzahl der Spuren des Wegs und der Art des Wegs. Deshalb kann die Wegbreite ungefähr eingestellt werden, selbst wenn die Kartendatenbank 5 des Autonavigationsgeräts keine Wegbreitendaten hält, so dass das Problem eines Anzeigens einer fehlerhaften Überlagerungsbeziehung zwischen einem Führungspfeil und Gebäuden entlang des Wegs vermieden wird.
  • Ausführungsform 4
  • 11 zeigt ein Blockdiagramm, das die Konfigurierung eines Autonavigationsgeräts gemäß Ausführungsform 4 der vorliegenden Erfindung zeigt. Das Autonavigationsgerät der vorliegenden Ausführungsform ist das Autonavigationsgerät gemäß Ausführungsform 1, aber die Wegbreiten-Erfassungseinheit 16 der Navigationssteuereinheit 9 wurde hierin weggelassen, eine Umgehungseinrichtungs-Erfassungseinheit 17 wurde hinzugefügt, und die Videobild-Zusammensetz-Verarbeitungseinheit 14 wurde modifiziert zu einer Videobild-Zusammensetz-Verarbeitungseinheit 14a.
  • In Ansprechen auf eine Instruktion von der Videobild-Zusammensetz-Verarbeitungseinheit 14a erfasst die Umgehungseinrichtungs-Erfassungseinheit 17 Umgehungseinrichtungsdaten, die eine zu umgehende Einrichtung durch das Fahrzeug repräsentieren (bezeichnet durch Schraffierung in 12) bei der Kreuzung bzw. Einmündung, zu der das Fahrzeug geführt wird, wie in 12 dargestellt, von Kartendaten, die von der Kartendatenbank 5 gelesen werden. Insbesondere erfasst die Umgehungseinrichtungs-Erfassungseinheit 17 Führungsroutendaten von der Routenberechnungseinheit 12 über die Videobild-Zusammensetz-Verarbeitungseinheit 14a, und auf Grundlage der erfassten Führungsroutendaten, arbeitet eine Führungsrichtung zu der Kreuzung aus, zu der das Fahrzeug geführt wird. Als Nächstes sucht die Umgehungseinrichtungs-Erfassungseinheit 17 aus den Kartendaten, die gelesen werden von der Kartendatenbank 5, nach einer Einrichtung (Umgehungseinrichtung), die sich an einem Eck der Führungsrichtungsseite der Kreuzung befindet, zu der das Fahrzeug geführt wird, so dass die Einrichtung näher an dem Fahrzeug steht als die Kreuzung oder Einmündung, zu der das Fahrzeug geführt wird. Die Umgehungseinrichtungs-Erfassungseinheit 17 erfasst Einrichtungsdaten, die der gefundenen Einrichtung entsprechen. Die Einrichtungsdaten, die erfasst werden durch die Umgehungseinrichtungs-Erfassungseinheit 17, werden als Umgehungseinrichtungsdaten an die Videobild-Zusammensetz-Verarbeitungseinheit 14a gesendet.
  • Zusätzlich zu der Verarbeitung, die ausgeführt wird durch die Videobild-Zusammensetz-Verarbeitungseinheit 14 des Autonavigationsgeräts gemäß Ausführungsform 1, gibt die Videobild-Zusammensetz-Verarbeitungseinheit 14a auch eine Instruktion aus an die Umgehungseinrichtungs-Erfassungseinheit 17, um ein Erfassen von Umgehungseinrichtungsdaten zu bewirken. Die Videobild Zusammensetz-Verarbeitungseinheit 14a führt dann einen vorbestimmten Prozess aus (im Detail weiter unten beschrieben) an den Umgehungseinrichtungsdaten, die gesendet werden von der Umgehungseinrichtungs-Erfassungseinheit 17.
  • Als Nächstes wird der Betrieb des Autonavigationsgeräts gemäß Ausführungsform 4 der vorliegenden Erfindung mit der obigen Konfigurierung beschrieben. Der Betrieb des Autonavigationsgeräts gemäß Ausführungsform 4 ist identisch zu dem Betrieb des Autonavigationsgeräts gemäß Ausführungsform 1, abgesehen von dem Inhaltserzeugungsprozess der Zusatzinformation (Schritt ST33 in 5) und dem Videozusammensetzprozess (Prozess in Schritt ST27 der 4). Die Erklärung unten fokussiert sich auf die Unterschiede gegenüber dem Betrieb des Autonavigationsgeräts gemäß Ausführungsform 1.
  • Zuerst wird der Inhaltserzeugungsprozess der Zusatzinformation in dem Autonavigationsgerät gemäß Ausführungsform 4 erklärt mit Bezug auf das in 13 gezeigte Flussdiagramm.
  • In dem Inhaltserzeugungsprozess der Zusatzinformation (Schritt ST33 in 4) wird Zusatzinhalt zum Anzeigen eines Links-Rechts-Abbiegeführungspfeils erzeugt als Ergänzungsinhalt für eine Anzeige. Im Folgenden wird ein Beispiel, dass ein blockierendes Gebäude erfasst wird von Gebäuden, die das Fahrzeug umgeben, und dass ein Inhalt eines blockierenden Gebäudemodells erzeugt wird, beschrieben. Ein blockierendes Gebäude beschreibt hierin ein Gebäude, das näher gesehen sollte als der Links-Rechts-Abbiegeführungspfeil. Das Blockierende-Gebäudemodell ist Inhalt, der tatsächlich näher im Vordergrund angezeigt wird als der Links-Rechts-Abbiegeführungspfeil bei dem Ort des blockierenden Gebäudes.
  • In dem Inhaltserzeugungsprozess der Zusatzinformation wird ein blockierendes Gebäude zuerst erfasst (Schritt ST51). Speziell instruiert die Videobild-Zusammensetz-Verarbeitungseinheit 14a die Umgehungseinrichtungs-Erfassungseinheit 17, ein blockierendes Gebäude zu erfassen. Die Umgehungseinrichtungs-Erfassungseinheit 17 erfasst Blockierende-Gebäudedaten von Kartendaten, die ausgelesen werden aus der Kartendatenbank 5. Blockierende Gebäude bezeichnen alle Gebäude, die vorhanden sind zwischen dem Fahrzeugort und der Kreuzung, an die das Fahrzeug geführt wird, von Gebäuden auf der rechten Seite des Wegs in dem Fall eines Rechtsabbiegens beispielsweise, wie in 14 dargestellt. Eine Konfigurierung ist auch möglich, so dass die blockierenden Gebäude bestimmt werden durch Inbetrachtziehen des Links-Rechts-Abbiegeführungspfeils und der dreidimensionalen Form der Gebäude.
  • Dann wird Blockierende-Gebäude-Modellinformation erzeugt (Schritt ST52). Speziell erzeugt die Umgehungseinrichtungs-Erfassungseinheit 17 einen Inhalt der Blockierende-Gebäude-Modellinformation auf Grundlage der Blockierende-Gebäudedaten, erfasst in Schritt ST51. Blockierende-Gebäude-Modellinformation enthält hierin beispielsweise mindestens ein Element von dem Ort, der dreidimensionalen Form und dem Namen des blockierenden Gebäudes, sowie Information, die eine Durchlässigkeit oder Durchsichtigkeit bezeichnet. Die Blockierende-Gebäude-Modellinformation kann detaillierte dreidimensionale Formen weglassen, und kann Inhalt definieren, wie zum Beispiel stehende Schilder. Die Blockierende-Gebäude-Modellinformation, erzeugt durch die Umgehungseinrichtungs-Erfassungseinheit 17, wird gesendet an die Videobild-Zusammensetz-Verarbeitungseinheit 14a. Mittels des Obigen wird der Inhaltserzeugungsprozess der Zusatzinformation beendet, um zu dem Inhaltserzeugungsprozess zurückzukehren (5).
  • Als Nächstes wird der Videozusammensetzprozess in dem Autonavigationsgerät gemäß Ausführungsform 4 beschrieben mit Bezug auf das in 15 dargestellte Flussdiagramm.
  • In dem Videozusammensetzprozess wird ein Blockierende-Gebäude-Ausmalprozess zuerst ausgeführt (Schritt ST61). Speziell malt die Videobild-Zusammensetz-Verarbeitungseinheit 14a ein blockierendes Gebäude auf dem Video aus, oder füllt es aus, das erfasst wurde durch die Videobild-Erfassungseinheit 8. Der ausgemalte Bereich kann berechnet werden auf Grundlage von beispielsweise dem Ort des Videos während des Zusammensetzens des Blockierende-Gebäude-Modells. Der Ausmalprozess des blockierenden Gebäudes kann derart konfiguriert sein, dass das blockierende Gebäude, das auszumalen ist, einer Bilderkennung unterzogen wird durch Extrahieren von charakteristischen Punkten von einem Bild, um so einen Ausmalbereich zu berechnen.
  • In dem Blockierende-Gebäude-Ausmalprozess wird ein Gebäude auf dem Video, wie zum Beispiel das. in 16(a) gezeigte Gebäude, wie in 16(b) ausgemalt. In dem in 16(b) gezeigten Beispiel wird das blockierende Gebäude in Weiß ausgemalt, aber es kann auch in irgendeiner anderen Farbe, die im Voraus durch den Benutzer oder den Hersteller des Autonavigationsgeräts einzustellen ist, ausgemalt werden.
  • Dann wird ein Pfeil gezeichnet (Schritt ST62) Speziell zeichnet die Videobild-Zusammensetz-Verarbeitungseinheit 14a den Links-Rechts Abbiegeführungspfeil, der erzeugt wird bei dem Inhaltserzeugungsprozess der Pfeilinformation in dem Inhaltserzeugungsprozess (Schritt ST32 in 5). Auf solch eine Art und Weise wird ein Links-Rechts-Abbiegeführungspfeil auf dem Video gezeichnet, wobei das blockierende Gebäude ausgemalt wird, wie in 16(c) gezeigt.
  • Dann wird ein Blockierende-Gebäude-Modell gezeichnet (Schritt ST63). Speziell zeichnet Videobild-Zusammensetz-Verarbeitungseinheit 14a durch dreidimensionale CG ein durchlässiges Blockierende-Gebäude-Modell, das erzeugt wird in dem Inhaltserzeugungsprozess der Zusatzinformation (Schritt ST33 in 5). In dieser Art und Weise wird ein durchlässiges Blockierende-Gebäude-Modell gezeichnet auf einem Video, auf dem ein Links-Rechts-Abbiegeführungspfeil gezeichnet wird, wie in 16(d) gezeigt. Mittels des Obigen wird der Videozusammensetzprozess beendet, um zu dem Inhaltszusammengesetzten Videoerzeugungsprozess zurückzukehren (4).
  • 17 zeigt ein Beispiel von Videos, die angezeigt werden auf dem Bildschirm der Anzeigeeinheit 10, durch die oben beschriebenen Prozesse. 17(a) zeigt ein Anzeigebeispiel eines Routenführungspfeils in einem herkömmlichen Autonavigationsgerät. Die Umgehungseinrichtung ist nicht klar und daher kann der Benutzer die Kreuzung verwechseln, bei der das Fahrzeug abbiegen soll. In dem Anzeigebild des Routenführungspfeils des Autonavigationsgeräts gemäß Ausführungsform 4, gezeigt in 17(b) kann im Gegensatz dazu der Teil des Routenführungspfeils, der die Abbiegerichtung beschreibt, an der anderen Seite der Umgehungseinrichtung gesehen werden, und daher kann der Benutzer leicht die Kreuzung erfassen, bei der das Fahrzeug abbiegen soll.
  • Das Blockierende-Gebäude-Modell kann ein schildartiges Blockierende-Gebäude-Modell sein, wie in dem Anzeigebeispiel, das in 18 gezeigt ist. Das Blockierende-Gebäude-Modell in dem in 17 gezeigten Beispiel wird dargestellt als durchlässige dreidimensionale CG. In dem in 18 gezeigten Beispiel wird das Blockierende-Gebäude-Modell gezeigt als Schild, das den Namen der Einrichtung kennzeichnet.
  • Wie oben beschrieben wird in dem Autonavigationsgerät gemäß Ausführungsform 4 der vorliegenden Erfindung der Ort eines anzuzeigenden Gebäude näher im Vordergrund ausgemalt als (oder vor) dem Teil des Routenführungspfeils, der eine Abbiegerichtung kennzeichnet, und der Routenführungspfeil und eine durchsichtige bzw. durchlässige dreidimensionale CG, die das Gebäude repräsentiert, werden auf solch eine Art und Weise verwendet, dass sie den Routenführungspfeil als Umgehung des Hinterteils des Gebäudes zeigen. Eine korrekte Überlagerungsbeziehung des Routenführungspfeils und Gebäuden entlang des Wegs kann als Ergebnis angezeigt werden.
  • Ausführungsform 5
  • In dem Autonavigationsgerät gemäß Ausführungsform 5 der vorliegenden Erfindung wird ein Blockierende-Gebäude-Schild anstatt des Blockierende-Gebäude-Modells verwendet, das in dem Autonavigationsgerät gemäß Ausführungsform 4 verwendet wird. Die Konfigurierung des Autonavigationsgeräts der Ausführungsform 5 ist identisch zu der der in 11 gezeigten Ausführungsform 4.
  • Abgesehen von dem Inhaltserzeugungsprozess der Zusatzinformation (Schritt ST33) in 5, und dem Videozusammensetzprozess (Prozess in Schritt ST27 der 4), ist der Betrieb des Autonavigationsgeräts gemäß Ausführungsform 5 identisch zu dem des Autonavigationsgeräts gemäß Ausführungsform 4.
  • Zuerst wird der Inhaltserzeugungsprozess der Zusatzinformation in dem Autonavigationsgerät gemäß Ausführungsform 5 erklärt mit Bezug auf das in 13 dargestellte Flussdiagramm, das verwendet wird zum Darstellen des Inhaltserzeugungsprozesses der Zusatzinformation in dem Autonavigationsgerät gemäß Ausführungsform 4.
  • In dem Inhaltserzeugungsprozess der Zusatzinformation (Schritt ST33 in 5) wird ein Zusatzinhalt zum Anzeigen eines Links-Rechts-Abbiegeführungspfeils erzeugt als Ergänzungsinhalt zur Anzeige. Im Folgenden wird ein Beispiel, dass ein blockierendes Gebäude erfasst wird von Gebäuden, die das Fahrzeug umgeben, und dass ein Inhalt von Schildern des blockierenden Gebäudes erzeugt wird, beschrieben. Ein blockierendes Gebäude bezeichnet hierin ein Gebäude, das mehr gesehen sein sollte als der Links-Rechts-Abbiegeführungspfeil. Das Blockierende-Gebäude-Schild ist Inhalt, der tatsächlich mehr im Vordergrundangezeigt wird als ein Links-Rechts-Abbiegeführungspfeil an dem Ort des blockierenden Gebäudes. Die Details des obigen Prozesses werden später erklärt.
  • In dem Inhaltserzeugungsprozess der Zusatzinformation wird ein blockierendes Gebäude zuerst erfasst (Schritt ST51). Die Verarbeitung in Schritt ST51 ist identisch zu der, die ausgeführt wird in dem Autonavigationsgerät gemäß Ausführungsform 4.
  • Dann wird eine Blockierende-Gebäude-Schildinformation erzeugt (Schritt ST52). Speziell erzeugt die Umgehungseinrichtungs-Erfassungseinheit 17 einen Inhalt der Blockierende-Gebäude-Schildinformation auf Grundlage der Blockierende-Gebäude-Daten, die erfasst werden in Schritt ST51. Blockierende-Gebäude-Schildinformation enthält hierin beispielsweise mindestens ein Element von einem Ort, der ein blockierendes Gebäude kennzeichnet oder den Namen des blockierenden Gebäudes, sowie Information, die eine Durchlässigkeit oder Durchsichtigkeit beschreibt. Beispielsweise kann der Kreuzungspunkt zwischen dem Weg und einer rechtwinkligen Linie bestimmen, die gezeichnet wird von dem Ort des blockierenden Gebäudes zu dem Weg, und dann kann der Mittelpunkt zwischen dem Ort des blockierenden Gebäudes und diesem Kreuzungspunkt als der Ort gesetzt werden, der das blockierende Gebäude kennzeichnet. Die Blockierende-Gebäude-Schildinformation, die erzeugt wird durch die Umgehungseinrichtungs-Erfassungseinheit 17, wird gesendet an die Videobild-Zusammensetz-Verarbeitungseinheit 14a. Mittels des Obigen wird der Inhaltserzeugungsprozess der Zusatzinformation beendet, um zu dem Inhaltserzeugungsprozess zurückzukehren (5).
  • Als Nächstes wird ein Videozusammensetzprozess in dem Autonavigationsgerät gemäß Ausführungsform 5 (Schritt ST27 in 4) beschrieben. In dem Videozusammensetzprozess zeichnet bei einer Links-Rechts-Abbiegeführung die Videobild-Zusammensetz-Verarbeitungseinheit 14a durch durchsichtige CG das Blockierende-Gebäude-Schild, das erzeugt wird in Schritt ST33, so dass das Blockierende-Gebäude-Schild näher im Vordergrund angezeigt wird als der Teil des Routenführungsteils, der die Abbiegerichtung auf dem Teil des Links-Rechts-Abbiegeführungspfeils kennzeichnet, der die Abbiegerichtung kennzeichnet und der erzeugt wird näher zu sein als das blockierende Gebäude, das erfasst wird von Kartendaten in Schritt ST32 des Inhaltserzeugungsprozesses gezeigt in 5.
  • 19 zeigt ein Beispiel des Videos, das angezeigt wird auf dem Bildschirm der Anzeigeeinheit 10 mittels der oben beschriebenen Prozesse. 19(a) zeigt ein Anzeigebeispiel einer Live-Aktions-Führungskarte in einem herkömmlichen Autonavigationsgerät. Die Gebäude entlang des Wegs und der Routenführungspfeil sind nicht klar, und deshalb kann der Benutzer die Kreuzung verwechseln, bei der das Fahrzeug abbiegen soll. In dem Anzeigebeispiel der Live-Aktions-Führungskarte des Autonavigationsgeräts gemäß Ausführungsform 5, gezeigt in 19(b), sind im Gegensatz dazu die Gebäude entlang des Wegs und der Routenführungspfeil klar, und deshalb kann der Benutzer leicht die Kreuzung erfassen, bei der das Fahrzeug abbiegen, soll.
  • Wie oben beschrieben wird gemäß dem Autonavigationsgerät nach Ausführungsform 5 der vorliegenden Erfindung die Länge des Routenführungspfeils eingestellt, um das vordere Teil eines Gebäudes zu erreichen anstatt, dass der Führungspfeil überlagert wird auf den Routengebäuden, und eine durchlässige CG, die ein Schild des Gebäudes zeigt, wird dargestellt, so dass sie näher im Vordergrund angezeigt wird als der Teil eines Routenführungspfeils, der die Abbiegerichtung kennzeichnet. Deshalb kann eine Anzeige auf solch eine Art und Weise ausgeführt werden, dass die überlagernde Beziehung zwischen einem Routenführungspfeil und Gebäuden entlang des Wegs korrekt erfasst werden kann ohne Verstecken der tatsächlichen Gebäude.
  • Ein Autonavigationsgerät, das in Fahrzeugen verwendet wird, wurde beschrieben in den Ausführungsformen, die in den Figuren dargestellt sind. Jedoch kann das Autonavigationsgerät gemäß der vorliegenden Erfindung auch auf eine ähnliche Art und Weisen in anderen mobilen Objekten, wie zum Beispiel Mobiltelefonen, verwendet werden, die mit Kameras ausgestattet sind, oder in Flugzeugen.
  • GEWERBLICHE ANWENDBARKEIT
  • In dem Navigationsgerät gemäß der vorliegenden Erfindung wird, wie oben beschrieben, die Länge eines Routenführungspfeils, die eine Abbiegerichtung kennzeichnet, eingestellt gemäß einer Wegbreite während einer Anzeige eines Routenführungspfeils, überlagert auf einem Video der Umgebungen eines Fahrzeugs, das erhalten wird durch eine Kameraaufnahme auf solch eine Art und Weise, dass der Routenführungspfeil nicht auf Gebäuden überlagert wird, die näher im Vordergrund anzuzeigen sind als der Routenführungspfeil. Dies erlaubt es, das Problem einer Anzeige einer fehlerhaften überlagernden Beziehung zwischen einem Routenführungspfeil und Gebäuden entlang des Wegs zu vermeiden, und erlaubt eine passende Anzeigeführungsinformation auf Live-Aktions-Video. Das Navigationsgerät gemäß der vorliegenden Erfindung kann passend daher in Autonavigationsgeräten und ähnlichem verwendet werden.
  • ZUSAMMENFASSUNG
  • Ein Navigationsgerät hat eine Kartendatenbank (5), die Kartendaten hält; einen Positions- und Richtungs-Messabschnitt (4), der die momentane Position und Richtung eines Fahrzeugs misst; einen Routenberechnungsabschnitt (12), der auf Grundlage Kartendaten, die gelesen werden von der Kartendatenbank (5), eine Route berechnet von der momentanen Position, die gemessen wird durch den Positions- und Richtungs-Messabschnitt, zu einem Ziel; eine Kamera (7), die ein Videobild vor dem Fahrzeug aufnimmt; einen Videobild-Erfassungsabschnitt (8), der das Videobild vor dem Fahrzeug erfasst, das durch die Kamera aufgenommen wird; einen Wegbreiten-Erfassungsabschnitt (16), der auf Grundlage von Wegbreitendaten, enthalten in den Kartendaten, die gelesen werden von der Kartendatenbank, die Breite eines Wegsegments erfasst, das eines ist von Wegsegmenten, die die Route bilden, die berechnet wird durch den Routenberechnungsabschnitt und in eine Kreuzung eintritt und dort endet, zu der das Fahrzeug geführt wird; einen Videobild-Zusammensetz-Verarbeitungsabschnitt (14), der die Länge eines Teils eines Routenführungspfeils zu der Wegbreite begrenzt, der berechnet wird durch den Wegbreiten-Erfassungsabschnitt, und den Pfeil überlagert und zusammensetzt auf dem Videobild, das erfasst wird durch den Videoerfassungsabschnitt, wobei das Teil des Routenführungspfeils ein Teil ist, das die Richtung kennzeichnet, in der das Fahrzeug abzubiegen hat; und einen Anzeigeabschnitt (10), der das zusammengesetzte Video zeigt durch den Videozusammensetz-Verarbeitungsabschnitt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - JP 2915508 [0003]
    • - JP 11-108684 A [0003]

Claims (5)

  1. Ein Navigationsgerät, umfassend: eine Kartendatenbank, die Kartendaten hält; eine Orts- und Richtungs-Messeinheit, die einen momentanen Ort und Richtung eines Fahrzeugs misst; eine Routenberechnungseinheit, die auf Grundlage von Kartendaten, die gelesen werden von der Kartendatenbank, eine Route berechnet von dem momentanen Ort, der gemessen wird durch die Orts- und Richtungs-Messeinheit, zu einem Ziel; eine Kamera, die Videobilder vor dem Fahrzeug aufnimmt; eine Videobild-Erfassungseinheit, die die Videobilder vor dem Fahrzeug erfasst, die aufgenommen werden durch die Kamera; eine Wegbreiten-Erfassungseinheit, die auf Grundlage von Wegbreitendaten, enthalten in den Kartendaten, gelesen von der Kartendatenbank, die Breite eines Wegsegments berechnet, das als letztes in eine Kreuzung eintritt, zu der das Fahrzeug zu führen ist, von Wegsegmenten, die die Route bilden, die berechnet wird durch die Routenberechnungseinheit; eine Videobild-Zusammensetz-Verarbeitungseinheit, die die Länge eines Teils begrenzt, das eine Abbiegerichtung eines Routenführungspfeils begrenzt, auf die Wegbreite, die berechnet wird durch die Wegbreiten-Erfassungseinheit, und die den Pfeil auf den Videobildern zusammensetzt, die erfasst werden durch die Videobild-Erfassungseinheit in einer überlagernden Art und Weise; und eine Anzeigeeinheit, die das Videobild anzeigt, das zusammengesetzt wird durch die Videobild-Zusammensetz-Verarbeitungseinheit.
  2. Ein Navigationsgerät nach Anspruch 1, wobei die Videobild-Zusammensetz-Verarbeitungseinheit ein Anzeigeformat eines Teils modifiziert, bei dem die Länge des Teils des Routenführungspfeils, der eine Abbiegerichtung kennzeichnet, die Wegbreite überschreitet, die berechnet wird durch die Wegbreiten-Erfassungseinheit, und den Pfeil auf den Videobildern zusammensetzt, die erfasst werden durch die Videobild-Erfassungseinheit auf eine überlagernde Art und Weise.
  3. Ein Navigationsgerät nach Anspruch 1, wobei die Wegbreiten-Erfassungseinheit die Breite des Wegsegments berechnet, das als letztes in die Kreuzung eintritt, zu der das Fahrzeug zu führen ist, von den Wegsegmenten, die die Route bilden, die berechnet wird durch die Routenberechnungseinheit auf Grundlage von Daten hinsichtlich der Anzahl von Spuren und Wegartdaten, die enthalten sind in den Kartendaten, die gelesen werden von der Kartendatenbank.
  4. Ein Navigationsgerät, umfassend: eine Kartendatenbank, die Kartendaten hält; eine Orts- und Richtungs-Messeinheit, die einen momentanen Ort und Richtung eines Fahrzeugs misst; eine Routenberechnungseinheit, die auf Grundlage von Kartendaten, die gelesen werden von der Kartendatenbank, eine Route berechnet von dem momentanen Ort, der gemessen wird durch die Orts- und Richtungs-Messeinheit, zu einem Ziel; eine Kamera, die Videobilder vor dem Fahrzeug aufnimmt; eine Videobild-Erfassungseinheit, die Videobilder vor dem Fahrzeug erfasst, die aufgenommen werden durch die Kamera; eine Umgehungseinrichtungs-Erfassungseinheit, die von der Kartendatenbank Umgehungseinrichtungsdaten erfasst, die eine zu umgehende Einrichtung bezeichnen, die sich bei einer Kreuzung befindet, zu der das Fahrzeug zu führen ist entlang des Wegs, der berechnet wird durch die Wegberechnungseinheit; eine Videobild-Zusammensetz-Verarbeitungseinheit, die den Ort einer Umgebungseinrichtung ausmalt, die näher im Vordergrund anzuzeigen ist als der Teil des Routenführungspfeils, der eine Abbiegerichtung kennzeichnet, von Umgehungseinrichtungen, die beschrieben werden durch die Umgehungseinrichtungsdaten, die erfasst werden durch die Umgehungseinrichtungs-Erfassungseinheit, die den Pfeil auf solch eine Art und Weise zeichnet, dass der Teil des Routenführungspfeils, der eine Abbiegerichtung kennzeichnet, den hinteren Teil des Orts der ausgemalten Umgehungseinrichtung umgeht, und den Pfeil zusammensetzt auf den Videobildern, die erfasst werden durch die Videobild-Erfassungseinheit auf eine überlagernde Art und Weise; und eine Anzeigeeinheit, die Videobilder anzeigt, die zusammengesetzt werden durch die Videobild-Zusammensetz-Verarbeitungseinheit.
  5. Ein Navigationsgerät nach Anspruch 4, wobei die Videobild-Zusammensetz-Verarbeitungseinheit die Länge eines Teils begrenzt, das eine Abbiegerichtung eines Routenführungspfeils zu der Umgehungseinrichtung kennzeichnet, die näher im Vordergrund anzuzeigen ist als der Teil des Routenführungspfeils, der eine Abbiegerichtung kennzeichnet, von Umgehungseinrichtungen, die beschrieben werden durch die Umgehungseinrichtungsdaten, die erfasst werden durch die Umgehungseinrichtungs-Erfassungseinheit, die ein Schild der Umgehungseinrichtung auf dem Teil des Routenführungspfeils zeichnet, der eine Abbiegerichtung kennzeichnet, und die das Schild auf den Videobildern zusammensetzt, die erfasst werden durch die Videobild-Erfassungseinheit auf eine überlagernde Art und Weise.
DE112008003481T 2007-12-28 2008-09-10 Navigationsgerät Ceased DE112008003481T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007339840 2007-12-28
JP2007-339840 2007-12-28
PCT/JP2008/002501 WO2009084134A1 (ja) 2007-12-28 2008-09-10 ナビゲーション装置

Publications (1)

Publication Number Publication Date
DE112008003481T5 true DE112008003481T5 (de) 2010-12-30

Family

ID=40823872

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112008003481T Ceased DE112008003481T5 (de) 2007-12-28 2008-09-10 Navigationsgerät

Country Status (5)

Country Link
US (1) US8315796B2 (de)
JP (1) JP4731627B2 (de)
CN (1) CN101910793B (de)
DE (1) DE112008003481T5 (de)
WO (1) WO2009084134A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109708653A (zh) * 2018-11-21 2019-05-03 斑马网络技术有限公司 路口显示方法、装置、车辆、存储介质及电子设备

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101910792A (zh) * 2007-12-28 2010-12-08 三菱电机株式会社 导航装置
JP4886044B2 (ja) * 2008-01-29 2012-02-29 パイオニア株式会社 ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラム、および記録媒体
US20090216431A1 (en) * 2008-02-26 2009-08-27 Tien Vu Method and apparatus for adjusting distance for generating maneuver instruction for navigation system
JP5908724B2 (ja) * 2009-03-26 2016-04-26 株式会社トヨタマップマスター 交差点の進路規制情報生成装置及びその方法、交差点の進路規制情報を生成するためのコンピュータプログラム及びそのコンピュータプログラムを記録した記録媒体
JP2012127745A (ja) * 2010-12-14 2012-07-05 Aisin Aw Co Ltd ナビゲーション装置、ナビゲーション方法及びプログラム
US8265866B2 (en) * 2010-12-15 2012-09-11 The Boeing Company Methods and systems for augmented navigation
US8996226B1 (en) * 2011-07-12 2015-03-31 Google Inc. Intersection completer
FR2979300B1 (fr) * 2011-08-31 2013-08-30 Peugeot Citroen Automobiles Sa Dispositif pour estimer une trajectoire future d'un vehicule et associer a des parties qu'elle comprend des aspects differents selon leurs positions par rapport a un obstacle, pour un systeme d'aide a la conduite
JP2013117515A (ja) * 2011-11-02 2013-06-13 Aisin Aw Co Ltd レーン案内表示システム、方法およびプログラム
WO2013084317A1 (ja) * 2011-12-07 2013-06-13 トヨタ自動車株式会社 表示制御装置
US20150029214A1 (en) * 2012-01-19 2015-01-29 Pioneer Corporation Display device, control method, program and storage medium
WO2013111302A1 (ja) * 2012-01-26 2013-08-01 パイオニア株式会社 表示装置、制御方法、プログラム、記憶媒体
US9037411B2 (en) * 2012-05-11 2015-05-19 Honeywell International Inc. Systems and methods for landmark selection for navigation
JP6015227B2 (ja) * 2012-08-10 2016-10-26 アイシン・エィ・ダブリュ株式会社 交差点案内システム、方法およびプログラム
JP6015228B2 (ja) * 2012-08-10 2016-10-26 アイシン・エィ・ダブリュ株式会社 交差点案内システム、方法およびプログラム
CN102879000A (zh) * 2012-09-20 2013-01-16 华为终端有限公司 导航终端、导航方法及远程导航服务系统
JP5935636B2 (ja) * 2012-09-28 2016-06-15 アイシン・エィ・ダブリュ株式会社 交差点案内システム、方法およびプログラム
JP5874602B2 (ja) * 2012-10-31 2016-03-02 アイシン・エィ・ダブリュ株式会社 退出道路案内システム、方法およびプログラム
CN103134514B (zh) * 2012-12-25 2015-08-26 上海博泰悦臻电子设备制造有限公司 导航设备、导航路径的获取方法及路段提取方法与装置
JP6484228B2 (ja) 2013-06-13 2019-03-13 モービルアイ ビジョン テクノロジーズ リミテッド 視覚強化ナビゲーション
US9145139B2 (en) 2013-06-24 2015-09-29 Google Inc. Use of environmental information to aid image processing for autonomous vehicles
US9176324B1 (en) * 2013-06-25 2015-11-03 Rockwell Collins, Inc. Enhanced-image presentation system, device, and method
US20150142251A1 (en) * 2013-11-21 2015-05-21 International Business Machines Corporation Vehicle control based on colors representative of navigation information
JP6446784B2 (ja) * 2014-01-21 2019-01-09 株式会社デンソー ナビゲーション装置
JP2015152467A (ja) * 2014-02-17 2015-08-24 パイオニア株式会社 表示制御装置、制御方法、プログラム、及び記憶媒体
US10422649B2 (en) * 2014-02-24 2019-09-24 Ford Global Technologies, Llc Autonomous driving sensing system and method
US9459115B1 (en) * 2014-03-28 2016-10-04 Amazon Technologies, Inc. Unobstructed map navigation using animation
DE102014208663A1 (de) * 2014-05-08 2015-11-12 Conti Temic Microelectronic Gmbh Vorrichtung und verfahren zur bereitstellung von informationsdaten zu einem in einem videobildstrom enthaltenen objekt einer fahrzeugumgebung
GB2513738A (en) * 2014-05-08 2014-11-05 Daimler Ag Method for determining a position of a vehicle by a navigation system of the vehicle
CN106556399A (zh) * 2015-09-25 2017-04-05 百度在线网络技术(北京)有限公司 导航处理方法、导航设备、移动终端设备及导航服务器
US9613386B1 (en) 2015-12-01 2017-04-04 Google Inc. Pickup and drop off zones for autonomous vehicles
US10982970B2 (en) 2016-07-07 2021-04-20 Saab Ab Displaying system and method for displaying a perspective view of the surrounding of an aircraft in an aircraft
JP6663622B2 (ja) * 2016-08-05 2020-03-13 日立オートモティブシステムズ株式会社 撮像装置
KR101806734B1 (ko) * 2016-09-09 2017-12-07 현대자동차주식회사 차량의 방위 추정 장치 및 방법
CN109844836A (zh) * 2016-10-20 2019-06-04 福特汽车公司 用于在地图上呈现车道和车辆类型特定的交通信息的方法和设备
KR101982774B1 (ko) 2016-11-29 2019-05-27 엘지전자 주식회사 자율 주행 차량
JP1584311S (de) * 2017-01-11 2017-08-21
JP7151073B2 (ja) * 2017-03-31 2022-10-12 株式会社アイシン 表示装置及びコンピュータプログラム
JP6714944B2 (ja) * 2017-08-04 2020-07-01 株式会社 ミックウェア 運転支援装置、運転支援プログラム、運転支援方法および運転支援システム
DE112018004583T5 (de) 2017-11-17 2020-08-27 Aisin Aw Co., Ltd. Anzeigevorrichtung und Computerprogramm
CN110389992B (zh) * 2018-04-13 2022-02-18 百度在线网络技术(北京)有限公司 导航矢量数据的可视化方法、装置、设备及存储介质
JP7232604B2 (ja) * 2018-09-21 2023-03-03 フォルシアクラリオン・エレクトロニクス株式会社 ナビゲーションシステム、ナビゲーション表示方法、およびナビゲーション表示プログラム
CN110779541B (zh) * 2019-04-10 2021-11-23 北京嘀嘀无限科技发展有限公司 一种转向箭头的显示方法及系统
US10746557B1 (en) * 2019-06-21 2020-08-18 Lyft, Inc. Systems and methods for navigation using bounding areas
US10704919B1 (en) * 2019-06-21 2020-07-07 Lyft, Inc. Systems and methods for using a directional indicator on a personal mobility vehicle
US11328593B2 (en) * 2019-07-31 2022-05-10 Toyota Research Institute, Inc. Autonomous vehicle user interface with predicted trajectories
US20230004155A1 (en) * 2020-02-27 2023-01-05 Panasonic Intellectual Property Management Co., Ltd. Information presentation method, information presentation device, and recording medium
USD963666S1 (en) * 2020-03-25 2022-09-13 Denso International America, Inc. Display screen or portion thereof with graphical user interface for a remote control vehicle
CN114023095B (zh) * 2021-09-22 2022-12-30 北京百度网讯科技有限公司 一种交通限制识别方法、装置及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11108684A (ja) 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd カーナビゲーションシステム
JP2915508B2 (ja) 1989-07-04 1999-07-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 車両航法データの表示方法と航法システムおよび航法システムを具える車両

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3447900B2 (ja) * 1996-09-13 2003-09-16 アルパイン株式会社 ナビゲーション装置
JPH10253380A (ja) 1997-03-14 1998-09-25 Hitachi Ltd 三次元地図表示装置
JP3235997B2 (ja) * 1999-10-04 2001-12-04 松下電器産業株式会社 ナビゲーション装置と立体地図表示方法
US6411898B2 (en) * 2000-04-24 2002-06-25 Matsushita Electric Industrial Co., Ltd. Navigation device
JP2005214857A (ja) 2004-01-30 2005-08-11 Sony Corp ナビゲーション装置、案内画像作成方法
EP1586861B1 (de) 2004-04-15 2008-02-20 Robert Bosch Gmbh Verfahren und Vorrichtung zur Darstellung von Fahrerinformationen unter Berücksichtigung anderer beweglicher Objekte
KR100674805B1 (ko) * 2005-06-14 2007-01-29 엘지전자 주식회사 카메라 영상과 지도 데이터 간에 건물 매칭 방법
JP4743496B2 (ja) * 2005-07-08 2011-08-10 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置及びナビゲーション方法
JP2007094045A (ja) * 2005-09-29 2007-04-12 Matsushita Electric Ind Co Ltd ナビゲーション装置、ナビゲート方法および車両
JP4643436B2 (ja) 2005-12-27 2011-03-02 アルパイン株式会社 自車位置判定装置
JP2007256048A (ja) 2006-03-23 2007-10-04 Matsushita Electric Ind Co Ltd ナビゲーション装置
JP2007315861A (ja) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd 車両用画像処理装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2915508B2 (ja) 1989-07-04 1999-07-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 車両航法データの表示方法と航法システムおよび航法システムを具える車両
JPH11108684A (ja) 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd カーナビゲーションシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109708653A (zh) * 2018-11-21 2019-05-03 斑马网络技术有限公司 路口显示方法、装置、车辆、存储介质及电子设备

Also Published As

Publication number Publication date
WO2009084134A1 (ja) 2009-07-09
US20100256900A1 (en) 2010-10-07
CN101910793B (zh) 2012-11-28
JPWO2009084134A1 (ja) 2011-05-12
US8315796B2 (en) 2012-11-20
JP4731627B2 (ja) 2011-07-27
CN101910793A (zh) 2010-12-08

Similar Documents

Publication Publication Date Title
DE112008003481T5 (de) Navigationsgerät
DE112008003424B4 (de) Navigationsgerät, das Videobilder einer Kamera verwendet
DE112008003341T5 (de) Navigationsvorrichtung
DE112008003588B4 (de) Navigationsgerät verwendend Videobilder einer Kamera
DE69631280T2 (de) Fahrzeugsnavigationsgerät, das die Strassenbreite berücksichtigt
CN107430815B (zh) 用于显示停车区的方法和系统
DE19836156B4 (de) Fahrzeugnavigationssystem und Speichermedium
DE19835422B4 (de) Kartenanzeigevorrichtung und Aufzeichnungsmedium
DE69738209T2 (de) Verfahren und Vorrichtung zur Kartenanzeige
US8346473B2 (en) Lane determining device, lane determining method and navigation apparatus using the same
DE69531188T2 (de) Navigationsvorrichtung
DE69633421T2 (de) Navigationsanzeige mit Vogelperspektive
DE102010042063B4 (de) Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs
US7135994B2 (en) Image display apparatus
DE112005001307T5 (de) Eingebaute Navigationsvorrichtung und Verfahren zur Koerrektur der eigenen Fahrzeugposition
DE202005021607U1 (de) Navigationsvorrichtung mit Kamerainformation
DE10050765B4 (de) Streckenfestlegungsverfahren und zugehörige Navigationsvorrichtung
DE112006001703T5 (de) Straßenmarkierungserkennungssystem
DE102015207147A1 (de) Vorrichtung zur Verkehrszeichenerkennung und Verfahren zum Ausgeben der Geschwindigkeitsbeschränkung unter Verwendung derselben
US7676325B2 (en) Road landscape map producing apparatus, method and program
DE102004005750A1 (de) Routensuchverfahren und Verkehrsinformationen-Anzeige-Verfahren für eine Navigationsvorrichtung
DE19830314A1 (de) Fahrzeugnavigationssystem und Aufzeichnungsmedium
DE112005000082T5 (de) Routensuchverfahren für ein Navigationssystem, und Navigationssystem
DE102016124183A1 (de) Driving assist apparatus for vehicle
DE112019004319T5 (de) Verfahren und system zum erkennen eines schildes

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final
R003 Refusal decision now final

Effective date: 20150123