DE112008003424T5 - Navigationsgerät - Google Patents

Navigationsgerät Download PDF

Info

Publication number
DE112008003424T5
DE112008003424T5 DE112008003424T DE112008003424T DE112008003424T5 DE 112008003424 T5 DE112008003424 T5 DE 112008003424T5 DE 112008003424 T DE112008003424 T DE 112008003424T DE 112008003424 T DE112008003424 T DE 112008003424T DE 112008003424 T5 DE112008003424 T5 DE 112008003424T5
Authority
DE
Germany
Prior art keywords
video image
data
route
unit
path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112008003424T
Other languages
English (en)
Other versions
DE112008003424B4 (de
Inventor
Yoshihisa Yamaguchi
Takashi Nakagawa
Toyoaki Kitano
Hideto Miyazaki
Tsutomu Matsubara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112008003424T5 publication Critical patent/DE112008003424T5/de
Application granted granted Critical
Publication of DE112008003424B4 publication Critical patent/DE112008003424B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

Ein Navigationsgerät umfassend:
eine Kartendatenbank, die Kartendaten hält;
eine Orts- und Richtungs-Messeinheit, die einen momentanen Ort und Richtung eines Fahrzeugs misst;
eine Wegdaten-Erfassungseinheit, die von der Kartendatenbank Kartendaten der Umgebungen des Ortes erfasst, der durch die Orts- und Richtungs-Messeinheit gemessen wird, und die Wegdaten von den Kartendaten sammelt;
eine Kamera, die Videobilder vor dem Fahrzeug aufnimmt;
eine Videobild-Erfassungseinheit, die die Videobilder vor dem Fahrzeug erfasst, die aufgenommen werden durch die Kamera;
eine Videobild-Zusammensetz-Verarbeitungseinheit, die ein Videobild erzeugt, in dem ein Bild eines Wegs, bezeichnet durch Wegdaten, gesammelt durch die Wegdaten-Erfassungseinheit, überlagert wird auf dem Videobild, das erfasst wird durch die Videobild-Erfassungseinheit; und
eine Anzeigeeinheit, die das Videobild anzeigt, das erzeugt wird durch die Videobild-Zusammensetz-Verarbeitungseinheit.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein Navigationsgerät, das einen Benutzer an ein Ziel führt, und insbesondere eine Technologie zum Anzeigen von Führungsinformation hinsichtlich einer Live-Aktion oder echtem Video, das durch eine Kamera erfasst wird.
  • STAND DER TECHNIK
  • Bekannte Technologien in herkömmlichen Autonavigationsgeräten enthalten beispielsweise Routenführungstechnologien, in denen eine fahrzeugeigene Kamera Bilder vor einem Fahrzeug während eines Fahrens aufnimmt, und Führungsinformation in Form von CG (Computergrafik) angezeigt wird durch Überlagern auf Video, erhalten durch die obige Bildaufnahme (beispielsweise Patentdokument 1).
  • Auch offenbart Patentdokument 2 als ähnliche Technologie ein Autonavigationsgerät, in dem Navigationsinformationselemente angezeigt werden, so dass sie sofort intuitiv erfasst werden. In diesem Autonavigationsgerät nimmt eine an dem Vorderteil oder ähnlichem eines Fahrzeugs angebrachte Bildgebungskamera den Hintergrund in der Fahrrichtung auf solch eine Art und Weise auf, dass ein Kartenbild und ein Live-Aktions-Video bzw. ein Video einer momentanen Aktion bzw. Vorgangs mit Bezug auf eine Hintergrundanzeige von Navigationsinformationselementen durch einen Auswähler ausgewählt werden können, und die Navigationsinformationselemente werden angezeigt auf einem Anzeigegerät durch Überlagern des Hintergrundbildes mittels einer Bildzusammensetzeinheit. Patentdokument 2 offenbart eine Technologie, wobei während einer Führung eines Fahrzeugs entlang einer Route, ein Pfeil angezeigt wird bei Kreuzungen entlang des Wegs, entlang den das Fahrzeug geführt wird, unter Verwendung eines Live-Aktions-Videobilds.
    • Patentdokument 1: Japanisches Patent mit der Nummer 2915508
    • Patentdokument 2: Japanische Patentanmeldungsveröffentlichung mit der Nummer 11/108684 ( JP-A-11-108684 )
  • Ein sichereres Fahren könnte erreicht werden, falls es möglich wäre, nicht nur den von dem Fahrzeug sichtbaren Bereich zu erfassen, wie es gewöhnlicher Weise der Fall ist, aber auch die Form des Wegs um das Fahrzeug, da dies es erlauben würde, einen Umweg zu nehmen, oder die Route zu ändern, wodurch ein Erhöhen der Spanne des Fahrbetriebs ermöglicht wird. In den in Patentdokument 1 und Patentdokument 2 offenbarten Technologien wird jedoch eine Routenführen ausgeführt unter Verwendung eines Live-Aktions-Videobilds, und daher ist es nicht möglich, obwohl die Situation vor dem Fahrzeug im Detail gelernt werden kann, die Form des Wegs um das Fahrzeug zu erfassen. Es würde deshalb wünschenswert sein, ein Fahrzeugnavigationsgerät zu entwickeln, das ein sicheres Fahren erlauben sollte durch Möglichmachen, die Form des Wegs um das Fahrzeug zu erfassen.
  • Die vorliegende Erfindung wurde durchgeführt, um die obigen Bedingungen zu erfüllen, und es ist eine Aufgabe der vorliegenden Erfindung, ein Navigationsgerät bereitzustellen, das ein sicheres Fahren ermöglicht.
  • OFFENBARUNG DER ERFINDUNG
  • Um das obige Problem zu lösen, enthält ein Navigationsgerät gemäß der vorliegenden Erfindung: eine Kartendatenbank, die Kartendaten hält; eine Orts- und Richtungs-Messeinheit, die einen momentanen Ort und eine Richtung eines Fahrzeugs misst; eine Wegdaten-Erfassungseinheit, die von der Kartendatenbank Kartendaten der Umgebungen des Ortes erfasst, gemessen durch die Orts- und Richtungs-Messeinheit, und die Wegdaten von den Kartendaten sammelt; eine Kamera, die Videobilder vor dem Fahrzeug aufnimmt; eine Videobild-Erfassungseinheit, die Videobilder vor dem Fahrzeug erfasst, die erfasst werden durch die Kamera; eine Videobild-Zusammensetz-Verarbeitungseinheit, die ein Videobild erzeugt, in dem ein Bild eines Wegs, bezeichnet durch Wegdaten, erfasst durch die Wegdaten-Erfassungseinheit, überlagert wird auf dem Videobild, das erfasst wird durch die Videobild-Erfassungseinheit; und eine Anzeigeeinheit, die das Videobild anzeigt, das erzeugt wird durch die Videobild-Zusammensetz-Verarbeitungseinheit.
  • Gemäß dem Navigationsgerät der vorliegenden Erfindung kann, da es auf solch eine Art und Weise konfiguriert ist, dass ein Bild des Wegs um den momentanen Ort angezeigt wird auf einer Anzeigeeinheit durch Überlagern auf Videobildern vor dem Fahrzeug, erfasst durch eine Kamera, der Fahrer die Form oder Geometrie des Wegs bei nicht sichtbaren Orten um das Fahrzeug erfassen, was ein sicheres Fahren erlaubt.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein Blockdiagramm, das die Konfiguration eines Autonavigationsgeräts gemäß Ausführungsform 1 der vorliegenden Erfindung zeigt;
  • 2 zeigt ein Flussdiagramm, das den Betrieb des Autonavigationsgeräts gemäß Ausführungsform 1 der vorliegenden Erfindung darstellt unter Fokussierung auf einen Videobild-Zusammensetzprozess;
  • 3 zeigt ein Diagramm, das ein Beispiel von Videobildern vor und nach einer Zusammensetzung eines Wegs in ein Live-Aktions-Videobild in dem Autonavigationsgerät gemäß Ausführungsform 1 der vorliegenden Erfindung zeigt;
  • 4 zeigt ein Flussdiagramm, das die Details eines Inhaltserzeugungsprozesses in den Videobild-Zusammensetzprozess darstellt, der ausgeführt wird in dem Autonavigationsgerät gemäß Ausführungsform 1 der vorliegenden Erfindung;
  • 5 zeigt ein Diagramm zum Darstellen der Arten von Inhalt, verwenden in dem Autonavigationsgerät gemäß Ausführungsform 1 der vorliegenden Erfindung;
  • 6 zeigt ein Flussdiagramm, das die Details eines Inhaltserzeugungsprozesses in dem Videobild-Zusammensetzprozess darstellt, der ausgeführt wird in dem Autonavigationsgerät gemäß Ausführungsform 2 der vorliegenden Erfindung;
  • 7 zeigt ein Diagramm zum Darstellen einer Konsolidierung in dem Inhaltserzeugungsprozess in dem Videobild-Zusammensetzprozess, der ausgeführt wird in dem Autonavigationsgerät gemäß Ausführungsform 2 der vorliegenden Erfindung;
  • 8 zeigt ein Flussdiagramm, das die Details eines Inhaltserzeugungsprozesses in dem Videobild-Zusammensetzprozess darstellt, der ausgeführt wird in dem Autonavigationsgerät gemäß Ausführungsform 3 der vorliegenden Erfindung;
  • 9 zeigt ein Flussdiagramm, das den Betrieb des Autonavigationsgeräts gemäß Ausführungsform 4 der vorliegenden Erfindung darstellt unter Fokussierung auf einen Videobild-Zusammensetzprozess;
  • 10 zeigt ein Flussdiagramm, das den Betrieb des Autonavigationsgeräts gemäß Ausführungsform 5 der vorliegenden Erfindung darstellt unter Fokussierung auf einen Videobild-Zusammensetzprozess;
  • 11 zeigt ein Diagramm, das ein Beispiel von Videobildern zeigt, in dem eine Kreuzung zusammengesetzt wird auf ein Live-Aktions-Videobild in dem Autonavigationsgerät gemäß Ausführungsform 5 der vorliegenden Erfindung;
  • 12 zeigt ein Flussdiagramm, das den Betrieb des Autonavigationsgeräts gemäß Ausführungsform 6 der vorliegenden Erfindung darstellt unter Fokussierung auf einen Videobild-Zusammensetzprozess;
  • 13-1 zeigt ein Diagramm, das ein Beispiel von Videobildern zeigt, in denen ein Weg hervorgehoben wird auf einem Live-Aktions-Videobild in Autonavigationsgerät gemäß Ausführungsform 6 der vorliegenden Erfindung; und
  • 13-2 zeigt ein Diagramm, das ein anderes Beispiel von Videobildern zeigt, in denen ein Weg hervorgehoben wird auf einem Live-Aktions-Videobild in dem Autonavigationsgerät gemäß Ausführungsform 6 der vorliegenden Erfindung.
  • BESTER MODUS ZUM AUSFÜHREN DER ERFINDUNG
  • Die vorliegende Erfindung wird im Detail unten erklärt auf Grundlage bevorzugter Ausführungsformen zum Realisieren der Erfindung mit Bezug auf begleitende Zeichnungen.
  • Ausführungsform 1
  • 1 zeigt ein Blockdiagramm, das die Konfiguration eines Navigationsgeräts gemäß Ausführungsform 1 der vorliegenden Erfindung zeigt, insbesondere ein Autonavigationsgerät, das in einem Fahrzeug verwendet wird. Das Autonavigationsgerät enthält einen GPS-(globales Positionierungssystem)-Empfänger 1, einen Fahrzeuggeschwindigkeitssensor 2, einen Rotationssensor (Kreisel) 3, eine Orts- und Richtungs-Messeinheit 4, eine Kartendatenbank 5, eine Eingabebetriebseinheit 6, eine Kamera 7, eine Videobild-Erfassungseinheit 8, eine Navigationssteuereinheit 9 und eine Anzeigeeinheit 10.
  • Der GPS-Empfänger 1 misst einen Fahrzeugort durch Empfangen von Funkwellen von einer Vielzahl von Satelliten. Der Fahrzeugort, der gemessen wird durch den GPS-Empfänger 1, wird gesendet als Fahrzeugortssignal an die Orts- und Richtungs-Messeinheit 4. Der Fahrzeuggeschwindigkeitssensor 2 misst sequentiell die Geschwindigkeit des Fahrzeugs. Der Fahrzeuggeschwindigkeitssensor 2 ist im Allgemeinen zusammengesetzt aus einem Sensor, der Radumdrehungen misst. Die Geschwindigkeit des Fahrzeugs, die gemessen wird durch den Fahrzeuggeschwindigkeitssensor 2, wird als Fahrzeuggeschwindigkeitssignal an die Orts- und Richtungs-Messeinheit 4 gesendet. Der Rotationssensor 3 misst hintereinanderfolgend bzw. sequentiell die Fahrtrichtung des Fahrzeugs. Die Fahrtrichtung (hier im Folgenden einfach als ”Richtung” bezeichnet) des Fahrzeugs, wie durch den Rotationssensor 3 gemessen, wird gesendet als ein Richtungssignal an die Orts- und Richtungs-Messeinheit 4.
  • Die Orts- und Richtungs-Messeinheit 4 misst den momentanen Ort und Richtung des Fahrzeugs auf Grundlage des Fahrzeugortssignals, gesendet von dem GPS-Empfänger 1. Jedoch kann, in den Fällen, in denen der Raum über dem Fahrzeug geblockt ist durch beispielsweise einen Tunnel oder umstehende Gebäude, die Anzahl der Satelliten, von denen Funkwellen empfangen werden können, Null sein oder verringert sein, und dadurch kann ein Empfangszustand verschlechtert sein. Der momentane Ort und Richtung können nicht auf Grundlage des Fahrzeugortssignals alleine von dem GPS-Empfänger 1 gemessen werden, oder selbst wenn die Messung möglich ist, kann die Genauigkeit davon verschlechtert werden. Deshalb wird der Fahrzeugort gemessen durch Verwenden des Vorteils einer Koppelnavigation bzw. Dead Reckoning (autonome Navigation) unter Verwendung des Fahrzeuggeschwindigkeitssignals von dem Fahrzeuggeschwindigkeitssensor 2 und dem Richtungssignal von dem Rotationssensor 3, um daher eine Verarbeitung zum Kompensieren von Messungen gemäß dem GPS-Empfänger 1 auszuführen.
  • Wie oben bemerkt, enthält der momentane Ort und Richtung des Fahrzeugs, wie durch die Orts- und Richtungs-Messeinheit 4 gemessen, verschiedene Fehler, die beispielsweise auftreten von verschlechterter Messpräzision aufgrund schlechten Empfangs durch den GPS-Empfänger 1 oder Fahrzeuggeschwindigkeitsfehlern aufgrund von Änderungen im Raddurchmesser, hervorgerufen durch Abnutzung und/oder Temperaturänderungen oder Fehlern, die zurückzuführen sind auf die Präzision der Sensoren selbst. Die Orts- und Richtungs-Messeinheit 4 korrigiert deshalb den momentanen Ort und Richtung des Fahrzeugs, erhalten durch Messung, und die Fehler enthält durch Kartenanpassen unter Verwendung von Wegdaten, erfasst von der Kartendatenbank 5. Der korrigierte momentane Ort und die Richtung des Fahrzeugs werden gesendet als Fahrzeugs-Orts- und Richtungsdaten, an die Navigationssteuereinheit 9.
  • Die Kartendatenbank 5 hält Kartendaten, die Wegdaten enthalten, wie zum Beispiel Wegort, Wegtyp (Schnellstraße, Mautstraße, normale Straße, enge Straße und ähnlichem), Beschränkungen hinsichtlich des Wegs (Geschwindigkeitsbeschränkungen, Einbahnstraßenverkehr und ähnlichem), oder Spurinformation in der Nähe von Kreuzungen, sowie Information hinsichtlich Einrichtungen um den Weg herum. Wege werden repräsentiert als Vielzahl von Knoten und geraden Linienverbindungen, die die Knoten verbinden. Ein Wegort wird ausgedrückt durch Aufnehmen des Breitengrads und Längengrads von jedem Knoten. Beispielsweise kennzeichnen drei oder mehr Verbindungen, verbunden in einem gegebenen Knoten, eine Vielzahl von Wegen, die bei dem Ort des Knotens sich schneiden. Die in der Kartendatenbank 5 gehaltenen Kartendaten werden gelesen durch die Orts- und Richtungs-Messeinheit 4, wie oben beschrieben, und auch durch die Navigationssteuereinheit 9.
  • Die Eingabebetriebseinheit 6 ist zusammengesetzt aus mindestens einem aus beispielsweise einer Fernsteuerung, einem berührungsempfindlichen Feld und/oder einem Spracherkennungsgerät. Die Eingabebetriebseinheit 6 wird durch den Benutzer betrieben, das dem Fahrer oder einem Passagier, zum Eingeben eines Ziels oder zum Auswählen von Information, zugeführt durch das Autonavigationsgerät. Die Daten, die durch Betrieb der Eingabebetriebseinheit 6 erzeugt werden, werden gesendet als Betriebsdaten an die Navigationssteuereinheit 9.
  • Die Kamera 7 ist zusammengesetzt aus mindestens einem von beispielsweise einer Kamera, die Bilder vor dem Fahrzeug aufnimmt, oder einer Kamera, die in der Lage ist, Bilder simultan über einen weiten Bereich von Richtungen aufzunehmen, beispielsweise um das ganze Fahrzeug herum. Die Kamera 7 nimmt Bilder der Umgebungen des Fahrzeugs auf, einschließlich der Fahrtrichtung des Fahrzeugs. Das Videosignal, das erhalten wird durch Aufnehmen durch die Kamera 7, wird gesendet an die Videobild-Erfassungseinheit 8.
  • Die Videobild-Erfassungseinheit 8 wandelt das Videosignal um, das gesendet wird von der Kamera 7, in ein digitales Signal, das von einem Computer verarbeitet werden kann. Das digitale Signal, das erhalten wird durch Umwandlung von der Videobild-Erfassungseinheit 8, wird gesendet als Videodaten an die Navigationssteuereinheit 9.
  • Die Navigationssteuereinheit 9 führt eine Datenverarbeitung aus, um eine Funktion bereitzustellen zum Anzeigen einer Karte der Umgebungen des Fahrzeugs, in dem das Autonavigationsgerät bereitgestellt wird, wobei die Funktion ein Berechnen einer Führungsroute zu einem Ziel, eingegeben über die Eingabebetriebseinheit 6, enthalten kann, sowie ein Erzeugen einer Führungsinformation gemäß der Führungsroute und dem momentanen Ort und Richtung des Fahrzeugs, oder Erzeugen einer Führungskarte, die eine Karte der Umgebungen des Fahrzeugorts und eine Fahrzeugmarkierung kombiniert, die den Fahrzeugort bezeichnet; und eine Funktion eines Führens des Fahrzeugs zu dem Ziel. Zusätzlich führt die Navigationssteuereinheit 9 eine Datenverarbeitung aus zum Suchen nach Information, wie zum Beispiel Verkehrsinformation, Sehenswürdigkeiten, Restaurants, Läden und ähnliches mit Bezug auf das Ziel oder die Führungsroute, und zum Suchen nach Einrichtungen, die mit den Bedingungen übereinstimmen, die eingegeben werden durch die Eingabebetriebseinheit 6.
  • Die Navigationssteuereinheit 9 erzeugt Anzeigedaten zum Anzeigen, im Einzelnen oder in Kombination, einer Karte, die erzeugt wird auf Grundlage der Kartendaten, die von der Kartendatenbank 5 gelesen werden, Videobilder, die bezeichnet werden durch die Videodaten, die erfasst werden durch die Videobild-Erfassungseinheit 8, oder Videodaten, die zusammengesetzt werden durch eine eigene interne Videobild-Zusammensetz-Verarbeitungseinheit 14 (unten im Einzelnen beschrieben). Die Navigationssteuereinheit 9 wird im Detail unten beschrieben. Die Anzeigedaten, die erzeugt werden als Ergebnis der verschiedenen Prozesse in der Navigationssteuereinheit 9, werden gesendet an die Anzeigeeinheit 10.
  • Die Anzeigeeinheit 10 ist beispielsweise zusammengesetzt aus einer LCD (Flüssigkristallanzeige) und zeigt die Anzeigedaten an, die gesendet werden von der Navigationssteuereinheit 9 in der Form von beispielsweise einer Karte und/oder einem Live-Aktions-Video auf dem Bildschirm.
  • Als Nächstes werden die Einzelheiten der Navigationssteuereinheit 9 unten beschrieben. Die Navigationssteuereinheit 9 enthält eine Zieleinstelleinheit 11, eine Routenberechnungseinheit 12, eine Führungsanzeige-Erzeugungseinheit 13, eine Videobild-Zusammensetz-Verarbeitungseinheit 14, eine Anzeigeentscheidungseinheit 15 und eine Wegdaten-Erfassungseinheit 16. Zum Verhindern eines Durcheinanders oder Wirrwarrs, wurden einige der Verbindungen zwischen den verschiedenen zusammensetzenden Elementen oben in 1 weggelassen. Die weggelassenen Teile werden erklärt wie sie auftreten.
  • Die Zieleinstelleinheit 11 stellt ein Ziel ein gemäß der Betriebsdaten, die gesendet werden von der Eingabebetriebseinheit 6. Das durch die Zieleinstelleinheit 11 eingestellte Ziel wird gesendet als Zieldaten an die Routenberechnungseinheit 12.
  • Die Routenberechnungseinheit 12 berechnet eine Führungsroute zu dem Ziel auf Grundlage der Zieldaten, die gesendet werden von der Zieleinstelleinheit 11, Fahrzeugorts- und Richtungsdaten, die gesendet werden von der Orts- und Richtungs-Messeinheit 4, und Kartendaten, die gelesen werden von der Kartendatenbank 5. Die Führungsroute, die berechnet wird durch Routenberechnungseinheit 12, wird gesendet als Führungsroutendaten an die Anzeigeentscheidungseinheit 15.
  • In Ansprechen auf einen Befehl bzw. Instruktion von der Anzeigeentscheidungseinheit 15 erzeugt die Führungsanzeige-Erzeugungseinheit 13 eine Führungskarte (hier im Folgenden als ”Grafik-Führungskarte”) auf Grundlage einer Grafik, die in herkömmlichen Autonavigationsgeräten verwendet wird. Die Grafik-Führungskarte, die erzeugt wird durch die Führungsanzeige-Erzeugungseinheit 13, enthält verschiedene Führungskarten, die kein Live-Aktions-Videobild verwenden, beispielsweise planimetrische Karten, Nahbereichskarten von Kreuzungen, schematische Autobahnkarten und ähnliches. Die Grafik-Führungskarte ist nicht begrenzt auf eine planimetrische Karte und kann eine Führungskarte sein, die eine dreidimensionale CG verwendet, oder eine Führungskarte, die eine Ansicht einer Vogelperspektive einer planimetrischen Karte darstellt. Techniken zum Erzeugen einer Grafik-Führungskarte sind gut bekannt, und eine detaillierte Erklärung derselben wird weggelassen. Die Grafik-Führungskarte, die erzeugt wird durch die Führungsanzeige-Erzeugungseinheit 13, wird gesendet als Grafik-Führungskartendaten an die Anzeigeentscheidungseinheit 15.
  • In Ansprechen auf einen Befehl von der Anzeigeentscheidungseinheit 15 erzeugt die Videobild-Zusammensetz-Verarbeitungseinheit 14 eine Führungskarte, die ein Live-Aktions-Videobild verwendet (hier im Folgenden bezeichnet als ”Live-Aktions-Führungskarte”). Beispielsweise erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 von der Kartendatenbank 5 Information hinsichtlich naher Objekte um das Fahrzeug, wie zum Beispiel ein Wegenetz, Orientierungshilfe, wie eine Sehenswürdigkeit, und Kreuzungen, und erzeugt eine Live-Aktions-Führungskarte, in der eine Grafik überlagert wird zum Beschreiben der Form, Inhalt und ähnlichem von nahen Objekten, sowie Zeichenfolgen, Bilder und ähnlichem (hier im Folgenden bezeichnet als ”Inhalt”), um die nahen Objekte, die vorliegen in einem Live-Aktions-Videobild, das präsentiert wird durch die Videodaten, die gesendet werden von der Videobild-Erfassungseinheit 8.
  • Die Videobild-Zusammensetz-Verarbeitungseinheit 14 erzeugt eine Live-Aktions-Führungskarte, in der ein Bild des Wegs, bezeichnet durch Wegdaten, erfasst durch die Wegdaten-Erfassungseinheit 16, überlagert wird auf einem Live-Aktions-Videobild, das erfasst wird durch die Videobild-Erfassungseinheit 8. Die Live-Aktions-Führungskarte, die erzeugt wird durch die Videobild-Zusammensetz-Verarbeitungseinheit 14, wird gesendet als Live-Aktions-Führungskartendaten an die Anzeigeentscheidungseinheit 15.
  • Wie oben bemerkt, instruiert die Anzeigeentscheidungseinheit 15 die Führungsanzeige-Erzeugungseinheit 13, eine Grafik-Führungskarte zu erzeugen, und instruiert die Videobild-Zusammensetz-Verarbeitungseinheit 14, eine Live-Aktions-Führungskarte zu erzeugen. Die Anzeigeentscheidungseinheit 15 entscheidet über den auf dem Bildschirm der Anzeigeeinheit 10 anzuzeigenden Inhalt auf Grundlage von Fahrzeugorts- und Richtungsdaten, die gesendet werden von der Orts- und Richtungs-Messeinheit 4, Kartendaten von der Fahrzeugumgebung, die gelesen werden von der Kartendatenbank 5, Betriebsdaten, die gesendet werden von der Eingabebetriebseinheit 6, Grafik-Führungs-Kartendaten, die gesendet werden von der Führungsanzeige-Erzeugungseinheit 13, und Live-Aktions-Führungskartendaten, die gesendet werden von der Videobild-Zusammensetz-Verarbeitungseinheit 14. Die Daten, die dem Anzeigeinhalt entsprechen, der bestimmt wird durch die Anzeigeentscheidungseinheit 15, werden gesendet als Anzeigedaten an die Anzeigeeinheit 10.
  • Auf Grundlage der Anzeigedaten zeigt die Anzeigeeinheit 10 beispielsweise eine Nahaufnahme einer Ansicht einer Kreuzung an, wenn das Fahrzeug sich einer Kreuzung annähert, oder zeigt ein Menu an, wenn eine Menu-Taste der Eingabebetriebseinheit 6 gedrückt wird, oder zeigt eine Live-Aktions-Führungskarte an unter Verwendung eines Live-Aktions-Videobilds, wenn ein Live-Aktions-Anzeigemodus eingestellt wird durch die Eingabebetriebseinheit 6. Umschalten zu einer Live-Aktions-Führungskarte, die ein Live-Aktions-Videobild verwendet, kann konfiguriert werden, auch stattzufinden, wenn der Abstand zu einer Kreuzung, bei der das Fahrzeug abbiegen muss, gleich ist zu oder kleiner als ein vorgegebener Wert zusätzlich zu wenn ein Live-Aktions-Anzeigemodus eingestellt wird.
  • Die Führungskarte, die angezeigt wird auf dem Bildschirm der Anzeigeeinheit 10, kann derart konfiguriert werden, dass sie simultan auf einem Bildschirm eine Live-Aktions-Führungskarte und Grafik-Führungskarte anzeigt, so dass die Grafik-Führungskarte (beispielsweise eine planimetrische Karte), die erzeugt wird durch die Führungsanzeige-Erzeugungseinheit 13, angeordnet ist an der linken Seite des Bildschirms, und eine Live-Aktions-Führungskarte (beispielsweise eine Nahaufnahme einer Ansicht einer Kreuzung unter Verwendung eines Live-Aktions-Videobilds), die erzeugt wird durch die Videobild-Zusammensetz-Verarbeitungseinheit 14, angeordnet wird auf der rechten Seite des Bildschirms.
  • In Ansprechen auf einen Befehl von der Videobild-Zusammensetz-Verarbeitungseinheit 14 erfasst die Wegdaten-Erfassungseinheit 16 von der Kartendatenbank 5 Wegdaten (Wegverbindung) der Umgebungen des Fahrzeugorts, bezeichnet durch die Orts- und Richtungsdaten, die gesendet werden von der Orts- und Richtungs-Messeinheit 4. Die Wegdaten, die gesammelt werden von der Wegdaten-Erfassungseinheit 16, werden gesendet an die Videobild-Zusammensetz-Verarbeitungseinheit 14.
  • Als Nächstes wird der Betrieb des Autonavigationsgeräts gemäß Ausführungsform 1 der vorliegenden Erfindung mit den obigen Merkmalen beschrieben unter Fokussierung auf den Videobild-Zusammensetzprozess, der ausgeführt wird in der Videobild-Zusammensetz-Verarbeitungseinheit 14 mit Bezug auf das in 2 dargestellte Flussdiagramm.
  • In dem Videobild-Zusammensetzprozess werden Videobilder als auch der Fahrzeugort und Richtung zuerst erfasst (Schritt ST11). Speziell erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 Fahrzeugorts- und Richtungsdaten von der Orts- und Richtungs-Messeinheit 4, und auch Videodaten, die erfasst werden bei diesem Zeitpunkt durch die Videobild-Erfassungseinheit 8. Die Videobilder, die bezeichnet werden durch die Videodaten, die erfasst werden in Schritt ST11, sind beispielsweise Live-Aktions-Videobilder, wie zum Beispiel das in 3(a) dargestellte.
  • Dann wird eine Inhaltserzeugung ausgeführt (Schritt ST12). Speziell such die Videobild-Zusammensetz-Verarbeitungseinheit 14 nach nahen Objekten von dem Fahrzeug in der Kartendatenbank 5 und erzeugt von den gesuchten nahen Objekten Inhaltsinformation, die dem Benutzer zu präsentieren ist. In der Inhaltsinformation wird dem Benutzer zu präsentierender Inhalt, wie zum Beispiel eine Route, entlang der das Fahrzeug geführt wird, sowie das Wegenetz, Orientierungshilfen, Kreuzungen und ähnliches um das Fahrzeug, repräsentiert als eine Grafik, Zeichenfolge oder ein Bild, zusammengestellt mit Koordinaten zum Anzeigen des Vorhergehenden. Die Koordinaten werden beispielsweise gegeben durch ein Koordinatensystem (hier im Folgenden bezeichnet als ”Bezugskoordinatensystem”), das eindeutig bestimmt wird auf dem Boden, beispielsweise Breitengrad und Längengrad. In dem Fall einer Grafik werden die Koordinaten gegeben durch die Koordinaten von jedem Vertex in dem Bezugskoordinatensystem, und in dem Fall von Zeichenfolgen oder Bildern werden die Koordinaten gegeben durch die Koordinaten, die als Bezug zum Anzeigen der Zeichenfolgen und Bilder dienen.
  • Zusätzlich sammelt die Videobild-Zusammensetz-Verarbeitungseinheit 14 die Wegdaten, die erfasst werden durch die Wegdaten-Erfassungseinheit 16, und fügt die Wegdaten hinzu als Zusatzinhaltsinformation. Im Schritt ST12 wird entschieden über dem dem Benutzer zu präsentierenden Inhalt, sowie der Gesamtzahl der Inhalte a. Die Besonderheiten des Inhaltserzeugungsprozesses, der ausgeführt wird in Schritt ST12, werden im Einzelnen im Folgenden erklärt.
  • Dann wird die Gesamtzahl der Inhalte a erfasst (Schritt ST13). Speziell erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 die Gesamtzahl von Inhalten a, erzeugt in Schritt ST12. Dann initialisiert die Videobild-Zusammensetz-Verarbeitungseinheit 14 den Wert i des Zählers auf ”1” (Schritt ST14). Speziell wird der Wert i des Zählers zum Zählen der Anzahl von Inhalten, die schon zusammengestellt sind, auf ”1” gesetzt. Es sei bemerkt, dass der Zähler bereitgestellt wird in der Videobild-Zusammensetz-Verarbeitungseinheit 14.
  • Dann wird überprüft, ob der Zusammensetzprozess vorbei ist für alle Teile der Inhaltsinformation (Schritt ST15). Speziell bestimmt die Videobild-Zusammensetz-Verarbeitungseinheit 14, ob die Anzahl der Inhalte i, die schon zusammengestellt ist, welches der Wert des Zählers ist, größer ist als die Gesamtzahl der Inhalte a. Wenn in Schritt ST15 bestimmt wird, dass die Anzahl der Inhalte i, die schon zusammengestellt ist, größer ist als die Gesamtanzahl der Inhalte a, wird der Videobild-Zusammensetzprozess beendet, und die Videobilddaten mit Inhalt, der darin zu diesem Zeitpunkt zusammengestellt ist, wird gesendet an die Anzeigeentscheidungseinheit 15.
  • Andererseits wird, wenn in Schritt ST15 bestimmt wird, dass die Anzahl der Inhalte i, die schon zusammengestellt ist, nicht größer ist als die Gesamtzahl der Inhalte a, die i-te Inhaltsinformation erfasst (Schritt ST16). Speziell erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 ein i-tes Inhaltsinformationselement von der Inhaltsinformation, erzeugt in Schritt ST12.
  • Dann wird der Ort der Inhaltsinformation auf dem Videobild berechnet durch perspektivische Transformation (Schritt ST17). Speziell berechnet die Videobild-Zusammensetz-Verarbeitungseinheit 14 den Ort des Inhalts auf dem Videobild, erfasst in Schritt ST11, in dem Bezugskoordinatensystem, in dem der Inhalt anzuzeigen ist auf Grundlage des Fahrzeugorts und Richtung, erfasst in Schritt ST11 (Ort und Richtung des Fahrzeugs in dem Bezugskoordinatensystem); des Orts und Richtung der Kamera 7 in dem Koordinatensystem mit Bezug auf das Fahrzeug; und von charakteristischen Werten der Kamera 7, im Vorhinein erfasst, wie zum Beispiel Bereichswinkel und Fokusabstand. Die obige Berechnung ist identisch zu einer Koordinatentransformationsberechnung, genannt perspektivische Transformation.
  • Dann wird ein Videobild-Zusammensetzprozess ausgeführt (Schritt ST18). Speziell zeichnet die Videobild-Zusammensetz-Verarbeitungseinheit 14 eine Grafik, eine Zeichenfolge, ein Bild oder ähnliches, bezeichnet durch die Inhaltsinformation, erfasst in Schritt ST16, auf dem Videobild, erfasst in Schritt ST11, bei dem in Schritt ST17 berechneten Ort. Folglich wird ein Videobild erzeugt, in dem ein Bild des Wegs überlagert wird auf einem Live-Aktions-Videobild, wie in 3(b) dargestellt.
  • Dann wird der Wert i des Zählers erhöht (Schritt ST19). Speziell erhöht die Videobild-Zusammensetz-Verarbeitungseinheit 14 den Wert i des Zählers. Die Abfolge kehrt danach zurück zu Schritt ST15, und der oben beschriebene Prozess wird wiederholt.
  • Als Nächstes werden die Details des Inhaltserzeugungsprozesses, der ausgeführt wird in Schritt ST12 des oben beschriebenen Videobild-Zusammensetzprozesses, beschrieben mit Bezug auf ein in 4 dargestelltes Flussdiagramm.
  • In dem Inhaltserzeugungsprozess wird zuerst der Bereich bestimmt, über den Inhalt zu sammeln ist (Schritt ST21). Speziell stellt die Videobild-Zusammensetz-Verarbeitungseinheit 14 den Bereich ein, über den Inhalt zu sammeln ist, beispielsweise innerhalb eines Kreises mit einem Radius von 50 m um das Fahrzeug oder eines Rechtecks, das sich 50 m vor dem Fahrzeug erstreckt und 10 m nach links und rechts von dem Fahrzeug. Der Bereich, über den Inhalt zu sammeln ist, kann im Vorhinein durch den Hersteller des Autonavigationsgeräts eingestellt werden oder kann willkürlich durch den Benutzer eingestellt werden.
  • Dann wird die Art des zu sammelnden Inhalts bestimmt (Schritt ST22). Die Art des zu sammelnden Inhalts kann variieren abhängig von dem Führungsmodus, beispielsweise wie in 5 dargestellt. Die Videobild-Zusammensetz-Verarbeitungseinheit 14 bestimmt die Art des zu sammelnden Inhalts gemäß dem Führungsmodus. Die Inhaltsart kann im Voraus durch den Hersteller des Autonavigationsgeräts eingestellt werden oder kann willkürlich durch den Benutzer ausgewählt werden.
  • Dann wird ein Sammeln von Inhalten ausgeführt (Schritt ST23). Speziell sammelt die Videobild-Zusammensetz-Verarbeitungseinheit 14 von der Kartendatenbank 5 oder von anderen Verarbeitungseinheiten einen Inhalt von der Art bzw. dem Typ, der bestimmt wird in Schritt ST22, von denen, die innerhalb des Bereichs existieren, der in Schritt ST21 bestimmt wird.
  • Dann wird ein Bereich bestimmt, über den Wegdaten zu sammeln sind (Schritt ST24). Speziell stellt die Videobild-Zusammensetz-Verarbeitungseinheit 14 den Bereich der zu erfassenden Wegdaten ein, beispielsweise innerhalb eines Kreises mit einem Radius von 50 m um das Fahrzeug oder eines Rechtecks, das sich 50 m vor dem Fahrzeug und 10 m nach links und rechts des Fahrzeugs erstreckt, und sendet den Bereich an die Wegdaten-Erfassungseinheit 16. Der Bereich, über den Wegdaten zu sammeln sind, kann der gleiche sein wie der Bereich, über den Inhalt zu sammeln ist, wie in Schritt ST21 bestimmt, oder kann ein unterschiedlicher Bereich sein.
  • Dann werden Wegdaten gesammelt (Schritt ST25). In Ansprechen auf einen Befehl von der Videobild-Zusammensetz-Verarbeitungseinheit 14 sammelt die Wegdatenerfassungseinheit 16 Wegdaten, die innerhalb des Bereichs existieren, über den Wegdaten zu sammeln sind, wie in Schritt ST24 bestimmt, und sendet die gesammelten Wegdaten an die Videobild-Zusammensetz-Verarbeitungseinheit 14.
  • Dann wird der Inhalt ergänzt durch Wegdaten (Schritt ST26). Speziell fügt die Videobild-Zusammensetz-Verarbeitungseinheit 14 die Wegdaten hinzu, die gesammelt wurden in Schritt ST25 zu dem Inhalt. Dies beendet den Inhaltserzeugungsprozess, und die Abfolge kehrt zurück zu dem Videobild-Zusammensetzprozess.
  • Jedoch ist die oben beschriebene Videobild-Zusammensetz-Verarbeitungseinheit 14 konfiguriert, so dass sie Inhalte auf einem Videobild zusammenstellt unter Verwendung einer perspektivischen Transformation, aber kann auch derart konfiguriert sein, dass sie Ziele innerhalb des Videobilds erkennt durch Unterziehen des Videobilds eines Bilderkennungsprozesses und durch Zusammenstellen von Inhalt auf dem erkannten Videobild.
  • In dem Autonavigationsgerät nach Ausführungsform 1 der vorliegenden Erfindung, wie oben beschrieben, wird ein Bild des Wegs um das Fahrzeug angezeigt, überlagert auf einem Live-Aktions-Videobild der Umgebungen des Fahrzeugs, aufgenommen durch die Kamera 7, innerhalb des Bildschirm der Anzeigeeinheit 10. Folglich kann ein Fahren dadurch sicherer ausgeführt werden, dass der Fahrer die Form des Wegs von nicht sichtbaren Teilen um das Fahrzeug erlernen kann.
  • Ausführungsform 2
  • Außer der Funktion der Videobild-Zusammensetz-Verarbeitungseinheit 14 ist die Konfigurierung des Autonavigationsgeräts gemäß Ausführungsform 2 der vorliegenden Erfindung identisch zu der des Autonavigationsgeräts gemäß Ausführungsform 1, dargestellt in 1. Die Videobild-Zusammensetz-Verarbeitungseinheit 14 erzeugt eine Live-Aktions-Führungskarte, in der ein Weg, beschrieben durch Wegdaten, verwendet in einer letztendlichen Fertigstellung, nämlich Wegdaten nach beispielsweise Entfernen von Überbrückungen (erhöhte Wege bzw. Wege auf Pfeilern) oder zuführende Wege (hier im Folgenden bezeichnet als ”konsolidierte Wegdaten”) von Daten, gesammelt durch die Wegdaten-Erfassungseinheit 16 (hier im Folgenden bezeichnet als ”gesammelte Wegdaten”) überlagert wird auf dem Live-Aktions-Videobild, erfasst durch die Videobild-Erfassungseinheit 8.
  • Außer dem Inhaltserzeugungsprozess, ausgeführt in Schritt ST12 ist der Videobild-Zusammensetzprozess, ausgeführt durch das Autonavigationsgerät gemäß Ausführungsform 2, identisch zu dem Videobild-Zusammensetzprozess, ausgeführt durch das Autonavigationsgerät gemäß Ausführungsform 1, dargestellt in 2. Im Folgenden werden die Details des Inhaltserzeugungsprozesses, die sich von denen der Ausführungsform 1 unterscheiden, beschrieben mit Bezug auf das in 6 dargestellte Flussdiagramm mittels eines Beispiels eines Prozesses eines Eliminierens von Wegen, wie zum Beispiel Überbrückungen oder ähnlichen, die nicht verbunden sind mit einem Weg von Interesse. Jedoch werden die Schritte, in denen der gleiche Prozess ausgeführt wird, wie in dem Inhaltserzeugungsprozess des Autonavigationsgeräts gemäß Ausführungsform 1, dargestellt in 4, bezeichnet mit den gleichen Bezugszeichen wie die in Ausführungsform 1 verwendeten, und die Erklärung derselben wird vereinfacht.
  • In dem Inhaltserzeugungsprozess wird zuerst der Bereich bestimmt, über den Inhalt zusammen ist (Schritt ST21). Dann wird die Art von Inhalt, die zu sammeln ist, bestimmt (Schritt ST22). Dann wird der Inhalt gesammelt (Schritt ST23). Dann wird der Bereich bestimmt, über den Wegdaten zu sammeln sind (Schritt ST24). Dann werden Wegdaten gesammelt (Schritt ST25).
  • Dann werden die Daten hinsichtlich des Wegs, der momentan bereist wird, verwendet als konsolidierte Wegdaten (Schritt ST31). Speziell verwendet die Videobild-Zusammensetz-Verarbeitungseinheit 14 die Wegdaten entsprechend dem Weg, entlang dem das Fahrzeug momentan fährt als konsolidierte Wegdaten.
  • Dann wird ein Prozess ausgeführt, in dem nach Wegdaten gesucht wird, verbunden mit den Wegdaten innerhalb der konsolidierten Wegdaten (Schritt ST32). Speziell sucht die Videobild-Zusammensetz-Verarbeitungseinheit 14 nach Wegdaten, die verbunden sind mit den konsolidierten Wegdaten unter den gesammelten Wegdaten. Wie hierin verwendet, bedeutet ”verbunden”, dass zwei Wegdaten einen gleichen Endpunkt gemeinsam verwenden.
  • Dann wird überprüft, ob verbundene Wegdaten existieren oder nicht (Schritt ST33). Wenn in Schritt ST33 es bestimmt wird, dass verbundene Wegdaten existieren, werden die verbundenen Wegdaten zu den konsolidierten Wegdaten geschoben (Schritt ST34). Speziell löscht die Videobild-Zusammensetz-Verarbeitungseinheit 14 die Wegdaten, die in Schritt ST32 gefunden werden, von den gesammelten Wegdaten, und fügt die gefundenen Wegdaten zu den konsolidierten Wegdaten hinzu. Die Abfolge kehrt zurück danach zu Schritt ST32, und der oben beschriebene Prozess wird wiederholt.
  • Wenn in Schritt ST33 bestimmt wird, dass keine verbundenen Wegdaten existieren, werden die konsolidierten Wegdaten hinzugefügt zu dem Inhalt (Schritt ST35). Folglich wird nur ein Bild des Wegs, wie bezeichnet durch konsolidierte Wegdaten, nämlich nur ein Weg, entlang dem das Fahrzeug fahren kann, ausgenommen Wege, wie zum Beispiel Überbrückungen, die nicht verbunden sind mit dem Weg von Interesse, überlagert auf einem Live-Aktions-Videobild in dem Videobild-Zusammensetzprozess. Dies beendet den Inhaltserzeugungsprozess.
  • Da die Erklärung des zuvor erwähnten Inhaltserzeugungsprozesses sich nur mit einem Prozess beschäftigt mit Bedingungen, wo Wege, wie zum Beispiel Überbrückungen, die nicht verbunden mit dem Weg sind, eliminiert werden, kann der Inhaltserzeugungsprozess auch konfiguriert werden mit anderen Bedingungen, so dass geteilte Wegdaten, die aus einem Teilen von Wegdaten in eine Vielzahl von Wegdaten hinsichtlich der Anwesendheit des Mittelstreifens resultieren, zusammengebracht werden, beispielsweise, wie in 7(a) dargestellt. Bilder von allen Wegen werden gezeichnet, wenn die Gesamtheit des Wegs vorliegt auf Grundlage der Wegdaten, wie in 7(b) dargestellt. Im Gegensatz dazu wird ein Wegbild, wie das in 7(c) dargestellte, gezeichnet, wenn Wegdaten konsolidiert werden beispielsweise auf solch eine Art und Weise, so dass sie nur den Weg zeigen, für den eine Führung benötigt wird. Wenn der Mittelstreifen vereinigt wird, wird nur der Weg erbracht bzw. dargestellt, entlang dem das Fahrzeug fährt, plus einer Verlängerung und Seitenwegen desselben, wie in 7(d) dargestellt. Wenn Wegdaten konsolidiert werden, so dass nur der Weg vorne gezeigt wird nach einem Abbiegen bei einer Kreuzung, wird nur ein Bild des Wegs vorne gezeigt nach einem Abbiegen bei einer Kreuzung, wie in 7(e) dargestellt.
  • In dem Autonavigationsgerät nach Ausführungsform 2 der vorliegenden Erfindung, wie oben beschrieben, existieren unterschiedliche Wegedaten, wenn beispielsweise ein Weg aufgeteilt wird durch einen Mittelstreifen in einem Hinauf- und einem Hinab-Weg. Jedoch können diese Wegdaten zusammengebracht werden und als einzelner Weg gebildet werden. Alternativ werden Wegdaten der Wege, durch die das Fahrzeug nicht gehen kann, wie zum Beispiel Überbrückungen oder ähnliches, nicht dargelegt. Folglich können Wege in der gleichen Art und Weise, wie in einer gewöhnlichen Karte angezeigt werden.
  • Ausführungsform 3
  • Außer der Funktion der Wegdaten-Erfassungseinheit 16 ist die Konfigurierung des Autonavigationsgeräts gemäß Ausführungsform 3 der vorliegenden Erfindung identisch zu der des Autonavigationsgeräts gemäß Ausführungsform 1, dargestellt in 1. Die Wegdaten-Erfassungseinheit 16 modifiziert den Bereich, über den Wegdaten zu sammeln sind gemäß der Fahrzeuggeschwindigkeit des Fahrzeugs.
  • Es wird bemerkt, dass außer dem Inhaltserzeugungsprozess, der ausgeführt wird in Schritt ST12, der Videobild-Zusammensetzprozess, der ausgeführt wird durch das Autonavigationsgerät gemäß Ausführungsform 3, identisch ist zu dem Videobild-Zusammensetzprozess, der ausgeführt wird durch das Autonavigationsgerät gemäß Ausführungsform 1, dargestellt in 2. Im Folgenden werden die Einzelheiten des Inhaltserzeugungsprozesses, der sich unterscheidet von dem von Ausführungsform 1, beschrieben mit Bezug auf das in 8 dargestellte Flussdiagramm. Jedoch werden die Schritte, wo der gleiche Prozess ausgeführt wird, wie in dem Inhaltserzeugungsprozess des Autonavigationsgeräts gemäß der Ausführungsform 1 oder Ausführungsform 2, oben beschrieben, bezeichnet mit den gleichen Bezugszeichen, wie die, die in der Ausführungsform 1 oder Ausführungsform 2 verwendet werden, und die Erklärung derselben wird vereinfacht.
  • In dem Inhaltserzeugungsprozess wird zuerst der Bereich bestimmt, über den Inhalt zu sammeln ist (Schritt ST21). dann wird die Art des Inhalts, der zu sammeln ist, bestimmt (Schritt ST22). Dann wird der Inhalt gesammelt (Schritt ST23). Dann wird der Bereich bestimmt, über den Wegdaten zu sammeln sind (Schritt ST24).
  • Dann wird überprüft, ob die Fahrzeuggeschwindigkeit größer ist als ein vorbestimmter Schwellenwert v (km/h) (Schritt ST41). Speziell überprüft die Videobild-Zusammensetz-Verarbeitungseinheit 14, ob die Fahrzeuggeschwindigkeit, gekennzeichnet durch ein Fahrzeuggeschwindigkeitssignal von dem Fahrzeuggeschwindigkeitssensor 2, größer ist als ein vorbestimmter Schwellenwert v (km/h). Der Schwellenwert v (km/h) kann konfiguriert werden, um im Vorhinein eingestellt zu werden durch den Hersteller des Navigationsgeräts oder kann konfiguriert werden, um willkürlich modifiziert zu werden durch den Benutzer.
  • Wenn in Schritt ST41 bestimmt wird, dass die Fahrzeuggeschwindigkeit größer ist als der vorbestimmte Schwellenwert v (km/h), erstreckt sich der Bereich, über den Inhalt zu sammeln ist, longitudinal (Schritt ST42). Speziell verdoppelt die Videobild-Zusammensetz-Verarbeitungseinheit 14 den Bereich, über den Wegdaten zu sammeln sind, wie in Schritt ST24 bestimmt, in der Richtung, entlang der das Fahrzeug fährt, und instruiert diesen Bereich an die Wegdaten-Erfassungseinheit 16. Es wird bemerkt, dass das Verfahren zum Erweitern des Bereichs, über den Wegdaten gesammelt werden, beispielsweise ein Erweitern des Bereichs durch einen willkürlichen Abstand von beispielsweise 10 m in der Fahrtrichtung des Fahrzeugs involvieren kann. Das Verfahren zum Erweitern des Bereichs, über den Wegdaten zu sammeln sind, und das Erweiterungsverhältnis können konfiguriert werden, um im Vorhinein durch den Hersteller des Autonavigationsgeräts eingestellt zu werden, oder können konfiguriert werden, um willkürlich durch den Benutzer modifiziert zu werden. Ein Verfahren kann auch verwendet werden, in dem anstatt einer Erweiterung in der Fahrtrichtung des Fahrzeugs, die Breite des Bereichs in der Links-Rechts-Richtung des Fahrzeugs eingeengt wird. Danach geht die Abfolge zu Schritt ST44.
  • Andererseits wird, wenn in Schritt ST41 bestimmt wird, dass die Fahrzeuggeschwindigkeit nicht größer ist als der vorbestimmte Schwellenwert v (km/h), der Bereich, über den Inhalt zu sammeln ist, lateral erweitert (Schritt ST43). Speziell verdoppelt die Videobild-Zusammensetz-Verarbeitungseinheit 14 den Bereich, über den Wegdaten zu sammeln sind, wie in Schritt ST24 bestimmt, in der Links-Rechts-Richtung des Fahrzeugs und instruiert bzw. teilt mit diesen Bereich an die Wegdaten-Erfassungseinheit 16. Es wird bemerkt, dass das Verfahren zum Erweitern des Bereichs, über den Wegdaten zu sammeln sind, beispielsweise ein Erweitern des Bereichs durch einen willkürlichen Abstand von beispielsweise 10 m in der Links-Rechts-Richtung des Fahrzeugs involvieren kann. Das Verfahren zum Erweitern des Bereichs, über den Wegdaten zu sammeln sind, und das Erweiterungsverhältnis, können konfiguriert werden, um im Vorhinein durch den Hersteller des Autonavigationsgeräts eingestellt zu werden oder können konfiguriert werden, um willkürlich durch den Benutzer modifiziert zu werden. Danach geht die Abfolge zu Schritt ST44.
  • Wegdaten werden gesammelt in Schritt ST44. Speziell sammelt die Wegdaten-Erfassungseinheit 16 die Wegdaten, die sich innerhalb des erweiterten Bereichs befinden in Schritt ST42 oder Schritt ST43, und sendet die gesammelten Wegdaten an die Videobild-Zusammensetz-Verarbeitungseinheit 14.
  • Dann wird die Art der anzuzeigenden Führung überprüft (Schritt ST45). Wenn in Schritt ST45 bestimmt wird, dass die anzuzeigende Führung ”Kreuzungsführung” ist, wird die Route bis zu der Kreuzung ausgewählt, sowie die Route vorne nach einem Abbiegen bei der Kreuzung (Schritt ST46). Speziell filtert die Videobild-Zusammensetz-Verarbeitungseinheit 14 die in Schritt ST44 gesammelten Wegdaten und wählt nur Wegdaten entsprechend der Route von dem Fahrzeug zu der Kreuzung aus, und Wegdaten des Wegs davor nach einem Abbiegen bei der Kreuzung. Danach geht die Abfolge zu Schritt ST48.
  • Wenn in Schritt ST45 bestimmt wird, dass die anzuzeigende Führung eine ”Mauttorführung” ist, wird eine Route zu einem Mauttor (Schritt ST47) ausgewählt. Speziell filtert die Videobild-Zusammensetz-Verarbeitungseinheit 14 die Wegdaten, die gesammelt werden in Schritt ST44, und wählt nur Wegdaten entsprechend einer Route von dem Fahrzeug zu einem Mauttor aus. Danach geht die Sequenz zu Schritt ST48.
  • Wenn in Schritt ST45 bestimmt wird, dass die anzuzeigende Führung eine Führung ist, anders als eine ”Kreuzungsführung” und ”Mauttorführung”, wird keine Route ausgewählt, und die Abfolge bzw. Sequenz geht zu Schritt ST48. In Schritt ST48 werden die Wegdaten, ausgewählt in Schritten ST44, ST46 und ST47, hinzugefügt zu dem Inhalt. Dies vervollständigt den Inhaltserzeugungsprozess.
  • In dem oben beschriebenen Inhaltserzeugungsprozess wird der Prozess, der ausgeführt wird durch das Autonavigationsgerät gemäß Ausführungsform 2, nämlich der Prozess eines Konsolidierens von Wegdaten gemäß dem tatsächlichen Weg, nicht ausgeführt. Jedoch kann der Inhaltserzeugungsprozess in dem Autonavigationsgerät gemäß Ausführungsform 3 konfiguriert werden, um ausgeführt zu werden in Kombination mit dem oben erwähnten Konsolidierungsprozess.
  • Wie oben beschrieben, kann das Autonavigationsgerät gemäß Ausführungsform 3 der vorliegenden Erfindung beispielsweise auf solch eine Art und Weise konfiguriert sein, dass es Wegdaten über einen erweiterten Bereich erbringt in der Fahrtrichtung, wenn die Fahrzeuggeschwindigkeit hoch ist, und über einen erweiterten Bereich nach links und rechts, wenn die Fahrzeuggeschwindigkeit gering ist. Dies erlaubt ein Unterdrücken von einer nicht-notwendigen Weganzeige, so dass nur der zum Fahren notwendige Weg angezeigt wird.
  • Ausführungsform 4
  • Außer der Funktion der Videobild-Zusammensetz-Verarbeitungseinheit 14 ist die Konfigurierung des Autonavigationsgeräts gemäß Ausführungsform 4 der vorliegenden Erfindung identisch zu der des Autonavigationsgeräts gemäß Ausführungsform 1, dargestellt in 1. Die Funktion der Videobild-Zusammensetz-Verarbeitungseinheit 14 wird im Einzelnen unten beschrieben.
  • Der Videobild-Zusammensetzprozess, der ausgeführt wird durch die Videobild-Zusammensetz-Verarbeitungseinheit 14 des Autonavigationsgeräts gemäß Ausführungsform 4, ist identisch zu dem Videobild-Zusammensetzprozess, der ausgeführt wird durch das Autonavigationsgerät gemäß Ausführungsform 1, dargestellt in 2, außer der Verarbeitung, die ausgeführt wird in dem Fall, wo Inhalte Wegdaten darstellen. Im Folgenden wird der Videobild-Zusammensetzprozess des Autonavigationsgeräts gemäß Ausführungsform 4 beschrieben mit Bezug auf das in 9 dargestellte Flussdiagramm, mit Fokus auf die Unterschiede zu Ausführungsform 1. Jedoch werden die Schritte, bei denen die gleiche Verarbeitung ausgeführt wird, wie in dem Videobild-Zusammensetzprozess des Autonavigationsgeräts gemäß Ausführungsform 1, bezeichnet mit den gleichen Bezugszeichen, die in Ausführungsform 1 verwendet werden, und eine Erklärung derselben wird vereinfacht.
  • In dem Videobild-Zusammensetzprozess werden Videos sowie der Fahrzeug Ort und Richtung zuerst erfasst (Schritt ST11). Dann wird eine Inhaltserzeugung ausgeführt (Schritt ST12). Der Inhaltserzeugungsprozess, der in Schritt ST12 ausgeführt wird, ist nicht begrenzt auf den Inhaltserzeugungsprozess nach Ausführungsform 1 (4), und kann der Inhaltserzeugungsprozess nach Ausführungsform 2 (6) sein oder der Inhaltserzeugungsprozess nach Ausführungsform 3 (8).
  • Dann wird die Gesamtzahl a der Inhalte erfasst (Schritt ST13). Dann wird der Wert i des Zählers auf ”1” initialisiert (Schritt ST14). Dann wird überprüft, ob der Zusammensetzprozess vorüber ist für die gesamte Inhaltsinformation (Schritt ST15). Wenn in Schritt ST15 bestimmt wird, dass der Zusammensetzprozess vorbei ist für die gesamte Inhaltsinformation, wird der Videobild-Zusammensetzprozess beendet, und die Videodaten mit Inhalt, zusammengesetzt zu diesem Zeitpunkt, werden gesendet an die Anzeigeentscheidungseinheit 15.
  • Andererseits wird, wenn in Schritt ST15 bestimmt wird, dass der Zusammensetzprozess nicht vorbei ist für die gesamte Inhaltsinformation, ein i-tes Inhaltsinformationselement dann erfasst (Schritt ST16). Dann wird bestimmt, ob der Inhalt Wegdaten darstellt (Schritt ST51). Speziell überprüft die Videobild-Zusammensetz-Verarbeitungseinheit 14, ob der in Schritt ST12 erzeugte Inhalt Wegdaten darstellt. Wenn in Schritt ST51 bestimmt wird, dass der Inhalt nicht Wegdaten darstellt, geht die Sequenz zu Schritt ST17.
  • Andererseits wird, wenn in Schritt ST51 bestimmt wird, dass der Inhalt Wegdaten darstellt, eine Anzahl von Spuren n erfasst (Schritt ST52). Speziell erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 die Anzahl der Spuren n von den Wegdaten, erfasst als Inhaltsinformation in Schritt ST16. Dann wird die Breite der zu erbringenden Wegdaten bestimmt (Schritt ST53). Speziell bestimmt die Videobild-Zusammensetz-Verarbeitungseinheit 14 die Breite des zu erbringenden Wegs gemäß der Anzahl der Spuren n, erfasst in Schritt ST52. Beispielsweise wird die Breite des Wegs, der zu erbringen bzw. darzustellen ist, gleichgesetzt mit n × 10 (cm). Es wird bemerkt, dass das Verfahren zum Entscheiden der Breite des zu erbringenden Wegs nicht begrenzt ist auf das oben beschriebene, und beispielsweise der Wert der Wegbreite nicht linear modifiziert werden kann, oder geändert werden kann auf einen Wert, der durch den Benutzer gesetzt wird. Danach geht die Sequenz zu Schritt ST17.
  • Der Ort der Inhaltsinformation auf dem Videobild wird berechnet in Schritt ST17 durch perspektivische Transformation. Dann wird der Videobild-Zusammensetzprozess ausgeführt (Schritt ST18). Dann wird der Wert i des Zählers erhöht (Schritt ST19). Danach kehrt die Abfolge zu Schritt ST15 zurück und der oben beschriebene Prozess wird wiederholt.
  • In dem oben beschriebenen Beispiel wird die zu erbringende bzw. darzustellende Wegbreite modifiziert gemäß der Anzahl der Spuren, was ein Wegattribut ist. Jedoch kann das Anzeigeformat (Breite, Farbe, Helligkeit, Durchsichtigkeit oder ähnliches) des zu erbringenden Wegs auch modifiziert werden gemäß anderen Attributen des Wegs (Breite, Art, Relevanz oder ähnlichem).
  • Wie oben beschrieben, ist das Autonavigationsgerät gemäß Ausführungsform 4 der vorliegenden Erfindung auf solch eine Art und Weise konfiguriert, dass das Anzeigeformat (Breite, Farbe, Helligkeit, Durchsichtigkeit oder ähnliches) des Wegs modifiziert wird gemäß Attributen des Wegs (Breite, Anzahl der Spuren, Art, Relevanz oder ähnlichem). Deshalb können Einbahnstraßen angezeigt werden mit einer veränderten Farbe, so dass der Fahrer nicht nur sofort den Weg um das Fahrzeug aber auch Information über diesen Weg bekommt.
  • Ausführungsform 5
  • Außer der Funktion der Videobild-Zusammensetz-Verarbeitungseinheit 14 ist die Konfigurierung des Autonavigationsgeräts gemäß Ausführungsform 5 der vorliegenden Erfindung identisch, zu der des Autonavigationsgeräts gemäß Ausführungsform 1, dargestellt in 1. Die Funktion der Videobild-Zusammensetz-Verarbeitungseinheit 14 wird im Detail unten erklärt.
  • Der Videobild-Zusammensetzprozess, ausgeführt durch die Videobild-Zusammensetz-Verarbeitungseinheit 14 des Autonavigationsgeräts gemäß Ausführungsform 5 ist identisch zu dem Videobild-Zusammensetzprozess, der ausgeführt wird durch das Autonavigationsgerät gemäß Ausführungsform 1, dargestellt in 2, außer der Verarbeitung, in dem Fall, in dem Inhalt Wegdaten darstellt. Im Folgenden wird der Videobild-Zusammensetzprozess des Autonavigationsgeräts gemäß Ausführungsform 5 mit Bezug auf das in 10 dargestellte Flussdiagramm beschrieben mit Fokus auf die Unterschiede gegenüber Ausführungsform 1. Jedoch werden die Schritte, in denen die gleiche Verarbeitung ausgeführt wird, wie in dem Videobild-Zusammensetzprozess des Autonavigationsgeräts gemäß Ausführungsform 4, bezeichnet mit den gleichen Bezugszeichen, die in Ausführungsform 4 verwendet werden, und eine Erklärung derselben wird vereinfacht.
  • In dem Videobild-Zusammensetzprozess werden Videobilder, sowie der Fahrzeugort und Richtung zuerst erfasst (Schritt ST11). Dann wird eine Inhaltserzeugung ausgeführt (Schritt ST12). Der Inhaltserzeugungsprozess, ausgeführt in Schritt ST12, ist nicht begrenzt auf den Inhaltserzeugungsprozess gemäß Ausführungsform 1 (4) und kann der Inhaltserzeugungsprozess gemäß Ausführungsform 2 (6) oder der Inhaltserzeugungsprozess gemäß Ausführungsform 3 (8) sein.
  • Dann wird die Gesamtzahl der Inhalte a erfasst (Schritt ST13). Dann wird der Wert i des Zählers auf ”1” initialisiert (Schritt ST14). Dann wird überprüft, ob der Zusammensetzprozess vorbei ist für die gesamte Inhaltsinformation (Schritt ST15). Wenn in Schritt ST15 bestimmt wird, dass der Zusammensetzprozess vorbei ist für die gesamte Inhaltsinformation, wird der Videobild Zusammensetzprozess beendet, und die Videodaten mit Inhalt, zusammengesetzt darin zu diesem Zeitpunkt, werden gesendet an die Anzeigeentscheidungseinheit 15.
  • Andererseits wird, wenn in Schritt ST15 bestimmt wird, dass der Zusammensetzprozess nicht für die gesamte Inhaltsinformation vorbei ist, ein i-tes Inhaltsinformationselement erfasst (Schritt ST16). Dann wird bestimmt, ob der Inhalt Wegdaten darstellt (Schritt ST51). Wenn in Schritt ST51 bestimmt wird, dass der Inhalt nicht Wegdaten darstellt, geht die Abfolge zu Schritt ST17.
  • Andererseits wird dann, wenn in Schritt ST150 bestimmt wird, dass der Inhalt Wegdaten darstellt, einen Endpunkt der Wegdaten erfasst (Schritt ST61). Speziell erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 einen Endpunkt der in Schritt ST16 erfassten Wegdaten. Danach geht die Abfolge zu Schritt ST17.
  • Der Ort der Inhaltsinformation auf dem Videobild wird berechnet in Schritt ST17 durch perspektivische Transformation. In Schritt ST17 berechnet die Videobild-Zusammensetz-Verarbeitungseinheit 14 den Ort auf dem Videobild des Endpunkts der in Schritt ST61 erfassten Wegdaten. Dann wird der Videobild-Zusammensetzprozess ausgeführt (Schritt ST18). In Schritt ST18 zeichnet die Videobild-Zusammensetz-Verarbeitungseinheit 14 den Endpunkt der in Schritt ST17 berechneten Wegdaten. Folglich werden Kreuzungen in der Form einer vorbestimmten Grafik dargestellt, wie in 11 gezeigt. Die Kreuzungsgrafik kann in der Farbe verringert werden. Der Prozess in Schritt ST18 ist nicht begrenzt auf ein Erbringen bzw. Darstellen von Endpunkten und kann derart konfiguriert sein, so dass der Weg zur gleichen Zeit dargestellt wird. Der Wert i des Zählers wird dann erhöht (Schritt ST19). Danach kehrt die Abfolge zu Schritt ST15 zurück, und der oben beschriebenen Prozess wird wiederholt.
  • In dem oben beschriebenen Beispiel werden Endpunkte alleine oder Endpunkte und Weg gezeichnet während eines Wegdarstellens. Jedoch kann der Prozess auf eine Art konfiguriert sein, ähnlich zu dem des Autonavigationsgeräts gemäß Ausführungsform 4, auf solch eine Art und Weise, dass das Anzeigeformat des Wegs (Breite, Farbe, Muster, wie zum Beispiel ein Raster, Helligkeit, Durchsichtigkeit bzw. Durchlässigkeit und ähnlichem) und/oder Endpunktattribute (Größe, Farbe, Muster, wie zum Beispiel Raster, Helligkeit, Durchsichtigkeit und ähnliches) werden gemäß Wegattributen modifiziert (Breite, Anzahl von Spuren, Art, Relevanz und ähnliches).
  • Wie oben beschrieben, können in dem Autonavigationsgerät gemäß Ausführungsform 5 der vorliegenden Erfindung Wegquerungen in der Form einer vorbestimmten Grafik dargestellt werden. Folglich werden Kreuzungen merklich angezeigt, und der Weg kann leicht erfasst werden.
  • Ausführungsform 6
  • Außer der Funktion der Videobild-Zusammensetz-Verarbeitungseinheit 14 ist die Konfigurierung des Autonavigationsgeräts gemäß Ausführungsform 6 der vorliegenden Erfindung identisch, zu der des Autonavigationsgeräts gemäß Ausführungsform 1, dargestellt in 1. Die Funktion der Videobild-Zusammensetz-Verarbeitungseinheit 14 wird im Detail unten erklärt.
  • Der Videobild-Zusammensetzprozess, der ausgeführt wird durch die Videobild-Zusammensetz-Verarbeitungseinheit 14 des Autonavigationsgeräts gemäß Ausführungsform 6, ist identisch zu dem Videobild-Zusammensetzprozess, der ausgeführt wird durch das Autonavigationsgerät gemäß Ausführungsform 1, dargestellt in 2, außer dem Verarbeiten, in dem Fall, in dem Inhalt Wegdaten darstellt. Im Folgenden wird der Videobild-Zusammensetzprozess des Autonavigationsgeräts gemäß Ausführungsform 6 beschrieben mit Bezug auf das in 12 dargestellte Flussdiagramm mit Fokus auf die Unterschiede gegenüber Ausführungsform 1. Jedoch werden die Schritte, in denen die gleiche Verarbeitung ausgeführt wird, wie in dem Videobild-Zusammensetzprozess des Autonavigationsgeräts gemäß Ausführungsform 4, mit den gleichen Bezugszeichen bezeichnet, die in Ausführungsform 4 verwendet werden, und eine Erklärung derselben wird vereinfacht.
  • In dem Videobild-Zusammensetzprozess werden Videobilder, sowie der Fahrzeugort und Richtung zuerst erfasst (Schritt ST11). Dann wird eine Inhaltserzeugung ausgeführt (Schritt ST12). Der Inhaltserzeugungsprozess, der ausgeführt wird in Schritt ST12, ist nicht begrenzt auf den Inhaltserzeugungsprozess gemäß Ausführungsform 1 (4) und kann der Inhaltserzeugungsprozess gemäß Ausführungsform 2 (6) oder der Inhaltserzeugungsprozess gemäß Ausführungsform 3 (8) sein.
  • Dann wird die Gesamtzahl der Inhalte a erfasst (Schritt ST13). Dann wird der Wert i des Zählers auf ”1” initialisiert (Schritt ST14). Dann wird überprüft, ob der Zusammensetzprozess für die gesamte Inhaltsinformation vorbei ist (Schritt ST15). Wenn in Schritt ST15 bestimmt wird, dass der Zusammensetzprozess für die gesamte Inhaltsinformation vorbei ist, wird der Videobild-Zusammensetzprozess beendet, und die Videodaten mit Inhalt, zusammengesetzt darin zu diesem Zeitpunkt, werden an die Anzeigeentscheidungseinheit 15 gesandt.
  • Andererseits wird, wenn in Schritt ST15 bestimmt wird, dass der Zusammensetzprozess nicht beendet ist für alle Teile bzw. Stücke der Inhaltsinformation, ein i-tes Inhaltsinformationselement dann erfasst (Schritt ST16). Dann wird bestimmt, ob der Inhalt Wegdaten darstellt (Schritt ST51). Wenn in Schritt ST51 bestimmt wird, dass der Inhalt nicht Wegdaten darstellt, geht die Abfolge zu Schritt ST17.
  • Andererseits wird, wenn in Schritt ST51 bestimmt wird, dass der Inhalt Wegdaten darstellt, eine Breiteninformation der Wegdaten erfasst (Schritt ST71). Speziell erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 Breiteninformation von den Wegdaten (Wegverbindung), erfasst in Schritt ST16. Die Wegverbindung enthält gewöhnlich Breiteninformation, und daher wird Breiteninformation zusammen mit Wegdaten erfasst. Jedoch kann, wenn die Wegverbindung keine Breiteninformation enthält, die spätere indirekt berechnet werden auf Grundlage von Information hinsichtlich der Anzahl der Spuren, beispielsweise Breite = Anzahl der Spuren × 2 (m). Wenn es keine Information hinsichtlich der Breite gibt, kann die spätere ungefähr geschätzt werden und beispielsweise gesetzt werden auf 3 mm allgemein.
  • Dann wird die Form in den Wegdaten bestimmt (Schritt ST72). Speziell bestimmt die Videobild-Zusammensetz-Verarbeitungseinheit 14 die Form der darzustellenden Wegdaten auf Grundlage der Breiteninformation, die erfasst wird in Schritt ST71. Die Form des Wegs kann beispielsweise ein Rechteck des Abstands zwischen Wegendpunkten × Breite sein. Die Wegform ist nicht notwendiger Weise eine zweidimensionale Grafik und kann eine dreidimensionale Grafik in der Form eines Parallelepipeds des Abstands zwischen Wegendpunkten × Breite × Breite sein. Danach geht die Abfolge zu Schritt ST17.
  • Der Ort der Inhaltsinformation hinsichtlich des Videobilds wird berechnet in Schritt ST17 durch perspektivische Transformation. In Schritt ST17 berechnet die Videobild-Zusammensetz-Verarbeitungseinheit 14 den Ort auf dem Videobild der Vertizes bzw. Eckpunkten der Form in den in Schritt ST72 bestimmten Wegdaten. Dann wird der Videobild-Zusammensetzprozess ausgeführt (Schritt ST18). In Schritt ST18 stellt die Videobild-Zusammensetz-Verarbeitungseinheit 14 die Form der Wegdaten, bestimmt in dem Schritt ST72 dar. Auf solch eine Art und Weise wird ein Live-Aktions-Videobild angezeigt, auf dem nur ein Teil des Wegs in der Form von einer CG überlagert wird, wie in 13-1(a) dargestellt. Die Kontur bzw. Profil der Form, bestimmt in Schritt ST72, kann auch geschnitten werden, so dass verschiedene Oberflächen transparent dargestellt werden, wie in 13-1(b) dargestellt. Danach kehrt die Abfolge zurück zu Schritt ST15, und der oben beschriebenen Prozess wird wiederholt.
  • In der obigen Beschreibung wird der Weg dargestellt auf einem Live-Aktions-Videobild. Jedoch kann ein Prozess auch ausgeführt werden, in dem Objekte, die auf dem Weg (und Gehsteig) in dem Live-Aktions-Videobild vorliegen, beispielsweise Fahrzeuge, Fußgänger, Geländer, straßenseitige Bäume und ähnliche, erkannt werden unter Verwendung von Bilderkennungstechnologien, beispielsweise Kantenextraktion, Mustererkennung und ähnlichem, so dass kein Weg auf den erkannten Objekten dargestellt wird. Dieser Prozess führt zu Anzeigedaten, wie die in beispielsweise 13-2(c) und 13-2(d) dargestellten.
  • In dem Autonavigationsgerät gemäß Ausführungsform 6 der vorliegenden Erfindung wird, wie oben beschrieben, der Weg durch Überlagern hervorgehoben in der Form einer CG auf einem Live-Aktions-Videobild, so dass der Fahrer leicht den Weg um das Fahrzeug erfassen kann. Wenn anstatt des Wegs es die Kontur des Wegs, die angezeigt wird, ist, die überlagert wird durch CG auf dem Live-Aktions-Videobild, kann der Fahrer leicht den Weg um das Fahrzeug erfassen, ohne dass die Oberfläche des Wegs versteckt ist. Folglich kann der Benutzer leicht die Wegoberfläche auf solch eine Art und Weise evaluieren, dass die Anzeige kein Hindernis für das Fahren darstellt.
  • Die Fläche des Wegs in dem Live-Aktions-Videobild, das überschrieben wird, oder eine Kontur aufweist, angezeigt darauf, kann auch modifiziert werden gemäß der Geschwindigkeit des Fahrzeugs. Dies erlaubt ein Unterdrücken von nicht-notwendiger Weganzeige, so dass nur der Weg entlang den das Fahrzeug zu fahren ist, angezeigt wird. Ferner kann das Anzeigeformat des Überlagerns oder die Kontur, die angezeigt wird auf dem Weg in dem Live-Aktions-Videobild, modifiziert werden gemäß Attributen des Wegs. Dies erlaubt ein Unterdrücken einer nicht-notwendigen Weganzeige, so dass nur der Weg, entlang den das Fahrzeug zu fahren ist, angezeigt wird.
  • Ein Autonavigationsgerät, das in Fahrzeugen verwendet wird, wurde in den in den Figuren dargestellten Ausführungsformen erklärt. Jedoch kann das Autonavigationsgerät gemäß der vorliegenden Erfindung auch auf eine ähnliche Art und Weise verwendet werden in anderen mobilen Objekten, wie zum Beispiel Mobiltelefonen, die ausgestattet sind mit Kameras, oder in Flugzeugen.
  • GEWERBLICHE ANWENDBARKEIT
  • Wie oben beschrieben, ist das Navigationsgerät gemäß der vorliegenden Erfindung auf solch eine Art und Weise konfiguriert, dass ein Bild des Wegs um die momentane Position angezeigt wird auf einer Anzeigeeinheit, überlagert auf Videobildern vor dem Fahrzeug, die aufgenommen werden durch eine Kamera. Das Navigationsgerät gemäß der vorliegenden Erfindung kann daher passend in Autonavigationsgeräten und ähnlichen verwendet werden.
  • ZUSAMMENFASSUNG
  • Ein Navigationsgerät umfasst eine Kartendatenbank (5) zum Halten von Kartendaten, eine Positions-/Richtungs-Messeinheit (4) zum Messen der momentanen Position und Richtung, einen Wegdatensammelabschnitt (16) zum Erfassen von Kartendaten hinsichtlich eines Bereichs um die Position, gemessen durch die Positions-/Richtungs-Messeinheit von der Kartendatenbank und Sammeln von Wegdaten von den Kartendaten, eine Kamera (7) zum Aufnehmen eines Bildes eines vorderen Bereichs, eine Bilderfassungseinheit (8) zum Erfassen des Bildes des vorderen Bereichs, aufgenommen durch die Kamera, einen Bildsynthese-Verarbeitungsabschnitt (14) zum Erzeugen eines Bilds, gebildet durch Überlagern eines Bildes eines Wegs, gezeigt durch die Wegdaten, gesammelt durch den Wegdaten-Sammelabschnitt auf dem Bild, erfasst durch die Bilderfassungseinheit, und eine Anzeigeeinheit (10) zum Anzeigen des Bilds, erzeugt durch den Bildsynthese-Verarbeitungsabschnitt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - JP 2915508 [0003]
    • - JP 11-108684 A [0003]

Claims (7)

  1. Ein Navigationsgerät umfassend: eine Kartendatenbank, die Kartendaten hält; eine Orts- und Richtungs-Messeinheit, die einen momentanen Ort und Richtung eines Fahrzeugs misst; eine Wegdaten-Erfassungseinheit, die von der Kartendatenbank Kartendaten der Umgebungen des Ortes erfasst, der durch die Orts- und Richtungs-Messeinheit gemessen wird, und die Wegdaten von den Kartendaten sammelt; eine Kamera, die Videobilder vor dem Fahrzeug aufnimmt; eine Videobild-Erfassungseinheit, die die Videobilder vor dem Fahrzeug erfasst, die aufgenommen werden durch die Kamera; eine Videobild-Zusammensetz-Verarbeitungseinheit, die ein Videobild erzeugt, in dem ein Bild eines Wegs, bezeichnet durch Wegdaten, gesammelt durch die Wegdaten-Erfassungseinheit, überlagert wird auf dem Videobild, das erfasst wird durch die Videobild-Erfassungseinheit; und eine Anzeigeeinheit, die das Videobild anzeigt, das erzeugt wird durch die Videobild-Zusammensetz-Verarbeitungseinheit.
  2. Ein Navigationsgerät nach Anspruch 1, wobei die Videobild-Zusammensetz-Verarbeitungseinheit unter vorbestimmten Bedingungen die durch die Wegdaten-Erfassungseinheit gesammelten Wegdaten konsolidiert, und ein Videobild erzeugt, in dem ein Bild eines Wegs, bezeichnet durch konsolidierte Wegdaten, überlagert wird auf dem Videobild, das erfasst wird durch die Videobild-Erfassungseinheit.
  3. Ein Navigationsgerät nach Anspruch 1, ferner umfassend: einen Geschwindigkeitssensor, der eine Fahrzeuggeschwindigkeit misst, wobei die Wegdaten-Erfassungseinheit einen Bereich modifiziert, über den Wegdaten zu sammeln sind von den Kartendaten, die in der Kartendatenbank gehalten werden gemäß der Fahrzeuggeschwindigkeit, die gemessen wird durch den Fahrzeuggeschwindigkeitssensor.
  4. Ein Navigationsgerät nach Anspruch 1, wobei die Videobild-Zusammensetz-Verarbeitungseinheit ein Videobild erzeugt, in dem ein Bild eines Wegs, bezeichnet durch Wegdaten, gesammelt durch die Wegdaten-Erfassungseinheit, überlagert wird auf dem Videobild, das erfasst wird durch die Videobild-Erfassungseinheit wobei das Bild modifiziert wird auf ein Anzeigeformat gemäß Wegattributen, die in Wegdaten enthalten sind.
  5. Ein Navigationsgerät nach Anspruch 1, wobei die Videobild-Zusammensetz-Verarbeitungseinheit ein Videobild erzeugt, in dem ein Bild eines Wegs, bezeichnet durch Wegdaten, gesammelt durch die Wegdaten-Erfassungseinheit, überlagert wird auf dem Videobild, das erfasst wird durch die Videobild- Erfassungseinheit, wobei eine Kreuzung des Wegs modifiziert wird auf ein vorbestimmtes Anzeigeformat.
  6. Ein Navigationsgerät nach Anspruch 1, wobei die Videobild-Zusammensetz-Verarbeitungseinheit ein Videobild erzeugt, in dem ein Bild eines Wegs, bezeichnet durch Wegdaten, gesammelt durch die Wegdaten-Erfassungseinheit, dargestellt wird als eine Computergrafik und überlagert wird auf dem Videobild, das erfasst wird durch die Videobild-Erfassungseinheit.
  7. Ein Navigationsgerät nach Anspruch 6, wobei die Videobild-Zusammensetz-Verarbeitungseinheit ein Videobild erzeugt, in dem ein Bild eines Wegs, bezeichnet durch Wegdaten, gesammelt durch die Wegdaten-Erfassungseinheit, angezeigt wird in der Form der Kontur des Wegs und überlagert wird auf dem Videobild, das erfasst wird durch die Videobild-Erfassungseinheit.
DE112008003424T 2007-12-28 2008-09-10 Navigationsgerät, das Videobilder einer Kamera verwendet Active DE112008003424B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007339733 2007-12-28
JP2007-339733 2007-12-28
PCT/JP2008/002500 WO2009084133A1 (ja) 2007-12-28 2008-09-10 ナビゲーション装置

Publications (2)

Publication Number Publication Date
DE112008003424T5 true DE112008003424T5 (de) 2010-10-07
DE112008003424B4 DE112008003424B4 (de) 2013-09-05

Family

ID=40823871

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112008003424T Active DE112008003424B4 (de) 2007-12-28 2008-09-10 Navigationsgerät, das Videobilder einer Kamera verwendet

Country Status (5)

Country Link
US (1) US20100245561A1 (de)
JP (1) JP4959812B2 (de)
CN (1) CN101910791B (de)
DE (1) DE112008003424B4 (de)
WO (1) WO2009084133A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012020568A1 (de) * 2012-10-19 2014-04-24 Audi Ag Verfahren zum Betreiben einer Navigationseinrichtung und zur Erfassung einer wahrnehmbaren Umwelt
DE102017204567A1 (de) 2017-03-20 2018-09-20 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erstellen einer Navigationsinformation zur Führung eines Fahrers eines Fahrzeugs

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9488488B2 (en) 2010-02-12 2016-11-08 Apple Inc. Augmented reality maps
KR101655812B1 (ko) * 2010-05-06 2016-09-08 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
CN102582826B (zh) * 2011-01-06 2015-09-30 佛山市安尔康姆航拍科技有限公司 一种四旋翼无人飞行器的驾驶方法和系统
DE102011084993A1 (de) * 2011-10-21 2013-04-25 Robert Bosch Gmbh Übernahme von Daten aus bilddatenbasierenden Kartendiensten in ein Assistenzsystem
US20150029214A1 (en) * 2012-01-19 2015-01-29 Pioneer Corporation Display device, control method, program and storage medium
CN104050829A (zh) * 2013-03-14 2014-09-17 联想(北京)有限公司 一种信息处理的方法及装置
CN105659304B (zh) 2013-06-13 2020-01-03 移动眼视力科技有限公司 车辆、导航系统及生成并递送导航信息的方法
US9250080B2 (en) 2014-01-16 2016-02-02 Qualcomm Incorporated Sensor assisted validation and usage of map information as navigation measurements
US9696173B2 (en) 2014-12-10 2017-07-04 Red Hat, Inc. Providing an instruction notification for navigation
DE112015007054B4 (de) * 2015-11-20 2019-11-28 Mitsubishi Electric Corp. Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm
CN107293114A (zh) * 2016-03-31 2017-10-24 高德信息技术有限公司 一种交通信息发布道路的确定方法及装置
CN107305704A (zh) * 2016-04-21 2017-10-31 斑马网络技术有限公司 图像的处理方法、装置及终端设备
US20190147743A1 (en) * 2017-11-14 2019-05-16 GM Global Technology Operations LLC Vehicle guidance based on location spatial model
CN109708653A (zh) * 2018-11-21 2019-05-03 斑马网络技术有限公司 路口显示方法、装置、车辆、存储介质及电子设备
EP4357734A1 (de) * 2022-10-19 2024-04-24 Electronics and Telecommunications Research Institute Verfahren, bildverarbeitungsvorrichtung und system zur erzeugung eines strassenbildes unter verwendung zweidimensionaler kartendaten

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11108684A (ja) 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd カーナビゲーションシステム
JP2915508B2 (ja) 1989-07-04 1999-07-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 車両航法データの表示方法と航法システムおよび航法システムを具える車両

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0690038B2 (ja) * 1985-10-21 1994-11-14 マツダ株式会社 車両用走行誘導装置
JP3428328B2 (ja) * 1996-11-15 2003-07-22 日産自動車株式会社 車両用経路誘導装置
JP3156646B2 (ja) * 1997-08-12 2001-04-16 日本電信電話株式会社 検索型景観ラベリング装置およびシステム
JP3278651B2 (ja) * 2000-10-18 2002-04-30 株式会社東芝 ナビゲーション装置
JP2003014470A (ja) * 2001-06-29 2003-01-15 Navitime Japan Co Ltd 地図表示装置、地図表示システム
JP3921091B2 (ja) * 2002-01-23 2007-05-30 富士通テン株式会社 地図配信システム
JP2004125446A (ja) * 2002-09-30 2004-04-22 Clarion Co Ltd ナビゲーション装置、およびナビゲーションプログラム。
JP2005257329A (ja) * 2004-03-09 2005-09-22 Clarion Co Ltd ナビゲーション装置、ナビゲーション方法及びナビゲーションプログラム
EP1586861B1 (de) * 2004-04-15 2008-02-20 Robert Bosch Gmbh Verfahren und Vorrichtung zur Darstellung von Fahrerinformationen unter Berücksichtigung anderer beweglicher Objekte
JP2006072830A (ja) * 2004-09-03 2006-03-16 Aisin Aw Co Ltd 運転支援システム及び運転支援モジュール
JP4783603B2 (ja) * 2005-08-26 2011-09-28 株式会社デンソー 地図表示装置、地図表示方法、地図表示プログラム、及びそのプログラムを記録した記録媒体
JP2007121001A (ja) * 2005-10-26 2007-05-17 Matsushita Electric Ind Co Ltd ナビゲーション装置
JP2007292545A (ja) * 2006-04-24 2007-11-08 Nissan Motor Co Ltd 経路案内装置及び経路案内方法
JP2007315861A (ja) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd 車両用画像処理装置
JP2007322371A (ja) * 2006-06-05 2007-12-13 Matsushita Electric Ind Co Ltd ナビゲーション装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2915508B2 (ja) 1989-07-04 1999-07-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 車両航法データの表示方法と航法システムおよび航法システムを具える車両
JPH11108684A (ja) 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd カーナビゲーションシステム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012020568A1 (de) * 2012-10-19 2014-04-24 Audi Ag Verfahren zum Betreiben einer Navigationseinrichtung und zur Erfassung einer wahrnehmbaren Umwelt
DE102017204567A1 (de) 2017-03-20 2018-09-20 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erstellen einer Navigationsinformation zur Führung eines Fahrers eines Fahrzeugs

Also Published As

Publication number Publication date
CN101910791A (zh) 2010-12-08
JPWO2009084133A1 (ja) 2011-05-12
JP4959812B2 (ja) 2012-06-27
US20100245561A1 (en) 2010-09-30
DE112008003424B4 (de) 2013-09-05
WO2009084133A1 (ja) 2009-07-09
CN101910791B (zh) 2013-09-04

Similar Documents

Publication Publication Date Title
DE112008003424B4 (de) Navigationsgerät, das Videobilder einer Kamera verwendet
DE112008003588B4 (de) Navigationsgerät verwendend Videobilder einer Kamera
DE69736766T2 (de) Verfahren und Vorrichtung zum Anzeigen einer Navigationskarte
DE69730262T2 (de) Karten-Anzeigegerät, Navigationsgerät und Karten-Anzeigeverfahren
DE112008003341T5 (de) Navigationsvorrichtung
DE69729684T2 (de) Navigationsvorrichtung mit Formveränderungsanzeigefunktion
DE69633421T2 (de) Navigationsanzeige mit Vogelperspektive
DE69532977T2 (de) Kartenanzeigegerät für Fahrzeug
DE102010042063B4 (de) Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs
DE69731159T2 (de) Navigationssystem für Landfahrzeug mit Auswahl des Anzeigemodus
DE112008003481T5 (de) Navigationsgerät
EP2769373B1 (de) Übernahme von daten aus bilddatenbasierenden kartendiensten in ein assistenzsystem
DE112005001307B4 (de) Eingebaute Navigationsvorrichtung und Verfahren zur Korrektur der eigenen Fahrzeugposition
DE69938018T2 (de) Vorrichtung und Verfahren zum Anzeigen von Fahzeugpositionsinformation
DE60028482T2 (de) Navigationsvorrichtung
DE102012207620B4 (de) System und Verfahren für die Lichtsignaldetektierung
DE69637102T2 (de) Kartenanzeigegerät mit künstlichem Hintergrund
DE112020002175T5 (de) Systeme und verfahren zur fahrzeugnavigation
DE112018002143T5 (de) Systeme und verfahren zur kompression von fahrspurdaten
DE112020006426T5 (de) Systeme und verfahren zur fahrzeugnavigation
DE112020003897T5 (de) Systeme und verfahren zur überwachung von fahrspurüberlastung
DE112018004521T5 (de) Anzeigevorrichtung eines überlagerten Bildes und Computerprogramm
DE202005021607U1 (de) Navigationsvorrichtung mit Kamerainformation
DE112020002764T5 (de) Systeme und verfahren zur fahrzeugnavigation
DE112006001703T5 (de) Straßenmarkierungserkennungssystem

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20131206

R084 Declaration of willingness to licence