-
TECHNISCHES GEBIET
-
Die
vorliegende Erfindung betrifft ein Navigationsgerät, das
einen Benutzer an ein Ziel führt, und insbesondere eine
Technologie zum Anzeigen von Führungsinformation hinsichtlich
einer Live-Aktion oder echtem Video, das durch eine Kamera erfasst wird.
-
STAND DER TECHNIK
-
Bekannte
Technologien in herkömmlichen Autonavigationsgeräten
enthalten beispielsweise Routenführungstechnologien, in
denen eine fahrzeugeigene Kamera Bilder vor einem Fahrzeug während eines
Fahrens aufnimmt, und Führungsinformation in Form von CG
(Computergrafik) angezeigt wird durch Überlagern auf Video,
erhalten durch die obige Bildaufnahme (beispielsweise Patentdokument
1).
-
Auch
offenbart Patentdokument 2 als ähnliche Technologie ein
Autonavigationsgerät, in dem Navigationsinformationselemente
angezeigt werden, so dass sie sofort intuitiv erfasst werden. In
diesem Autonavigationsgerät nimmt eine an dem Vorderteil oder ähnlichem
eines Fahrzeugs angebrachte Bildgebungskamera den Hintergrund in
der Fahrrichtung auf solch eine Art und Weise auf, dass ein Kartenbild und
ein Live-Aktions-Video bzw. ein Video einer momentanen Aktion bzw.
Vorgangs mit Bezug auf eine Hintergrundanzeige von Navigationsinformationselementen
durch einen Auswähler ausgewählt werden können,
und die Navigationsinformationselemente werden angezeigt auf einem
Anzeigegerät durch Überlagern des Hintergrundbildes
mittels einer Bildzusammensetzeinheit. Patentdokument 2 offenbart eine
Technologie, wobei während einer Führung eines
Fahrzeugs entlang einer Route, ein Pfeil angezeigt wird bei Kreuzungen
entlang des Wegs, entlang den das Fahrzeug geführt wird,
unter Verwendung eines Live-Aktions-Videobilds.
- Patentdokument
1: Japanisches Patent mit der
Nummer 2915508
- Patentdokument 2: Japanische Patentanmeldungsveröffentlichung
mit der Nummer 11/108684 ( JP-A-11-108684 )
-
Ein
sichereres Fahren könnte erreicht werden, falls es möglich
wäre, nicht nur den von dem Fahrzeug sichtbaren Bereich
zu erfassen, wie es gewöhnlicher Weise der Fall ist, aber
auch die Form des Wegs um das Fahrzeug, da dies es erlauben würde, einen
Umweg zu nehmen, oder die Route zu ändern, wodurch ein
Erhöhen der Spanne des Fahrbetriebs ermöglicht
wird. In den in Patentdokument 1 und Patentdokument 2 offenbarten
Technologien wird jedoch eine Routenführen ausgeführt
unter Verwendung eines Live-Aktions-Videobilds, und daher ist es nicht
möglich, obwohl die Situation vor dem Fahrzeug im Detail
gelernt werden kann, die Form des Wegs um das Fahrzeug zu erfassen.
Es würde deshalb wünschenswert sein, ein Fahrzeugnavigationsgerät zu
entwickeln, das ein sicheres Fahren erlauben sollte durch Möglichmachen,
die Form des Wegs um das Fahrzeug zu erfassen.
-
Die
vorliegende Erfindung wurde durchgeführt, um die obigen
Bedingungen zu erfüllen, und es ist eine Aufgabe der vorliegenden
Erfindung, ein Navigationsgerät bereitzustellen, das ein
sicheres Fahren ermöglicht.
-
OFFENBARUNG DER ERFINDUNG
-
Um
das obige Problem zu lösen, enthält ein Navigationsgerät
gemäß der vorliegenden Erfindung: eine Kartendatenbank,
die Kartendaten hält; eine Orts- und Richtungs-Messeinheit,
die einen momentanen Ort und eine Richtung eines Fahrzeugs misst; eine
Wegdaten-Erfassungseinheit, die von der Kartendatenbank Kartendaten
der Umgebungen des Ortes erfasst, gemessen durch die Orts- und Richtungs-Messeinheit,
und die Wegdaten von den Kartendaten sammelt; eine Kamera, die Videobilder
vor dem Fahrzeug aufnimmt; eine Videobild-Erfassungseinheit, die
Videobilder vor dem Fahrzeug erfasst, die erfasst werden durch die
Kamera; eine Videobild-Zusammensetz-Verarbeitungseinheit, die ein
Videobild erzeugt, in dem ein Bild eines Wegs, bezeichnet durch
Wegdaten, erfasst durch die Wegdaten-Erfassungseinheit, überlagert
wird auf dem Videobild, das erfasst wird durch die Videobild-Erfassungseinheit; und
eine Anzeigeeinheit, die das Videobild anzeigt, das erzeugt wird
durch die Videobild-Zusammensetz-Verarbeitungseinheit.
-
Gemäß dem
Navigationsgerät der vorliegenden Erfindung kann, da es
auf solch eine Art und Weise konfiguriert ist, dass ein Bild des
Wegs um den momentanen Ort angezeigt wird auf einer Anzeigeeinheit
durch Überlagern auf Videobildern vor dem Fahrzeug, erfasst
durch eine Kamera, der Fahrer die Form oder Geometrie des Wegs bei
nicht sichtbaren Orten um das Fahrzeug erfassen, was ein sicheres Fahren
erlaubt.
-
KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
1 zeigt
ein Blockdiagramm, das die Konfiguration eines Autonavigationsgeräts
gemäß Ausführungsform 1 der vorliegenden
Erfindung zeigt;
-
2 zeigt
ein Flussdiagramm, das den Betrieb des Autonavigationsgeräts
gemäß Ausführungsform 1 der vorliegenden
Erfindung darstellt unter Fokussierung auf einen Videobild-Zusammensetzprozess;
-
3 zeigt
ein Diagramm, das ein Beispiel von Videobildern vor und nach einer
Zusammensetzung eines Wegs in ein Live-Aktions-Videobild in dem
Autonavigationsgerät gemäß Ausführungsform 1
der vorliegenden Erfindung zeigt;
-
4 zeigt
ein Flussdiagramm, das die Details eines Inhaltserzeugungsprozesses
in den Videobild-Zusammensetzprozess darstellt, der ausgeführt
wird in dem Autonavigationsgerät gemäß Ausführungsform
1 der vorliegenden Erfindung;
-
5 zeigt
ein Diagramm zum Darstellen der Arten von Inhalt, verwenden in dem
Autonavigationsgerät gemäß Ausführungsform
1 der vorliegenden Erfindung;
-
6 zeigt
ein Flussdiagramm, das die Details eines Inhaltserzeugungsprozesses
in dem Videobild-Zusammensetzprozess darstellt, der ausgeführt
wird in dem Autonavigationsgerät gemäß Ausführungsform
2 der vorliegenden Erfindung;
-
7 zeigt
ein Diagramm zum Darstellen einer Konsolidierung in dem Inhaltserzeugungsprozess
in dem Videobild-Zusammensetzprozess, der ausgeführt wird
in dem Autonavigationsgerät gemäß Ausführungsform
2 der vorliegenden Erfindung;
-
8 zeigt
ein Flussdiagramm, das die Details eines Inhaltserzeugungsprozesses
in dem Videobild-Zusammensetzprozess darstellt, der ausgeführt
wird in dem Autonavigationsgerät gemäß Ausführungsform
3 der vorliegenden Erfindung;
-
9 zeigt
ein Flussdiagramm, das den Betrieb des Autonavigationsgeräts
gemäß Ausführungsform 4 der vorliegenden
Erfindung darstellt unter Fokussierung auf einen Videobild-Zusammensetzprozess;
-
10 zeigt
ein Flussdiagramm, das den Betrieb des Autonavigationsgeräts
gemäß Ausführungsform 5 der vorliegenden
Erfindung darstellt unter Fokussierung auf einen Videobild-Zusammensetzprozess;
-
11 zeigt
ein Diagramm, das ein Beispiel von Videobildern zeigt, in dem eine
Kreuzung zusammengesetzt wird auf ein Live-Aktions-Videobild in dem
Autonavigationsgerät gemäß Ausführungsform 5
der vorliegenden Erfindung;
-
12 zeigt
ein Flussdiagramm, das den Betrieb des Autonavigationsgeräts
gemäß Ausführungsform 6 der vorliegenden
Erfindung darstellt unter Fokussierung auf einen Videobild-Zusammensetzprozess;
-
13-1 zeigt ein Diagramm, das ein Beispiel von
Videobildern zeigt, in denen ein Weg hervorgehoben wird auf einem
Live-Aktions-Videobild in Autonavigationsgerät gemäß Ausführungsform
6 der vorliegenden Erfindung; und
-
13-2 zeigt ein Diagramm, das ein anderes Beispiel
von Videobildern zeigt, in denen ein Weg hervorgehoben wird auf
einem Live-Aktions-Videobild in dem Autonavigationsgerät
gemäß Ausführungsform 6 der vorliegenden
Erfindung.
-
BESTER MODUS ZUM AUSFÜHREN
DER ERFINDUNG
-
Die
vorliegende Erfindung wird im Detail unten erklärt auf
Grundlage bevorzugter Ausführungsformen zum Realisieren
der Erfindung mit Bezug auf begleitende Zeichnungen.
-
Ausführungsform 1
-
1 zeigt
ein Blockdiagramm, das die Konfiguration eines Navigationsgeräts
gemäß Ausführungsform 1 der vorliegenden
Erfindung zeigt, insbesondere ein Autonavigationsgerät,
das in einem Fahrzeug verwendet wird. Das Autonavigationsgerät enthält
einen GPS-(globales Positionierungssystem)-Empfänger 1,
einen Fahrzeuggeschwindigkeitssensor 2, einen Rotationssensor
(Kreisel) 3, eine Orts- und Richtungs-Messeinheit 4,
eine Kartendatenbank 5, eine Eingabebetriebseinheit 6,
eine Kamera 7, eine Videobild-Erfassungseinheit 8,
eine Navigationssteuereinheit 9 und eine Anzeigeeinheit 10.
-
Der
GPS-Empfänger 1 misst einen Fahrzeugort durch
Empfangen von Funkwellen von einer Vielzahl von Satelliten. Der
Fahrzeugort, der gemessen wird durch den GPS-Empfänger 1,
wird gesendet als Fahrzeugortssignal an die Orts- und Richtungs-Messeinheit 4.
Der Fahrzeuggeschwindigkeitssensor 2 misst sequentiell
die Geschwindigkeit des Fahrzeugs. Der Fahrzeuggeschwindigkeitssensor 2 ist
im Allgemeinen zusammengesetzt aus einem Sensor, der Radumdrehungen
misst. Die Geschwindigkeit des Fahrzeugs, die gemessen wird durch
den Fahrzeuggeschwindigkeitssensor 2, wird als Fahrzeuggeschwindigkeitssignal
an die Orts- und Richtungs-Messeinheit 4 gesendet. Der
Rotationssensor 3 misst hintereinanderfolgend bzw. sequentiell
die Fahrtrichtung des Fahrzeugs. Die Fahrtrichtung (hier im Folgenden
einfach als ”Richtung” bezeichnet) des Fahrzeugs,
wie durch den Rotationssensor 3 gemessen, wird gesendet
als ein Richtungssignal an die Orts- und Richtungs-Messeinheit 4.
-
Die
Orts- und Richtungs-Messeinheit 4 misst den momentanen
Ort und Richtung des Fahrzeugs auf Grundlage des Fahrzeugortssignals,
gesendet von dem GPS-Empfänger 1. Jedoch kann,
in den Fällen, in denen der Raum über dem Fahrzeug
geblockt ist durch beispielsweise einen Tunnel oder umstehende Gebäude,
die Anzahl der Satelliten, von denen Funkwellen empfangen werden
können, Null sein oder verringert sein, und dadurch kann
ein Empfangszustand verschlechtert sein. Der momentane Ort und Richtung
können nicht auf Grundlage des Fahrzeugortssignals alleine
von dem GPS-Empfänger 1 gemessen werden, oder
selbst wenn die Messung möglich ist, kann die Genauigkeit
davon verschlechtert werden. Deshalb wird der Fahrzeugort gemessen
durch Verwenden des Vorteils einer Koppelnavigation bzw. Dead Reckoning
(autonome Navigation) unter Verwendung des Fahrzeuggeschwindigkeitssignals
von dem Fahrzeuggeschwindigkeitssensor 2 und dem Richtungssignal
von dem Rotationssensor 3, um daher eine Verarbeitung zum
Kompensieren von Messungen gemäß dem GPS-Empfänger 1 auszuführen.
-
Wie
oben bemerkt, enthält der momentane Ort und Richtung des
Fahrzeugs, wie durch die Orts- und Richtungs-Messeinheit 4 gemessen,
verschiedene Fehler, die beispielsweise auftreten von verschlechterter
Messpräzision aufgrund schlechten Empfangs durch den GPS-Empfänger 1 oder
Fahrzeuggeschwindigkeitsfehlern aufgrund von Änderungen
im Raddurchmesser, hervorgerufen durch Abnutzung und/oder Temperaturänderungen
oder Fehlern, die zurückzuführen sind auf die
Präzision der Sensoren selbst. Die Orts- und Richtungs-Messeinheit 4 korrigiert
deshalb den momentanen Ort und Richtung des Fahrzeugs, erhalten
durch Messung, und die Fehler enthält durch Kartenanpassen
unter Verwendung von Wegdaten, erfasst von der Kartendatenbank 5.
Der korrigierte momentane Ort und die Richtung des Fahrzeugs werden
gesendet als Fahrzeugs-Orts- und Richtungsdaten, an die Navigationssteuereinheit 9.
-
Die
Kartendatenbank 5 hält Kartendaten, die Wegdaten
enthalten, wie zum Beispiel Wegort, Wegtyp (Schnellstraße,
Mautstraße, normale Straße, enge Straße
und ähnlichem), Beschränkungen hinsichtlich des
Wegs (Geschwindigkeitsbeschränkungen, Einbahnstraßenverkehr
und ähnlichem), oder Spurinformation in der Nähe
von Kreuzungen, sowie Information hinsichtlich Einrichtungen um
den Weg herum. Wege werden repräsentiert als Vielzahl von Knoten
und geraden Linienverbindungen, die die Knoten verbinden. Ein Wegort
wird ausgedrückt durch Aufnehmen des Breitengrads und Längengrads
von jedem Knoten. Beispielsweise kennzeichnen drei oder mehr Verbindungen,
verbunden in einem gegebenen Knoten, eine Vielzahl von Wegen, die
bei dem Ort des Knotens sich schneiden. Die in der Kartendatenbank 5 gehaltenen
Kartendaten werden gelesen durch die Orts- und Richtungs-Messeinheit 4,
wie oben beschrieben, und auch durch die Navigationssteuereinheit 9.
-
Die
Eingabebetriebseinheit 6 ist zusammengesetzt aus mindestens
einem aus beispielsweise einer Fernsteuerung, einem berührungsempfindlichen Feld
und/oder einem Spracherkennungsgerät. Die Eingabebetriebseinheit 6 wird
durch den Benutzer betrieben, das dem Fahrer oder einem Passagier, zum
Eingeben eines Ziels oder zum Auswählen von Information,
zugeführt durch das Autonavigationsgerät. Die
Daten, die durch Betrieb der Eingabebetriebseinheit 6 erzeugt
werden, werden gesendet als Betriebsdaten an die Navigationssteuereinheit 9.
-
Die
Kamera 7 ist zusammengesetzt aus mindestens einem von beispielsweise
einer Kamera, die Bilder vor dem Fahrzeug aufnimmt, oder einer Kamera,
die in der Lage ist, Bilder simultan über einen weiten
Bereich von Richtungen aufzunehmen, beispielsweise um das ganze
Fahrzeug herum. Die Kamera 7 nimmt Bilder der Umgebungen
des Fahrzeugs auf, einschließlich der Fahrtrichtung des
Fahrzeugs. Das Videosignal, das erhalten wird durch Aufnehmen durch
die Kamera 7, wird gesendet an die Videobild-Erfassungseinheit 8.
-
Die
Videobild-Erfassungseinheit 8 wandelt das Videosignal um,
das gesendet wird von der Kamera 7, in ein digitales Signal,
das von einem Computer verarbeitet werden kann. Das digitale Signal, das
erhalten wird durch Umwandlung von der Videobild-Erfassungseinheit 8,
wird gesendet als Videodaten an die Navigationssteuereinheit 9.
-
Die
Navigationssteuereinheit 9 führt eine Datenverarbeitung
aus, um eine Funktion bereitzustellen zum Anzeigen einer Karte der
Umgebungen des Fahrzeugs, in dem das Autonavigationsgerät
bereitgestellt wird, wobei die Funktion ein Berechnen einer Führungsroute
zu einem Ziel, eingegeben über die Eingabebetriebseinheit 6,
enthalten kann, sowie ein Erzeugen einer Führungsinformation
gemäß der Führungsroute und dem momentanen
Ort und Richtung des Fahrzeugs, oder Erzeugen einer Führungskarte,
die eine Karte der Umgebungen des Fahrzeugorts und eine Fahrzeugmarkierung
kombiniert, die den Fahrzeugort bezeichnet; und eine Funktion eines
Führens des Fahrzeugs zu dem Ziel. Zusätzlich führt
die Navigationssteuereinheit 9 eine Datenverarbeitung aus
zum Suchen nach Information, wie zum Beispiel Verkehrsinformation,
Sehenswürdigkeiten, Restaurants, Läden und ähnliches
mit Bezug auf das Ziel oder die Führungsroute, und zum
Suchen nach Einrichtungen, die mit den Bedingungen übereinstimmen,
die eingegeben werden durch die Eingabebetriebseinheit 6.
-
Die
Navigationssteuereinheit 9 erzeugt Anzeigedaten zum Anzeigen,
im Einzelnen oder in Kombination, einer Karte, die erzeugt wird
auf Grundlage der Kartendaten, die von der Kartendatenbank 5 gelesen
werden, Videobilder, die bezeichnet werden durch die Videodaten,
die erfasst werden durch die Videobild-Erfassungseinheit 8,
oder Videodaten, die zusammengesetzt werden durch eine eigene interne Videobild-Zusammensetz-Verarbeitungseinheit 14 (unten
im Einzelnen beschrieben). Die Navigationssteuereinheit 9 wird
im Detail unten beschrieben. Die Anzeigedaten, die erzeugt werden
als Ergebnis der verschiedenen Prozesse in der Navigationssteuereinheit 9,
werden gesendet an die Anzeigeeinheit 10.
-
Die
Anzeigeeinheit 10 ist beispielsweise zusammengesetzt aus
einer LCD (Flüssigkristallanzeige) und zeigt die Anzeigedaten
an, die gesendet werden von der Navigationssteuereinheit 9 in
der Form von beispielsweise einer Karte und/oder einem Live-Aktions-Video
auf dem Bildschirm.
-
Als
Nächstes werden die Einzelheiten der Navigationssteuereinheit 9 unten
beschrieben. Die Navigationssteuereinheit 9 enthält
eine Zieleinstelleinheit 11, eine Routenberechnungseinheit 12,
eine Führungsanzeige-Erzeugungseinheit 13, eine
Videobild-Zusammensetz-Verarbeitungseinheit 14, eine Anzeigeentscheidungseinheit 15 und
eine Wegdaten-Erfassungseinheit 16. Zum Verhindern eines Durcheinanders
oder Wirrwarrs, wurden einige der Verbindungen zwischen den verschiedenen
zusammensetzenden Elementen oben in 1 weggelassen.
Die weggelassenen Teile werden erklärt wie sie auftreten.
-
Die
Zieleinstelleinheit 11 stellt ein Ziel ein gemäß der
Betriebsdaten, die gesendet werden von der Eingabebetriebseinheit 6.
Das durch die Zieleinstelleinheit 11 eingestellte Ziel
wird gesendet als Zieldaten an die Routenberechnungseinheit 12.
-
Die
Routenberechnungseinheit 12 berechnet eine Führungsroute
zu dem Ziel auf Grundlage der Zieldaten, die gesendet werden von
der Zieleinstelleinheit 11, Fahrzeugorts- und Richtungsdaten,
die gesendet werden von der Orts- und Richtungs-Messeinheit 4,
und Kartendaten, die gelesen werden von der Kartendatenbank 5.
Die Führungsroute, die berechnet wird durch Routenberechnungseinheit 12, wird
gesendet als Führungsroutendaten an die Anzeigeentscheidungseinheit 15.
-
In
Ansprechen auf einen Befehl bzw. Instruktion von der Anzeigeentscheidungseinheit 15 erzeugt die
Führungsanzeige-Erzeugungseinheit 13 eine Führungskarte
(hier im Folgenden als ”Grafik-Führungskarte”)
auf Grundlage einer Grafik, die in herkömmlichen Autonavigationsgeräten
verwendet wird. Die Grafik-Führungskarte, die erzeugt wird
durch die Führungsanzeige-Erzeugungseinheit 13,
enthält verschiedene Führungskarten, die kein
Live-Aktions-Videobild verwenden, beispielsweise planimetrische Karten,
Nahbereichskarten von Kreuzungen, schematische Autobahnkarten und ähnliches.
Die Grafik-Führungskarte ist nicht begrenzt auf eine planimetrische
Karte und kann eine Führungskarte sein, die eine dreidimensionale
CG verwendet, oder eine Führungskarte, die eine Ansicht
einer Vogelperspektive einer planimetrischen Karte darstellt. Techniken
zum Erzeugen einer Grafik-Führungskarte sind gut bekannt,
und eine detaillierte Erklärung derselben wird weggelassen.
Die Grafik-Führungskarte, die erzeugt wird durch die Führungsanzeige-Erzeugungseinheit 13,
wird gesendet als Grafik-Führungskartendaten an die Anzeigeentscheidungseinheit 15.
-
In
Ansprechen auf einen Befehl von der Anzeigeentscheidungseinheit 15 erzeugt
die Videobild-Zusammensetz-Verarbeitungseinheit 14 eine Führungskarte,
die ein Live-Aktions-Videobild verwendet (hier im Folgenden bezeichnet
als ”Live-Aktions-Führungskarte”). Beispielsweise
erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 von der
Kartendatenbank 5 Information hinsichtlich naher Objekte
um das Fahrzeug, wie zum Beispiel ein Wegenetz, Orientierungshilfe,
wie eine Sehenswürdigkeit, und Kreuzungen, und erzeugt
eine Live-Aktions-Führungskarte, in der eine Grafik überlagert
wird zum Beschreiben der Form, Inhalt und ähnlichem von nahen
Objekten, sowie Zeichenfolgen, Bilder und ähnlichem (hier
im Folgenden bezeichnet als ”Inhalt”), um die
nahen Objekte, die vorliegen in einem Live-Aktions-Videobild, das
präsentiert wird durch die Videodaten, die gesendet werden
von der Videobild-Erfassungseinheit 8.
-
Die
Videobild-Zusammensetz-Verarbeitungseinheit 14 erzeugt
eine Live-Aktions-Führungskarte, in der ein Bild des Wegs,
bezeichnet durch Wegdaten, erfasst durch die Wegdaten-Erfassungseinheit 16, überlagert
wird auf einem Live-Aktions-Videobild, das erfasst wird durch die
Videobild-Erfassungseinheit 8. Die Live-Aktions-Führungskarte,
die erzeugt wird durch die Videobild-Zusammensetz-Verarbeitungseinheit 14,
wird gesendet als Live-Aktions-Führungskartendaten an die
Anzeigeentscheidungseinheit 15.
-
Wie
oben bemerkt, instruiert die Anzeigeentscheidungseinheit 15 die
Führungsanzeige-Erzeugungseinheit 13, eine Grafik-Führungskarte
zu erzeugen, und instruiert die Videobild-Zusammensetz-Verarbeitungseinheit 14,
eine Live-Aktions-Führungskarte zu erzeugen. Die Anzeigeentscheidungseinheit 15 entscheidet über
den auf dem Bildschirm der Anzeigeeinheit 10 anzuzeigenden
Inhalt auf Grundlage von Fahrzeugorts- und Richtungsdaten, die gesendet
werden von der Orts- und Richtungs-Messeinheit 4, Kartendaten
von der Fahrzeugumgebung, die gelesen werden von der Kartendatenbank 5,
Betriebsdaten, die gesendet werden von der Eingabebetriebseinheit 6,
Grafik-Führungs-Kartendaten, die gesendet werden von der
Führungsanzeige-Erzeugungseinheit 13, und Live-Aktions-Führungskartendaten,
die gesendet werden von der Videobild-Zusammensetz-Verarbeitungseinheit 14.
Die Daten, die dem Anzeigeinhalt entsprechen, der bestimmt wird
durch die Anzeigeentscheidungseinheit 15, werden gesendet
als Anzeigedaten an die Anzeigeeinheit 10.
-
Auf
Grundlage der Anzeigedaten zeigt die Anzeigeeinheit 10 beispielsweise
eine Nahaufnahme einer Ansicht einer Kreuzung an, wenn das Fahrzeug sich
einer Kreuzung annähert, oder zeigt ein Menu an, wenn eine
Menu-Taste der Eingabebetriebseinheit 6 gedrückt
wird, oder zeigt eine Live-Aktions-Führungskarte an unter
Verwendung eines Live-Aktions-Videobilds, wenn ein Live-Aktions-Anzeigemodus
eingestellt wird durch die Eingabebetriebseinheit 6. Umschalten
zu einer Live-Aktions-Führungskarte, die ein Live-Aktions-Videobild
verwendet, kann konfiguriert werden, auch stattzufinden, wenn der
Abstand zu einer Kreuzung, bei der das Fahrzeug abbiegen muss, gleich
ist zu oder kleiner als ein vorgegebener Wert zusätzlich
zu wenn ein Live-Aktions-Anzeigemodus eingestellt wird.
-
Die
Führungskarte, die angezeigt wird auf dem Bildschirm der
Anzeigeeinheit 10, kann derart konfiguriert werden, dass
sie simultan auf einem Bildschirm eine Live-Aktions-Führungskarte
und Grafik-Führungskarte anzeigt, so dass die Grafik-Führungskarte
(beispielsweise eine planimetrische Karte), die erzeugt wird durch
die Führungsanzeige-Erzeugungseinheit 13, angeordnet
ist an der linken Seite des Bildschirms, und eine Live-Aktions-Führungskarte
(beispielsweise eine Nahaufnahme einer Ansicht einer Kreuzung unter
Verwendung eines Live-Aktions-Videobilds), die erzeugt wird durch
die Videobild-Zusammensetz-Verarbeitungseinheit 14, angeordnet
wird auf der rechten Seite des Bildschirms.
-
In
Ansprechen auf einen Befehl von der Videobild-Zusammensetz-Verarbeitungseinheit 14 erfasst
die Wegdaten-Erfassungseinheit 16 von der Kartendatenbank 5 Wegdaten
(Wegverbindung) der Umgebungen des Fahrzeugorts, bezeichnet durch die
Orts- und Richtungsdaten, die gesendet werden von der Orts- und
Richtungs-Messeinheit 4. Die Wegdaten, die gesammelt werden
von der Wegdaten-Erfassungseinheit 16, werden gesendet
an die Videobild-Zusammensetz-Verarbeitungseinheit 14.
-
Als
Nächstes wird der Betrieb des Autonavigationsgeräts
gemäß Ausführungsform 1 der vorliegenden
Erfindung mit den obigen Merkmalen beschrieben unter Fokussierung
auf den Videobild-Zusammensetzprozess, der ausgeführt wird
in der Videobild-Zusammensetz-Verarbeitungseinheit 14 mit Bezug
auf das in 2 dargestellte Flussdiagramm.
-
In
dem Videobild-Zusammensetzprozess werden Videobilder als auch der
Fahrzeugort und Richtung zuerst erfasst (Schritt ST11). Speziell
erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 Fahrzeugorts-
und Richtungsdaten von der Orts- und Richtungs-Messeinheit 4,
und auch Videodaten, die erfasst werden bei diesem Zeitpunkt durch die
Videobild-Erfassungseinheit 8. Die Videobilder, die bezeichnet
werden durch die Videodaten, die erfasst werden in Schritt ST11,
sind beispielsweise Live-Aktions-Videobilder, wie zum Beispiel das
in 3(a) dargestellte.
-
Dann
wird eine Inhaltserzeugung ausgeführt (Schritt ST12). Speziell
such die Videobild-Zusammensetz-Verarbeitungseinheit 14 nach
nahen Objekten von dem Fahrzeug in der Kartendatenbank 5 und erzeugt
von den gesuchten nahen Objekten Inhaltsinformation, die dem Benutzer
zu präsentieren ist. In der Inhaltsinformation wird dem
Benutzer zu präsentierender Inhalt, wie zum Beispiel eine
Route, entlang der das Fahrzeug geführt wird, sowie das
Wegenetz, Orientierungshilfen, Kreuzungen und ähnliches
um das Fahrzeug, repräsentiert als eine Grafik, Zeichenfolge
oder ein Bild, zusammengestellt mit Koordinaten zum Anzeigen des
Vorhergehenden. Die Koordinaten werden beispielsweise gegeben durch
ein Koordinatensystem (hier im Folgenden bezeichnet als ”Bezugskoordinatensystem”),
das eindeutig bestimmt wird auf dem Boden, beispielsweise Breitengrad
und Längengrad. In dem Fall einer Grafik werden die Koordinaten
gegeben durch die Koordinaten von jedem Vertex in dem Bezugskoordinatensystem, und
in dem Fall von Zeichenfolgen oder Bildern werden die Koordinaten
gegeben durch die Koordinaten, die als Bezug zum Anzeigen der Zeichenfolgen
und Bilder dienen.
-
Zusätzlich
sammelt die Videobild-Zusammensetz-Verarbeitungseinheit 14 die
Wegdaten, die erfasst werden durch die Wegdaten-Erfassungseinheit 16,
und fügt die Wegdaten hinzu als Zusatzinhaltsinformation.
Im Schritt ST12 wird entschieden über dem dem Benutzer
zu präsentierenden Inhalt, sowie der Gesamtzahl der Inhalte
a. Die Besonderheiten des Inhaltserzeugungsprozesses, der ausgeführt
wird in Schritt ST12, werden im Einzelnen im Folgenden erklärt.
-
Dann
wird die Gesamtzahl der Inhalte a erfasst (Schritt ST13). Speziell
erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 die
Gesamtzahl von Inhalten a, erzeugt in Schritt ST12. Dann initialisiert
die Videobild-Zusammensetz-Verarbeitungseinheit 14 den
Wert i des Zählers auf ”1” (Schritt ST14).
Speziell wird der Wert i des Zählers zum Zählen
der Anzahl von Inhalten, die schon zusammengestellt sind, auf ”1” gesetzt.
Es sei bemerkt, dass der Zähler bereitgestellt wird in
der Videobild-Zusammensetz-Verarbeitungseinheit 14.
-
Dann
wird überprüft, ob der Zusammensetzprozess vorbei
ist für alle Teile der Inhaltsinformation (Schritt ST15).
Speziell bestimmt die Videobild-Zusammensetz-Verarbeitungseinheit 14,
ob die Anzahl der Inhalte i, die schon zusammengestellt ist, welches
der Wert des Zählers ist, größer ist
als die Gesamtzahl der Inhalte a. Wenn in Schritt ST15 bestimmt
wird, dass die Anzahl der Inhalte i, die schon zusammengestellt
ist, größer ist als die Gesamtanzahl der Inhalte
a, wird der Videobild-Zusammensetzprozess beendet, und die Videobilddaten
mit Inhalt, der darin zu diesem Zeitpunkt zusammengestellt ist, wird
gesendet an die Anzeigeentscheidungseinheit 15.
-
Andererseits
wird, wenn in Schritt ST15 bestimmt wird, dass die Anzahl der Inhalte
i, die schon zusammengestellt ist, nicht größer
ist als die Gesamtzahl der Inhalte a, die i-te Inhaltsinformation
erfasst (Schritt ST16). Speziell erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 ein
i-tes Inhaltsinformationselement von der Inhaltsinformation, erzeugt
in Schritt ST12.
-
Dann
wird der Ort der Inhaltsinformation auf dem Videobild berechnet
durch perspektivische Transformation (Schritt ST17). Speziell berechnet
die Videobild-Zusammensetz-Verarbeitungseinheit 14 den
Ort des Inhalts auf dem Videobild, erfasst in Schritt ST11, in dem
Bezugskoordinatensystem, in dem der Inhalt anzuzeigen ist auf Grundlage
des Fahrzeugorts und Richtung, erfasst in Schritt ST11 (Ort und
Richtung des Fahrzeugs in dem Bezugskoordinatensystem); des Orts
und Richtung der Kamera 7 in dem Koordinatensystem mit
Bezug auf das Fahrzeug; und von charakteristischen Werten der Kamera 7,
im Vorhinein erfasst, wie zum Beispiel Bereichswinkel und Fokusabstand.
Die obige Berechnung ist identisch zu einer Koordinatentransformationsberechnung,
genannt perspektivische Transformation.
-
Dann
wird ein Videobild-Zusammensetzprozess ausgeführt (Schritt
ST18). Speziell zeichnet die Videobild-Zusammensetz-Verarbeitungseinheit 14 eine
Grafik, eine Zeichenfolge, ein Bild oder ähnliches, bezeichnet
durch die Inhaltsinformation, erfasst in Schritt ST16, auf dem Videobild,
erfasst in Schritt ST11, bei dem in Schritt ST17 berechneten Ort.
Folglich wird ein Videobild erzeugt, in dem ein Bild des Wegs überlagert
wird auf einem Live-Aktions-Videobild, wie in 3(b) dargestellt.
-
Dann
wird der Wert i des Zählers erhöht (Schritt ST19).
Speziell erhöht die Videobild-Zusammensetz-Verarbeitungseinheit 14 den
Wert i des Zählers. Die Abfolge kehrt danach zurück
zu Schritt ST15, und der oben beschriebene Prozess wird wiederholt.
-
Als
Nächstes werden die Details des Inhaltserzeugungsprozesses,
der ausgeführt wird in Schritt ST12 des oben beschriebenen
Videobild-Zusammensetzprozesses, beschrieben mit Bezug auf ein in 4 dargestelltes
Flussdiagramm.
-
In
dem Inhaltserzeugungsprozess wird zuerst der Bereich bestimmt, über
den Inhalt zu sammeln ist (Schritt ST21). Speziell stellt die Videobild-Zusammensetz-Verarbeitungseinheit 14 den
Bereich ein, über den Inhalt zu sammeln ist, beispielsweise
innerhalb eines Kreises mit einem Radius von 50 m um das Fahrzeug
oder eines Rechtecks, das sich 50 m vor dem Fahrzeug erstreckt und
10 m nach links und rechts von dem Fahrzeug. Der Bereich, über
den Inhalt zu sammeln ist, kann im Vorhinein durch den Hersteller
des Autonavigationsgeräts eingestellt werden oder kann
willkürlich durch den Benutzer eingestellt werden.
-
Dann
wird die Art des zu sammelnden Inhalts bestimmt (Schritt ST22).
Die Art des zu sammelnden Inhalts kann variieren abhängig
von dem Führungsmodus, beispielsweise wie in 5 dargestellt.
Die Videobild-Zusammensetz-Verarbeitungseinheit 14 bestimmt
die Art des zu sammelnden Inhalts gemäß dem Führungsmodus.
Die Inhaltsart kann im Voraus durch den Hersteller des Autonavigationsgeräts
eingestellt werden oder kann willkürlich durch den Benutzer
ausgewählt werden.
-
Dann
wird ein Sammeln von Inhalten ausgeführt (Schritt ST23).
Speziell sammelt die Videobild-Zusammensetz-Verarbeitungseinheit 14 von
der Kartendatenbank 5 oder von anderen Verarbeitungseinheiten
einen Inhalt von der Art bzw. dem Typ, der bestimmt wird in Schritt
ST22, von denen, die innerhalb des Bereichs existieren, der in Schritt
ST21 bestimmt wird.
-
Dann
wird ein Bereich bestimmt, über den Wegdaten zu sammeln
sind (Schritt ST24). Speziell stellt die Videobild-Zusammensetz-Verarbeitungseinheit 14 den
Bereich der zu erfassenden Wegdaten ein, beispielsweise innerhalb
eines Kreises mit einem Radius von 50 m um das Fahrzeug oder eines
Rechtecks, das sich 50 m vor dem Fahrzeug und 10 m nach links und
rechts des Fahrzeugs erstreckt, und sendet den Bereich an die Wegdaten-Erfassungseinheit 16.
Der Bereich, über den Wegdaten zu sammeln sind, kann der
gleiche sein wie der Bereich, über den Inhalt zu sammeln
ist, wie in Schritt ST21 bestimmt, oder kann ein unterschiedlicher
Bereich sein.
-
Dann
werden Wegdaten gesammelt (Schritt ST25). In Ansprechen auf einen
Befehl von der Videobild-Zusammensetz-Verarbeitungseinheit 14 sammelt
die Wegdatenerfassungseinheit 16 Wegdaten, die innerhalb
des Bereichs existieren, über den Wegdaten zu sammeln sind,
wie in Schritt ST24 bestimmt, und sendet die gesammelten Wegdaten
an die Videobild-Zusammensetz-Verarbeitungseinheit 14.
-
Dann
wird der Inhalt ergänzt durch Wegdaten (Schritt ST26).
Speziell fügt die Videobild-Zusammensetz-Verarbeitungseinheit 14 die
Wegdaten hinzu, die gesammelt wurden in Schritt ST25 zu dem Inhalt.
Dies beendet den Inhaltserzeugungsprozess, und die Abfolge kehrt
zurück zu dem Videobild-Zusammensetzprozess.
-
Jedoch
ist die oben beschriebene Videobild-Zusammensetz-Verarbeitungseinheit 14 konfiguriert,
so dass sie Inhalte auf einem Videobild zusammenstellt unter Verwendung
einer perspektivischen Transformation, aber kann auch derart konfiguriert
sein, dass sie Ziele innerhalb des Videobilds erkennt durch Unterziehen
des Videobilds eines Bilderkennungsprozesses und durch Zusammenstellen von
Inhalt auf dem erkannten Videobild.
-
In
dem Autonavigationsgerät nach Ausführungsform
1 der vorliegenden Erfindung, wie oben beschrieben, wird ein Bild
des Wegs um das Fahrzeug angezeigt, überlagert auf einem
Live-Aktions-Videobild der Umgebungen des Fahrzeugs, aufgenommen
durch die Kamera 7, innerhalb des Bildschirm der Anzeigeeinheit 10.
Folglich kann ein Fahren dadurch sicherer ausgeführt werden,
dass der Fahrer die Form des Wegs von nicht sichtbaren Teilen um
das Fahrzeug erlernen kann.
-
Ausführungsform 2
-
Außer
der Funktion der Videobild-Zusammensetz-Verarbeitungseinheit 14 ist
die Konfigurierung des Autonavigationsgeräts gemäß Ausführungsform
2 der vorliegenden Erfindung identisch zu der des Autonavigationsgeräts
gemäß Ausführungsform 1, dargestellt
in 1. Die Videobild-Zusammensetz-Verarbeitungseinheit 14 erzeugt
eine Live-Aktions-Führungskarte, in der ein Weg, beschrieben
durch Wegdaten, verwendet in einer letztendlichen Fertigstellung,
nämlich Wegdaten nach beispielsweise Entfernen von Überbrückungen
(erhöhte Wege bzw. Wege auf Pfeilern) oder zuführende Wege
(hier im Folgenden bezeichnet als ”konsolidierte Wegdaten”)
von Daten, gesammelt durch die Wegdaten-Erfassungseinheit 16 (hier
im Folgenden bezeichnet als ”gesammelte Wegdaten”) überlagert wird
auf dem Live-Aktions-Videobild, erfasst durch die Videobild-Erfassungseinheit 8.
-
Außer
dem Inhaltserzeugungsprozess, ausgeführt in Schritt ST12
ist der Videobild-Zusammensetzprozess, ausgeführt durch
das Autonavigationsgerät gemäß Ausführungsform
2, identisch zu dem Videobild-Zusammensetzprozess, ausgeführt
durch das Autonavigationsgerät gemäß Ausführungsform 1,
dargestellt in 2. Im Folgenden werden die Details
des Inhaltserzeugungsprozesses, die sich von denen der Ausführungsform
1 unterscheiden, beschrieben mit Bezug auf das in 6 dargestellte Flussdiagramm
mittels eines Beispiels eines Prozesses eines Eliminierens von Wegen,
wie zum Beispiel Überbrückungen oder ähnlichen,
die nicht verbunden sind mit einem Weg von Interesse. Jedoch werden die
Schritte, in denen der gleiche Prozess ausgeführt wird,
wie in dem Inhaltserzeugungsprozess des Autonavigationsgeräts
gemäß Ausführungsform 1, dargestellt
in 4, bezeichnet mit den gleichen Bezugszeichen wie
die in Ausführungsform 1 verwendeten, und die Erklärung
derselben wird vereinfacht.
-
In
dem Inhaltserzeugungsprozess wird zuerst der Bereich bestimmt, über
den Inhalt zusammen ist (Schritt ST21). Dann wird die Art von Inhalt, die
zu sammeln ist, bestimmt (Schritt ST22). Dann wird der Inhalt gesammelt
(Schritt ST23). Dann wird der Bereich bestimmt, über den
Wegdaten zu sammeln sind (Schritt ST24). Dann werden Wegdaten gesammelt
(Schritt ST25).
-
Dann
werden die Daten hinsichtlich des Wegs, der momentan bereist wird,
verwendet als konsolidierte Wegdaten (Schritt ST31). Speziell verwendet
die Videobild-Zusammensetz-Verarbeitungseinheit 14 die
Wegdaten entsprechend dem Weg, entlang dem das Fahrzeug momentan
fährt als konsolidierte Wegdaten.
-
Dann
wird ein Prozess ausgeführt, in dem nach Wegdaten gesucht
wird, verbunden mit den Wegdaten innerhalb der konsolidierten Wegdaten (Schritt
ST32). Speziell sucht die Videobild-Zusammensetz-Verarbeitungseinheit 14 nach
Wegdaten, die verbunden sind mit den konsolidierten Wegdaten unter
den gesammelten Wegdaten. Wie hierin verwendet, bedeutet ”verbunden”,
dass zwei Wegdaten einen gleichen Endpunkt gemeinsam verwenden.
-
Dann
wird überprüft, ob verbundene Wegdaten existieren
oder nicht (Schritt ST33). Wenn in Schritt ST33 es bestimmt wird,
dass verbundene Wegdaten existieren, werden die verbundenen Wegdaten
zu den konsolidierten Wegdaten geschoben (Schritt ST34). Speziell
löscht die Videobild-Zusammensetz-Verarbeitungseinheit 14 die
Wegdaten, die in Schritt ST32 gefunden werden, von den gesammelten
Wegdaten, und fügt die gefundenen Wegdaten zu den konsolidierten
Wegdaten hinzu. Die Abfolge kehrt zurück danach zu Schritt
ST32, und der oben beschriebene Prozess wird wiederholt.
-
Wenn
in Schritt ST33 bestimmt wird, dass keine verbundenen Wegdaten existieren,
werden die konsolidierten Wegdaten hinzugefügt zu dem Inhalt (Schritt
ST35). Folglich wird nur ein Bild des Wegs, wie bezeichnet durch
konsolidierte Wegdaten, nämlich nur ein Weg, entlang dem
das Fahrzeug fahren kann, ausgenommen Wege, wie zum Beispiel Überbrückungen,
die nicht verbunden sind mit dem Weg von Interesse, überlagert
auf einem Live-Aktions-Videobild in dem Videobild-Zusammensetzprozess. Dies
beendet den Inhaltserzeugungsprozess.
-
Da
die Erklärung des zuvor erwähnten Inhaltserzeugungsprozesses
sich nur mit einem Prozess beschäftigt mit Bedingungen,
wo Wege, wie zum Beispiel Überbrückungen, die
nicht verbunden mit dem Weg sind, eliminiert werden, kann der Inhaltserzeugungsprozess
auch konfiguriert werden mit anderen Bedingungen, so dass geteilte
Wegdaten, die aus einem Teilen von Wegdaten in eine Vielzahl von
Wegdaten hinsichtlich der Anwesendheit des Mittelstreifens resultieren,
zusammengebracht werden, beispielsweise, wie in 7(a) dargestellt. Bilder
von allen Wegen werden gezeichnet, wenn die Gesamtheit des Wegs
vorliegt auf Grundlage der Wegdaten, wie in 7(b) dargestellt.
Im Gegensatz dazu wird ein Wegbild, wie das in 7(c) dargestellte,
gezeichnet, wenn Wegdaten konsolidiert werden beispielsweise auf
solch eine Art und Weise, so dass sie nur den Weg zeigen, für
den eine Führung benötigt wird. Wenn der Mittelstreifen
vereinigt wird, wird nur der Weg erbracht bzw. dargestellt, entlang
dem das Fahrzeug fährt, plus einer Verlängerung
und Seitenwegen desselben, wie in 7(d) dargestellt. Wenn
Wegdaten konsolidiert werden, so dass nur der Weg vorne gezeigt
wird nach einem Abbiegen bei einer Kreuzung, wird nur ein Bild des
Wegs vorne gezeigt nach einem Abbiegen bei einer Kreuzung, wie in 7(e) dargestellt.
-
In
dem Autonavigationsgerät nach Ausführungsform
2 der vorliegenden Erfindung, wie oben beschrieben, existieren unterschiedliche
Wegedaten, wenn beispielsweise ein Weg aufgeteilt wird durch einen
Mittelstreifen in einem Hinauf- und einem Hinab-Weg. Jedoch können
diese Wegdaten zusammengebracht werden und als einzelner Weg gebildet werden.
Alternativ werden Wegdaten der Wege, durch die das Fahrzeug nicht
gehen kann, wie zum Beispiel Überbrückungen oder ähnliches,
nicht dargelegt. Folglich können Wege in der gleichen Art
und Weise, wie in einer gewöhnlichen Karte angezeigt werden.
-
Ausführungsform 3
-
Außer
der Funktion der Wegdaten-Erfassungseinheit 16 ist die
Konfigurierung des Autonavigationsgeräts gemäß Ausführungsform
3 der vorliegenden Erfindung identisch zu der des Autonavigationsgeräts
gemäß Ausführungsform 1, dargestellt
in 1. Die Wegdaten-Erfassungseinheit 16 modifiziert
den Bereich, über den Wegdaten zu sammeln sind gemäß der
Fahrzeuggeschwindigkeit des Fahrzeugs.
-
Es
wird bemerkt, dass außer dem Inhaltserzeugungsprozess,
der ausgeführt wird in Schritt ST12, der Videobild-Zusammensetzprozess,
der ausgeführt wird durch das Autonavigationsgerät
gemäß Ausführungsform 3, identisch ist
zu dem Videobild-Zusammensetzprozess, der ausgeführt wird durch
das Autonavigationsgerät gemäß Ausführungsform
1, dargestellt in 2. Im Folgenden werden die Einzelheiten
des Inhaltserzeugungsprozesses, der sich unterscheidet von dem von
Ausführungsform 1, beschrieben mit Bezug auf das in 8 dargestellte
Flussdiagramm. Jedoch werden die Schritte, wo der gleiche Prozess
ausgeführt wird, wie in dem Inhaltserzeugungsprozess des
Autonavigationsgeräts gemäß der Ausführungsform
1 oder Ausführungsform 2, oben beschrieben, bezeichnet
mit den gleichen Bezugszeichen, wie die, die in der Ausführungsform
1 oder Ausführungsform 2 verwendet werden, und die Erklärung
derselben wird vereinfacht.
-
In
dem Inhaltserzeugungsprozess wird zuerst der Bereich bestimmt, über
den Inhalt zu sammeln ist (Schritt ST21). dann wird die Art des
Inhalts, der zu sammeln ist, bestimmt (Schritt ST22). Dann wird
der Inhalt gesammelt (Schritt ST23). Dann wird der Bereich bestimmt, über
den Wegdaten zu sammeln sind (Schritt ST24).
-
Dann
wird überprüft, ob die Fahrzeuggeschwindigkeit
größer ist als ein vorbestimmter Schwellenwert
v (km/h) (Schritt ST41). Speziell überprüft die
Videobild-Zusammensetz-Verarbeitungseinheit 14, ob die
Fahrzeuggeschwindigkeit, gekennzeichnet durch ein Fahrzeuggeschwindigkeitssignal von
dem Fahrzeuggeschwindigkeitssensor 2, größer ist
als ein vorbestimmter Schwellenwert v (km/h). Der Schwellenwert
v (km/h) kann konfiguriert werden, um im Vorhinein eingestellt zu
werden durch den Hersteller des Navigationsgeräts oder
kann konfiguriert werden, um willkürlich modifiziert zu
werden durch den Benutzer.
-
Wenn
in Schritt ST41 bestimmt wird, dass die Fahrzeuggeschwindigkeit
größer ist als der vorbestimmte Schwellenwert
v (km/h), erstreckt sich der Bereich, über den Inhalt zu
sammeln ist, longitudinal (Schritt ST42). Speziell verdoppelt die
Videobild-Zusammensetz-Verarbeitungseinheit 14 den Bereich, über
den Wegdaten zu sammeln sind, wie in Schritt ST24 bestimmt, in der
Richtung, entlang der das Fahrzeug fährt, und instruiert
diesen Bereich an die Wegdaten-Erfassungseinheit 16. Es
wird bemerkt, dass das Verfahren zum Erweitern des Bereichs, über
den Wegdaten gesammelt werden, beispielsweise ein Erweitern des
Bereichs durch einen willkürlichen Abstand von beispielsweise
10 m in der Fahrtrichtung des Fahrzeugs involvieren kann. Das Verfahren
zum Erweitern des Bereichs, über den Wegdaten zu sammeln
sind, und das Erweiterungsverhältnis können konfiguriert
werden, um im Vorhinein durch den Hersteller des Autonavigationsgeräts
eingestellt zu werden, oder können konfiguriert werden, um
willkürlich durch den Benutzer modifiziert zu werden. Ein
Verfahren kann auch verwendet werden, in dem anstatt einer Erweiterung
in der Fahrtrichtung des Fahrzeugs, die Breite des Bereichs in der Links-Rechts-Richtung
des Fahrzeugs eingeengt wird. Danach geht die Abfolge zu Schritt
ST44.
-
Andererseits
wird, wenn in Schritt ST41 bestimmt wird, dass die Fahrzeuggeschwindigkeit
nicht größer ist als der vorbestimmte Schwellenwert
v (km/h), der Bereich, über den Inhalt zu sammeln ist, lateral
erweitert (Schritt ST43). Speziell verdoppelt die Videobild-Zusammensetz-Verarbeitungseinheit 14 den
Bereich, über den Wegdaten zu sammeln sind, wie in Schritt
ST24 bestimmt, in der Links-Rechts-Richtung des Fahrzeugs und instruiert bzw.
teilt mit diesen Bereich an die Wegdaten-Erfassungseinheit 16.
Es wird bemerkt, dass das Verfahren zum Erweitern des Bereichs, über
den Wegdaten zu sammeln sind, beispielsweise ein Erweitern des Bereichs
durch einen willkürlichen Abstand von beispielsweise 10
m in der Links-Rechts-Richtung des Fahrzeugs involvieren kann. Das
Verfahren zum Erweitern des Bereichs, über den Wegdaten
zu sammeln sind, und das Erweiterungsverhältnis, können konfiguriert
werden, um im Vorhinein durch den Hersteller des Autonavigationsgeräts
eingestellt zu werden oder können konfiguriert werden,
um willkürlich durch den Benutzer modifiziert zu werden.
Danach geht die Abfolge zu Schritt ST44.
-
Wegdaten
werden gesammelt in Schritt ST44. Speziell sammelt die Wegdaten-Erfassungseinheit 16 die
Wegdaten, die sich innerhalb des erweiterten Bereichs befinden in
Schritt ST42 oder Schritt ST43, und sendet die gesammelten Wegdaten
an die Videobild-Zusammensetz-Verarbeitungseinheit 14.
-
Dann
wird die Art der anzuzeigenden Führung überprüft
(Schritt ST45). Wenn in Schritt ST45 bestimmt wird, dass die anzuzeigende
Führung ”Kreuzungsführung” ist,
wird die Route bis zu der Kreuzung ausgewählt, sowie die Route
vorne nach einem Abbiegen bei der Kreuzung (Schritt ST46). Speziell
filtert die Videobild-Zusammensetz-Verarbeitungseinheit 14 die
in Schritt ST44 gesammelten Wegdaten und wählt nur Wegdaten
entsprechend der Route von dem Fahrzeug zu der Kreuzung aus, und
Wegdaten des Wegs davor nach einem Abbiegen bei der Kreuzung. Danach
geht die Abfolge zu Schritt ST48.
-
Wenn
in Schritt ST45 bestimmt wird, dass die anzuzeigende Führung
eine ”Mauttorführung” ist, wird eine
Route zu einem Mauttor (Schritt ST47) ausgewählt. Speziell
filtert die Videobild-Zusammensetz-Verarbeitungseinheit 14 die
Wegdaten, die gesammelt werden in Schritt ST44, und wählt
nur Wegdaten entsprechend einer Route von dem Fahrzeug zu einem
Mauttor aus. Danach geht die Sequenz zu Schritt ST48.
-
Wenn
in Schritt ST45 bestimmt wird, dass die anzuzeigende Führung
eine Führung ist, anders als eine ”Kreuzungsführung” und ”Mauttorführung”, wird
keine Route ausgewählt, und die Abfolge bzw. Sequenz geht
zu Schritt ST48. In Schritt ST48 werden die Wegdaten, ausgewählt
in Schritten ST44, ST46 und ST47, hinzugefügt zu dem Inhalt.
Dies vervollständigt den Inhaltserzeugungsprozess.
-
In
dem oben beschriebenen Inhaltserzeugungsprozess wird der Prozess,
der ausgeführt wird durch das Autonavigationsgerät
gemäß Ausführungsform 2, nämlich
der Prozess eines Konsolidierens von Wegdaten gemäß dem
tatsächlichen Weg, nicht ausgeführt. Jedoch kann
der Inhaltserzeugungsprozess in dem Autonavigationsgerät
gemäß Ausführungsform 3 konfiguriert
werden, um ausgeführt zu werden in Kombination mit dem
oben erwähnten Konsolidierungsprozess.
-
Wie
oben beschrieben, kann das Autonavigationsgerät gemäß Ausführungsform
3 der vorliegenden Erfindung beispielsweise auf solch eine Art und
Weise konfiguriert sein, dass es Wegdaten über einen erweiterten
Bereich erbringt in der Fahrtrichtung, wenn die Fahrzeuggeschwindigkeit
hoch ist, und über einen erweiterten Bereich nach links
und rechts, wenn die Fahrzeuggeschwindigkeit gering ist. Dies erlaubt
ein Unterdrücken von einer nicht-notwendigen Weganzeige,
so dass nur der zum Fahren notwendige Weg angezeigt wird.
-
Ausführungsform 4
-
Außer
der Funktion der Videobild-Zusammensetz-Verarbeitungseinheit 14 ist
die Konfigurierung des Autonavigationsgeräts gemäß Ausführungsform
4 der vorliegenden Erfindung identisch zu der des Autonavigationsgeräts
gemäß Ausführungsform 1, dargestellt
in 1. Die Funktion der Videobild-Zusammensetz-Verarbeitungseinheit 14 wird
im Einzelnen unten beschrieben.
-
Der
Videobild-Zusammensetzprozess, der ausgeführt wird durch
die Videobild-Zusammensetz-Verarbeitungseinheit 14 des
Autonavigationsgeräts gemäß Ausführungsform
4, ist identisch zu dem Videobild-Zusammensetzprozess, der ausgeführt wird
durch das Autonavigationsgerät gemäß Ausführungsform
1, dargestellt in 2, außer der Verarbeitung,
die ausgeführt wird in dem Fall, wo Inhalte Wegdaten darstellen.
Im Folgenden wird der Videobild-Zusammensetzprozess des Autonavigationsgeräts
gemäß Ausführungsform 4 beschrieben mit
Bezug auf das in 9 dargestellte Flussdiagramm,
mit Fokus auf die Unterschiede zu Ausführungsform 1. Jedoch
werden die Schritte, bei denen die gleiche Verarbeitung ausgeführt
wird, wie in dem Videobild-Zusammensetzprozess des Autonavigationsgeräts gemäß Ausführungsform
1, bezeichnet mit den gleichen Bezugszeichen, die in Ausführungsform
1 verwendet werden, und eine Erklärung derselben wird vereinfacht.
-
In
dem Videobild-Zusammensetzprozess werden Videos sowie der Fahrzeug
Ort und Richtung zuerst erfasst (Schritt ST11). Dann wird eine Inhaltserzeugung
ausgeführt (Schritt ST12). Der Inhaltserzeugungsprozess,
der in Schritt ST12 ausgeführt wird, ist nicht begrenzt
auf den Inhaltserzeugungsprozess nach Ausführungsform 1
(4), und kann der Inhaltserzeugungsprozess nach
Ausführungsform 2 (6) sein
oder der Inhaltserzeugungsprozess nach Ausführungsform
3 (8).
-
Dann
wird die Gesamtzahl a der Inhalte erfasst (Schritt ST13). Dann wird
der Wert i des Zählers auf ”1” initialisiert
(Schritt ST14). Dann wird überprüft, ob der Zusammensetzprozess
vorüber ist für die gesamte Inhaltsinformation
(Schritt ST15). Wenn in Schritt ST15 bestimmt wird, dass der Zusammensetzprozess
vorbei ist für die gesamte Inhaltsinformation, wird der
Videobild-Zusammensetzprozess beendet, und die Videodaten mit Inhalt,
zusammengesetzt zu diesem Zeitpunkt, werden gesendet an die Anzeigeentscheidungseinheit 15.
-
Andererseits
wird, wenn in Schritt ST15 bestimmt wird, dass der Zusammensetzprozess
nicht vorbei ist für die gesamte Inhaltsinformation, ein
i-tes Inhaltsinformationselement dann erfasst (Schritt ST16). Dann
wird bestimmt, ob der Inhalt Wegdaten darstellt (Schritt ST51).
Speziell überprüft die Videobild-Zusammensetz-Verarbeitungseinheit 14,
ob der in Schritt ST12 erzeugte Inhalt Wegdaten darstellt. Wenn
in Schritt ST51 bestimmt wird, dass der Inhalt nicht Wegdaten darstellt,
geht die Sequenz zu Schritt ST17.
-
Andererseits
wird, wenn in Schritt ST51 bestimmt wird, dass der Inhalt Wegdaten
darstellt, eine Anzahl von Spuren n erfasst (Schritt ST52). Speziell erfasst
die Videobild-Zusammensetz-Verarbeitungseinheit 14 die
Anzahl der Spuren n von den Wegdaten, erfasst als Inhaltsinformation
in Schritt ST16. Dann wird die Breite der zu erbringenden Wegdaten bestimmt
(Schritt ST53). Speziell bestimmt die Videobild-Zusammensetz-Verarbeitungseinheit 14 die Breite
des zu erbringenden Wegs gemäß der Anzahl der
Spuren n, erfasst in Schritt ST52. Beispielsweise wird die Breite
des Wegs, der zu erbringen bzw. darzustellen ist, gleichgesetzt
mit n × 10 (cm). Es wird bemerkt, dass das Verfahren zum
Entscheiden der Breite des zu erbringenden Wegs nicht begrenzt ist auf
das oben beschriebene, und beispielsweise der Wert der Wegbreite
nicht linear modifiziert werden kann, oder geändert werden
kann auf einen Wert, der durch den Benutzer gesetzt wird. Danach
geht die Sequenz zu Schritt ST17.
-
Der
Ort der Inhaltsinformation auf dem Videobild wird berechnet in Schritt
ST17 durch perspektivische Transformation. Dann wird der Videobild-Zusammensetzprozess
ausgeführt (Schritt ST18). Dann wird der Wert i des Zählers
erhöht (Schritt ST19). Danach kehrt die Abfolge zu Schritt
ST15 zurück und der oben beschriebene Prozess wird wiederholt.
-
In
dem oben beschriebenen Beispiel wird die zu erbringende bzw. darzustellende
Wegbreite modifiziert gemäß der Anzahl der Spuren,
was ein Wegattribut ist. Jedoch kann das Anzeigeformat (Breite, Farbe,
Helligkeit, Durchsichtigkeit oder ähnliches) des zu erbringenden
Wegs auch modifiziert werden gemäß anderen Attributen
des Wegs (Breite, Art, Relevanz oder ähnlichem).
-
Wie
oben beschrieben, ist das Autonavigationsgerät gemäß Ausführungsform
4 der vorliegenden Erfindung auf solch eine Art und Weise konfiguriert,
dass das Anzeigeformat (Breite, Farbe, Helligkeit, Durchsichtigkeit
oder ähnliches) des Wegs modifiziert wird gemäß Attributen
des Wegs (Breite, Anzahl der Spuren, Art, Relevanz oder ähnlichem).
Deshalb können Einbahnstraßen angezeigt werden
mit einer veränderten Farbe, so dass der Fahrer nicht nur sofort
den Weg um das Fahrzeug aber auch Information über diesen
Weg bekommt.
-
Ausführungsform 5
-
Außer
der Funktion der Videobild-Zusammensetz-Verarbeitungseinheit 14 ist
die Konfigurierung des Autonavigationsgeräts gemäß Ausführungsform
5 der vorliegenden Erfindung identisch, zu der des Autonavigationsgeräts
gemäß Ausführungsform 1, dargestellt
in 1. Die Funktion der Videobild-Zusammensetz-Verarbeitungseinheit 14 wird
im Detail unten erklärt.
-
Der
Videobild-Zusammensetzprozess, ausgeführt durch die Videobild-Zusammensetz-Verarbeitungseinheit 14 des
Autonavigationsgeräts gemäß Ausführungsform
5 ist identisch zu dem Videobild-Zusammensetzprozess, der ausgeführt
wird durch das Autonavigationsgerät gemäß Ausführungsform
1, dargestellt in 2, außer der Verarbeitung,
in dem Fall, in dem Inhalt Wegdaten darstellt. Im Folgenden wird
der Videobild-Zusammensetzprozess des Autonavigationsgeräts
gemäß Ausführungsform 5 mit Bezug auf
das in 10 dargestellte Flussdiagramm
beschrieben mit Fokus auf die Unterschiede gegenüber Ausführungsform
1. Jedoch werden die Schritte, in denen die gleiche Verarbeitung ausgeführt
wird, wie in dem Videobild-Zusammensetzprozess des Autonavigationsgeräts
gemäß Ausführungsform 4, bezeichnet mit
den gleichen Bezugszeichen, die in Ausführungsform 4 verwendet
werden, und eine Erklärung derselben wird vereinfacht.
-
In
dem Videobild-Zusammensetzprozess werden Videobilder, sowie der
Fahrzeugort und Richtung zuerst erfasst (Schritt ST11). Dann wird
eine Inhaltserzeugung ausgeführt (Schritt ST12). Der Inhaltserzeugungsprozess,
ausgeführt in Schritt ST12, ist nicht begrenzt auf den
Inhaltserzeugungsprozess gemäß Ausführungsform
1 (4) und kann der Inhaltserzeugungsprozess gemäß Ausführungsform
2 (6) oder der Inhaltserzeugungsprozess gemäß Ausführungsform
3 (8) sein.
-
Dann
wird die Gesamtzahl der Inhalte a erfasst (Schritt ST13). Dann wird
der Wert i des Zählers auf ”1” initialisiert
(Schritt ST14). Dann wird überprüft, ob der Zusammensetzprozess
vorbei ist für die gesamte Inhaltsinformation (Schritt
ST15). Wenn in Schritt ST15 bestimmt wird, dass der Zusammensetzprozess
vorbei ist für die gesamte Inhaltsinformation, wird der
Videobild Zusammensetzprozess beendet, und die Videodaten mit Inhalt,
zusammengesetzt darin zu diesem Zeitpunkt, werden gesendet an die
Anzeigeentscheidungseinheit 15.
-
Andererseits
wird, wenn in Schritt ST15 bestimmt wird, dass der Zusammensetzprozess
nicht für die gesamte Inhaltsinformation vorbei ist, ein
i-tes Inhaltsinformationselement erfasst (Schritt ST16). Dann wird
bestimmt, ob der Inhalt Wegdaten darstellt (Schritt ST51). Wenn
in Schritt ST51 bestimmt wird, dass der Inhalt nicht Wegdaten darstellt,
geht die Abfolge zu Schritt ST17.
-
Andererseits
wird dann, wenn in Schritt ST150 bestimmt wird, dass der Inhalt
Wegdaten darstellt, einen Endpunkt der Wegdaten erfasst (Schritt ST61).
Speziell erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 einen
Endpunkt der in Schritt ST16 erfassten Wegdaten. Danach geht die Abfolge
zu Schritt ST17.
-
Der
Ort der Inhaltsinformation auf dem Videobild wird berechnet in Schritt
ST17 durch perspektivische Transformation. In Schritt ST17 berechnet
die Videobild-Zusammensetz-Verarbeitungseinheit 14 den
Ort auf dem Videobild des Endpunkts der in Schritt ST61 erfassten
Wegdaten. Dann wird der Videobild-Zusammensetzprozess ausgeführt
(Schritt ST18). In Schritt ST18 zeichnet die Videobild-Zusammensetz-Verarbeitungseinheit 14 den
Endpunkt der in Schritt ST17 berechneten Wegdaten. Folglich werden
Kreuzungen in der Form einer vorbestimmten Grafik dargestellt, wie
in 11 gezeigt. Die Kreuzungsgrafik kann in der Farbe
verringert werden. Der Prozess in Schritt ST18 ist nicht begrenzt
auf ein Erbringen bzw. Darstellen von Endpunkten und kann derart
konfiguriert sein, so dass der Weg zur gleichen Zeit dargestellt
wird. Der Wert i des Zählers wird dann erhöht
(Schritt ST19). Danach kehrt die Abfolge zu Schritt ST15 zurück,
und der oben beschriebenen Prozess wird wiederholt.
-
In
dem oben beschriebenen Beispiel werden Endpunkte alleine oder Endpunkte
und Weg gezeichnet während eines Wegdarstellens. Jedoch
kann der Prozess auf eine Art konfiguriert sein, ähnlich
zu dem des Autonavigationsgeräts gemäß Ausführungsform 4,
auf solch eine Art und Weise, dass das Anzeigeformat des Wegs (Breite,
Farbe, Muster, wie zum Beispiel ein Raster, Helligkeit, Durchsichtigkeit
bzw. Durchlässigkeit und ähnlichem) und/oder Endpunktattribute
(Größe, Farbe, Muster, wie zum Beispiel Raster,
Helligkeit, Durchsichtigkeit und ähnliches) werden gemäß Wegattributen
modifiziert (Breite, Anzahl von Spuren, Art, Relevanz und ähnliches).
-
Wie
oben beschrieben, können in dem Autonavigationsgerät
gemäß Ausführungsform 5 der vorliegenden
Erfindung Wegquerungen in der Form einer vorbestimmten Grafik dargestellt
werden. Folglich werden Kreuzungen merklich angezeigt, und der Weg
kann leicht erfasst werden.
-
Ausführungsform 6
-
Außer
der Funktion der Videobild-Zusammensetz-Verarbeitungseinheit 14 ist
die Konfigurierung des Autonavigationsgeräts gemäß Ausführungsform
6 der vorliegenden Erfindung identisch, zu der des Autonavigationsgeräts
gemäß Ausführungsform 1, dargestellt
in 1. Die Funktion der Videobild-Zusammensetz-Verarbeitungseinheit 14 wird
im Detail unten erklärt.
-
Der
Videobild-Zusammensetzprozess, der ausgeführt wird durch
die Videobild-Zusammensetz-Verarbeitungseinheit 14 des
Autonavigationsgeräts gemäß Ausführungsform
6, ist identisch zu dem Videobild-Zusammensetzprozess, der ausgeführt wird
durch das Autonavigationsgerät gemäß Ausführungsform
1, dargestellt in 2, außer dem Verarbeiten,
in dem Fall, in dem Inhalt Wegdaten darstellt. Im Folgenden wird
der Videobild-Zusammensetzprozess des Autonavigationsgeräts
gemäß Ausführungsform 6 beschrieben mit
Bezug auf das in 12 dargestellte Flussdiagramm
mit Fokus auf die Unterschiede gegenüber Ausführungsform
1. Jedoch werden die Schritte, in denen die gleiche Verarbeitung
ausgeführt wird, wie in dem Videobild-Zusammensetzprozess
des Autonavigationsgeräts gemäß Ausführungsform
4, mit den gleichen Bezugszeichen bezeichnet, die in Ausführungsform
4 verwendet werden, und eine Erklärung derselben wird vereinfacht.
-
In
dem Videobild-Zusammensetzprozess werden Videobilder, sowie der
Fahrzeugort und Richtung zuerst erfasst (Schritt ST11). Dann wird
eine Inhaltserzeugung ausgeführt (Schritt ST12). Der Inhaltserzeugungsprozess,
der ausgeführt wird in Schritt ST12, ist nicht begrenzt
auf den Inhaltserzeugungsprozess gemäß Ausführungsform
1 (4) und kann der Inhaltserzeugungsprozess gemäß Ausführungsform
2 (6) oder der Inhaltserzeugungsprozess gemäß Ausführungsform
3 (8) sein.
-
Dann
wird die Gesamtzahl der Inhalte a erfasst (Schritt ST13). Dann wird
der Wert i des Zählers auf ”1” initialisiert
(Schritt ST14). Dann wird überprüft, ob der Zusammensetzprozess
für die gesamte Inhaltsinformation vorbei ist (Schritt
ST15). Wenn in Schritt ST15 bestimmt wird, dass der Zusammensetzprozess
für die gesamte Inhaltsinformation vorbei ist, wird der
Videobild-Zusammensetzprozess beendet, und die Videodaten mit Inhalt,
zusammengesetzt darin zu diesem Zeitpunkt, werden an die Anzeigeentscheidungseinheit 15 gesandt.
-
Andererseits
wird, wenn in Schritt ST15 bestimmt wird, dass der Zusammensetzprozess
nicht beendet ist für alle Teile bzw. Stücke der
Inhaltsinformation, ein i-tes Inhaltsinformationselement dann erfasst
(Schritt ST16). Dann wird bestimmt, ob der Inhalt Wegdaten darstellt
(Schritt ST51). Wenn in Schritt ST51 bestimmt wird, dass der Inhalt
nicht Wegdaten darstellt, geht die Abfolge zu Schritt ST17.
-
Andererseits
wird, wenn in Schritt ST51 bestimmt wird, dass der Inhalt Wegdaten
darstellt, eine Breiteninformation der Wegdaten erfasst (Schritt ST71).
Speziell erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 Breiteninformation
von den Wegdaten (Wegverbindung), erfasst in Schritt ST16. Die Wegverbindung
enthält gewöhnlich Breiteninformation, und daher
wird Breiteninformation zusammen mit Wegdaten erfasst. Jedoch kann,
wenn die Wegverbindung keine Breiteninformation enthält, die
spätere indirekt berechnet werden auf Grundlage von Information
hinsichtlich der Anzahl der Spuren, beispielsweise Breite = Anzahl
der Spuren × 2 (m). Wenn es keine Information hinsichtlich
der Breite gibt, kann die spätere ungefähr geschätzt
werden und beispielsweise gesetzt werden auf 3 mm allgemein.
-
Dann
wird die Form in den Wegdaten bestimmt (Schritt ST72). Speziell
bestimmt die Videobild-Zusammensetz-Verarbeitungseinheit 14 die Form
der darzustellenden Wegdaten auf Grundlage der Breiteninformation,
die erfasst wird in Schritt ST71. Die Form des Wegs kann beispielsweise
ein Rechteck des Abstands zwischen Wegendpunkten × Breite
sein. Die Wegform ist nicht notwendiger Weise eine zweidimensionale
Grafik und kann eine dreidimensionale Grafik in der Form eines Parallelepipeds des
Abstands zwischen Wegendpunkten × Breite × Breite
sein. Danach geht die Abfolge zu Schritt ST17.
-
Der
Ort der Inhaltsinformation hinsichtlich des Videobilds wird berechnet
in Schritt ST17 durch perspektivische Transformation. In Schritt
ST17 berechnet die Videobild-Zusammensetz-Verarbeitungseinheit 14 den
Ort auf dem Videobild der Vertizes bzw. Eckpunkten der Form in den
in Schritt ST72 bestimmten Wegdaten. Dann wird der Videobild-Zusammensetzprozess
ausgeführt (Schritt ST18). In Schritt ST18 stellt die Videobild-Zusammensetz-Verarbeitungseinheit 14 die
Form der Wegdaten, bestimmt in dem Schritt ST72 dar. Auf solch eine
Art und Weise wird ein Live-Aktions-Videobild angezeigt, auf dem
nur ein Teil des Wegs in der Form von einer CG überlagert
wird, wie in 13-1(a) dargestellt. Die
Kontur bzw. Profil der Form, bestimmt in Schritt ST72, kann auch
geschnitten werden, so dass verschiedene Oberflächen transparent
dargestellt werden, wie in 13-1(b) dargestellt.
Danach kehrt die Abfolge zurück zu Schritt ST15, und der
oben beschriebenen Prozess wird wiederholt.
-
In
der obigen Beschreibung wird der Weg dargestellt auf einem Live-Aktions-Videobild.
Jedoch kann ein Prozess auch ausgeführt werden, in dem Objekte,
die auf dem Weg (und Gehsteig) in dem Live-Aktions-Videobild vorliegen,
beispielsweise Fahrzeuge, Fußgänger, Geländer,
straßenseitige Bäume und ähnliche, erkannt
werden unter Verwendung von Bilderkennungstechnologien, beispielsweise
Kantenextraktion, Mustererkennung und ähnlichem, so dass kein
Weg auf den erkannten Objekten dargestellt wird. Dieser Prozess
führt zu Anzeigedaten, wie die in beispielsweise 13-2(c) und 13-2(d) dargestellten.
-
In
dem Autonavigationsgerät gemäß Ausführungsform
6 der vorliegenden Erfindung wird, wie oben beschrieben, der Weg
durch Überlagern hervorgehoben in der Form einer CG auf
einem Live-Aktions-Videobild, so dass der Fahrer leicht den Weg um
das Fahrzeug erfassen kann. Wenn anstatt des Wegs es die Kontur
des Wegs, die angezeigt wird, ist, die überlagert wird
durch CG auf dem Live-Aktions-Videobild, kann der Fahrer leicht
den Weg um das Fahrzeug erfassen, ohne dass die Oberfläche des
Wegs versteckt ist. Folglich kann der Benutzer leicht die Wegoberfläche
auf solch eine Art und Weise evaluieren, dass die Anzeige kein Hindernis
für das Fahren darstellt.
-
Die
Fläche des Wegs in dem Live-Aktions-Videobild, das überschrieben
wird, oder eine Kontur aufweist, angezeigt darauf, kann auch modifiziert werden
gemäß der Geschwindigkeit des Fahrzeugs. Dies
erlaubt ein Unterdrücken von nicht-notwendiger Weganzeige,
so dass nur der Weg entlang den das Fahrzeug zu fahren ist, angezeigt
wird. Ferner kann das Anzeigeformat des Überlagerns oder
die Kontur, die angezeigt wird auf dem Weg in dem Live-Aktions-Videobild,
modifiziert werden gemäß Attributen des Wegs.
Dies erlaubt ein Unterdrücken einer nicht-notwendigen Weganzeige,
so dass nur der Weg, entlang den das Fahrzeug zu fahren ist, angezeigt
wird.
-
Ein
Autonavigationsgerät, das in Fahrzeugen verwendet wird,
wurde in den in den Figuren dargestellten Ausführungsformen
erklärt. Jedoch kann das Autonavigationsgerät
gemäß der vorliegenden Erfindung auch auf eine ähnliche
Art und Weise verwendet werden in anderen mobilen Objekten, wie zum
Beispiel Mobiltelefonen, die ausgestattet sind mit Kameras, oder
in Flugzeugen.
-
GEWERBLICHE ANWENDBARKEIT
-
Wie
oben beschrieben, ist das Navigationsgerät gemäß der
vorliegenden Erfindung auf solch eine Art und Weise konfiguriert,
dass ein Bild des Wegs um die momentane Position angezeigt wird
auf einer Anzeigeeinheit, überlagert auf Videobildern vor dem
Fahrzeug, die aufgenommen werden durch eine Kamera. Das Navigationsgerät
gemäß der vorliegenden Erfindung kann daher passend
in Autonavigationsgeräten und ähnlichen verwendet
werden.
-
ZUSAMMENFASSUNG
-
Ein
Navigationsgerät umfasst eine Kartendatenbank (5)
zum Halten von Kartendaten, eine Positions-/Richtungs-Messeinheit
(4) zum Messen der momentanen Position und Richtung, einen
Wegdatensammelabschnitt (16) zum Erfassen von Kartendaten
hinsichtlich eines Bereichs um die Position, gemessen durch die
Positions-/Richtungs-Messeinheit von der Kartendatenbank und Sammeln
von Wegdaten von den Kartendaten, eine Kamera (7) zum Aufnehmen
eines Bildes eines vorderen Bereichs, eine Bilderfassungseinheit
(8) zum Erfassen des Bildes des vorderen Bereichs, aufgenommen
durch die Kamera, einen Bildsynthese-Verarbeitungsabschnitt (14)
zum Erzeugen eines Bilds, gebildet durch Überlagern eines
Bildes eines Wegs, gezeigt durch die Wegdaten, gesammelt durch den
Wegdaten-Sammelabschnitt auf dem Bild, erfasst durch die Bilderfassungseinheit,
und eine Anzeigeeinheit (10) zum Anzeigen des Bilds, erzeugt
durch den Bildsynthese-Verarbeitungsabschnitt.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste
der vom Anmelder aufgeführten Dokumente wurde automatisiert
erzeugt und ist ausschließlich zur besseren Information
des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen
Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt
keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- - JP 2915508 [0003]
- - JP 11-108684 A [0003]