-
TECHNISCHES GEBIET
-
Die
vorliegende Erfindung betrifft ein Navigationsgerät, das
einen Benutzer an ein Ziel führt, und insbesondere eine
Technologie zum Anzeigen von Führungsinformation auf einem
Live-Aktions- oder echtem Video, das durch eine Kamera aufgenommen wird.
-
STAND DER TECHNIK
-
Bekannte
Technologien in herkömmlichen Autonavigationsgeräten
enthalten beispielsweise Routenführungstechnologien, in
denen eine fahrzeugeigene Kamera Bilder vor einem Fahrzeug während eines
Fahrens aufnimmt, und Führungsinformation in der Form von
CG (Computergrafik) wird angezeigt durch Überlagern eines
Videos, das erhalten wird durch die obige Bildaufnahme (beispielsweise
Patentdokument 1).
-
Als ähnliche
Technologie offenbart Patentdokument 2 ein Autonavigationsgerät,
in dem Navigationsinformationselemente angezeigt werden, so dass sie
sofort intuitiv erfasst werden. In diesem Autonavigationsgerät
nimmt eine an der Nase oder ähnlichem eines Fahrzeugs angebrachte
Bildgebungskamera den Hintergrund in der Fahrtrichtung auf solch
eine Art und Weise auf, dass ein Kartenbild und ein Live-Aktions-Video
bzw. ein Video einer momentanen Aktion mit Bezug auf eine Hintergrundanzeige
von Navigationsinformationselementen durch einen Auswähler
ausgewählt werden können, und die Navigationsinformationselemente
werden angezeigt auf einem Anzeigegerät durch Überlagern
auf dem Hintergrundbild mittels einer Bildzusammensetzeinheit. Patentdokument
2 zeigt, dass neben einem Live-Aktions-Video auch eine Karte mit
einem unterschiedlichen Anzeigemodus oder Skala simultan angezeigt werden
kann und offenbart eine Technik zum Anzeigen herkömmlicher
Karten nebeneinander.
- Patentdokument 1: Japanisches Patent mit der Nummer 2915508
- Patentdokument 2: Japanische Patentanmeldungsveröffentlichung
mit der Nummer 11/108684 ( JP 11-108684
A )
-
Zwischenzeitlich
ist es erwünscht, da der zu. führende Weg zwischen
Gebäuden und ähnlichem entlang des Wegs geht,
dass Führungsinformation, die zu überlagern ist
auf dem Video, richtig überlagert wird auf den Gebäuden
auf dem Video. In den obigen herkömmlichen Technologien
wird jedoch Führungsinformation einfach auf einem Video überlagert,
und deshalb wird die Führungsinformation näher
im Vordergrund angezeigt als (oder vor) all die Elemente auf dem
Video (Gebäude, Schilder und ähnliches). Folglich
gibt es eine Möglichkeit für einen Benutzer, eine
Kreuzung zu erfassen, in die fälschlicher Weise eingebogen
wird.
-
Die
vorliegende Erfindung wurde durchgeführt, um das zuvor
erwähnte Problem zu lösen, und es ist eine Aufgabe
der vorliegenden Erfindung, ein Navigationsgerät bereitzustellen,
das in der Lage ist, eine passende Führungsinformation
auf einem realen bzw. wirklichen Video anzuzeigen.
-
OFFENBARUNG DER ERFINDUNG
-
Um
das obige Problem zu lösen, umfasst ein Navigationsgerät
gemäß der vorliegenden Erfindung eine Kartendatenbank,
die Kartendaten hält; eine Orts- und Richtungs-Messeinheit,
die einen momentanen Ort und eine Richtung eines Fahrzeugs misst; eine
Routenberechnungseinheit, die auf Grundlage von aus der Kartendatenbank
gelesenen Kartendaten eine Route aus dem momentanen Ort berechnet, der
gemessen wird durch die Orts- und Richtungs-Messeinheit, zu einem
Ziel; eine Kamera, die Videobilder vor dem Fahrzeug aufnimmt; eine
Videobild-Erfassungseinheit, die die Videobilder vor dem Fahrzeug
erfasst, die aufgenommen werden durch die Kamera; eine Wegbreiten-Erfassungseinheit,
die auf Grundlage von Wegbreitendaten, enthalten in den Kartendaten,
gelesen von der Kartendatenbank, die Breite eines Wegsegments berechnet,
das als letztes in eine Kreuzung eintritt, zu der das Fahrzeug zu
führen ist, von Wegsegmenten, die die durch die Routenberechnungseinheit
berechnete Route bilden; eine Videobild-Zusammensetz-Verarbeitungseinheit,
die die Länge eines Teils begrenzt, die eine Abbiegerichtung
eines Routenführungspfeils kennzeichnet, auf die Wegbreite,
die berechnet wird durch die Wegbreiten-Erfassungseinheit, und die
den Pfeil auf die Videobilder setzt, die erfasst werden durch die Videobild-Erfassungseinheit
in einer überlagernden Art und Weise; und eine Anzeigeeinheit,
die das Videobild anzeigt, das zusammengesetzt wird durch die Videobild-Zusammensetz-Verarbeitungseinheit.
-
Gemäß dem
Navigationsgerät gemäß der vorliegenden
Erfindung wird die Länge eines Teils eines Routenführungspfeils,
der eine Abbiegerichtung kennzeichnet, eingestellt gemäß der
Wegbreite während des Anzeigens eines Routenführungspfeils,
eingeblendet oder überlagert auf einem Video der Umgebungen
eines Fahrzeugs, das erhalten wird eine Kamera-7-Aufnahme, auf solch
eine Art und Weise, dass der Routenführungspfeil nicht überlagert
wird auf Gebäuden, die näher im Vordergrund anzuzeigen sind
als der Routenführungspfeil. Dies erlaubt es, das Problem
eines Anzeigens einer fehlerhaften Überlagerungsbeziehung
zwischen einem Routenführungspfeil und Gebäuden
entlang des Wegs zu vermeiden, und erlaubt auch ein passendes Anzeigen
von Führungsinformation auf einem Life-Aktions-Video bzw. ein
Video einer momentanen Aktion bzw. Vorgangs.
-
KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
1 zeigt
ein Blockdiagramm, das die Konfigurierung eines Autonavigationsgeräts
gemäß Ausführungsform 1 der vorliegenden
Erfindung zeigt;
-
2 zeigt
ein Diagramm zum Darstellen eines Wegsegments, das verwendet wird
in der Berechnung einer Wegbreite in dem Autonavigationsgerät
gemäß Ausführungsform 1 der vorliegenden
Erfindung;
-
3 zeigt
ein Flussdiagramm, das den Betrieb des Autonavigationsgeräts
gemäß Ausführungsform 1 der vorliegenden
Erfindung darstellt unter Fokussierung auf einen Anzeigeprozess
einer Fahrzeugsumgebungsinformation;
-
4 zeigt
ein Flussdiagramm, das die Einzelheiten eines Inhalts-zusammengesetzten
Videoerzeugungsprozesses darstellt, der ausgeführt wird in
dem Fahrzeugsumgebungsinformations-Anzeigeprozess des Autonavigationsgerät
gemäß Ausführungsform 1 der vorliegenden
Erfindung;
-
5 zeigt
ein Flussdiagramm, das die Einzelheiten eines Inhaltserzeugungsprozesses
darstellt, der ausgeführt wird in dem Inhalts-zusammengesetzten
Videoerzeugungsprozess des Autonavigationsgeräts gemäß Ausführungsform
1 der vorliegenden Erfindung;
-
6 zeigt
ein Flussdiagramm, das die Details eines Inhaltserzeugungsprozesses
einer Pfeilinformation darstellt, der ausgeführt wird in
dem Inhaltserzeugungsprozess des Autonavigationsgeräts gemäß Ausführungsform
1 der vorliegenden Erfindung;
-
7 zeigt
ein Diagramm zum Darstellen eines Wegbereichs, der berechnet wird
in dem Autonavigationsgerät gemäß Ausführungsform
1 der vorliegenden Erfindung;
-
8 zeigt
ein Diagramm, das ein Beispiel von Videos zeigt, die angezeigt werden
auf dem Bildschirm einer Anzeigeeinheit in dem Autonavigationsgerät
gemäß Ausführungsform 1 der vorliegenden Erfindung;
-
9 zeigt
ein Diagramm zum Darstellen von Links-Rechts-Abbiegeführungs-Pfeilinformation, die
verwendet wird in einem Autonavigationsgerät gemäß Ausführungsform
2 der vorliegenden Erfindung;
-
10 zeigt
ein Diagramm, das ein Beispiel von Videos zeigt, die angezeigt werden
auf dem Bildschirm einer Anzeigeeinheit in dem Autonavigationsgerät gemäß Ausführungsform
2 der vorliegenden Erfindung;
-
11 zeigt
ein Blockdiagramm, das die Konfigurierung eines Autonavigationsgeräts
gemäß Ausführungsform 4 der vorliegenden
Erfindung zeigt;
-
12 zeigt
ein Diagramm zum Darstellen einer Umgehungseinrichtung bei einer
Kreuzung, an die ein Fahrzeug geführt wird, die verwendet
wird in dem Autonavigationsgerät gemäß Ausführungsform 4
der vorliegenden Erfindung;
-
13 zeigt
ein Flussdiagramm, das die Einzelheiten eines Inhaltserzeugungsprozesses
von Zusatzinformation darstellt, der ausgeführt wird in dem
Inhaltserzeugungsprozess des Autonavigationsgeräts gemäß Ausführungsform
4 der vorliegenden Erfindung;
-
14 zeigt
ein Diagramm zum Darstellen eines blockierenden Gebäudes,
das erfasst wird durch das Autonavigationsgerät gemäß Ausführungsform
4 der vorliegenden Erfindung;
-
15 zeigt
ein Flussdiagramm, das die Einzelheiten eines Videozusammensetzprozesses darstellt,
der ausgeführt in dem Inhalts-zusammengesetzten Videoerzeugungsprozess
des Autonavigationsgeräts gemäß Ausführungsform
4 der vorliegenden Erfindung;
-
16 zeigt
ein Diagramm, das Videos sequentiell erzeugt in dem Inhaltserzeugungsprozess zeigt,
der ausgeführt wird in dem Inhaltszusammengesetzten Videoerzeugungsprozess
des Autonavigationsgeräts gemäß Ausführungsform
4 der vorliegenden Erfindung;
-
17 zeigt
ein Diagramm, das ein Beispiel von Videos zeigt, die angezeigt werden
auf dem Bildschirm einer Anzeigeeinheit in dem Autonavigationsgerät
gemäß Ausführungsform 4 der vorliegenden Erfindung;
-
18 zeigt
ein Diagramm, das ein anderes Beispiel eines Videos zeigt, das angezeigt
wird auf dem Bildschirm einer Anzeigeeinheit in dem Autonavigationsgerät
gemäß Ausführungsform 4 der vorliegenden
Erfindung; und
-
19 zeigt
ein Diagramm, das ein Beispiel eines Videos zeigt, das angezeigt
wird auf dem Bildschirm einer Anzeigeeinheit in einem Autonavigationsgerät
gemäß Ausführungsform 5 der vorliegenden
Erfindung.
-
BESTER MODUS ZUM AUSFÜHREN
DER ERFINDUNG
-
Die
vorliegende Erfindung wird im Einzelnen unten erklärt auf
Grundlage bevorzugter Ausführungsformen zum Realisieren
der Erfindung mit Bezug auf begleitende Zeichnungen.
-
Ausführungsform 1
-
1 zeigt
ein Blockdiagramm, das die Konfigurierung eines Navigationsgeräts
gemäß Ausführungsform 1 der vorliegenden
Erfindung zeigt, insbesondere ein Autonavigationsgerät,
das in einem Fahrzeug verwendet wird. Das Autonavigationsgerät enthält
einen GPS-(globales Positionierungssystem)-Empfänger 1,
einen Fahrzeuggeschwindigkeitssensor 2, einen Rotationssensor
(Kreisel) 3, eine Orts- und Richtungs-Messeinheit 4,
eine Kartendatenbank 5, eine Eingabebetriebseinheit 6,
eine Kamera 7, eine Videobild-Erfassungseinheit 8,
eine Navigationssteuereinheit 9 und eine Anzeigeeinheit 10.
-
Der
GPS-Empfänger 1 misst einen Fahrzeugort durch
Empfangen von Radiowellen von einer Vielzahl von Satelliten. Der
Fahrzeugort, der gemessen wird durch den GPS-Empfänger 1,
wird gesendet als Fahrzeugortssignal an die Orts- und Richtungs-Messeinheit 4.
Der Fahrzeuggeschwindigkeitssensor 2 misst sequentiell
die Geschwindigkeit des Fahrzeugs. Der Fahrzeuggeschwindigkeitssensor 2 ist
im Allgemeinen zusammengesetzt aus einem Sensor, der Radumdrehungen
misst. Die Geschwindigkeit des Fahrzeugs, die gemessen wird durch
den Fahrzeuggeschwindigkeitssensor 2, wird als Fahrzeuggeschwindigkeitssignal
an die Orts- und Richtungs-Messeinheit 4 gesendet. Der
Rotationssensor 3 misst sequentiell die Fahrtrichtung des Fahrzeugs.
Die Fahrtrichtung (hier im Folgenden einfach als ”Richtung” bezeichnet)
des Fahrzeugs, wie durch den Rotationssensor 3 gemessen,
wird gesendet als ein Richtungssignal an die Orts- und Richtungs-Messeinheit 4.
-
Die
Orts- und Richtungs-Messeinheit 4 misst den momentanen
Ort und Richtung des Fahrzeugs auf Grundlage des Fahrzeugortssignals,
gesendet von dem GPS-Empfänger 1. In dem Fall,
in dem der Raum über dem Fahrzeug blokiert ist durch einen Tunnel,
umgebende Gebäude oder ähnliches, ist die Anzahl
der Satelliten, die Radiowellen empfangen können, Null
oder verringert, um den Empfangsstatus zu beeinträchtigen.
Es kann daher vorkommen, dass der momentane Ort und Richtung nicht
gemessen werden können auf Grundlage des Fahrzeugortssignals
des GPS-Empfänger 1 alleine, oder selbst wenn
die Messung möglich ist, kann die Genauigkeit verschlechtert
werden. Deshalb wird der Fahrzeugort gemessen, um eine Verarbeitung
zum Kompensieren von Messungen auszuführen, die durchgeführt
werden den GPS-Empfänger 1, durch Koppelnavigation
bzw. Dead Reckoning (autonome Navigation) unter Verwendung des Fahrzeuggeschwindigkeitssignals
von dem Fahrzeuggeschwindigkeitssensor 2 und dem Richtungssignal
von dem Rotationssensor 3.
-
Der
momentane Ort und Richtung des Fahrzeugs, wie durch die Orts- und
Richtungs-Messeinheit 4 gemessen, enthält verschiedene
Fehler, die beispielsweise auftreten von einer beeinträchtigten Messgenauigkeit
aufgrund einer Verschlechterung des Empfangsstatus in dem GPS-Empfänger 1 stammen,
wie oben bemerkt, oder Fahrzeuggeschwindigkeitsfehler aufgrund von Änderungen
im Durchmesser der Räder, aufgrund von Abnutzung derselben und/oder
Temperaturänderungen oder Fehler, die auf die Präzision
der Sensoren selbst zurückzuführen sind. Die Orts-
und Richtungs-Messeinheit 4 korrigiert deshalb den momentanen
Ort und Richtung des Fahrzeugs, die erhalten werden durch Messungen, und
enthalten Fehler durch Kartenabgleichen unter Verwendung von Wegdaten,
die erfasst werden von den Kartendaten, die gelesen werden aus der
Kartendatenbank 5. Der korrigierte momentane Ort und Richtung
des Fahrzeugs werden als Fahrzeugs-Orts- und Richtungsdaten an die
Navigationssteuereinheit 9 gesendet.
-
Die
Kartendatenbank 5 hält Kartendaten, die Wegdaten
enthalten, wie zum Beispiel Wegort, Wegart (Autobahn, Mautstraße,
gewöhnliche Straße, enge Straße und ähnliches),
Beschränkungen bezüglich des Wegs (Geschwindigkeitsbeschränkungen,
Einbahnstraßenverkehr und ähnliches), oder Anzahl
der Spuren in der Nähe einer Kreuzung, sowie Daten hinsichtlich
Einrichtungen um den Weg herum. Wege werden repräsentiert
als Vielzahl von Knoten und geradlinigen Verbindungen, die Knoten verbinden.
Ein Wegort wird ausgedrückt durch Aufnehmen des Längengrads
und Breitengrads des Knotens. Beispielsweise kennzeichnen drei oder mehr
Verbindungen, verbunden in einem gegebenen Knoten, eine Vielzahl
von Wegen, die bei dem Ort des Knotens überkreuzen. Die
in der Kartendatenbank 5 gehaltenen Kartendaten werden
gelesen durch die Orts- und Richtungs-Messeinheit 4, wie oben
beschrieben, und auch durch die Navigationssteuereinheit 9.
-
Die
Eingabebetriebseinheit 6 ist mindestens zusammengesetzt
aus einem von dem Folgenden einer Fernsteuerung, einem berührungsempfindlichen Feld,
einem Spracherkennungsgerät, und so weiter, und wird betrieben
durch den Benutzer betrieben, das heißt, dem Fahrer oder
einem Passagier, zum Eingeben eines Ziels oder zum Auswählen
von Information, die zugeführt wird durch das Autonavigationsgerät.
Die Daten, die erzeugt werden durch die Betriebe bzw. Operationen
in der Eingabebetriebseinheit 6, werden als Betriebsdaten
an die Navigationssteuereinheit 9 gesendet.
-
Die
Kamera 7 ist zusammengesetzt aus mindestens einem von einer
Kamera, die Bilder vor dem Fahrzeug aufnimmt, einer Kamera, die
in der Lage ist, Bilder simultan über einen großen
Bereich von Richtungen enthaltend die gesamten Umgebungen, aufzunehmen
oder ähnlichem. Die Kamera 7 nimmt Bilder der
Nachbarschaft des Fahrzeugs enthaltend die Fahrtrichtung des Fahrzeugs
auf. Die Videobilder, die erhalten werden durch Aufnehmen von Bildern durch
die Kamera 7, werden gesendet an die Videobild-Erfassungseinheit 8.
-
Die
Videobild-Erfassungseinheit 8 wandelt die Videosignale
um, die gesendet werden von der Kamera 7, in digitale Signale,
die von einem Computer verarbeitet werden können. Die digitalen
Signale, die erhalten werden durch Umwandlung durch die Videobild-Erfassungseinheit 8,
werden gesendet als Videodaten an die Navigationssteuereinheit 9.
-
Die
Navigationssteuereinheit 9 führt Datenverarbeitungen
aus, um eine Funktion bereitzustellen zum Darstellen einer Karte
der Umgebungen des Fahrzeugs, in dem das Autonavigationsgerät
bereitgestellt ist, wobei die Funktion ein Berechnen einer Führungsroute
zu einem Ziel enthalten kann, das eingegeben wird von der Eingabebetriebseinheit 6,
sowie ein Erzeugen von Führungsinformation gemäß der
Führungsroute und dem momentanen Ort und Richtung des Fahrzeugs,
oder Erzeugen einer Führungskarte, die eine Karte der Umgebungen
des Fahrzeugorts und eine Fahrzeugmarkierung kombinieren, die den
Fahrzeugort kennzeichnet; und eine Funktion zum Führen
des Fahrzeugs and das Ziel. Zusätzlich führt die
Navigationssteuereinheit 9 Datenverarbeitungen zum Suchen
nach Information, wie zum Beispiel Verkehrsinformation, Besichtigungsorte,
Restaurants, Läden und ähnlichem mit Bezug auf
das Ziel oder der Führungsroute aus, und zum Suchen nach
Einrichtungen, die die von der Eingabebetriebseinheit 6 eingegebenen
Bedingungen treffen. Die Navigationssteuereinheit 9 wird
im Detail unten erklärt. Die Anzeigedaten, die erhalten
werden durch die Verarbeitungen in der Navigationssteuereinheit 9,
werden gesendet an die Anzeigeeinheit 10.
-
Die
Anzeigeeinheit 10 ist beispielsweise zusammengesetzt aus
einer LCD (Flüssigkristallanzeige) und zeigt eine Karte
und/oder Live-Aktions-Videos auf dem Bildschirm an auf Grundlage
der Anzeigedaten, die gesendet werden von der Navigationssteuereinheit 9.
-
Als
Nächstes werden die Einzelheiten der Navigationssteuereinheit 9 beschrieben.
Die Navigationssteuereinheit 9 enthält eine Zieleinstelleinheit 11,
eine Routenberechnungseinheit 12, eine Führungsanzeige-Erzeugungseinheit 13,
eine Videobild-Zusammensetz-Verarbeitungseinheit 14, eine Anzeigeentscheidungseinheit 15 und
eine wegbreiten-Erfassungseinheit 16. Zum Vermeiden, dass
die Figur überladen wird, werden Teile der Verbindungen zwischen
den verschiedenen zusammensetzenden Elementen oben in 1 weggelassen.
Die weggelassenen Teile werden erklärt wie sie auftreten.
-
Die
Zieleinstelleinheit 11 stellt ein Ziel gemäß der
Betriebsdaten ein, die gesendet werden von der Eingabebetriebseinheit 6.
Das Ziel, das eingestellt wird durch die Zieleinstelleinheit 11,
wird gesendet als Zieldaten an die Routenberechnungseinheit 12. Die
Routenberechnungseinheit 12 berechnet eine Führungsroute
zu dem Ziel auf Grundlage der Zieldaten, die gesendet werden von
der Zieleinstelleinheit 11, Fahrzeugorts- und Richtungsdaten,
die gesendet werden von der Orts- und Richtungs-Messeinheit 4, und
Kartendaten, die gelesen werden von der Kartendatenbank 5.
Die Führungsroute, die berechnet wird durch die Routenberechnungseinheit 12,
wird gesendet als Führungsroutendaten an die Anzeigeentscheidungseinheit 15.
-
In
Ansprechen auf eine Instruktion bzw. Befehl von der Anzeigeentscheidungseinheit 15 erzeugt die
Führungsanzeige-Erzeugungseinheit 13 eine Führungskarte
(hier im Folgenden bezeichnet als ”Grafik-Führungskarte”)
auf Grundlage einer Grafik, die in herkömmlichen Autonavigationsgeräten
verwendet wird. Die Grafik-Führungskarte, die erzeugt wird
durch die Führungsanzeige-Erzeugungseinheit 13,
enthält verschiedene Führungskarten, die nicht ein
Live-Aktions-Videobild verwenden, beispielsweise planimetrische
Karten, Kreuzungsnahaufnahmekarten, schematische Autobahnkarten
und ähnliches. Die Grafik-Führungskarte ist nicht
begrenzt auf eine planimetrische Karte und kann eine Führungskarte sein,
die eine dreidimensionale CG verwendet, oder eine Führungskarte,
die eine Vogelperspektivenansicht einer planimetrischen Karte ist.
Techniken zum Erzeugen einer Grafik-Führungskarte sind
gut bekannt, und eine detaillierte Erklärung derselben
wird weggelassen. Die Grafik-Führungskarte, die erzeugt wird
durch die Führungsanzeige-Erzeugungseinheit 13,
wird gesendet als Grafik-Führungskartendaten an die Anzeigeentscheidungseinheit 15.
-
In
Ansprechen auf eine Instruktion durch die Anzeigeentscheidungseinheit 15 erzeugt
die Videobild-Zusammensetz-Verarbeitungseinheit 14 eine Führungskarte,
die ein Live-Aktions-Video (hier im Folgenden bezeichnet als ”Live-Aktions-Führungskarte”)
verwendet. Beispielsweise erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 von
den von der Kartendatenbank 5 gelesenen Kartendaten Information
hinsichtlich naher Objekte um das Fahrzeug, wie zum Beispiel Wegnetze,
Orientierungshilfen bzw. Sehenswürdigkeiten und Kreuzungen,
und erzeugt eine Live-Aktions-Führungskarte, gebildet aus
einem Inhaltszusammengesetzten Video, in dem eine Grafik überlagert
wird zum Beschreibender Form, Inhalt und ähnliches von
nahen Objekten, sowie Zeichenfolgen, Bilder und ähnliches
(hier im Folgenden bezeichnet als ”Inhalt”), um
die nahen Objekte, die vorliegen in einem Live-Aktions-Video, das
die Videodaten repräsentiert, die gesendet werden von der
Videobild-Erfassungseinheit 8.
-
Wie
oben beschrieben, instruiert die Anzeigeentscheidungseinheit 15 die
Führungsanzeige-Erzeugungseinheit 13, eine Grafik-Führungskarte
zu erzeugen, und instruiert auch die Videobild-Zusammensetz-Verarbeitungseinheit 14,
Live-Aktions-Führungskarten zu erzeugen. Die Anzeigeentscheidungseinheit 15 entscheidet über
den auf dem Bildschirm der Anzeigeeinheit 10 anzuzeigenden
Inhalt auf Grundlage von Fahrzeugorts- und Richtungsdaten, die gesendet
werden von der Orts- und Richtungs-Messeinheit 4, Kartendaten
der Fahrzeugumgebungen, die gelesen werden von der Kartendatenbank 5,
Betriebsdaten, die gesendet werden von der Eingabebetriebseinheit 6,
Grafik-Führungs-Kartendaten, die gesendet werden von der
Führungsanzeige-Erzeugungseinheit 13, und Live-Aktions-Führungskartendaten,
die gesendet werden von der Videobild-Zusammensetz-Verarbeitungseinheit 14.
Die Daten, die dem Anzeigeinhalt, bestimmt durch die Anzeigeentscheidungseinheit 15,
entsprechen, werden gesendet als Anzeigedaten an die Anzeigeeinheit 10.
-
Auf
solch eine Art und Weise zeigt die Anzeigeeinheit 10 beispielsweise
eine Nahaufnahmensicht einer Kreuzung an, wenn das Fahrzeug sich
einer Kreuzung annähert, oder zeigt ein Menu an, wenn eine
Menu-Taste der Eingabebetriebseinheit 6 gedrückt
wird, oder zeigt eine Live-Aktions-Führungskarte an unter
Verwendung eines Live-Aktions-Videos, wenn ein Live-Aktions-Anzeigemodus
eingestellt ist durch die Eingabebetriebseinheit 6. Schalten
zu einer Live-Aktions-Führungskarte, die ein Live-Aktions-Video
verwendet, kann konfiguriert werden, um auch dann stattzufinden,
wenn der Abstand zu einer Kreuzung, bei der das Fahrzeug abbiegen
soll, gleich ist zu oder kleiner als ein vorgegebener Wert zusätzlich
zu wenn ein Live-Aktions-Anzeigemodus eingestellt wird.
-
Die
Führungskarte, die angezeigt wird auf dem Bildschirm der
Anzeigeeinheit 10, kann auch derart konfiguriert werden,
dass sie simultan in einem Bildschirm eine Live-Aktions-Führungskarte
und eine Grafik-Führungskarte derart anzeigt, dass die
Grafik-Führungskarte (beispielsweise eine planimetrische
Karte), erzeugt durch die Führungsanzeige-Erzeugungseinheit 13,
angeordnet ist auf der linken Seite des Bildschirms, und eine Live-Aktions-Führungskarte
(beispielsweise eine Nahansicht der Kreuzung unter Verwendung eines
Live-Aktions-Videos), erzeugt durch die Videobild-Zusammensetz-Verarbeitungseinheit 14,
angeordnet ist auf der rechten Seite des Bildschirms.
-
In
Ansprechen auf eine Instruktion von der Videobild-Zusammensetz-Verarbeitungseinheit 14 erfasst
die Wegbreiten-Erfassungseinheit 16 die Breite eines Wegsegments,
das als letztes in eine Kreuzung eintritt, in die das Fahrzeug geführt
wird (bezeichnet durch eine dicke Linie in 2) von den Wegsegmenten,
die die Route von dem Fahrzeugort zu der Kreuzung bilden, an die
das Fahrzeug geführt wird, wie in 2 dargestellt.
Insbesondere erfasst die Wegbreiten-Erfassungseinheit 16 Führungsroutendaten
von der Routenberechnungseinheit 12 über die Videobild-Zusammensetz-Verarbeitungseinheit 14;
entscheidet über das Wegsegment, das als letztes in eine
Kreuzung eintritt, in die das Fahrzeug geführt wird, durch
Vergleichen der erfassten Führungsroutendaten mit Kartendaten,
die gelesen werden von der Kartendatenbank 5, erfasst Wegdaten,
die den bestimmten Weg repräsentieren von Kartendaten,
die gelesen werden von der Kartendatenbank 5,; und erfasst
Wegbreitendaten, enthalten in den erfassten Wegdaten. Die Wegbreitendaten,
die erfasst werden durch die Wegbreiten-Erfassungseinheit 16, werden
gesendet an die Videobild-Zusammensetz-Verarbeitungseinheit 14.
-
Als
Nächstes wird mit Bezug auf das in 3 dargestellte
Flussdiagramm der Betrieb des Autonavigationsgeräts gemäß Ausführungsform
1 der vorliegenden Erfindung mit der obigen Konfigurierung beschrieben
mit Fokussierung auf einen Fahrzeug- Umgebungsinformations-Anzeigeprozess.
In dem Fahrzeug-Umgebungsinformations-Anzeigeprozess wird eine Fahrzeugumgebungskarte
erzeugt, als Grafikführungskarte, die aus einem Überlagern
einer Grafik (Fahrzeugmarkierung) resultiert, die den Fahrzeugort auf
einer Karte der Umgebungen des Fahrzeugs bezeichnet, und es wird
auch ein Inhalts-zusammengesetztes Video (was unten im Detail beschrieben
wird) als Live-Aktions-Führungskarte erzeugt gemäß der Bewegung
des Fahrzeugs, so dass die Fahrzeugumgebungskarte um das Inhalts-zusammengesetzte
Video kombiniert werden, und das Ergebnis angezeigt wird auf der
Anzeigeeinheit 10.
-
In
dem Fahrzeug-Umgebungsinformations-Anzeigeprozess wird zuerst überprüft,
ob eine Fahrzeug-Umgebungsinformations-Anzeige vorbei ist oder nicht
(Schritt ST11). Speziell bestimmt die Navigationssteuereinheit 9,
ob die Eingabebetriebseinheit 6 ein Ende der Fahrzeug-Umgebungsinformations-Anzeige
instruiert hat. Der Fahrzeug-Umgebungsinformations-Anzeigeprozess
wird beendet, wenn im Schritt ST11 bestimmt wird, dass die Fahrzeug-Umgebungsinformations-Anzeige
vorbei ist. Andererseits wird, wenn in Schritt ST11 bestimmt wird,
dass die Fahrzeug-Umgebungsinformations-Anzeige nicht vorbei ist,
der Fahrzeugort und Richtung dann erfasst (Schritt ST12). Speziell
erfasst die Navigationssteuereinheit 9 Fahrzeugorts- und Richtungsdaten
von der Orts- und Richtungs-Messeinheit 4.
-
Dann
wird eine Fahrzeugumgebungskarte erzeugt (Schritt ST13). Speziell
sucht die Führungsanzeige-Erzeugungseinheit 13 der
Navigationssteuereinheit 9 in der Kartendatenbank 5 nach
Kartendaten der Fahrzeugumgebungen in der Skala, die eingestellt
wird zu diesem Zeitpunkt, auf Grundlage der Fahrzeugorts- und Richtungsdaten,
die erfasst werden in Schritt ST12. Eine Fahrzeugumgebungskarte wird dann
erzeugt, die eine Fahrzeugmarkierung darstellt, die einen Fahrzeugort
und Richtung bezeichnet, auf einer Karte, die repräsentiert
wird durch die in der Suche erhaltenen Kartendaten.
-
Zusätzlich
wird das Ziel eingestellt und die Führungsroute entsprechend
berechnet in der Zieleinstelleinheit 11, und der Routenberechnungseinheit 12 der
Navigationssteuereinheit 9. Wenn eine Führung
an das Ziel ein Links- oder Rechtsabbiegen benötigt, erzeugt
die Führungsanzeige-Erzeugungseinheit 13 ferner
eine Fahrzeugumgebungskarte, die eine Grafik, wie zum Beispiel einen
Pfeil zum Kennzeichnen des Wegs, den das Fahrzeug zu fahren hat (hier
im Folgenden bezeichnet als ”Routenführungspfeil”),
der überlagert wird auf der Fahrzeugumgebungskarte, kombiniert.
-
Dann
wird der Inhalts-zusammengesetzte Videoerzeugungsprozess ausgeführt
(Schritt ST14). Speziell sucht die Videobild-Zusammensetz-Verarbeitungseinheit 14 der
Navigationssteuereinheit 9 nach Information hinsichtlich
naher Objekte um das Fahrzeug von Kartendaten, die gelesen werden
von der Kartendatenbank 5, und erzeugt ein Inhalts-zusammengesetztes
Video, in dem Inhalt hinsichtlich eines nahen Objekts überlagert
wird um das nahe Objekt in einem Video der Umgebungen des Fahrzeugs,
erfasst durch die Videobild-Erfassungseinheit 8. Die Besonderheiten
dese Inhalts-zusammengesetzten Videoerzeugungsprozesses des Schritts ST14
werden erklärt in weiteren Einzelheiten unten mit Bezug
auf das in 4 gezeigte Flussdiagramm.
-
Dann
wird ein Anzeigeerzeugungsprozess ausgeführt (Schritt ST15).
Speziell erzeugt die Anzeigeentscheidungseinheit 15 der
Navigationssteuereinheit 9 Anzeigedaten pro Bildschirm
durch Kombinieren einer Grafik-Führungskarte, die die Fahrzeugumgebungskarte
umfasst, die erzeugt wird durch die Führungsanzeige-Erzeugungseinheit 13 in
Schritt ST13, und die Live-Aktions-Führungskarte, die das Inhalts-zusammengesetzte
Video umfasst, das erzeugt wird durch die Videobild-Zusammensetz-Verarbeitungseinheit 14 in
Schritt ST14. Die erzeugten Anzeigedaten werden gesendet an die
Anzeigeeinheit 10, wobei die Grafik-Führungskarte
und die Live-Aktions-Führungskarte angezeigt werden auf
dem Bildschirm der Anzeigeeinheit 10. Der Ablauf kehrt danach
zurück zu Schritt ST11, und der oben beschriebene Prozess
wird wiederholt.
-
Als
Nächstes werden die Einzelheiten des Inhaltszusammengesetzten
Videoerzeugungsprozesses, der ausgeführt wird in Schritt
ST14, beschrieben mit Bezug auf das in 4 gezeigte
Flussdiagramm. Der Inhalts-zusammengesetzte Videoerzeugungsprozess
wird ausgeführt hauptsächlich durch die Videobild-Zusammensetz-Verarbeitungseinheit 14.
-
In
dem Inhalts-zusammengesetzten Videoerzeugungsprozess werden Videos
sowie auch der Fahrzeugort und Richtung zuerst erfasst (Schritt ST21).
Speziell erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 Fahrzeugorts-
und Richtungsdaten, die erfasst werden in Schritt ST12 des Fahrzeug
Umgebungsinformations-Anzeigeprozesses (3), sowie
Videodaten, die erzeugt werden zu diesem Zeitpunkt durch die Videobild-Erfassungseinheit 8.
-
Dann
wird ein Inhalt erzeugt (Schritt ST22) Speziell sucht die Videobild-Zusammensetz-Verarbeitungseinheit 14 nach
nahen Objekten des Fahrzeugs auf Grundlage der Kartendaten, die
gelesen werden von der Kartendatenbank 5, und erzeugt von den
gesuchten nahen Objekten Inhaltsinformation, die dem Benutzer zu präsentieren
ist. Im Fall einer Führung an das Ziel durch Kennzeichnen
von Links- und Rechts-Abbiegen für den Benutzer, enthält
die Inhaltsinformation beispielsweise eine Zeichenfolge mit dem
Namen der Kreuzung, die Koordinaten der Kreuzung und die Koordinaten
eines Routenführungspfeils. Wenn das Fahrzeug zu einer
bemerkenswerten Sehenswürdigkeit den Umgebungen des Fahrzeugs
zu führen ist, enthält die Inhaltsinformation
beispielsweise eine Zeichenfolge oder Bilder mit Information bezüglich
der Sehenswürdigkeit, wie zum Beispiel eine Zeichenfolge
mit dem Namen der Sehenswürdigkeit, die Koordinaten der
Sehenswürdigkeit, sowie der Geschichte, Höhepunkten, Öffnungszeiten
und ähnlichem bezüglich der Sehenswürdigkeit.
Zusätzlich zu dem Obigen kann die Inhaltsinformation auch
Koordinaten auf dem Wegenetz enthalten, das das Fahrzeug umgibt,
und Karteninformation hinsichtlich beispielsweise einer Anzahl von
Spuren und Verkehrsbeschränkungsinformation, wie zum Beispiel
Einbahnstraßenverkehr oder nicht erlaubtem Eintreten für
jeden Weg des Wegenetzes um das Fahrzeug. Die Besonderheiten des
Inhaltserzeugungsprozesses, der ausgeführt wird in Schritt ST22,
werden im Detail unten beschrieben.
-
Die
Koordinaten in der Inhaltsinformation werden durch ein Koordinatensystem
(hier im Folgenden bezeichnet als ”Referenzkoordinatensystem”)
gegeben, das eindeutig auf dem Boden bestimmt ist, beispielsweise
Breitengrad und Längengrad. Im Schritt ST22 wird der dem
Benutzer zu präsentierende Inhalt bestimmt, sowie die Gesamtzahl der
Inhalte a.
-
Dann
wird der Wert i des Zählers initialisiert (Schritt ST23).
Dies bedeutet, dass der Wert i des Zählers zum Zählen
der Anzahl der Inhalte, die schon zusammengesetzt sind, auf ”1” gesetzt
ist. Der Zähler wird in der Videobild-Zusammensetz-Verarbeitungseinheit 14 bereitgestellt.
-
Dann
wird überprüft, ob der Zusammensetzprozess für
alle Teile der Inhaltsinformation vorbei ist (Schritt ST24). Speziell
bestimmt die Videobild-Zusammensetz-Verarbeitungseinheit 14,
ob oder ob nicht die Anzahl der Inhalte i, was schon gebildet ist, und
der Wert des Zählers ist, größer ist
als die Gesamtzahl der Inhalte a. Wenn in Schritt ST24 bestimmt
wird, dass der Zusammensetzprozess bzw. Bildungsprozess für
die gesamte Inhaltsinformation vorbei ist, das heißt, dass
die Anzahl der Inhalte i, die schon zusammengesetzt sind, größer
ist als die Gesamtzahl der Inhalte a, wird der Inhalts-zusammengesetzte
Videoerzeugungsprozess beendet, und die Abfolge kehrt zurück
zu dem Fahrzeug-Umgebungsinformations-Anzeigeprozess.
-
Andererseits
wird, wenn in Schritt ST24 bestimmt wird, dass der Zusammensetzprozess
nicht für die gesamte Inhaltsinformation vorüber
ist, das heißt, dass die Anzahl der Inhalte i, die schon
zusammengesetzt sind, nicht größer ist als die
Gesamtanzahl, die i-te Inhaltsinformation erfasst (Schritt ST25). Speziell
erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 ein
i-tes Inhaltsinformationselement von der in Schritt ST22 erzeugten
Inhaltsinformation.
-
Dann
wird der Ort der Inhaltsinformation auf dem Video durch eine perspektivische
Transformation berechnet (Schritt ST26). Speziell berechnet die Videobild-Zusammensetz-Verarbeitungseinheit 14 den
Ort des Inhalts, der erfasst wird in Schritt ST25, in dem Referenzkoordinatensystem,
in dem der Inhalt anzuzeigen ist, auf Grundlage des Fahrzeugorts und
Richtung, erfasst in Schritt ST21 (Ort und Richtung des Fahrzeugs
in dem Referenzkoordinatensystem); des Orts und Richtung der Kamera 7 in
dem Koordinatensystem, das Bezug nimmt auf das Fahrzeug; und charakteristischen
Werten der Kamera 7, die im Vorhinein erfasst werden, wie
zum Beispiel Feldwinkel und Fokusabstand. Die obige Berechnung ist
identisch zu einer Koordinatentransformationsberechnung genannt
perspektivische Transformation oder perspektivische Transformierung
bzw. Transformation.
-
Dann
wird ein Videozusammensetzprozess ausgeführt (Schritt ST27).
Speziell setzt bzw. stellt die Live-Aktions-Videobild-Zusammensetz-Verarbeitungseinheit 14 Inhalte
zusammen, wie beispielsweise Grafiken, Zeichenfolgen oder Bilder,
beschrieben durch Inhaltsinformation, die erfasst wird in Schritt ST25,
bei den Orten, die berechnet werden in Schritt ST26 auf dem in Schritt
ST21 erfassten Video.
-
Dann
wird der Wert i des Zählers erhöht (Schritt ST28).
Speziell erhöht die Videobild-Zusammensetz-Verarbeitungseinheit 14 (+1)
den Wert des Zählers. Die Abfolge kehrt zurück
danach zu Schritt ST24, und der oben beschriebene Prozess wird wiederholt.
-
Es
wird bemerkt, dass die oben beschriebene Videobild-Zusammensetz-Verarbeitungseinheit 14 konfiguriert
ist, so dass Inhalt auf Video zusammengesetzt werden kann unter
Verwendung einer perspektivischen Transformation, aber auch konfiguriert
werden kann, so dass Ziele innerhalb des Videos erkannt werden durch
Unterziehen des Videos eines Bilderkennungsprozesses, und durch
Zusammenstellen bzw. Bilden von Inhalt auf dem erkannten Video.
-
Als
Nächstes werden die Einzelheiten des Inhaltserzeugungsprozesses,
der ausgeführt wird in Schritt ST22 des oben beschriebenen
Inhalts-zusammengesetzten Videoerzeugungsprozesses (4) beschrieben
mit Bezug auf das in 5 gezeigte Flussdiagramm.
-
In
dem Inhaltserzeugungsprozess wird zuerst überprüft,
ob das Fahrzeug in der Links-Rechts-Abbiegeführung ist
(Schritt ST31). Spezifische Bedingungen zum Entscheiden bzw. Bestimmen,
ob das Fahrzeug in der Links-Rechts-Abbiegeführung ist,
enthalten beispielsweise, das eine Route zu einem Ziel, gesetzt
durch den Benutzer, gesucht wird durch Berechnung durch die Routenberechnungseinheit 12,
und dass das Fahrzeug die Peripherie der Kreuzung erreicht hat entlang
der gesuchten Route, bei der das Fahrzeug nach Links oder Rechts
abbiegen soll. Die ”Peripherie der Kreuzung” ist
beispielsweise ein Bereich, der eingestellt wird durch den Benutzer
oder den Hersteller oder das Autonavigationsgerät, und
kann beispielsweise 500 m vor der Kreuzung sein.
-
Wenn
in Schritt ST31 bestimmt wird, dass das Fahrzeug nicht in der Links-Rechts-Abbiegeführung
ist, geht die Sequenz bzw. Abfolge zu Schritt ST34. Andererseits,
wenn in Schritt ST31 bestimmt wird, dass das Fahrzeug in der Links-Rechts-Abbiegeführung
ist, wird es bestätigt, dass ein Routenführungspfeil
benötigt wird als Inhalt, worauf ein Pfeilinformationsinhalt
dann erzeugt wird (Schritt ST32). Der zu erzeugende Pfeilinformationsinhalt
bezeichnet hierin eine Grafik eines Links-Rechts-Abbiegeführungspfeils,
der überlagert wird auf dem Live-Aktions-Video, um dem
Benutzer die Richtung zu zeigen, in die er abbiegen soll, links
oder rechts, an dem Wegpunkt, wo das Fahrzeug nach links oder rechts abbiegen
soll. Der Links-Rechts-Abbiegeführungspfeil, erzeugt in
Schritt ST32, wird hinzugefügt als ein Anzeigeinhalt. Der
Inhaltserzeugungsprozess der Pfeilinformation in Schritt ST32 wird
erklärt im Detail weiter unten.
-
Dann
wird ein Zusatzinformationsinhalt erzeugt (Schritt ST33). Hierin
bezeichnet der Zusatzinformationsinhalt einen Zusatzinhalt, der
anders ist als der Links-Rechts-Abbiegeführungspfeil, der
notwendig ist zum Ausführen einer Links-Rechts-Abbiegeführung,
beispielsweise einer Markierung, die das Zentrum der Kreuzung kennzeichnet,
und den Abstand von dem Fahrzeug zu der Kreuzung. Der Zusatzinformationsinhalt,
der erzeugt wird in Schritt ST33, wird hinzugefügt als
ein Anzeigeinhalt. Abhängig von den Einstellungen des Autonavigationsgeräts wird
in einigen Fällen kein Zusatzinformationsinhalt zu erzeugen
gebraucht, und daher wird kein Inhalt erzeugt. Die Abfolge geht
danach zu Schritt ST34.
-
Andere
Inhalte werden in Schritt ST34 erzeugt. Speziell werden Inhalte,
abgesehen von Inhalten, die notwendig sind für eine Links-Rechts-Abbiegeführung
erzeugt, um hinzugefügt zu werden als Inhalte zur Anzeige.
Der in Schritt ST34 erzeugte Inhalt kann beispielsweise eine Route
zu einem Ziel oder ein Wegenetz enthalten, das das Fahrzeug umgibt. Nach
diesem wird der Inhaltzusammensetzprozess vervollständigt,
um zu dem Inhalts-zusammengesetzten Videoerzeugungsprozess zurückzukehren (4).
-
Als
Nächstes werden die Einzelheiten des Inhaltserzeugungsprozesses
der Pfeilinformation, die ausgeführt wird in Schritt ST32
des oben beschriebenen Inhaltserzeugungsprozesses (5)
beschrieben mit Bezug auf das in 6 dargestellte
Flussdiagramm.
-
In
dem Inhaltserzeugungsprozess für Pfeilinformation wird
zuerst ein Wegbereich (Schritt ST41) berechnet. Ein Wegbereich bezeichnet
hierin einen Bereich, der frei ist von Gebäuden in den
Umgebungen, wie von dem Ort eines fahrenden Fahrzeugs gesehen, beispielsweise,
wie in 7 dargestellt. Speziell instruiert die Videobild-Zusammensetz-Verarbeitungseinheit 14 die
Wegbreiten-Erfassungseinheit 16, Wegbreitendaten zu erfassen.
Die Wegbreiten-Erfassungseinheit 16 erfasst Wegbreitendaten auf
dem Weg, den das Fahrzeug fährt von den Wegdaten, die enthalten
sind in den Kartendaten, die gelesen werden von der Kartendatenbank 5,
und sendet die erfassten Wegbreitendaten an die Videobild-Zusammensetz-Verarbeitungseinheit 14.
Die Videobild-Zusammensetz-Verarbeitungseinheit 14 berechnet
als Wegbereich, den Bereich, der daraus resultiert aus einem Nehmen
der Hälfte der Breite, beschrieben durch die Wegbreitendaten,
auf der linken Seite und rechten Seite der Fahrtrichtung des Fahrzeugs.
Der Wegbereich kann auch bestimmt werden durch Inbetrachtziehen
von beispielsweise der Fahrtrichtung des Fahrzeugs, der Fahrspuren,
der Anzahl der Spuren in dem Weg und so weiter.
-
Dann
wird eine Routenfolge und ein Links-Rechts-Abbiegewegpunkt (Schritt
ST42) erhalten. Speziell erfasst die Videobild-Zusammensetz-Verarbeitungseinheit 14 eine
Routenfolge und einen Links-Rechts-Abbiegewegpunkt, wie in 7 dargestellt,
von Wegdaten, die enthalten sind in den Kartendaten, die gelesen
werden von der Kartendatenbank 5. Die Routenfolge ist eine
Routenfolge von Koordinaten, erzeugt durch eine Routensuche, die die
Route beschreibt von dem momentanen Wegpunkt zu einem Ziel. Der
Links-Rechts-Abbiegewegpunkt ist die nächste Kreuzung,
bei der das Fahrzeug nach links oder rechts abbiegen soll, und wird
repräsentiert durch die Koordinaten eines relevanten Punkts
in der Routenfolge.
-
Dann
werden eine Gerade-Fahrtfolge und ein Führungswegpunkt
erfasst (Schritt ST43). Speziell entscheidet die Videobild-Zusammensetz-Verarbeitungseinheit 14 über
eine Gerade-Fahrtfolge und einen Führungswegpunkt, wie
die in 7 dargestellten auf Grundlage der Routenfolge
und des Links-Rechts-Abbiegewegpunkts, erfasst in Schritt ST42.
Die Gerade-Fahrtfolge ist eine Folge, die die Segmente bezeichnet,
die das Fahrzeug in einer geraden Linie von dem momentanen Wegpunkt
zu fahren hat, und wird repräsentiert beispielsweise durch eine
Folge von Koordinaten von dem momentanen Wegpunkt in der Routenfolge
zu einem Links-Rechts-Abbiegewegpunkt. Führungswegpunkte
sind Wegpunkte, die die Richtung, links oder rechts, kennzeichnen,
in die das Fahrzeug abzubiegen hat. Die Führungswegpunkte
werden repräsentiert durch beispielsweise Koordinaten,
die gehalten werden neben solchen eines Links-Rechts-Abbiegewegpunkts
in einer Routenfolge.
-
Dann
wird eine Pfeilinformation erzeugt (Schritt ST44). Speziell erzeugt
die Videobild-Zusammensetz-Verarbeitungseinheit 14 einen
Inhalt mit Information hinsichtlich Links-Rechts-Abbiegeführungspfeilen
auf Grundlage der Gerade-Fahrtfolge und des Führungswegpunkts
Information hinsichtlich eines Links-Rechts-Abbiegeführungspfeils
enthält beispielsweise eine Gerade-Fahrtfolge, einen Pfeilbeendigungswegpunkt
und Anzeigeformatinformation. Ein Pfeilbeendigungswegpunkt ist ein
Wegpunkt in der Richtung, zu der das Fahrzeug abbiegt, links oder
rechts, und der nicht über den Wegbereich geht, wie in 7 dargestellt.
Der Pfeilbeendigungswegpunkt liegt beispielsweise auf einem Segment,
das einen Links-Rechts-Abbiegewegpunkt und einen Führungswegpunkt
verbindet. Pfeilbeendigungswegpunkte werden repräsentiert
durch Koordinaten von Wegpunkten innerhalb des Wegbereichs. Anzeigeformatinformation
ist Formatinformation, die beispielsweise eine Dicke, Helligkeit,
Saturierung, Farbe, Durchsichtigkeit und Ähnliches bezeichnet.
Danach wird der Inhaltserzeugungsprozess der Pfeilinformation beendet,
um zu dem Inhaltserzeugungsprozess zurückzukehren (5).
-
Es
wird bemerkt, dass die Koordinaten, die in dem Inhaltserzeugungsprozess
der Pfeilinformation verwendet werden, Werte sind, die eindeutige
Orte auf einer zweidimensionalen Karte, beispielsweise Längengrad
und Breitengrad, bestimmen können.
-
8 zeigt
ein Beispiel von Videos, die angezeigt werden auf dem Bildschirm
der Anzeigeeinheit 10 auf Grundlage der oben beschriebenen
Prozesse. 8(a) zeigt ein Anzeigebeispiel
eines Routenführungspfeils in einem herkömmlichen
Autonavigationsgerät. Die Länge des Teils des
Routenführungspfeils, kennzeichnend die Abbiegerichtung,
ist begrenzt auf den Führungswegpunkt unabhängig von
der Breite des Wegs. Folglich können der Routenführungspfeil
und eine Sehenswürdigkeit bei dem Weg miteinander überlappen,
was hervorrufen kann, dass der Benutzer die Kreuzung verwechselt,
bei der das Fahrzeug abzubiegen hat. In dem Anzeigebeispiel des
Routenführungspfeils des Autonavigationsgeräts
gemäß Ausführungsform 1, gezeigt in 8(b), wird im Gegensatz dazu die Länge
des Teils des Routenführungspfeils, die die Abbiegerichtung
kennzeichnet, begrenzt auf die Wegbreite. Folglich überlappen
der Routenführungspfeil und eine Sehenswürdigkeit
bzw. Orientierungshilfe, die neben dem Weg existieren, nicht, und
daher kann der Benutzer leicht die Kreuzung identifizieren, bei
der das Fahrzeug abzubiegen hat.
-
Wie
oben beschrieben, ist in dem Autonavigationsgerät gemäß Ausführungsform
1 der vorliegenden Erfindung die Länge des Teils des Routenführungspfeils,
der die Abbiegerichtung kennzeichnet, begrenzt auf die Wegbreite,
auf solch eine Art und Weise, dass der Routenführungspfeil
und Gebäude, die näher im Vordergrund anzuzeigen
sind als (oder vor) der Routenführungspfeil nicht überlagert von
einander, wenn der Routenführungspfeil angezeigt wird in
einer überlagernden Art und Weise auf dem Fahrzeugumgebungsvideo,
aufgenommen durch die Kamera 7. Deshalb erlaubt das Autonavigationsgerät
gemäß Ausführungsform 1, das Problem
eines Anzeigens einer fehlerhaften überlagernden Beziehung
zwischen einem Routenführungspfeil und Gebäuden
entlang des Wegs, zu vermeiden.
-
Ausführungsform 2
-
In
dem Autonavigationsgerät nach Ausführungsform
2 der vorliegenden Erfindung wird ein Links-Rechts-Abbiegeführungspfeil,
welches einer der Routenführungspfeile ist, aufgeteilt
in einen sichtbaren Teil und einen geblockten Teil, so dass das
Blockierungsverhältnis zu den Gebäuden visualisiert wird
durch Verändern der obigen zwei Anzeigeformen. Der sichtbare
Teil ist ein Teil des Links-Rechts-Abbiegeführungspfeils,
der nicht geblockt wird, und der wie gewöhnlich gesehen
werden kann. Der blockierte Teil ist ein Teil des Links-Rechts-Abbiegeführungspfeils,
der anzuzeigen ist als geblockt durch ein Gebäude. Die
Konfiguration des Autonavigationsgeräts gemäß Ausführungsform
2 ist identisch zu der gemäß Ausführungsform
1, wie in 1 gezeigt.
-
Außer
dem Inhaltserzeugungsprozess der Pfeilinformation (Schritt ST32
in 5 und 6) ist der Betrieb des Autonavigationsgeräts
gemäß Ausführungsform 2 identisch zu
dem des Autonavigationsgeräts gemäß Ausführungsform
1. In Folgenden wird der Inhaltserzeugungsprozess der Pfeilinformation
in dem Autonavigationsgerät gemäß Ausführungsform
2 beschrieben mit Bezug auf das in 6 dargestellte
Flussdiagramm, was verwendet wird zum Beschreiben des Inhaltserzeugungsprozesses der
Pfeilinformation in dem Autonavigationsgerät gemäß Ausführungsform
1.
-
Der
Inhaltserzeugungsprozess der Pfeilinformation von Schritt ST41 bis
Schritt ST43 ist identisch zu dem Inhaltserzeugungsprozess der Pfeilinformation
des Autonavigationsgeräts gemäß Ausführungsform
1, und nur der Pfeilinformations-Erzeugungsprozess, der ausgeführt
wird in Schritt ST44 ist unterschiedlich. Daher werden nur Merkmale,
die unterschiedlich sind von denen der Ausführungsform
1, unten erklärt.
-
Pfeilinformation
wird erzeugt in Schritt ST44. Speziell erzeugt die Videobild-Zusammensetz-Verarbeitungseinheit 14 einen
Inhalt mit Information hinsichtlich eines Links-Rechts-Abbiegeführungspfeils auf
Grundlage einer Gerade-Fahrfolge und einem Führungswegpunkt.
Information hinsichtlich eines Links-Rechts-Abbiegeführungspfeils
enthält beispielsweise eine Gerade-Fahrtfolge, einen Pfeilbeendigungswegpunkt,
einen Pfeilumschaltwegpunkt, Anzeigeformatinformation hinsichtlich
des sichtbaren Teils und Anzeigeformatinformation hinsichtlich des geblockten
Teils. Der Pfeilbeendigungswegpunkt wird repräsentiert
durch die Koordinaten eines Führungswegpunkts in der Richtung,
zu der das Fahrzeug nach links oder rechts abbiegt, wie in 9 dargestellt.
Wie in 9 gezeigt, ist ein Pfeilumschaltwegpunkt ein Wegpunkt
an der Grenze zwischen dem sichtbaren Teil und dem geblockten Teil
eines Links-Rechts-Abbiegeführungspfeils. Der Pfeilumschaltwegpunkt
liegt auf einem Segment, das einen Links-Rechts-Abbiegewegpunkt
und einen Pfeilbeendigungswegpunkt verbindet, und wird repräsentiert durch
Koordinaten eines Wegpunkts innerhalb des Wegbereichs. Die Anzeigeformatinformation
des sichtbaren Teils ist Information zum sichtbaren Kennzeichnen,
dass der Pfeil ein gewöhnlicher Pfeil ist. Die Anzeigeformatinformation
des geblockten Teils ist Information zum sichtbaren Kennzeichnen,
dass Teil des Pfeils ein geblockter Teil ist, mittels Informationsattributen,
die unterschiedlich sind, von denen des sichtbaren Teils. Danach
wird der Inhaltserzeugungsprozess der Pfeilinformation beendet,
um zu dem Inhaltserzeugungsprozess zurückzukehren (5).
-
Attribute
der Anzeigeformatinformation für den oben erwähnten
visuellen Unterschied kann beispielsweise enthalten Dicke, Helligkeit,
Saturierung, Farbe, Durchsichtigkeit und ähnliches. Wenn
Teile durch Dicke unterschieden werden beispielsweise, kann der
geblockte Teil dünner sein als der sichtbare Teil. Wenn
Teile durch Helligkeit beispielsweise unterschieden werden, kann
der geblockte Teil weniger saturiert sein als der sichtbare Teil.
Wenn Teile durch Farbe beispielsweise unterschieden werden, kann der
sichtbare Teil dargestellt werden mit warmen Farben, wie zum Beispiel
Gelb oder Orange, und der geblockte Teil mit kalten Farben, wie
zum Beispiel Blau oder Grün. Wenn Teile durch Durchsichtigkeit
beispielsweise unterschieden werden, kann der sichtbare Teil lichtundurchlässig
sein, und der geblockte Teildurchlässig sein.
-
10 zeigt
ein Beispiel des auf dem Bildschirm der Anzeigeeinheit 10 angezeigten
Videos als Ergebnis des oben beschriebenen Prozesses. 10(a) zeigt ein Anzeigebeispiel eines
Routenführungspfeils in einem herkömmlichen Autonavigationsgerät.
Die Länge des Teils des Routenführungspfeils,
der die Abbiegerichtung kennzeichnet, erreicht den Führungswegpunkt
unabhängig von der Breite des Wegs. Deshalb können
der Routenführungspfeil und eine Sehenswürdigkeit
an der Straße aufeinander überlagert werden, was
den Benutzer dazu bringt, sich in der Kreuzung zu irren, bei der
das Fahrzeug abbiegen soll. In dem Anzeigebeispiel des Routenführungspfeils
des Autonavigationsgeräts gemäß Ausführungsform
2, gezeigt in 10(b), gibt es, obwohl
die Länge des Teils des Routenführungspfeils,
der die Abbiegerichtung kennzeichnet, den Führungswegpunkt
erreicht, eine Änderung des Anzeigeformats des Teils über
der Wegbreite, wobei das Wegbreitenteil als Grenze genommen wird,
so dass die Farbe eines Teils, bei dem der Routenführungspfeil
und Gebäude überlappen, unterschiedlich ist von
der Farbe eines Teils, wo keine Gebäude überlappen.
Folglich kann der Benutzer leicht die Kreuzung erfassen, bei der
das Fahrzeug abbiegen soll.
-
Wie
oben beschrieben wird in dem Autonavigationsgerät gemäß Ausführungsform
2 der vorliegenden Erfindung der Routenführungspfeil visuell modifiziert
durch Ändern des Anzeigeformats (beispielsweise Dicke,
Farbe, Durchsichtigkeit, Helligkeit, oder Saturierung) des Teils
des Routenführungspfeils über die Wegbreite bei
einem Teil, wo der Routenführungspfeil überlagert
wird mit Gebäuden, die anzuzeigen sind vor dem Routenführungspfeil, wenn
der Routenführungspfeil angezeigt wird in einer überlagernden
Art und Weise auf einem Fahrzeugumgebungsvideo, aufgenommen durch
die Kamera 7. Eine korrigierte überlagernde Beziehung
zwischen dem Routenführungspfeil und Gebäuden
entlang des Wegs kann angezeigt werden als Ergebnis für
den Benutzer.
-
Ausführungsform 3
-
Wenn
die Kartendatenbank 5 keine Wegbreitendaten des Wegs hält,
den das Fahrzeug bereist, schätzt das Autonavigationsgerät
gemäß Ausführungsform 3 der vorliegenden
Erfindung die Wegbreite auf Grundlage anderer Information ab, und
bestimmt einen Wegbereich basierend auf den Schätzergebnissen.
Die Konfigurierung des Autonavigationsgeräts der Ausführungsform
3 ist identisch zu der der in 1 dargestellten
Ausführungsform 1.
-
Außer
dem Inhaltserzeugungsprozess der Pfeilinformation (Schritt ST32
in 5 und 6) ist der Betrieb des Autonavigationsgeräts
gemäß Ausführungsform 3 identisch zu
dem Betrieb des Autonavigationsgeräts gemäß Ausführungsform
1. Im Folgenden wird der Inhaltserzeugungsprozess der Pfeilinformation
in dem Autonavigationsgerät gemäß Ausführungsform
3 beschrieben mit Bezug auf das in 6 dargestellte
Flussdiagramm, was verwendet wird zum Beschreiben des Inhaltserzeugungsprozesses
der Pfeilinformation in dem Autonavigationsgerät gemäß Ausführungsform
1.
-
In
dem Inhaltserzeugungsprozess für Pfeilinformation wird
zuerst ein Wegbereich berechnet (Schritt ST41). Speziell erfasst
die Videobild-Zusammensetz-Verarbeitungseinheit 14 beispielsweise eine
Wegart und Anzahl von Spuren von den Wegdaten, die enthalten sind
in Kartendaten, die gelesen werden von der Kartendatenbank 5 und
berechnet die Wegbreite als 3,0 × Anzahl der Spuren (m),
falls die Wegart ein gewöhnlicher Weg ist, und 3,5 × Anzahl
der Spuren (m) in dem Fall einer Autobahn oder Schnellstraße.
-
Wie
in dem Inhaltserzeugungsprozess der Pfeilinformation in den Autonavigationsgeräten
gemäß Ausführungsform 1 und Ausführungsform 2, werden
eine Routenfolge und ein Links-Rechts-Abbiegewegpunkt erfasst (Schritt
ST42), eine Gerade-Fahrtfolge und ein Führungswegpunkt
werden erfasst (Schritt ST43) und Pfeilinformation wird erzeugt (Schritt
ST44). Danach wird der Inhaltserzeugungsprozess der Pfeilinformation
beendet, um zu dem Inhaltserzeugungsprozess zurückzukehren
(5).
-
Wie
oben beschrieben wird, wenn die Kartendatenbank 5 des Autonavigationsgeräts
keine Wegbreitendaten in dem Autonavigationsgerät gemäß Ausführungsform
3 der vorliegenden Erfindung hält, die Wegbreite berechnet
auf Grundlage der Anzahl der Spuren des Wegs und der Art des Wegs. Deshalb
kann die Wegbreite ungefähr eingestellt werden, selbst
wenn die Kartendatenbank 5 des Autonavigationsgeräts
keine Wegbreitendaten hält, so dass das Problem eines Anzeigens
einer fehlerhaften Überlagerungsbeziehung zwischen einem
Führungspfeil und Gebäuden entlang des Wegs vermieden
wird.
-
Ausführungsform 4
-
11 zeigt
ein Blockdiagramm, das die Konfigurierung eines Autonavigationsgeräts
gemäß Ausführungsform 4 der vorliegenden
Erfindung zeigt. Das Autonavigationsgerät der vorliegenden
Ausführungsform ist das Autonavigationsgerät gemäß Ausführungsform
1, aber die Wegbreiten-Erfassungseinheit 16 der Navigationssteuereinheit 9 wurde
hierin weggelassen, eine Umgehungseinrichtungs-Erfassungseinheit 17 wurde
hinzugefügt, und die Videobild-Zusammensetz-Verarbeitungseinheit 14 wurde modifiziert
zu einer Videobild-Zusammensetz-Verarbeitungseinheit 14a.
-
In
Ansprechen auf eine Instruktion von der Videobild-Zusammensetz-Verarbeitungseinheit 14a erfasst
die Umgehungseinrichtungs-Erfassungseinheit 17 Umgehungseinrichtungsdaten,
die eine zu umgehende Einrichtung durch das Fahrzeug repräsentieren
(bezeichnet durch Schraffierung in 12) bei
der Kreuzung bzw. Einmündung, zu der das Fahrzeug geführt
wird, wie in 12 dargestellt, von Kartendaten,
die von der Kartendatenbank 5 gelesen werden. Insbesondere
erfasst die Umgehungseinrichtungs-Erfassungseinheit 17 Führungsroutendaten
von der Routenberechnungseinheit 12 über die Videobild-Zusammensetz-Verarbeitungseinheit 14a, und
auf Grundlage der erfassten Führungsroutendaten, arbeitet
eine Führungsrichtung zu der Kreuzung aus, zu der das Fahrzeug
geführt wird. Als Nächstes sucht die Umgehungseinrichtungs-Erfassungseinheit 17 aus
den Kartendaten, die gelesen werden von der Kartendatenbank 5,
nach einer Einrichtung (Umgehungseinrichtung), die sich an einem
Eck der Führungsrichtungsseite der Kreuzung befindet, zu
der das Fahrzeug geführt wird, so dass die Einrichtung näher
an dem Fahrzeug steht als die Kreuzung oder Einmündung,
zu der das Fahrzeug geführt wird. Die Umgehungseinrichtungs-Erfassungseinheit 17 erfasst
Einrichtungsdaten, die der gefundenen Einrichtung entsprechen. Die
Einrichtungsdaten, die erfasst werden durch die Umgehungseinrichtungs-Erfassungseinheit 17,
werden als Umgehungseinrichtungsdaten an die Videobild-Zusammensetz-Verarbeitungseinheit 14a gesendet.
-
Zusätzlich
zu der Verarbeitung, die ausgeführt wird durch die Videobild-Zusammensetz-Verarbeitungseinheit 14 des
Autonavigationsgeräts gemäß Ausführungsform
1, gibt die Videobild-Zusammensetz-Verarbeitungseinheit 14a auch
eine Instruktion aus an die Umgehungseinrichtungs-Erfassungseinheit 17,
um ein Erfassen von Umgehungseinrichtungsdaten zu bewirken. Die
Videobild Zusammensetz-Verarbeitungseinheit 14a führt
dann einen vorbestimmten Prozess aus (im Detail weiter unten beschrieben)
an den Umgehungseinrichtungsdaten, die gesendet werden von der Umgehungseinrichtungs-Erfassungseinheit 17.
-
Als
Nächstes wird der Betrieb des Autonavigationsgeräts
gemäß Ausführungsform 4 der vorliegenden
Erfindung mit der obigen Konfigurierung beschrieben. Der Betrieb
des Autonavigationsgeräts gemäß Ausführungsform
4 ist identisch zu dem Betrieb des Autonavigationsgeräts
gemäß Ausführungsform 1, abgesehen von
dem Inhaltserzeugungsprozess der Zusatzinformation (Schritt ST33
in 5) und dem Videozusammensetzprozess (Prozess in
Schritt ST27 der 4). Die Erklärung unten fokussiert
sich auf die Unterschiede gegenüber dem Betrieb des Autonavigationsgeräts
gemäß Ausführungsform 1.
-
Zuerst
wird der Inhaltserzeugungsprozess der Zusatzinformation in dem Autonavigationsgerät gemäß Ausführungsform
4 erklärt mit Bezug auf das in 13 gezeigte
Flussdiagramm.
-
In
dem Inhaltserzeugungsprozess der Zusatzinformation (Schritt ST33
in 4) wird Zusatzinhalt zum Anzeigen eines Links-Rechts-Abbiegeführungspfeils
erzeugt als Ergänzungsinhalt für eine Anzeige.
Im Folgenden wird ein Beispiel, dass ein blockierendes Gebäude
erfasst wird von Gebäuden, die das Fahrzeug umgeben, und
dass ein Inhalt eines blockierenden Gebäudemodells erzeugt
wird, beschrieben. Ein blockierendes Gebäude beschreibt hierin
ein Gebäude, das näher gesehen sollte als der Links-Rechts-Abbiegeführungspfeil.
Das Blockierende-Gebäudemodell ist Inhalt, der tatsächlich
näher im Vordergrund angezeigt wird als der Links-Rechts-Abbiegeführungspfeil
bei dem Ort des blockierenden Gebäudes.
-
In
dem Inhaltserzeugungsprozess der Zusatzinformation wird ein blockierendes
Gebäude zuerst erfasst (Schritt ST51). Speziell instruiert
die Videobild-Zusammensetz-Verarbeitungseinheit 14a die
Umgehungseinrichtungs-Erfassungseinheit 17, ein blockierendes
Gebäude zu erfassen. Die Umgehungseinrichtungs-Erfassungseinheit 17 erfasst
Blockierende-Gebäudedaten von Kartendaten, die ausgelesen
werden aus der Kartendatenbank 5. Blockierende Gebäude bezeichnen
alle Gebäude, die vorhanden sind zwischen dem Fahrzeugort
und der Kreuzung, an die das Fahrzeug geführt wird, von
Gebäuden auf der rechten Seite des Wegs in dem Fall eines
Rechtsabbiegens beispielsweise, wie in 14 dargestellt.
Eine Konfigurierung ist auch möglich, so dass die blockierenden
Gebäude bestimmt werden durch Inbetrachtziehen des Links-Rechts-Abbiegeführungspfeils
und der dreidimensionalen Form der Gebäude.
-
Dann
wird Blockierende-Gebäude-Modellinformation erzeugt (Schritt
ST52). Speziell erzeugt die Umgehungseinrichtungs-Erfassungseinheit 17 einen Inhalt
der Blockierende-Gebäude-Modellinformation auf Grundlage
der Blockierende-Gebäudedaten, erfasst in Schritt ST51.
Blockierende-Gebäude-Modellinformation enthält
hierin beispielsweise mindestens ein Element von dem Ort, der dreidimensionalen Form
und dem Namen des blockierenden Gebäudes, sowie Information,
die eine Durchlässigkeit oder Durchsichtigkeit bezeichnet.
Die Blockierende-Gebäude-Modellinformation kann detaillierte
dreidimensionale Formen weglassen, und kann Inhalt definieren, wie
zum Beispiel stehende Schilder. Die Blockierende-Gebäude-Modellinformation,
erzeugt durch die Umgehungseinrichtungs-Erfassungseinheit 17, wird
gesendet an die Videobild-Zusammensetz-Verarbeitungseinheit 14a.
Mittels des Obigen wird der Inhaltserzeugungsprozess der Zusatzinformation
beendet, um zu dem Inhaltserzeugungsprozess zurückzukehren
(5).
-
Als
Nächstes wird der Videozusammensetzprozess in dem Autonavigationsgerät
gemäß Ausführungsform 4 beschrieben mit
Bezug auf das in 15 dargestellte Flussdiagramm.
-
In
dem Videozusammensetzprozess wird ein Blockierende-Gebäude-Ausmalprozess
zuerst ausgeführt (Schritt ST61). Speziell malt die Videobild-Zusammensetz-Verarbeitungseinheit 14a ein
blockierendes Gebäude auf dem Video aus, oder füllt
es aus, das erfasst wurde durch die Videobild-Erfassungseinheit 8.
Der ausgemalte Bereich kann berechnet werden auf Grundlage von beispielsweise dem
Ort des Videos während des Zusammensetzens des Blockierende-Gebäude-Modells.
Der Ausmalprozess des blockierenden Gebäudes kann derart
konfiguriert sein, dass das blockierende Gebäude, das auszumalen
ist, einer Bilderkennung unterzogen wird durch Extrahieren von charakteristischen
Punkten von einem Bild, um so einen Ausmalbereich zu berechnen.
-
In
dem Blockierende-Gebäude-Ausmalprozess wird ein Gebäude
auf dem Video, wie zum Beispiel das. in 16(a) gezeigte
Gebäude, wie in 16(b) ausgemalt.
In dem in 16(b) gezeigten Beispiel
wird das blockierende Gebäude in Weiß ausgemalt,
aber es kann auch in irgendeiner anderen Farbe, die im Voraus durch
den Benutzer oder den Hersteller des Autonavigationsgeräts
einzustellen ist, ausgemalt werden.
-
Dann
wird ein Pfeil gezeichnet (Schritt ST62) Speziell zeichnet die Videobild-Zusammensetz-Verarbeitungseinheit 14a den
Links-Rechts Abbiegeführungspfeil, der erzeugt wird bei
dem Inhaltserzeugungsprozess der Pfeilinformation in dem Inhaltserzeugungsprozess
(Schritt ST32 in 5). Auf solch eine Art und Weise
wird ein Links-Rechts-Abbiegeführungspfeil auf dem Video
gezeichnet, wobei das blockierende Gebäude ausgemalt wird,
wie in 16(c) gezeigt.
-
Dann
wird ein Blockierende-Gebäude-Modell gezeichnet (Schritt
ST63). Speziell zeichnet Videobild-Zusammensetz-Verarbeitungseinheit 14a durch dreidimensionale
CG ein durchlässiges Blockierende-Gebäude-Modell,
das erzeugt wird in dem Inhaltserzeugungsprozess der Zusatzinformation (Schritt
ST33 in 5). In dieser Art und Weise
wird ein durchlässiges Blockierende-Gebäude-Modell
gezeichnet auf einem Video, auf dem ein Links-Rechts-Abbiegeführungspfeil
gezeichnet wird, wie in 16(d) gezeigt.
Mittels des Obigen wird der Videozusammensetzprozess beendet, um
zu dem Inhaltszusammengesetzten Videoerzeugungsprozess zurückzukehren
(4).
-
17 zeigt
ein Beispiel von Videos, die angezeigt werden auf dem Bildschirm
der Anzeigeeinheit 10, durch die oben beschriebenen Prozesse. 17(a) zeigt ein Anzeigebeispiel eines
Routenführungspfeils in einem herkömmlichen Autonavigationsgerät.
Die Umgehungseinrichtung ist nicht klar und daher kann der Benutzer
die Kreuzung verwechseln, bei der das Fahrzeug abbiegen soll. In
dem Anzeigebild des Routenführungspfeils des Autonavigationsgeräts
gemäß Ausführungsform 4, gezeigt in 17(b) kann im Gegensatz dazu der Teil
des Routenführungspfeils, der die Abbiegerichtung beschreibt,
an der anderen Seite der Umgehungseinrichtung gesehen werden, und
daher kann der Benutzer leicht die Kreuzung erfassen, bei der das
Fahrzeug abbiegen soll.
-
Das
Blockierende-Gebäude-Modell kann ein schildartiges Blockierende-Gebäude-Modell
sein, wie in dem Anzeigebeispiel, das in 18 gezeigt
ist. Das Blockierende-Gebäude-Modell in dem in 17 gezeigten
Beispiel wird dargestellt als durchlässige dreidimensionale
CG. In dem in 18 gezeigten Beispiel wird das
Blockierende-Gebäude-Modell gezeigt als Schild, das den
Namen der Einrichtung kennzeichnet.
-
Wie
oben beschrieben wird in dem Autonavigationsgerät gemäß Ausführungsform
4 der vorliegenden Erfindung der Ort eines anzuzeigenden Gebäude
näher im Vordergrund ausgemalt als (oder vor) dem Teil
des Routenführungspfeils, der eine Abbiegerichtung kennzeichnet,
und der Routenführungspfeil und eine durchsichtige bzw.
durchlässige dreidimensionale CG, die das Gebäude
repräsentiert, werden auf solch eine Art und Weise verwendet, dass
sie den Routenführungspfeil als Umgehung des Hinterteils
des Gebäudes zeigen. Eine korrekte Überlagerungsbeziehung
des Routenführungspfeils und Gebäuden entlang
des Wegs kann als Ergebnis angezeigt werden.
-
Ausführungsform 5
-
In
dem Autonavigationsgerät gemäß Ausführungsform
5 der vorliegenden Erfindung wird ein Blockierende-Gebäude-Schild
anstatt des Blockierende-Gebäude-Modells verwendet, das
in dem Autonavigationsgerät gemäß Ausführungsform
4 verwendet wird. Die Konfigurierung des Autonavigationsgeräts der
Ausführungsform 5 ist identisch zu der der in 11 gezeigten
Ausführungsform 4.
-
Abgesehen
von dem Inhaltserzeugungsprozess der Zusatzinformation (Schritt
ST33) in 5, und dem Videozusammensetzprozess
(Prozess in Schritt ST27 der 4), ist
der Betrieb des Autonavigationsgeräts gemäß Ausführungsform
5 identisch zu dem des Autonavigationsgeräts gemäß Ausführungsform
4.
-
Zuerst
wird der Inhaltserzeugungsprozess der Zusatzinformation in dem Autonavigationsgerät gemäß Ausführungsform
5 erklärt mit Bezug auf das in 13 dargestellte
Flussdiagramm, das verwendet wird zum Darstellen des Inhaltserzeugungsprozesses
der Zusatzinformation in dem Autonavigationsgerät gemäß Ausführungsform
4.
-
In
dem Inhaltserzeugungsprozess der Zusatzinformation (Schritt ST33
in 5) wird ein Zusatzinhalt zum Anzeigen eines Links-Rechts-Abbiegeführungspfeils
erzeugt als Ergänzungsinhalt zur Anzeige. Im Folgenden
wird ein Beispiel, dass ein blockierendes Gebäude erfasst
wird von Gebäuden, die das Fahrzeug umgeben, und dass ein
Inhalt von Schildern des blockierenden Gebäudes erzeugt
wird, beschrieben. Ein blockierendes Gebäude bezeichnet hierin
ein Gebäude, das mehr gesehen sein sollte als der Links-Rechts-Abbiegeführungspfeil.
Das Blockierende-Gebäude-Schild ist Inhalt, der tatsächlich mehr
im Vordergrundangezeigt wird als ein Links-Rechts-Abbiegeführungspfeil
an dem Ort des blockierenden Gebäudes. Die Details des
obigen Prozesses werden später erklärt.
-
In
dem Inhaltserzeugungsprozess der Zusatzinformation wird ein blockierendes
Gebäude zuerst erfasst (Schritt ST51). Die Verarbeitung
in Schritt ST51 ist identisch zu der, die ausgeführt wird
in dem Autonavigationsgerät gemäß Ausführungsform
4.
-
Dann
wird eine Blockierende-Gebäude-Schildinformation erzeugt
(Schritt ST52). Speziell erzeugt die Umgehungseinrichtungs-Erfassungseinheit 17 einen
Inhalt der Blockierende-Gebäude-Schildinformation auf Grundlage
der Blockierende-Gebäude-Daten, die erfasst werden in Schritt ST51.
Blockierende-Gebäude-Schildinformation enthält
hierin beispielsweise mindestens ein Element von einem Ort, der
ein blockierendes Gebäude kennzeichnet oder den Namen des
blockierenden Gebäudes, sowie Information, die eine Durchlässigkeit
oder Durchsichtigkeit beschreibt. Beispielsweise kann der Kreuzungspunkt
zwischen dem Weg und einer rechtwinkligen Linie bestimmen, die gezeichnet
wird von dem Ort des blockierenden Gebäudes zu dem Weg, und
dann kann der Mittelpunkt zwischen dem Ort des blockierenden Gebäudes
und diesem Kreuzungspunkt als der Ort gesetzt werden, der das blockierende
Gebäude kennzeichnet. Die Blockierende-Gebäude-Schildinformation,
die erzeugt wird durch die Umgehungseinrichtungs-Erfassungseinheit 17,
wird gesendet an die Videobild-Zusammensetz-Verarbeitungseinheit 14a.
Mittels des Obigen wird der Inhaltserzeugungsprozess der Zusatzinformation
beendet, um zu dem Inhaltserzeugungsprozess zurückzukehren
(5).
-
Als
Nächstes wird ein Videozusammensetzprozess in dem Autonavigationsgerät
gemäß Ausführungsform 5 (Schritt ST27
in 4) beschrieben. In dem Videozusammensetzprozess
zeichnet bei einer Links-Rechts-Abbiegeführung die Videobild-Zusammensetz-Verarbeitungseinheit 14a durch
durchsichtige CG das Blockierende-Gebäude-Schild, das erzeugt
wird in Schritt ST33, so dass das Blockierende-Gebäude-Schild
näher im Vordergrund angezeigt wird als der Teil des Routenführungsteils,
der die Abbiegerichtung auf dem Teil des Links-Rechts-Abbiegeführungspfeils
kennzeichnet, der die Abbiegerichtung kennzeichnet und der erzeugt
wird näher zu sein als das blockierende Gebäude,
das erfasst wird von Kartendaten in Schritt ST32 des Inhaltserzeugungsprozesses
gezeigt in 5.
-
19 zeigt
ein Beispiel des Videos, das angezeigt wird auf dem Bildschirm der
Anzeigeeinheit 10 mittels der oben beschriebenen Prozesse. 19(a) zeigt ein Anzeigebeispiel einer
Live-Aktions-Führungskarte in einem herkömmlichen
Autonavigationsgerät. Die Gebäude entlang des
Wegs und der Routenführungspfeil sind nicht klar, und deshalb kann
der Benutzer die Kreuzung verwechseln, bei der das Fahrzeug abbiegen
soll. In dem Anzeigebeispiel der Live-Aktions-Führungskarte
des Autonavigationsgeräts gemäß Ausführungsform
5, gezeigt in 19(b), sind im Gegensatz
dazu die Gebäude entlang des Wegs und der Routenführungspfeil
klar, und deshalb kann der Benutzer leicht die Kreuzung erfassen,
bei der das Fahrzeug abbiegen, soll.
-
Wie
oben beschrieben wird gemäß dem Autonavigationsgerät
nach Ausführungsform 5 der vorliegenden Erfindung die Länge
des Routenführungspfeils eingestellt, um das vordere Teil
eines Gebäudes zu erreichen anstatt, dass der Führungspfeil überlagert
wird auf den Routengebäuden, und eine durchlässige
CG, die ein Schild des Gebäudes zeigt, wird dargestellt,
so dass sie näher im Vordergrund angezeigt wird als der
Teil eines Routenführungspfeils, der die Abbiegerichtung
kennzeichnet. Deshalb kann eine Anzeige auf solch eine Art und Weise ausgeführt
werden, dass die überlagernde Beziehung zwischen einem
Routenführungspfeil und Gebäuden entlang des Wegs
korrekt erfasst werden kann ohne Verstecken der tatsächlichen
Gebäude.
-
Ein
Autonavigationsgerät, das in Fahrzeugen verwendet wird,
wurde beschrieben in den Ausführungsformen, die in den
Figuren dargestellt sind. Jedoch kann das Autonavigationsgerät
gemäß der vorliegenden Erfindung auch auf eine ähnliche
Art und Weisen in anderen mobilen Objekten, wie zum Beispiel Mobiltelefonen,
verwendet werden, die mit Kameras ausgestattet sind, oder in Flugzeugen.
-
GEWERBLICHE ANWENDBARKEIT
-
In
dem Navigationsgerät gemäß der vorliegenden
Erfindung wird, wie oben beschrieben, die Länge eines Routenführungspfeils,
die eine Abbiegerichtung kennzeichnet, eingestellt gemäß einer
Wegbreite während einer Anzeige eines Routenführungspfeils, überlagert
auf einem Video der Umgebungen eines Fahrzeugs, das erhalten wird
durch eine Kameraaufnahme auf solch eine Art und Weise, dass der Routenführungspfeil
nicht auf Gebäuden überlagert wird, die näher
im Vordergrund anzuzeigen sind als der Routenführungspfeil.
Dies erlaubt es, das Problem einer Anzeige einer fehlerhaften überlagernden Beziehung
zwischen einem Routenführungspfeil und Gebäuden
entlang des Wegs zu vermeiden, und erlaubt eine passende Anzeigeführungsinformation
auf Live-Aktions-Video. Das Navigationsgerät gemäß der
vorliegenden Erfindung kann passend daher in Autonavigationsgeräten
und ähnlichem verwendet werden.
-
ZUSAMMENFASSUNG
-
Ein
Navigationsgerät hat eine Kartendatenbank (5),
die Kartendaten hält; einen Positions- und Richtungs-Messabschnitt
(4), der die momentane Position und Richtung eines Fahrzeugs
misst; einen Routenberechnungsabschnitt (12), der auf Grundlage
Kartendaten, die gelesen werden von der Kartendatenbank (5),
eine Route berechnet von der momentanen Position, die gemessen wird
durch den Positions- und Richtungs-Messabschnitt, zu einem Ziel; eine
Kamera (7), die ein Videobild vor dem Fahrzeug aufnimmt;
einen Videobild-Erfassungsabschnitt (8), der das Videobild
vor dem Fahrzeug erfasst, das durch die Kamera aufgenommen wird;
einen Wegbreiten-Erfassungsabschnitt (16), der auf Grundlage von
Wegbreitendaten, enthalten in den Kartendaten, die gelesen werden
von der Kartendatenbank, die Breite eines Wegsegments erfasst, das
eines ist von Wegsegmenten, die die Route bilden, die berechnet wird
durch den Routenberechnungsabschnitt und in eine Kreuzung eintritt
und dort endet, zu der das Fahrzeug geführt wird; einen
Videobild-Zusammensetz-Verarbeitungsabschnitt (14), der
die Länge eines Teils eines Routenführungspfeils
zu der Wegbreite begrenzt, der berechnet wird durch den Wegbreiten-Erfassungsabschnitt,
und den Pfeil überlagert und zusammensetzt auf dem Videobild,
das erfasst wird durch den Videoerfassungsabschnitt, wobei das Teil
des Routenführungspfeils ein Teil ist, das die Richtung
kennzeichnet, in der das Fahrzeug abzubiegen hat; und einen Anzeigeabschnitt
(10), der das zusammengesetzte Video zeigt durch den Videozusammensetz-Verarbeitungsabschnitt.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste
der vom Anmelder aufgeführten Dokumente wurde automatisiert
erzeugt und ist ausschließlich zur besseren Information
des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen
Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt
keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- - JP 2915508 [0003]
- - JP 11-108684 A [0003]