DE102017204567A1 - Verfahren und Vorrichtung zum Erstellen einer Navigationsinformation zur Führung eines Fahrers eines Fahrzeugs - Google Patents

Verfahren und Vorrichtung zum Erstellen einer Navigationsinformation zur Führung eines Fahrers eines Fahrzeugs Download PDF

Info

Publication number
DE102017204567A1
DE102017204567A1 DE102017204567.1A DE102017204567A DE102017204567A1 DE 102017204567 A1 DE102017204567 A1 DE 102017204567A1 DE 102017204567 A DE102017204567 A DE 102017204567A DE 102017204567 A1 DE102017204567 A1 DE 102017204567A1
Authority
DE
Germany
Prior art keywords
data
vehicle
navigation
driver
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017204567.1A
Other languages
English (en)
Inventor
Thomas Focke
Wolfgang Niem
Patrick Klie
Dirk Fortmeier
Hartmut Loos
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102017204567.1A priority Critical patent/DE102017204567A1/de
Publication of DE102017204567A1 publication Critical patent/DE102017204567A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers

Abstract

Die Erfindung betrifft ein Verfahren (200) zum Erstellen einer Navigationsinformation (175) zur Führung eines Fahrers (140) eines Fahrzeugs (100). Das Verfahren (200) umfasst einen Schritt des Einlesens (210) von Navigationsdaten (115) und von Umgebungsdaten (120), wobei die Navigationsdaten (115) Daten aus einer digitalen Karte (130) repräsentieren, die zumindest teilweise einen Weg von einem Startpunkt zu einem Zielpunkt abbilden und wobei die Umgebungsdaten (120) Daten eines optischen Bildsensors (145) repräsentieren, die die Umgebung des Fahrzeugs (100) an der aktuellen geografischen Position des Fahrzeugs (100) abbilden. Ferner umfasst das Verfahren (200) einen Schritt des Verknüpfens (220) der Navigationsdaten (115) und der Umgebungsdaten (120), um die Navigationsinformation (175) zur Ausgabe an den Fahrer (140) zu erstellen.

Description

  • Stand der Technik
  • Die Erfindung geht aus von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.
  • Eine Anzeige einer SurroundView- oder Rückfahrkameradarstellung bietet die Möglichkeit, das nähere Fahrzeugumfeld dem Fahrer zu visualisieren. Mit solchen Systemen können virtuelle Drauf- und Rundumsicht mit Fahrzeug und Umgebung visualisiert werden (2D und 3D). Problematisch bei einer solchen Auslegung eines Anzeigesystems ist jedoch, dass der Benutzer dabei weder die Fahrtrichtung noch das anzupeilende Ziel aus einer Navigationsroute sieht. In der Navigation wird z. B. beim Verlassen eines Parkplatzes („offroad“) ferner auch nur die Richtung zum Ziel dargestellt.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren, weiterhin eine Vorrichtung, die dieses Verfahren verwendet, sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.
  • Es wird mit dem hier vorgestellten Ansatz ein Verfahren zum Erstellen einer Navigationsinformation zur Führung eines Fahrers eines Fahrzeugs vorgestellt, wobei das Verfahren die folgenden Schritte aufweist:
    • - Einlesen von Navigationsdaten und von Umgebungsdaten, wobei die Navigationsdaten Daten aus einer digitalen Karte repräsentieren, die zumindest teilweise einen Weg von einem Startpunkt zu einem Zielpunkt abbilden und wobei die Umgebungsdaten Daten eines optischen Bildsensors repräsentieren, die die Umgebung des Fahrzeugs an der aktuellen geografischen Position des Fahrzeugs abbilden; und
    • - Verknüpfen der Navigationsdaten und der Umgebungsdaten, um die Navigationsinformation zur Ausgabe an den Fahrer zu erstellen.
  • Unter einer Navigationsinformation kann vorliegend eine Information, Datensatz oder ein Signal verstanden werden, welches zur Ausgabe an den Fahrer des Fahrzeugs, vorzugsweise als optische Anzeige erstellt wird. Beispielsweise kann die Navigation Information ein Bild sein, welches auf einer Anzeigeeinheit dem Fahrer angezeigt werden kann. Unter Navigationsdaten können Daten aus einer digitalen Karte, beispielsweise ein Wegenetz, und/oder eine Positionsinformation verstanden werden, welche die aktuelle Position des Fahrzeugs abbildet. Die Navigationsdaten können somit beispielsweise die aktuelle geographische Position einer digitalen Karte repräsentieren. Ferner können die Navigationsdaten eine Route oder einen Weg von einem Startpunkt zu einem Zielpunkt in der digitalen Karte abbilden. Unter Umgebungsdaten können beispielsweise Bilddaten verstanden werden, die ein optisches Abbild der Umgebung des Fahrzeugs repräsentieren und die beispielsweise von einem optischen Sensor wie einer Kamera im oder am Fahrzeug aufgezeichnet werden. Unter einem Verknüpfen der Navigationsdaten mit den Umgebungsdaten kann eine Datenfusion verstanden werden, bei der die Navigationsinformation erstellt wird, welche beispielsweise aus einer Überlagerung der Umgebungsdaten in oder auf die Navigationsdaten gebildet wird.
  • Der hier vorgestellte Ansatz basiert auf der Erkenntnis, dass die Navigation oder das Führen des Fahrzeugs für den Fahrer des Fahrzeugs deutlich erleichtert werden kann, wenn ihm nicht nur abstrakte Navigationsdaten angezeigt werden, sondern das in einer solchen Anzeige auch entsprechende Umgebungsdaten aus der aktuellen Umgebung des Fahrzeugs eingebettet werden, an denen sich der Fahrer beim Blick durch ein Fahrzeugfenster orientieren kann. Auf diese Weise wird der Komfort des Fahrers bei der Fahrt vom Startpunkt zum Zielpunkt deutlich erhöht, seine Ablenkung beim Blick auf eine entsprechende Anzeigeeinheit minimiert und somit die Verkehrssicherheit allgemein erhöht.
  • Günstig ist eine Ausführungsform des hier vorgeschlagenen Ansatzes, bei der im Schritt des Verknüpfens die Navigationsdaten und die Umgebungsdaten zu Bilddaten fusioniert werden, die auf einer Anzeigeeinheit des Fahrzeugs darstellbar sind. Eine solche Fusion der Navigationsdaten mit dem Umgebungsdaten kann beispielsweise dadurch realisiert oder umgesetzt werden, dass an einer Position in den Navigationsdaten, die der aktuellen Position des Fahrzeugs entspricht, die Umgebungsdaten, beispielsweise in der Form eines digitalen Bildes der Fahrzeugumgebung, eingebettet werden. Auf diese Weise kann die Navigationsinformation beispielsweise als Hybriddarstellung einer digitalen Karte mit eingesetztem optischen Abbild der Realität aus der Fahrt in der Umgebung ausgestaltet werden, welche dem Fahrer des Fahrzeugs angezeigt wird und die Orientierungsmöglichkeit des Fahrers an der aktuellen Position in der Umgebung um das Fahrzeug signifikant unterstützt.
  • Von Vorteil ist weiterhin eine Ausführungsform des hier vorgeschlagenen Ansatzes, bei der im Schritt des Einlesens eine erfasste aktuelle geografische Fahrtrichtung des Fahrzeugs eingelesen wird, wobei im Schritt des Verknüpfens eine geografische Orientierung der Navigationsdaten und/oder der Umgebungsdaten in Abhängigkeit von der geografischen Fahrtrichtung verändert wird. Unter einer geographischen Fahrtrichtung kann beispielsweise eine Himmelsrichtung wie Norden, Süden, Osten oder Westen oder dergleichen verstanden werden. Unter einer geographischen Orientierung kann beispielsweise eine Ausrichtung eines Blickwinkels verstanden werden, unter dem die Umgebungsdaten und/oder die Navigationsdaten einem Fahrer des Fahrzeugs auf einer Anzeigeeinheit dargestellt werden. Hierdurch können beispielsweise die Navigationsdaten und/oder die Umgebungsdaten zueinander so ausgerichtet und/oder ineinander eingebettet werden, dass ein Fahrer bei dem Abfahren des Weges vom Startpunkt zum Zielpunkt Objekte in der Umgebung des Fahrzeugs auf der Anzeigeeinheit auch an denjenigen Positionen erkennen kann, an denen sie sich ihm beim Blick aus dem Fenster des Fahrzeugs darstellen. Auf diese Weise wird ein sehr schneller und leichter Abgleich der Position der Objekte in der dargestellten Navigationsinformation mit der konkreten Position in der Fahrzeugumgebung möglich.
  • Besonders günstig ist eine Ausführungsform des hier vorgeschlagenen Ansatzes, bei der im Schritt des Einlesens ferner ein Blickbereich aus den Navigationsdaten und/oder den Umgebungsdaten ermittelt wird, wobei der Blickbereich einen Bereich der Umgebung des Fahrzeugs repräsentiert, der durch einen Fahrer des Fahrzeugs optisch erfassbar ist, und wobei im Schritt des Verknüpfens die Navigationsdaten und die Umgebungsdaten unter Verwendung des Blickbereichs verknüpft werden, insbesondere wobei die Umgebungsdaten in der Navigationsinformation nur in einen Bereich eingebettet werden, der einen innerhalb des Blickbereichs liegenden Bereich der Navigationsdaten repräsentiert und/oder wobei in der Navigationsinformation ein Teilbereich markiert ist, der einen außerhalb des Blickbereichs liegenden Bereich der Navigationsdaten umfasst. Unter einem Blickbereich kann ein Bereich in der Fahrzeugumgebung verstanden werden, der vom Fahrer aus eingesehen werden kann. Wird nun in der Navigationsinformation lediglich derjenige Bereich mit Umgebungsdaten hinterlegt, der im Blickbereich liegt, kann hierdurch eine Irritation des Fahrers durch eine Darstellung von in der Realität nicht sichtbaren Objekten auf der Anzeigeeinheit gemieden werden. Zusätzlich oder alternativ kann auch durch die Markierung der außerhalb des Blickbereichs liegenden Informationen oder Daten der Navigationsdaten den Fahrer signalisiert werden, dass diese Wegabschnitte, Objekte oder dergleichen zwar vorhanden aber aktuell nicht sichtbar sind. Auch dies dient zur deutlichen Erleichterung der Orientierungsmöglichkeit des Fahrers in der konkreten Fahrzeugumgebung anhand der in der Navigationsinformation enthaltenen Informationen.
  • Gemäß einer weiteren Ausführungsform des hier vorgeschlagenen Ansatzes kann im Schritt des Einlesens eine Perspektiveninformation eingelesen werden, die einen Blickwinkel des Fahrers auf die Umgebung des Fahrzeugs in Fahrtrichtung repräsentiert, wobei die Umgebungsdaten und/oder die Navigationsdaten unter Verwendung der Perspektiveninformation miteinander verknüpft werden, insbesondere wobei eine Orientierung der Umgebungsdaten und/oder der Navigationsdaten unter Verwendung der Perspektiveninformation verändert wird. Eine solche Perspektiveninformation kann beispielsweise durch einen Blickwinkelbereich eines Blickwinkels des Fahrers in Fahrtrichtung repräsentiert sein. Wird nun die Navigationsinformation unter Verwendung der Perspektiveninformation erstellt, kann hierdurch auch eine perspektivische Angleichung der Darstellung der Umgebung in der Navigationsinformation in Bezug auf die tatsächliche Umgebung das Fahrzeug erfolgen. Dies ermöglicht ebenfalls eine erleichterte Orientierung des Fahrers anhand der Navigationsinformation.
  • Besonders einfach kann der Fahrer anhand der Navigationsinformation das Ende der Fahrtroute erkennen, wenn im Schritt des Verknüpfens ein Zielpunkt in der Navigationsinformation zur Ausgabe markiert wird.
  • In einigen Situationen kann ein Szenario auftreten, in der ein Wegabschnitt zwischen dem Startpunkt und dem Zielpunkt nicht mit dem Fahrzeug befahren werden kann. In solchen Situationen erweist sich eine weitere Ausführungsform des hier vorgestellten Ansatzes besonders vorteilhaft, in welcher im Schritt des Einlesens in den Navigationsdaten zumindest ein Wegabschnitt zwischen dem Startpunkt und dem Zielpunkt als nicht mit dem Fahrzeug befahrbar erkannt wird, wobei im Schritt des Verknüpfens für den als nicht mit dem Fahrzeug befahrbar erkannten Wegabschnitt ein als nicht mit dem Fahrzeug befahrbar markierter Weg in der Navigationsinformation abgelegt wird. Beispielsweise kann ein solcher Wegabschnitt als Fußweg ausgeführt sein. Eine solche Ausführungsform des hier vorgeschlagenen Ansatzes weist den Fahrer des Fahrzeugs frühzeitig darauf hin, dass das Fahrzeug in Kürze abgestellt werden sollte und somit eine Parkplatzsuche durch den Fahrer begonnen werden sollte.
  • Denkbar ist weiterhin eine Ausführungsform des hier vorgeschlagenen Ansatzes, bei der im Schritt des Einlesens ferner Positionsdaten eingelesen werden, die die aktuelle Position des Fahrzeugs repräsentieren, und wobei im Schritt des Verknüpfens die Navigationsinformation unter Verwendung der Positionsdaten erstellt wird, insbesondere wobei die Positionsdaten auf einer Auswertung von Satellitennavigationssystemsignalen basieren. Eine solche Ausführungsform bietet den Vorteil einer besonders schnellen und zuverlässigen Möglichkeit zur Bestimmung der aktuellen Position des Fahrzeugs, sodass eine präzise Erfassung der aktuellen Position des Fahrzeugs in der digitalen Karte möglich ist und somit auch Versätze beim Einbetten der Umgebungsdaten in die Navigationsdaten vermieden werden können, welche anderenfalls Irritationen beim Fahrer des Fahrzeugs hervorrufen könnten.
  • Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.
  • Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
  • Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EEPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.
  • Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
  • Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
  • Ausführungsbeispiele des hier vorgestellten Ansatzes sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
    • 1 eine schematische Darstellung eines Fahrzeugs, welches eine Vorrichtung gemäß einem Ausführungsbeispiel des hier vorgestellten Ansatzes aufweist;
    • 2 ein Ablaufdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel des hier vorgestellten Ansatzes;
    • 3A eine Darstellung, wie die Navigationsinformation beispielsweise auf der Anzeigeeinheit ausgegeben werden kann;
    • 3B eine vergrößerte Darstellung des Abbilds der Navigationsinformation aus der in 3A;
    • 3C ebenfalls eine vergrößerte Darstellung des abbildet der Navigationsinformation aus der 3A; und
    • 3D eine Darstellung der Navigationsinformation, in der eine Zielanzeige eingetragen ist.
  • In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • 1 zeigt eine schematische Darstellung eines Fahrzeugs 100, welches eine Vorrichtung 105 gemäß einem Ausführungsbeispiel des hier vorgestellten Ansatzes aufweist. Die Vorrichtung 105 umfasst hierbei eine Schnittstelle 110 zum Einlesen von Navigationsdaten 115 und zum Einlesen von Umgebungsdaten 120. Die Navigationsdaten umfassen beispielsweise Daten 125 aus einer digitalen Karte 130, wobei diese Daten zumindest teilweise einen Weg von einem Startpunkt zu einem Zielpunkt abbilden, welche über eine separate Eingabeeinheit 135, beispielsweise ein Benutzerterminal zur Eingabe von Routendaten, von einem Fahrer 140 des Fahrzeugs 100 ausgewählt werden können. Die Umgebungsdaten 120 repräsentieren beispielsweise Daten eines optischen Bildsensors wie der Kamera 145, die ein Abbild der Umgebung 150 des Fahrzeugs 100 an der aktuellen geographischen Position des Fahrzeugs 100 abbilden. In einem solchen Abbild der Umgebung 150 sind dann beispielsweise Häuser 152 oder Bäume 153 in ihrer jeweiligen räumlichen Anordnung zueinander abgebildet. Eine aktuelle geographische Position des Fahrzeugs 100 kann beispielsweise unter Verwendung von einer Satellitennavigationssystemantenne 155 empfangenen Satellitennavigationssystemsignalen 160 von einem Satellitennavigationssystem 165, beispielsweise des GPS-Systems, ermittelt werden. Die geographische Position des Fahrzeugs 100 kann hierbei beispielsweise als (separater) Teil der Navigationsdaten 115 über die Schnittstelle 110 eingelesen werden.
  • Die Navigationsdaten 115 sowie die Umgebungsdaten 120 werden nachfolgend zu einer Einheit 170 zum Verknüpfen übertragen, in welcher die Navigationsdaten 115 mit den Umgebungsdaten 120 fusioniert werden, um die Navigationsinformation 175 zu erstellen. Die Navigationsinformation 175 kann dann beispielsweise an eine Anzeigeeinheit 180 übertragen und dort angezeigt werden. Die Navigationsinformation 175 ist beispielsweise so ausgestaltet, dass bei einer Anzeige derselben auf der Anzeigeeinheit 180 sowohl ein Teilbereich der Navigationsdaten 115, insbesondere als Darstellung der digitalen Karte mit einer Markierung zumindest eines Teils einer Route von dem Startpunkt zum Zielpunkt als auch das optische Abbild aus der Umgebung 150 des Fahrzeugs 100 auf der Anzeigeeinheit 180 wiedergegeben wird. Hierdurch wird dem Fahrer 140 des Fahrzeugs 100 die Orientierung auf der Abbildung der Anzeigeeinheit 180 gegenüber der realen Umgebung 150 des Fahrzeugs 100 deutlich erleichtert, da er beispielsweise die Bäume 153 oder Häuser 152 an Orten erkennen kann, die er beim Blick durch ein Fenster des Fahrzeugs 100 auch in der realen Umgebung 150 des Fahrzeugs 100 sieht. Der Fahrer 140 des Fahrzeugs 100 kann somit schnell die Informationen bezüglich der gewählten Route bzw. dem Weg vom Startpunkt zum Zielpunkt aus den Navigationsdaten 115 erkennen. Auf diese Weise lässt sich eine deutliche Vereinfachung und somit der Komfort für den Fahrer 140 des Fahrzeugs 100 bei der Benutzung der auf der Anzeigeeinheit 180 dargestellten Navigationsinformation 175 erreichen, was ebenfalls zu einer Verbesserung der Verkehrssicherheit in der Umgebung 150 des Fahrzeugs 100 führt.
  • 2 zeigt ein Ausführungsbeispiel eines Verfahrens 200 zum Erstellen der Navigationsinformation 175. Hierbei werden wiederum die Navigationsdaten 115 sowie die Umgebungsdaten 120 (nun beispielsweise als Fahrzeugdaten inklusive eines Umgebungsmodells unter Verwendung der Bilddaten aus der Kamera 145) in einem Schritt 210 des Einlesens eingelesen und in einem weiteren Schritt 220 des Verknüpfens zur Navigationsinformation 175 verknüpft. Im Schritt 220 des Verknüpfens kann beispielsweise in einem Teilschritt 230 eine Berechnung einer perspektivisch korrigierten Navigationsroute erfolgen, in welcher beispielsweise eine Blickrichtung des Fahrers 140 des Fahrzeugs 100 berücksichtigt ist, sodass die Objekte wie beispielsweise die Häuser 152 oder Bäume 153 auch auf der Anzeigeeinheit 180 aus dem gleichen Blickwinkel bzw. aus der gleichen Blickrichtung des Fahrers 140 angezeigt werden, wie er dies bei einem Blick aus dem Fenster des Fahrzeugs 100 ebenfalls in der Umgebung 150 des Fahrzeugs 100 erkennen würde. Bei Bedarf (d.h. optional) kann ferner ein weiterer Teilschritt 240 im Schritt 220 des Verknüpfens ausgeführt werden, in welcher ebenfalls eine perspektivisch korrekte Darstellung des Ziels der vom Fahrer 140 beabsichtigten zu fahrenden Route angezeigt wird. Auf diese Weise kann ebenfalls die Orientierung des Fahrers beim Blick auf die Anzeigeeinheit 180 gegenüber der durch ein Fenster des Fahrzeugs 100 erkennbaren Umgebung 150 erleichtert werden. Schließlich kann in einem weiteren Schritt 250 des Verfahrens 200 ein Anzeigen der Navigationsinformation 175 in der Form einer virtuellen Umgebung auf der Anzeigeeinheit 180 erfolgen, wobei diese Anzeigeeinheit 180 entweder als separates Display im Fahrzeug 100 ausgebildet ist oder auch als Sichtfeldanzeige oder Blickfeldanzeige durch ein Spiegelung von Daten auf einen Innenbereich einer Windschutzscheibe des Fahrzeugs 100 realisiert sein kann.
  • 3A zeigt eine Darstellung, wie die Navigationsinformation 175 beispielsweise auf der Anzeigeeinheit 180 ausgegeben werden kann. Hierbei ist erkennbar, dass die Navigationsinformation 175 Daten zur Visualisierung der Fahrzeugumgebung als auch eine eingezeichnete Navigationsroute 300 abbildet, wobei die Navigationsroute 300 einen Teilabschnitt eines von einem vom Fahrer 140 eingegebenen Wegs zwischen einem Startpunkt und einem Zielpunkt abbildet. Das Fahrzeug 100 wird ferner in einer Art „Halbkugel“ 310 dargestellt, in welcher die Umgebungsdaten 120 als optisches Abbild der Umgebung 150 des Fahrzeugs 100 dargestellt sind, und aus welchen der Fahrer 140 die Objekte wie die Häuser 152 und/oder Bäume 153 an den jeweiligen (realen) Positionen in der Umgebung 150 des Fahrzeugs 100 identifizieren und/oder verifizieren kann. Dies erleichtert ihm die Orientierung beim Blick auf die Anzeigeeinheit 180 im Vergleich zum Blick aus dem Fenster des Fahrzeugs 100.
  • 3B zeigt eine vergrößerte Darstellung des Abbilds der Navigationsinformation 175 aus der in Figur 3A, wobei insbesondere der Bereich um die „Halbkugel“ 310 vergrößert dargestellt ist.
  • 3C zeigt ebenfalls eine vergrößerte Darstellung der Navigationsinformation 175 aus der Figur 3A, wobei ebenfalls der Bereich um die „Halbkugel“ 310 vergrößert dargestellt ist, nun jedoch eine andere Perspektive ausgewählt wurde.
  • Aus den Darstellungen der 3A, 3B und 3C ist erkennbar, dass insbesondere in den „Halbkugeln“ 310 die Umgebungsdaten 120 in der Navigationsinformation 175 eingebettet und erkennbar sind, sodass der Fahrer 140 sich anhand dieser in den „Halbkugeln“ 310 dargestellten Informationen der Umgebungsdaten 120 als optisches Abbild der Umgebung 150 um das Fahrzeug 100 schnell orientieren kann.
  • 3D zeigt eine Darstellung der Navigationsinformation 175, in der eine Zielanzeige 350 eingetragen ist, die beispielsweise aus den Navigationsdaten 115 entnommen ist und wobei nun ein sehr großer Bereich der auf der Anzeigeeinheit 180 dargestellten Navigationsinformation 175 durch das optische Abbild der Umgebung 150 des Fahrzeugs 100 aus den Umgebungsdaten 120 dargestellt ist. Eine solches Szenario insbesondere im Zielbereich der gewünschten Fahrtroute hilfreich, beispielsweise wenn eine Auswahl von Abzweigungen an Straßenkreuzungen nicht mehr zu treffen ist und lediglich noch ein Parkplatz für das Abstellen des Fahrzeugs 100 durch den Fahrer 140 gesucht wird.
  • Zusammenfassend ist daher anzumerken, dass für eine aus der Navigation berechnete Route diese unter Bezugnahme auf das Fahrzeugreferenzsystem (wie beispielsweise die aktuelle geografische Position) sowie der Umgebungsvisualisierung (günstigerweise aus den Umgebungsdaten 120) beispielsweise perspektivisch korrekt und damit für den Fahrer 140 sehr einfach erfassbar ist und in diese eingezeichnet wird, sodass eine auf der Anzeigeeinheit 180 anzeigbare Navigationsinformation 175 erstellt wird. Darüber hinaus wird das Ziel 350 beispielsweise entsprechend der Sichtbarkeit in der Umgebungsvisualisierung (d. h. der Navigationsinformation 175) markiert. Dem Fahrer 140 wird somit beispielsweise in die videobasierte Umgebungsvisualisierung (d. h. der Navigationsinformation 175) eine perspektivisch korrekte Route und Ziel präsentiert. Diese Kombination aus Live-Bildern der Umgebung aus den Umgebungsdaten 120 und Ziel-/Richtungs-/Routeninformationen aus den Navigationsdaten 140 erlauben dem Fahrer 140, sich sofort zu orientieren und den gewünschten Weg einzuschlagen.
  • Speziell kann in der durch die Navigationsinformation 175 anzeigbaren virtuellen Ansicht auf der Basis von Kartendaten und Kamerabildern dem Fahrer 140 die Fahrzeugumgebung 150 visualisiert werden. Diese wird zum einen beispielsweise als 3D-Karte als auch als Surroundview-Geometrie mit projizierten Kamerabildern aus den Umgebungsdaten 120 dargestellt.
  • Ferner kann auch eine projizierte Navigationsroute mittels eines Umgebungsmodells und/oder bildverarbeitenden Methoden die Navigationsroute in aus Fahrzeugperspektive einsehbaren und nicht einsehbaren Teil unterteilt werden. Dies kann durch die Ermittlung eines Blickbereichs realisiert werden, der angibt, bis zu welchem Bereich ein Fahrer 140 des Fahrzeugs 100 in der Umgebung 150 tatsächlich sehen kann. Die Größe des Bereichs der Halbkugel310 wird dann in den Navigationsinformation 175 entsprechend dimensioniert.
  • Auch kann in den Navigationsdaten 175 hinterlegt sein, ob aus der perspektivisch korrekten Anzeige der Navigationsroute in der Umgebungsvisualisierung schließbar ist, welche Richtung unmittelbar anzupeilen ist und ob sich das Ziel bereits in Sichtweite befindet. In diesem Zusammenhang kann beispielsweise eine Möglichkeit zur Anzeige der nichteinsehbaren Routenteile bzw. Ziels vorgesehen sein, z.B. in dem eine Abschattung, Halbtransparenz, oder Einfärbung der nicht direkt vom Fahrer 140 sichtbaren Bereiche bei der Ausgabe/Anzeige der Navigationsinformation 175 entsprechend vorgenommen wird.
  • Wenn das Ziel nicht per Fahrzeug erreichbar ist bzw. das Fahrzeug abgestellt wird (Parkplatz, etc.) wird die Route zum Ziel automatisch als Fußweg eingezeichnet bzw. in der Navigationsinformation 175 markiert. Bei größerer Entfernung zum Ziel können auch automatisch andere Verkehrsmittel einbezogen werden, d. h. die kürzeste Route zur nächsten Haltestelle mit weiteren Verbindungen.
  • Ein vorteilhaftes Ausführungsbeispiel des hier vorgestellten Ansatzes kann die Ermittlung der Navigationsroute aus bestehenden Navigationsverfahren umfassen. Hierbei kann eine Bestimmung der Fahrzeugposition und - ausrichtung aus Satellitennavigationssignalen 160 wie beispielsweise GPS-Signalen, Odometrie-Signalen und evtl. durch am Fahrzeug verbrachte Sensoren (Bildverarbeitungsverfahren, ...) erfolgen. Auch kann ein Abspeichern der beim Parken eingenommenen Position und Orientierung des Fahrzeugs 100 erfolgen. Eine Ermittlung der von der Fahrzeugposition direkt einsehbaren sowie nicht einsehbaren Teile der Route kann ebenfalls unter Verwendung der Umgebungsdaten 120 und/oder der Navigationsdaten 115 erfolgen. Zur Ermittlung der Navigationsinformation 175 kann gemäß einem Ausführungsbeispiel ein perspektivisch korrektes Übereinanderlegen von SurroundView-Darstellung (beispielsweise aus den Umgebungsdaten 120) sowie der Navigationsroute (beispielsweise aus den Navigationsdaten 115) erfolgen. Dabei kann beispielsweise eine visuell unterschiedliche Kennzeichnung der verdeckten Teile der Navigationsroute bzw. Ziels, z.B. durch Darstellung einer Abschattung vorgenommen werden.
  • Das vorgeschlagene Verfahren unterstützt beispielsweise den Fahrer beim Rangieren, Navigieren und Anpeilen von Zielen sowie bessere Einordnung der unmittelbar folgenden Route in der Umgebung. Dabei ist dies in vielen Fahrsituationen anwendbar, wie z. B. Verlassen eines Parkplatzes. Weitere Beispiele für den Einsatz eines Ausführungsbeispiels des hier vorgestellten Verfahrens sind die Anzeige einer unmittelbar folgenden Fußgängerroute inkl. Ziel im Umgebungsmodell.
  • Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.

Claims (11)

  1. Verfahren (200) zum Erstellen einer Navigationsinformation (175) zur Führung eines Fahrers (140) eines Fahrzeugs (100), wobei das Verfahren (200) die folgenden Schritte aufweist: - Einlesen (210) von Navigationsdaten (115) und von Umgebungsdaten (120), wobei die Navigationsdaten (115) Daten aus einer digitalen Karte (130) repräsentieren, die zumindest teilweise einen Weg von einem Startpunkt zu einem Zielpunkt abbilden und wobei die Umgebungsdaten (120) Daten eines optischen Bildsensors (145) repräsentieren, die die Umgebung des Fahrzeugs (100) an der aktuellen geografischen Position des Fahrzeugs (100) abbilden; und - Verknüpfen (220) der Navigationsdaten (115) und der Umgebungsdaten (120), um die Navigationsinformation (175) zur Ausgabe an den Fahrer (140) zu erstellen.
  2. Verfahren (200) gemäß Anspruch 1, dadurch gekennzeichnet, dass im Schritt des Verknüpfens (220) die Navigationsdaten (115) und die Umgebungsdaten (120) zu Bilddaten fusioniert werden, die auf einer Anzeigeeinheit (180) des Fahrzeugs (100) darstellbar sind.
  3. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Einlesens (210) eine erfasste aktuelle geografische Fahrtrichtung des Fahrzeugs (100) eingelesen wird, wobei im Schritt des Verknüpfens (220) eine geografische Orientierung der Navigationsdaten (115) und/oder der Umgebungsdaten (120) in Abhängigkeit von der geografischen Fahrtrichtung verändert wird.
  4. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Einlesens (210) ferner ein Blickbereich aus den Navigationsdaten (115) und/oder den Umgebungsdaten (120) ermittelt wird, wobei der Blickbereich einen Bereich der Umgebung des Fahrzeugs (100) repräsentiert, der durch einen Fahrer (140) des Fahrzeugs (100) optisch erfassbar ist, und wobei im Schritt des Verknüpfens (220) die Navigationsdaten (115) und die Umgebungsdaten (120) unter Verwendung des Blickbereichs verknüpft werden, insbesondere wobei die Umgebungsdaten (120) in der Navigationsinformation (175) nur in einen Bereich eingebettet werden, der einen innerhalb des Blickbereichs liegenden Bereich der Navigationsdaten (115) repräsentiert und/oder wobei in der Navigationsinformation (175) ein Teilbereich markiert ist, der einen außerhalb des Blickbereichs liegenden Bereich der Navigationsdaten (115).
  5. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Einlesens (210) eine Perspektiveninformation eingelesen wird, die einen Blickwinkel des Fahrers (140) auf die Umgebung des Fahrzeugs (100) repräsentiert, wobei die Umgebungsdaten (120) und/oder die Navigationsdaten (115) unter Verwendung der Perspektiveninformation miteinander verknüpft werden, insbesondere wobei eine Orientierung der Umgebungsdaten (120) und/oder der Navigationsdaten (115) unter Verwendung der Perspektiveninformation verändert wird.
  6. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Verknüpfens (220) ein Zielpunkt (350) zur Ausgabe in der Navigationsinformation (175) markiert wird.
  7. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Einlesens (210) in den Navigationsdaten (115) zumindest ein Wegabschnitt zwischen dem Startpunkt und dem Zielpunkt als nicht mit dem Fahrzeug (100) befahrbar erkannt wird, wobei im Schritt des Verknüpfens (220) für den als nicht mit dem Fahrzeug (100) befahrbar erkannten Wegabschnitt ein als nicht mit dem Fahrzeug (100) befahrbar markierter Weg in der Navigationsinformation (175) abgelegt wird.
  8. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Einlesens (210) ferner Positionsdaten eingelesen werden, die die aktuelle Position des Fahrzeugs (100) repräsentieren, und wobei im Schritt des Verknüpfens (220) die Navigationsinformation (175) unter Verwendung der Positionsdaten erstellt wird, insbesondere wobei die Positionsdaten auf einer Auswertung von Satellitennavigationssystemsignalen (160) basieren.
  9. Vorrichtung (105), die eingerichtet ist, um Schritte des Verfahrens (200) gemäß einem der vorangegangenen Ansprüche in entsprechenden Einheiten (110, 170) auszuführen.
  10. Computerprogramm, das dazu eingerichtet ist, das Verfahren (200) gemäß einem der vorangegangenen Ansprüche auszuführen.
  11. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 10 gespeichert ist.
DE102017204567.1A 2017-03-20 2017-03-20 Verfahren und Vorrichtung zum Erstellen einer Navigationsinformation zur Führung eines Fahrers eines Fahrzeugs Pending DE102017204567A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017204567.1A DE102017204567A1 (de) 2017-03-20 2017-03-20 Verfahren und Vorrichtung zum Erstellen einer Navigationsinformation zur Führung eines Fahrers eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017204567.1A DE102017204567A1 (de) 2017-03-20 2017-03-20 Verfahren und Vorrichtung zum Erstellen einer Navigationsinformation zur Führung eines Fahrers eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102017204567A1 true DE102017204567A1 (de) 2018-09-20

Family

ID=63372035

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017204567.1A Pending DE102017204567A1 (de) 2017-03-20 2017-03-20 Verfahren und Vorrichtung zum Erstellen einer Navigationsinformation zur Führung eines Fahrers eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102017204567A1 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10037573A1 (de) 2000-08-02 2002-02-21 Bosch Gmbh Robert Navigationsverfahren in einem Kraftfahrzeug
DE10138719A1 (de) 2001-08-07 2003-03-06 Siemens Ag Verfahren und Vorrichtung zur Darstellung von Fahrhinweisen, insbesondere in Auto-Navigationssystemen
DE102006008703A1 (de) 2005-03-02 2006-09-07 Denso Corp., Kariya Fahrunterstützungssystem und Navigationssystem für ein Fahrzeug
DE202005021607U1 (de) 2005-06-06 2008-11-20 Tomtom International B.V. Navigationsvorrichtung mit Kamerainformation
DE112008003424T5 (de) 2007-12-28 2010-10-07 Mitsubishi Electric Corp. Navigationsgerät
DE102009045024A1 (de) 2009-09-25 2011-03-31 Robert Bosch Gmbh Verfahren zum Navigieren eines Verkehrsteilnehmers mit einem Kraftfahrzeug zu einem gewünschten Zielpunkt
DE102012020568A1 (de) 2012-10-19 2014-04-24 Audi Ag Verfahren zum Betreiben einer Navigationseinrichtung und zur Erfassung einer wahrnehmbaren Umwelt

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10037573A1 (de) 2000-08-02 2002-02-21 Bosch Gmbh Robert Navigationsverfahren in einem Kraftfahrzeug
DE10138719A1 (de) 2001-08-07 2003-03-06 Siemens Ag Verfahren und Vorrichtung zur Darstellung von Fahrhinweisen, insbesondere in Auto-Navigationssystemen
DE102006008703A1 (de) 2005-03-02 2006-09-07 Denso Corp., Kariya Fahrunterstützungssystem und Navigationssystem für ein Fahrzeug
DE202005021607U1 (de) 2005-06-06 2008-11-20 Tomtom International B.V. Navigationsvorrichtung mit Kamerainformation
DE112008003424T5 (de) 2007-12-28 2010-10-07 Mitsubishi Electric Corp. Navigationsgerät
DE102009045024A1 (de) 2009-09-25 2011-03-31 Robert Bosch Gmbh Verfahren zum Navigieren eines Verkehrsteilnehmers mit einem Kraftfahrzeug zu einem gewünschten Zielpunkt
DE102012020568A1 (de) 2012-10-19 2014-04-24 Audi Ag Verfahren zum Betreiben einer Navigationseinrichtung und zur Erfassung einer wahrnehmbaren Umwelt

Similar Documents

Publication Publication Date Title
DE112008003424B4 (de) Navigationsgerät, das Videobilder einer Kamera verwendet
DE102011084993A1 (de) Übernahme von Daten aus bilddatenbasierenden Kartendiensten in ein Assistenzsystem
DE102010042063A1 (de) Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs
WO2012152475A1 (de) Verfahren und vorrichtung zur kalibrierung einer projektionseinrichtung eines fahrzeugs
DE102012200731A1 (de) Verfahren und Vorrichtung zum Visualisieren der Umgebung eines Fahrzeugs
DE102010003851A1 (de) Verfahren und Informationssystem zum Markieren eines Zielorts für ein Fahrzeug
DE112018004519T5 (de) Anzeigevorrichtung eines überlagerten Bildes und Computerprogramm
WO2009059832A1 (de) Verfahren und vorrichtung zur ausgabe von optischen fahrempfehlungen in einem fahrzeug
DE102017217923A1 (de) Verfahren zum Betrieb einer Anzeigeeinrichtung in einem Kraftfahrzeug
DE102014119317A1 (de) Verfahren zur Darstellung eines Bildüberlagerungselements in einem Bild mit 3D-Information, Fahrerassistenzsystem und Kraftfahrzeug
DE102017216775A1 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-Up-Display-Vorrichtung für ein Kraftfahrzeug
EP2813999B1 (de) Augmented-Reality-System und Verfahren zum Erzeugen und Anzeigen von Augmented-Reality-Objektdarstellungen für ein Fahrzeug
DE102015222844A1 (de) Verfahren und Steuergerät zum Betreiben eines Sichtfeldanzeigegeräts für ein Fahrzeug
DE10137582B4 (de) Bildverarbeitungsvorrichtung für ein Fahrzeug und Verfahren zum Betrieb einer Bildverarbeitungsvorrichtung
DE102009028644A1 (de) Verfahren zum Navigieren eines Fahrzeuges
DE102020004215A1 (de) Verfahren zur Darstellung einer Verkehrssituation in einem Fahrzeug
DE102011084596A1 (de) Verfahren zum Assistieren eines Fahrers in einer fremden Umgebung
EP2145157A1 (de) Verfahren zur anzeige von videobildern und videosystem
DE102017204567A1 (de) Verfahren und Vorrichtung zum Erstellen einer Navigationsinformation zur Führung eines Fahrers eines Fahrzeugs
DE102018204409A1 (de) Verfahren zum Anzeigen von den Betrieb eines Fahrzeugs betreffende Informationen und Anzeigesystem
DE102015113251A1 (de) System und verfahren zum eingeben eines beabsichtigten rückwärtsfahrwegs
DE102018121274A1 (de) Verfahren zum Visualisieren einer Fahrabsicht, Computerprogrammprodukt und Visualisierungssystem
EP2943750B1 (de) Navigationsvorrichtung für ein fahrzeug und verfahren zur erzeugung eines anzeigesignals für eine navigationsvorrichtung für ein fahrzeug
DE102017011418A1 (de) Verfahren und Vorrichtung zum Anzeigen eines virtuellen Objekts
DE112016006725T5 (de) Bildanzeigevorrichtung, bildanzeigeverfahren und bildanzeigeprogramm

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication