WO2021139941A1 - Verfahren und vorrichtung zur darstellung von virtuellen navigationselementen - Google Patents

Verfahren und vorrichtung zur darstellung von virtuellen navigationselementen Download PDF

Info

Publication number
WO2021139941A1
WO2021139941A1 PCT/EP2020/085009 EP2020085009W WO2021139941A1 WO 2021139941 A1 WO2021139941 A1 WO 2021139941A1 EP 2020085009 W EP2020085009 W EP 2020085009W WO 2021139941 A1 WO2021139941 A1 WO 2021139941A1
Authority
WO
WIPO (PCT)
Prior art keywords
navigation
picture element
navigation system
real environment
virtual
Prior art date
Application number
PCT/EP2020/085009
Other languages
English (en)
French (fr)
Inventor
Robert Jan Wyszka
Daniel Morales Fernández
Adrian HAAR
Michael Wittkämper
Original Assignee
Volkswagen Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen Aktiengesellschaft filed Critical Volkswagen Aktiengesellschaft
Priority to EP20821178.9A priority Critical patent/EP4073470A1/de
Priority to CN202080091966.4A priority patent/CN114867992A/zh
Publication of WO2021139941A1 publication Critical patent/WO2021139941A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3632Guidance using simplified or iconic instructions, e.g. using arrows

Definitions

  • the present invention relates to a method and a device for displaying virtual navigation elements.
  • Navigation devices that assist a user in navigating from his current location to a desired destination have been known for many years.
  • the position of the navigation device is recorded by means of satellite-controlled position determination and the route to the desired destination is determined by means of map data.
  • Such navigation devices usually have a display on which a map with the position of the device and the route determined are displayed.
  • acoustic or visual indications can be issued about the direction currently to be observed or to be changed.
  • Directional arrows and the like are particularly widespread for visual direction information.
  • Such navigation devices are available for the most varied types of locomotion.
  • navigation devices are often integrated into the infotainment system of motor vehicles.
  • HUDs head-up displays
  • the navigation information should be visible to the driver without having to take his eyes off the road, but the exact placement of the navigation information does not yet have any direct relation to the surroundings perceived by the driver.
  • German patent application DE 102014001 710 A1 describes a device for the augmented display of a virtual image object in a real environment of a vehicle, in which two partial images of the virtual image object to be displayed are projected onto a vehicle window using a HUD in such a way that the user perceives a virtual depth image that appears to be outside the vehicle behind the window in the real environment.
  • the virtual image object is to be introduced into the real environment with a precise fit, so that the driver is given the impression that a perceived real object is being marked directly.
  • German patent application DE 102015006640 A1 describes the display of augmented navigation elements by a head-up display system which comprises contact-analog navigation elements and direction-analog navigation elements.
  • contact-analog navigation elements are understood to mean stationarily projected components of the environment that can be localized in the visible vehicle environment.
  • the contact-like navigation elements are displayed when the object can be augmented in the context of the specific driving situation.
  • direction-analog navigation elements are not assigned to a specific position in the perceptible environment, but merely indicate the next change in direction to be made, even if the corresponding maneuver point cannot yet be augmented.
  • the German patent application DE 102014219567 A1 describes a system for three-dimensional navigation in which graphic elements are projected onto an HUD in different focal planes.
  • a graphic element avatar
  • the graphic element can be animated as a moving avatar. This makes it possible, for example, for the avatar in the user's field of vision to move from the current street into the street to be moved during the change of direction when there is an imminent change of direction and thus to indicate the imminent change of direction more clearly than just by a mere direction arrow.
  • the known methods and devices it is possible to display virtual image objects, for example navigation instructions, in the sense of augmented reality (AR) in the field of vision of a user, such as the driver of a motor vehicle, and also to output additional information, for example warnings about objects on the Road surface or road damage.
  • virtual navigation elements are only image objects whose properties result from the route data supplied by the navigation system.
  • the previously known navigation representations lack a direct link between the image elements that is understandable for the user, in particular the visual impression of the image elements, with the real environment.
  • the user will therefore always perceive the virtual navigation elements as a foreign body in the field of vision, the data of which is supplied by a technical system that is not correlated with his own perception. In the case of pure navigation systems, this may not yet represent a major problem, because ultimately the authority to act in the sense of implementing the navigation instructions remains with the driver. With the increasing degree of autonomy of future vehicle generations, this decoupling of the personal perception of users and autonomous decisions of vehicle systems can lead to a trust problem.
  • the autonomy of the vehicle in road traffic is classified into five levels, from the so-called level 0 (all driving functions are performed by the driver), through level 1 (simple assistance systems such as distance control systems), level 2 (semi-autonomous driving with more complex assistance systems, such as lane departure warning, traffic jam assistant, automatic parking aid), level 3 (highly autonomous driving with an assistance system that can independently carry out overtaking processes and turning maneuvers with lane changes), level 4 (fully automatic driving, with a driver still available who can take control in an emergency) up to level 5 (fully automatic driving without a driver). From level 3 at the latest, at least part of the responsibility for controlling the vehicle is taken over at least temporarily by a computer-controlled system, which can lead to uncertainty for the user.
  • the present invention is therefore based on the technical problem of providing a method and a device for displaying virtual navigation elements which give the user a better understanding of the displays and recommendations for action of the Navigation system allows.
  • the method according to the invention and the device according to the invention are intended to create possibilities for displaying vehicle behavior calculated from navigation data and possibly additional sensor data at an early stage in an intuitive manner.
  • the invention therefore relates to a method for displaying virtual navigation elements, whereby at least one virtual navigation element is generated from data from a navigation system and displayed on a display device in overlay with a real environment, the method according to the invention being characterized in that the virtual navigation element is a primary image element and comprises a secondary picture element, the secondary picture element being displayed in a changeable manner as a function of at least one parameter of the real environment.
  • the invention is therefore based on the idea of dividing the display of navigation elements into at least two picture elements, a first primary picture element being animated essentially on the basis of navigation data and therefore, for example, being able to correspond to conventional navigation elements such as directional arrows or moving avatars.
  • the display of the primary picture element is therefore primarily influenced by navigation data. For example, if the primary image element is animated as a three-dimensional arrow, a change in direction can be displayed by rotating / tilting the arrow.
  • the primary image element can also be animated dynamically, for example to indicate the form in which a lane or direction change is to be carried out.
  • At least one further, secondary image element is assigned to the primary image element of a navigation element, the display of which is changed as a function of at least one parameter of the real environment.
  • This at least one parameter is an additional parameter that goes beyond the information used to represent the primary picture element.
  • the parameters that are used to display the secondary image element preferably come from data that describe the interaction of the navigation system with its surroundings, in particular the influence of the surroundings on the navigation system or on the vehicle in which the Navigation system is built in.
  • sensors that communicate with the navigation system can be used, for example. In the case of a motor vehicle, for example, any sensors installed in modern vehicles can be evaluated.
  • the change in the secondary picture element indicates, so to speak, the interaction of the primary picture element with the real environment.
  • a connection of the primary picture element, which represents the user or the vehicle, to the real environment is symbolized.
  • the user can better view the displays and recommendations for action of the navigation system or autonomous or partially autonomous vehicle actions derived from them Understand what causes the user to trust the technical system more, especially with increasing autonomy of vehicles. Especially when the system provides predictive information on upcoming vehicle actions based on changes in the secondary image element, vehicle actions that are surprising or incomprehensible to the user are reduced, which also increases confidence in an autonomous or semi-autonomous vehicle operation.
  • the interaction of the primary picture element with the real environment, which is graphically represented by changing the secondary picture element, can be modified by the most varied of factors.
  • the primary picture element can be a picture element that is animated to move along the navigation route.
  • the secondary picture element can be used, for example, to link movement information with the primary picture element, for example the secondary picture element can be an elongated picture element attached to the primary picture element, the length of which shows information on the speed of the primary picture element.
  • the user recognizes, for example by changing the length of the secondary picture element, that the navigation system recommends a change in the vehicle speed, or in the case of an autonomous system, the user recognizes that the vehicle is about to make a corresponding change in speed.
  • information about the current accuracy of the position determination of the navigation system, possible dangerous situations and the like can also flow into the representation of the secondary image element.
  • additional sensor data available depending on the application such as camera data, radar data, sonar data, LIDAR data, can be used.
  • the primary picture element is represented as a non-transparent graphic symbol, for example as a two- or three-dimensional animated arrow symbol.
  • Non-transparent means that it is preferably shown as a filled symbol so that the real environment does not or only insignificantly shine through.
  • the secondary picture element is represented as a graphic network connected to the primary picture element, between the meshes of which the real environment can be recognized.
  • this network representation already represents a link between the primary image element and the environment, since the network is to a certain extent superimposed on the environment and thus already a link to the technical system (navigation system based on the selected representation) ) symbolized with the influences of the environment, which increases the user's trust in the system.
  • the graphical network is constructed from triangles connected at their corner points. By changing the size of the triangles, different interactions with the environment can be symbolized, for example higher accuracies of sensor data through a denser network or also differently important areas of the interaction of the primary image element with the environment through more or less dense sections of the network.
  • the user can be signaled, for example, that a prompt to take over the vehicle in manual operation can be expected due to the deteriorated sensor data. If such a request is then actually triggered, for example in the context of a more complex traffic situation that can no longer be controlled autonomously with the deteriorated sensor data, at least the element of surprise is reduced for the user.
  • the secondary picture element has a variable length in order, for example, to symbolize different speeds. The network can also disappear entirely if, for example, it is necessary to stop the vehicle.
  • the secondary picture element has a changeable color, for example to symbolize dangerous situations such as potholes, black ice, aquaplaning or objects on the roadway.
  • the invention also relates to a navigation system which comprises means for generating at least one virtual navigation element and a display device for displaying the virtual navigation element superimposed on a real environment, the navigation system having means for performing the method according to the invention.
  • the navigation system can be, for example, a navigation system integrated into a driver information system of a motor vehicle.
  • the display device is preferably designed as a head-up display (HUD).
  • the head-up display can include, for example, a projection device that projects the virtual navigation element onto the windshield in the driver's field of vision of the motor vehicle or onto a dedicated, transparent but partially reflective HUD panel arranged between the driver and the windshield. Since the real environment is then in the driver's field of vision anyway, an improved augmented reality display of navigation elements is possible.
  • the navigation system according to the invention can, however, also be a dedicated navigation device or an application (app) implemented in a smartphone.
  • the real environment can be recorded by means of a camera of the navigation device or a camera of the smartphone and shown together with the virtual navigation element on a display of the navigation device or on the smartphone display as a display device.
  • data glasses to be worn by the user also known as augmented reality (AR) glasses
  • AR augmented reality
  • the method according to the invention is not only suitable for augmented reality (AR) applications, but can also be used, for example, in virtual reality (VR) environments and mixed reality (MR) environments.
  • the method according to the invention and the navigation system according to the invention can be used in various mobility applications, such as in drones, aircraft, trains, Ships etc.
  • the system according to the invention is particularly preferably used in motor vehicles.
  • the invention therefore also relates to a motor vehicle that has a navigation system as described above.
  • the invention also relates to a computer program which is designed to carry out the steps of the method for displaying virtual navigation elements in the manner described above when processed in a computing unit.
  • FIG. 1 shows a cockpit of a motor vehicle with a head-up display
  • FIG. 2 shows a view through the windshield of a motor vehicle with a projection area of the head-up display superimposed on a real environment
  • FIG. 3 shows an embodiment of a virtual navigation element according to the invention
  • FIG. 4 shows a variant of the illustration in FIG. 3 in a different traffic situation
  • FIG. 1 shows a cockpit of a motor vehicle 10 in which a driver information system / infotainment system 11 with a touch-sensitive screen 12 is arranged, which comprises a navigation system 12.
  • a driver information system / infotainment system 11 with a touch-sensitive screen 12 is arranged, which comprises a navigation system 12.
  • infotainment system refers to the combination of car radio, navigation system, hands-free system, driver assistance systems and other functions in a central operating unit.
  • infotainment is composed of the words information and entertainment.
  • the touch-sensitive screen 12 (“touchscreen”) is mainly used to operate the infotainment system, this screen 12 in particular can be viewed and operated easily by a driver of the vehicle 10, but also by a passenger of the vehicle 10.
  • buttons for example buttons, rotary controls or combinations thereof, such as for example rotary push-buttons, can also be arranged in an input unit 13 below the screen 12.
  • parts of the infotainment system 11 can also be operated via a steering wheel 14 of the vehicle 10.
  • information such as navigation data can also be projected onto a projection area 17 of a windshield 18 of the vehicle 10 by means of a projector 15 of a head-up display 16.
  • FIG. 2 shows the detail of a view of the driver of the motor vehicle 10 from FIG. 1 in the direction of travel through the windshield 18, the transparent projection area 17 of the head-up display 16 through which the real surroundings of the motor vehicle 10 can be seen above the steering wheel 14 , for example a road section 19 lying in the direction of travel, can be seen.
  • the projection area 17 by means of the projector 15, which is concealed by the steering wheel 14 in FIG. 2, virtual information elements 20 are projected which, from the driver's point of view, are superimposed on the real environment.
  • the information elements 20 consist of a navigation element 21 and a data element 22 that can display the current vehicle speed, for example.
  • the navigation element 21 consists of a primary picture element 21a and a secondary picture element 21b, which are explained in more detail below with reference to FIGS.
  • FIGS. 3 and 4 show the driver's view through the windshield 18 of the motor vehicle 10 of FIGS. 1 and 2, whereby, due to the active head-up display 16, a virtual information element 20 of a real environment, which in the example shown is a scenery of streets 23 and buildings 24 includes, is superimposed.
  • FIG. 3 an embodiment of a virtual navigation element 20 is shown in a situation-dependent first representation.
  • the virtual navigation element IO consists of a primary image element 21a, which in the present case is a non-transparent directional arrow, and a secondary image element 21b, which in the example shown is designed as a graphic network 21c made up of numerous triangles 21d linked to one another at the corner points.
  • a graphic network 21c made up of numerous triangles 21d linked to one another at the corner points.
  • Such a representation is also called mesh in computer graphics designated.
  • the network 21c symbolizes a digital carpet that links the primary picture element 21a with the real environment.
  • the width of the network 21c transversely to the road section 19 of a road 23 lying in the direction of travel and / or the mesh size of the network can represent the quality of the sensor data that are currently available for navigation and / or for autonomous driving.
  • the width of the network 21c therefore indicates how precisely the primary picture element 21a is located in the environment.
  • the driver can therefore already be prepared on the basis of this visual information to be prompted by the system to take over the manual driving function, if necessary, at short notice.
  • Such mesh objects are also used in computer graphics to scan a real environment and to represent them graphically in an AR, MR or VR environment.
  • Corresponding software applications are already commercially available, for example as part of the HoloLens Kinetic project from Microsoft Inc. for data glasses in an MR environment.
  • Corresponding applications can also be used within the scope of the present invention, for example, to scan the road section 19 and to spatially reproduce dangerous objects, such as road bumps, by appropriately adapting the network and / or the network as a whole or a corresponding section of the network, which is the location corresponding to the identified dangerous object, for example by a signal color or a local increase in intensity in the representation of the network.
  • sensor data or weather data received via the information topic system can be used to color the network 21c in a warning or alarm color if the data indicate, for example, actually registered or potentially possible icing on the road or the like.
  • the length of the network 21c can be linked to the current vehicle speed or the vehicle speed recommended for the next few moments.
  • the extensive network shown in FIG. 3 can symbolize that no speed reduction is currently necessary or even an increase in speed is possible.
  • FIG. 4 which essentially corresponds to the illustration in FIG. 3, it is assumed, however, that the vehicle should turn left at the next junction in accordance with the route planning determined.
  • the primary image element 21a is still on the current road section 19 in the traffic situation shown, the secondary image element 21b, i.e.
  • the network 21c by shortening its extent in the current direction of travel, already indicates that the speed should be reduced, or in the case of an autonomous ferry operation that the speed is currently being reduced or will be reduced shortly.
  • the primary image element 21a which is designed here as a plastic directional arrow, is rotated into the new direction of travel at the level of the junction in order to also signal the impending change of direction.
  • a further movable picture element 21e can be temporarily displayed, which in the example shown has a similar shape to the primary picture element and moves from this in the new direction of travel in order to display the planned change of direction even more clearly.
  • Navigation element a primary image element b secondary image element c mesh d linked triangles e moving image element

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Darstellung von virtuellen Navigationselementen, wobei man aus Daten eines Navigationssystems wenigstens ein virtuelles Navigationselement (21) erzeugt und auf einer Anzeigeeinrichtung in Überlagerung mit einer realen Umgebung darstellt, wobei das virtuelle Navigationselement (21) ein primäres Bildelement (21a) und ein sekundäres Bildelement (21b) umfasst, wobei das sekundäre Bildelement (21b) in Abhängigkeit von wenigstes einem Parameter der realen Umgebung veränderbar dargestellt wird.

Description

Beschreibung
Verfahren und Vorrichtung zur Darstellung von virtuellen Navigationselementen
Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Darstellung von virtuellen Navigationselementen.
Navigationsgeräte, die einen Nutzer bei der Navigation von seinem aktuellen Standort zu einem gewünschten Ziel unterstützen, sind seit vielen Jahren bekannt. Üblicherweise wird dabei die Position des Navigationsgerätes mittels satellitengesteuerter Positionsbestimmung erfasst und die Route zum gewünschten Ziel mittels Kartendaten ermittelt. Derartige Navigationsgeräte weisen meist ein Display auf, auf dem eine Karte mit der Position des Gerätes, sowie die ermittelte Route angezeigt werden. Zusätzlich zur Route können, insbesondere wenn Richtungsänderungen bevorstehen, akustische oder visuelle Hinweise zu der aktuell einzuhaltenden oder zu ändernden Richtung ausgegeben werden. Für visuelle Richtungsinformationen sind insbesondere Richtungspfeile und Ähnliches weit verbreitet. Derartige Navigationsgeräte stehen für unterschiedlichste Fortbewegungsarten zur Verfügung. Beispielsweise sind Navigationsgeräte häufig in das Infotainmentsystem von Kraftfahrzeugen integriert. Es sind aber auch dezidierte Navigationsgeräte für Motorradfahrer, Fahrradfahrer, Wanderer, usw. auf dem Markt. Da Smartphones heutzutage über geeignete Bildschirme und die entsprechende Sensorik verfügen, sind inzwischen zahlreiche Navigationsapplikationen (Apps) für Smartphones auf dem Markt, die anstelle dezidierter Navigationsgeräte genutzt werden können.
In vielen Anwendungsfällen, insbesondere im Kraftfahrzeugsbereich, besteht eine wesentliche Herausforderung darin, den Nutzer von Navigationsinformationen möglichst wenig von seiner Hauptaufgabe, beispielsweise dem Führen eines Fahrzeugs, abzulenken. Daher werden heute in vielen Fahrzeugen sogenannte Head-up-Displays (HUDs) verbaut, die es ermöglichen, relevante Informationen, wie beispielsweise Fahrzeuggeschwindigkeit, aber auch Navigationshinweise, in das Sichtfeld des Nutzers (beispielsweise des Fahrers eines Kraftfahrzeugs) einzublenden. Bei herkömmlichen HUDs sollen die Navigationsinformationen zwar für den Fahrer sichtbar sein, ohne dass er den Blick von der Straße nehmen muss, aber die genaue Platzierung der Navigationsinformationen hat noch keinen unmittelbaren Bezug zu der vom Fahrer wahrgenommenen Umgebung. Es existieren aber bereits Versuche, die genaue Position und Ausrichtung des Fahrzeugs und die vom Fahrer wahrgenommene Umgebung so genau zu lokalisieren, dass Navigationsinformationen im Sinne einer "Augmented Reality" (AR) so dargestellt werden können, dass beispielsweise ein Abbiegehinweis (Richtungspfeil) an der Stelle in das Gesichtsfeld des Fahrers projiziert wird, an der sich auch in der Realität die zu nutzende Abzweigung befindet.
In der deutschen Patentanmeldung DE 102014001 710 A1 wird eine Vorrichtung zur augmentierten Darstellung eines virtuellen Bildobjektes in einer realen Umgebung eines Fahrzeugs beschrieben, bei dem zwei Teilbilder des darzustellenden virtuellen Bildobjektes derart mittels eines HUD auf eine Fahrzeugscheibe projiziert werden, dass der Nutzer ein virtuelles Tiefenbild wahrnimmt, das sich außerhalb des Fahrzeugs hinter der Scheibe in der realen Umgebung zu befinden scheint. Dadurch soll das virtuelle Bildobjekt passgenau in die reale Umgebung eingeführt werden, so dass dem Fahrer der Eindruck vermittelt wird, ein wahrgenommenes reales Objekt würde direkt markiert werden.
In der deutschen Patentanmeldung DE 102015006640 A1 wird die Darstellung augmentierter Navigationselemente durch ein Head-up-Displaysystem beschrieben, das kontaktanaloge Navigationselemente und richtungsanaloge Navigationselemente umfasst. Unter kontaktanalogen Navigationselementen werden dabei ortsfest projizierte Bestandteile der Umwelt verstanden, die in der sichtbaren Fahrzeugumgebung lokalisiert werden können. Die kontaktanalogen Navigationselemente werden angezeigt, wenn das Objekt im Rahmen der konkreten Fahrsituation augmentierbar ist. Demgegenüber sind richtungsanaloge Navigationselemente keiner konkreten Position in der wahrnehmbaren Umgebung zugeordnet, sondern zeigen lediglich die nächste vorzunehmende Richtungsänderung an, auch wenn der entsprechende Manöverpunkt noch nicht augmentierbar ist.
In der deutschen Patentanmeldung DE 102014219567 A1 wird ein System für dreidimensionale Navigation beschrieben, bei dem Grafikelemente in unterschiedlichen Brennebenen auf ein HUD projiziert werden. Durch sequentielles Projizieren eines Grafikelementes (Avatar) auf verschiedene Brennebenen kann das Grafikelement als ein sich bewegender Avatar animiert werden. Dadurch ist es beispielsweise möglich, dass sich der Avatar im Blickfeld des Nutzers bei einer bevorstehenden Richtungsänderung von der aktuellen Straße in die bei der Richtungsänderung zu bewegende Straße hineinbewegt und somit die bevorstehende Richtungsänderung deutlicher als nur durch einen bloßen Richtungspfeil anzeigt. Es wird auch vorgeschlagen, die anzuzeigenden Grafikelemente auf der Grundlage von einem oder mehreren Straßenzuständen und der momentanen Position des Fahrzeugs anzupassen, um beispielsweise entsprechende Warnungen vor Schlaglöchern und Ähnlichem zu symbolisieren. Mit den bekannten Verfahren und Vorrichtungen ist es zwar möglich, virtuelle Bildobjekte, beispielsweise Navigationshinweise, im Sinne einer Augmented Reality (AR) in das Sichtfeld eines Nutzers, wie beispielsweise des Fahrers eines Kraftfahrzeugs, einzublenden und auch Zusatzinformationen auszugeben, beispielsweise Warnhinweise auf Objekte auf der Fahrbahn oder auf Straßenschäden. Allerdings sind bei bisher bekannten Navigationssystemen die virtuellen Navigationselemente lediglich Bildobjekte, deren Eigenschaften aus den vom Navigationssystem gelieferten Routendaten resultieren. Selbst bei einer möglichst guten Anpassung der Darstellung der virtuellen Navigationselemente in die sichtbare Umgebung im Sinne einer Augmented Reality (AR), fehlt es bei den bisher bekannten Navigationsdarstellungen an einer unmittelbaren, für den Nutzer nachvollziehbaren Verknüpfung der Bildelemente, insbesondere des visuellen Eindrucks der Bildelemente, mit der realen Umgebung. Der Nutzer wird daher die virtuellen Navigationselemente stets als Fremdkörper im Sichtfeld wahrnehmen, deren Daten von einem technischen System geliefert werden, das nicht mit seiner eigenen Wahrnehmung korreliert ist. Dies mag bei reinen Navigationssystemen noch kein größeres Problem darstellen, weil letztlich die Handlungshoheit im Sinne einer Umsetzung der Navigationshinweise beim Fahrer verbleibt. Mit zunehmendem Autonomiegrad zukünftiger Fahrzeuggenerationen kann diese Entkopplung von persönlicher Wahrnehmung der Nutzer und autonomer Entscheidungen von Fahrzeugsystemen ein Vertrauensproblem hervorrufen.
Auf europäischer Ebene wird im Straßenverkehr die Autonomie des Fahrzeugs in fünf Stufen klassifiziert, die von dem sogenannten Level 0 (alle Fahrfunktionen werden vom Fahrer ausgeübt), über Level 1 (einfache Assistenzsysteme, wie Abstandsregelsysteme), Level 2 (teilautonomes Fahren mit komplexeren Assistenzsystemen, wie Spurhalteassistent, Stauassistent, automatischer Einparkhilfe), Level 3 (hochautonomes Fahren mit Assistenzsystem, die selbständig Überhol Vorgänge und Abbiegevorgänge mit Spurwechsel durchführen können), Level 4 (vollautomatisches Fahren, wobei noch ein Fahrer vorhanden ist, der im Notfall die Kontrolle übernehmen kann) bis zu Level 5 (vollautomatisches Fahren ohne Fahrer) reichen. Spätestens ab Level 3 wird zumindest ein Teil der Verantwortung für die Steuerung des Fahrzeugs zumindest zeitweise von einem computergesteuerten System übernommen was zu einer Verunsicherung des Nutzers führen kann.
Der vorliegenden Erfindung liegt daher das technische Problem zu Grunde, ein Verfahren und eine Vorrichtung zur Darstellung virtueller Navigationselemente bereitzustellen, welche dem Nutzer ein besseres Verständnis für die Anzeigen und Handlungsempfehlungen des Navigationssystems ermöglicht. Vor allem im Bereich des autonomen oder teilautonomen Fahrens sollen mit dem erfindungsgemäßen Verfahren und der erfindungsgemäßen Vorrichtung Möglichkeiten geschaffen werden, dass aus Navigationsdaten und gegebenenfalls zusätzlichen Sensordaten berechnete Fahrzeugverhalten frühzeitig in einer intuitiv zu erfassenden Art und Weise darzustellen.
Gelöst wird dieses technische Problem durch das Verfahren des Anspruchs 1. Vorteilhafte Weiterbildungen des erfindungsgemäßen Verfahrens sind Gegenstand der abhängigen Ansprüche.
Die Erfindung betrifft daher ein Verfahren zur Darstellung von virtuellen Navigationselementen, wobei man aus Daten eines Navigationssystems wenigstens ein virtuelles Navigationselement erzeugt und auf einer Anzeigeeinrichtung in Überlagerung mit einer realen Umgebung darstellt, wobei das erfindungsgemäße Verfahren dadurch gekennzeichnet ist, dass das virtuelle Navigationselement ein primäres Bildelement und ein sekundäres Bildelement umfasst, wobei das sekundäre Bildelement in Abhängigkeit von wenigstes einem Parameter der realen Umgebung veränderbar dargestellt wird.
Der Erfindung liegt daher die Überlegung zu Grunde, die Darstellung von Navigationselementen in wenigstens zwei Bildelemente aufzutrennen, wobei ein erstes primäres Bildelement im Wesentlichen anhand von Navigationsdaten animiert wird, und daher beispielsweise herkömmlichen Navigationselementen, wie Richtungspfeilen oder beweglichen Avataren entsprechen kann. Die Darstellung des primären Bildelementes wird daher in erster Linie von Navigationsdaten beeinflusst. Wird beispielsweise das primäre Bildelement als plastischer, dreidimensionaler Pfeil animiert, so kann eine Richtungsänderung durch drehen/kippen des Pfeils angezeigt werden. Das primäre Bildelement kann auch dynamisch animiert werden, um beispielsweise anzuzeigen, in welcher Form ein Spur-oder Richtungswechsel durchgeführt werden soll. Im erfindungsgemäßen Verfahren ist dem primären Bildelement eines Navigationselementes jedoch noch wenigstens ein weiteres, sekundäres Bildelement zugeordnet, dessen Darstellung in Abhängigkeit von wenigstes einem Parameter der realen Umgebung verändert wird. Bei diesem wenigstens einem Parameter handelt es sich um einen zusätzlichen Parameter, der über die zur Darstellung des primären Bildelementes verwendeten Informationen hinausgeht. Vorzugsweise stammen die Parameter, die zur Darstellung des sekundären Bildelementes herangezogen werden aus Daten, welche die Wechselwirkung des Navigationssystems mit seiner Umgebung beschreiben, insbesondere den Einfluss der Umgebung auf das Navigationssystem bzw. auf das Fahrzeug, in welchem das Navigationssystem eingebaut ist. Zur Ermittlung derartiger Einflüsse und daher zur Festlegung der Parameter, welche die Darstellung des sekundären Bildelementes beeinflussen, können beispielsweise unterschiedlichste Sensoren, die mit dem Navigationssystem kommunizieren herangezogen werden. Im Anwendungsfall eines Kraftfahrzeugs können beispielsweise jegliche in modernen Fahrzeugen verbauten Sensoren ausgewertet werden. Im Darstellungsparadigma aus primären Bildelement und sekundären Bildelement zeigt die Veränderung des sekundären Bildelementes gewissermaßen die Wechselwirkung des primären Bildelementes mit der realen Umgebung an. Somit wird also eine Verbindung des primären Bildelementes, welches den Nutzer oder das Fahrzeug repräsentiert, zur realen Umgebung symbolisiert. Auf diese Weise ist es möglich, konkrete, situationsabhängige Umgebungseinflüsse auf das Verhalten des Navigationssystems, welches sich letztlich auch im Verhalten des primären Bildelementes und, beim Einsatz in Fahrzeugen, vor allem im Verhalten des Fahrzeugs widerspiegeln, grafisch anhand von Veränderungen des sekundären Bildelementes darzustellen. Aufgrund der kombinierten Darstellung von primären Navigationsinformationen mittels des primären Bildelementes und von Einflüssen der Umgebung auf die Navigation bzw. auf das Fahrzeugverhalten durch entsprechende grafische Veränderung des sekundären Bildelementes, kann der Nutzer die Anzeigen und Handlungsempfehlungen des Navigationssystems oder daraus abgeleitete autonome oder Teil autonome Fahrzeugaktionen besser nachvollziehen, was insbesondere bei zunehmender Autonomie von Fahrzeugen ein höheres Vertrauen des Nutzers in das technische System bewirkt. Vor allem wenn das System prädikativ anhand von Veränderungen des sekundären Bildelements Hinweise auf bevorstehende Fahrzeugaktionen gibt, werden für den Nutzer überraschende oder nicht nachvollziehbare Fahrzeugaktionen verringert, was ebenfalls das Vertrauen in einen autonomen oder teilautonomen Fahrzeugbetrieb erhöht.
Die durch Veränderung des sekundären Bildelementes grafisch repräsentierte Wechselwirkung des primären Bildelementes mit der realen Umgebung kann durch unterschiedlichste Faktoren modifiziert werden. Beispielsweise kann das primäre Bildelement ein beweglich entlang der Navigationsroute animiertes Bildelement sein. In diesem Fall kann das sekundäre Bildelement beispielsweise genutzt werden, um Bewegungsinformationen mit dem primären Bildelement zu verknüpfen, beispielsweise kann das sekundäre Bildelement ein an das primäre Bildelement angehängtes längliches Bildelement sein, dessen dargestellte Länge Informationen zur Geschwindigkeit des primären Bildelementes wiedergibt. Da das primäre Bildelement häufig ein Symbol des Fahrzeugs beziehungsweise des zukünftigen Verhaltens des Fahrzeugs darstellt, erkennt der Nutzer beispielsweise durch Längenänderung des sekundären Bildelementes, dass das Navigationssystem eine Veränderung der Fahrzeuggeschwindigkeit empfiehlt, beziehungsweise bei einem autonomen System erkennt der Nutzer, dass das Fahrzeug gleich eine entsprechende Geschwindigkeitsänderung vornehmen wird. In die Darstellung des sekundären Bildelementes können beispielsweise auch Informationen über die aktuelle Genauigkeit der Positionsbestimmung des Navigationssystems, eventuelle Gefahrensituationen und Ähnliches einfließen. Hierzu können zusätzlich zu den im Rahmen eines satellitengestützten Navigationssystems vorhandenen Daten auf weitere, je nach Anwendungsfall vorhandene Sensordaten, wie beispielsweise Kameradaten, Radardaten, Sonardaten, LIDAR-Daten zurückgegriffen werden.
Gemäß einer Ausführungsform der Erfindung wird das primäre Bildelement als intransparentes Grafiksymbol dargestellt, beispielsweise als ein zwei- oder dreidimensional animiertes Pfeilsymbol. "Intransparent" bedeutet insofern, dass es vorzugsweise als ausgefülltes Symbol dargestellt wird, so dass die reale Umgebung nicht oder nur unwesentlich durchscheint.
Das sekundäre Bildelement wird gemäß einer bevorzugten Ausführungsform der Erfindung als ein mit dem primären Bildelement verbundenen grafischen Netz dargestellt, zwischen dessen Maschen die reale Umgebung erkennbar ist. In der Darstellung auf einer Anzeigeeinrichtung in Überlagerung mit der realen Umgebung stellt bereits diese Netzdarstellung eine Verknüpfung des primären Bildelementes mit der Umgebung dar, da sich das Netz gewissermaßen über die Umgebung legt und so bereits auf Grund der gewählten Darstellung eine Verknüpfung des technischen Systems (Navigationssystem) mit den Einflüssen der Umgebung symbolisiert, was das Vertrauen des Nutzers in das System erhöht.
Gemäß einer Ausführungsform wird das grafische Netz aus an ihren Eckpunkten verbundenen Dreiecken aufgebaut. Durch veränderliche Größe der Dreiecke können unterschiedliche Wechselwirkungen mit der Umgebung symbolisiert werden, beispielsweise höhere Genauigkeiten von Sensordaten durch ein dichteres Netz oder auch unterschiedlich wichtige Bereiche der Wechselwirkung des primären Bildelementes mit der Umgebung durch mehr oder weniger dichte Abschnitte des Netzes. Im teilautonomen Betrieb kann dem Nutzer so beispielsweise signalisiert werden, dass aufgrund der verschlechterten Sensordaten eine baldige Aufforderung zur Übernahme des Fahrzeugs im manuellen Betrieb zu erwarten ist. Wenn eine solche Aufforderung dann beispielsweise im Rahmen einer komplexeren Verkehrssituation, die mit den verschlechterten Sensordaten nicht mehr autonom beherrschbar ist, tatsächlich ausgelöst wird, ist für den Nutzer zumindest das Überraschungsmoment verringert. Gemäß einer Ausführungsform weist das sekundäre Bildelement eine veränderbare Länge auf, um beispielsweise unterschiedliche Geschwindigkeiten zu symbolisieren. Das Netz kann auch ganz verschwinden, wenn beispielsweise ein Anhalten des Fahrzeugs erforderlich ist.
Gemäß einerweiteren Ausführungsform weist das sekundäre Bildelement eine veränderbare Farbe auf, um beispielsweise Gefahrensituationen wie Schlaglöcher, Glatteis, Aquaplaning oder Gegenstände auf der Fahrbahn zu symbolisieren.
Die Erfindung betrifft auch ein Navigationssystem, welches Mittel zur Erzeugung wenigstens eines virtuellen Navigationselementes und eine Anzeigeeinrichtung zur Darstellung des virtuellen Navigationselementes in Überlagerung mit einer realen Umgebung umfasst, wobei das Navigationssystem Mittel zur Durchführung des erfindungsgemäßen Verfahrens aufweist.
Das Navigationssystem kann beispielsweise ein in ein Fahrerinformationssystem eines Kraftfahrzeugs integriertes Navigationssystem sein. In diesem Fall ist die Anzeigeeinrichtung vorzugsweise als Head-up-Display (HUD) ausgebildet. Das Head-up-Display kann beispielsweise eine Projektionseinrichtung umfassen, welche das virtuelle Navigationselement auf die Windschutzscheibe im Blickfeld des Fahrers des Kraftfahrzeugs oder auf eine zwischen dem Fahrer und der Windschutzscheibe angeordnete, dedizierte transparente, aber teilweise reflektierende HUD-Scheibe projiziert. Da die reale Umgebung dann ohnehin im Blickfeld des Fahrers liegt, ist somit eine verbesserte Augmented Reality Darstellung von Navigationselementen möglich.
Bei dem erfindungsgemäßen Navigationssystem kann es sich aber auch um ein dezidiertes Navigationsgerät oder eine in einem Smartphone implementierte Applikation (App) handeln. In diesem Fall kann die reale Umgebung mittels einer Kamera des Navigationsgerätes oder einer Kamera des Smartphones erfasst werden und zusammen mit dem virtuellen Navigationselement auf einem Display des Navigationsgerätes beziehungsweise auf dem Smartphonedisplay als Anzeigeeinrichtung dargestellt werden. In allen bisher beschriebenen Varianten kann als Anzeigeeinrichtung auch eine vom Nutzer zu tragende Datenbrille (auch als Augmented Reality (AR)-Brille bekannt) verwendet werden, auf der dann die virtuellen Navigationselemente in Überlagerung mit der realen Umgebung dargestellt werden. Das erfindungsgemäße Verfahren eignet sich nicht nur für Augmented Reality (AR)- Anwendungen, sondern kann beispielsweise auch in Virtual Reality (VR)-Umgebungen und Mixed Reality (MR)-Umgebungen eingesetzt werden.
Neben Kraftfahrzeugen, Fahrrädern, insbesondere E-Bikes, Skootern und zweirädrigen Personentransportern, wie sie beispielsweise von der Firma Segway Inc. angeboten werden, kann das erfindungsgemäße Verfahren und das erfindungsgemäße Navigationssystem in unterschiedlichen Mobilitätsanwendungen eingesetzt werden, wie beispielsweise in Drohnen, Fluggeräten, Zügen, Schiffen usw.
Besonders bevorzugt wird das erfindungsgemäße System aber in Kraftfahrzeugen eingesetzt. Gegenstand der Erfindung ist daher außerdem ein Kraftfahrzeug, dass ein wie oben beschriebenes Navigationssystem aufweist.
Schließlich betrifft die Erfindung auch ein Computerprogramm, das ausgelegt ist, bei Abarbeitung in einer Recheneinheit die Schritte des Verfahrens zur Darstellung von virtuellen Navigationselementen in der oben beschriebenen Weise durchzuführen.
Die Erfindung wird im Folgenden unter Bezugnahme auf in den beigefügten Zeichnungen dargestellte Ausführungsbeispiele näher erläutert.
In der Zeichnung zeigt
Fig. 1 ein Cockpit eines Kraftfahrzeugs mit einem Head-up-Display;
Fig. 2 einen Blick durch die Windschutzscheibe eines Kraftfahrzeugs mit einem einer realen Umgebung überlagerten Projektionsbereich des Head-up-Displays;
Fig. 3 eine Ausführungsform eines erfindungsgemäßen virtuellen Navigationselementes; und Fig. 4 eine Variante der Darstellung der Fig. 3 in einer anderen Verkehrssituation;
In Fig. 1 ist ein Cockpit eines Kraftfahrzeugs 10 dargestellt, in welchem ein Fahrerinformationssystem/Infotainment-System 11 mit berührungsempfindlichen Bildschirm 12 angeordnet ist, das ein Navigationssystem 12 umfasst. Ein Infotainment-System bezeichnet bei Kraftfahrzeugen, speziell Pkw, die Zusammenführung von Autoradio, Navigationssystem, Freisprecheinrichtung, Fahrerassistenzsystemen und weiterer Funktionen in einer zentralen Bedieneinheit. Der Begriff Infotainment ist zusammengesetzt aus den Worten Information und Entertainment (Unterhaltung). Zur Bedienung des Infotainment-Systems wird hauptsächlich der berührungsempfindliche Bildschirm 12 („Touchscreen“) benutzt, wobei dieser Bildschirm 12 insbesondere von einem Fahrer des Fahrzeugs 10 , aber auch von einem Beifahrer des Fahrzeugs 10 gut eingesehen und bedient werden kann. Unterhalb des Bildschirms 12 können zudem mechanische Bedienelemente, beispielsweise Tasten, Drehregler oder Kombinationen hiervon, wie beispielsweise Drückdrehregler, in einer Eingabeeinheit 13 angeordnet sein. Typischerweise ist auch eine Bedienung von Teilen des Infotainment-Systems 11 über ein Lenkrad 14 des Fahrzeugs 10 möglich.
Da der berührungsempfindlichen Bildschirm 12 während der Fahrt nicht im Sichtfeld des Fahrers liegt, können Informationen, wie beispielsweise Navigationsdaten, außerdem mittels eines Projektors 15 eines Head-up-Displays 16 auf einen Projektionsbereich 17 einer Windschutzscheibe 18 des Fahrzeugs 10 projiziert werden.
In Fig. 2 ist der Ausschnitt eines Blicks des Fahrers des Kraftfahrzeugs 10 der Fig. 1 in Fahrtrichtung durch die Windschutzscheibe 18 dargestellt man erkennt über dem Lenkrad 14 den transparenten Projektionsbereich 17 des Head-up-Displays 16 durch den die reale Umgebung des Kraftfahrzeugs 10, beispielsweise ein in Fahrtrichtung liegender Straßenabschnitt 19, erkennbar ist. In den Projektionsbereich 17 werden mittels des, in Fig. 2 durch das Lenkrad 14 verdeckten, Projektors 15 virtuelle Informationselemente 20 projiziert, die aus Sicht des Fahrers der realen Umgebung überlagert werden. Im dargestellten Beispiel bestehen die Informationselemente 20 aus einem Navigationselement 21 und einem Datenelement 22, dass beispielsweise die aktuelle Fahrzeuggeschwindigkeit anzeigen kann. Das Navigationselement 21 besteht aus einem primären Bildelement 21a und einem sekundären Bildelement 21b, die im folgenden unter Bezugnahme auf die Figuren 3 und 4 ausführlicher erläutert werden.
Die Figuren 3 und 4 zeigen den Blick des Fahrers durch die Wndschutzscheibe 18 des Kraftfahrzeugs 10 der Figuren 1 und 2, wobei aufgrund des aktiven Head-up-Displays 16 ein virtuelle Informationselemente 20 einer realen Umgebung, die im dargestellten Beispiel eine Szenerie aus Straßen 23 und Gebäuden 24 umfasst, überlagert ist.
In Fig. 3 ist eine Ausführungsform eines virtuellen Navigationselementes 20 in einer situationsabhängigen ersten Darstellung gezeigt. Das virtuelle NavigationselementIO besteht einem primären Bildelement 21a, das im vorliegenden Fall ein intransparenter Richtungspfeil ist, sowie einem sekundären Bildelement 21b, welches im dargestellten Beispiel als grafisches Netz 21c ausgebildet ist, das aus zahlreichen miteinander an den Eckpunkten verknüpften Dreiecken 21 d aufgebaut ist. Eine solche Darstellung wird in der Computergrafik auch als Mesh bezeichnet. Im vorliegenden Beispiel symbolisiert das Netz 21c einen digitalen Teppich, der das primäre Bildelement 21a mit der realen Umgebung verknüpft. Beispielsweise kann die Breite des Netzes 21c quer zu dem in Fahrtrichtung liegenden Straßenabschnitt 19 einer Straße 23 und/oder die Maschenweite des Netzes die Qualität der Sensordaten repräsentieren, die aktuell für die Navigation und/oder für das autonome Fahren zur Verfügung stehen. Die Breite des Netzes 21c zeigt daher an, wie präzise das primäre Bildelement 21a in der Umgebung verortet ist. Der Fahrer kann daher beim teilautonomen Fahren bereits aufgrund dieser visuellen Information darauf vorbereitet werden, vom System gegebenenfalls kurzfristig zur Übernahme der manuellen Fahrfunktion aufgefordert zu werden.
Derartige Mesh-Objekte werden in der Computergrafik auch verwendet, um eine reale Umgebung zu scannen, und sie in einer AR-, MR- oder VR-Umgebung graphisch zu repräsentieren. Entsprechende Software-Applikationen sind bereits kommerziell erhältlich, beispielsweise im Rahmen des HoloLens-Kinetic-Projektes der Firma Microsoft Inc. für Datenbrillen in einer MR-Umgebung. Entsprechende Applikationen können auch im Rahmen der vorliegenden Erfindung verwendet werden, um beispielsweise den Straßenabschnitt 19 zu scannen und Gefahrobjekte, wie beispielsweise Straßenunebenheiten, durch eine entsprechende Anpassung des Netzes räumlich wiederzugeben und/oder das Netz ganz oder einen entsprechenden Teilabschnitt des Netzes, welcher der Lage des erkannten Gefahrobjektes entspricht, etwa durch eine Signalfarbe oder eine lokale Erhöhung der Intensität bei der Darstellung des Netzes, zu markieren.
Außer durch scannen der Umgebung können auch andere Sensorparameter oder anderweitig übermittelte Informationen in die Darstellung des Netzes 21c einfließen. Beispielsweise können Sensordaten oder auch über das Infothemen-System empfangene Wetterdaten zu einer Einfärbung des Netzes 21c in einer Warn-oder Alarmfarbe verwendet werden, wenn die Daten beispielsweise auf tatsächlich registrierte oder potenziell mögliche Fahrbahnvereisung o. ä. hinweisen.
Zudem kann man beispielsweise die Länge des Netzes 21c mit der aktuellen beziehungsweise in den nächsten Momenten empfohlenen Fahrzeuggeschwindigkeit verknüpfen. Beispielsweise kann das in Fig. 3 dargestellte ausgedehnte Netz symbolisieren, dass derzeit keine Geschwindigkeitsverringerung nötig ist beziehungsweise sogar eine Geschwindigkeitserhöhung möglich ist. In dem in Fig. 4 dargestellten Beispiel, welches im Wesentlichen der Darstellung der Fig. 3 entspricht, wird jedoch unterstellt, dass das Fahrzeug entsprechend der ermittelten Routenplanung an der nächsten Abzweigung links abbiegen soll. Nähert sich das Fahrzeug der Abzweigung befindet sich das primäre Bildelement 21a in der dargestellten Verkehrssituation noch auf dem aktuellen Straßenabschnitt 19, das sekundäre Bildelement 21b, also das Netz 21c, zeigt jedoch durch eine Verkürzung seiner Ausdehnung in der aktuellen Fahrtrichtung bereits an, dass die Geschwindigkeit verringert werden soll, beziehungsweise bei einem autonomen Fährbetrieb, dass die Geschwindigkeit gerade verringert oder in Kürze verringert werden wird. Wie man aus Fig. 4 außerdem entnehmen kann, wird das primäre Bildelement 21a, das hier als plastischer Richtungspfeil ausgebildet ist, auf Höhe der Abzweigung in die neue Fahrtrichtung gedreht, um auch die bevorstehende Richtungsänderung zu signalisieren. Außerdem kann temporär ein weiteres bewegliches Bildelement 21e angezeigt werden, dass im dargestellten Beispiel eine ähnliche Form wie das primäre Bildelement hat, und sich von diesem ausgehend in die neue Fahrtrichtung bewegt, um die geplante Richtungsänderung noch deutlicher anzuzeigen.
Bezugszeichenliste
Kraftfahrzeug
Fahrerinformationssystem / Infotainment-System berührungsempfindlichen Bildschirm
Eingabeeinheit
Lenkrad
Projektor
Head-up-Display
Projektionsbereich
Windschutzscheibe
Straßenabschnitt virtuelles Informationselement
Navigationselement a primäres Bildelement b sekundäres Bildelement c Netz / Mesh d verknüpfte Dreiecke e bewegliches Bildelement
Datenelement
Straße
Gebäude

Claims

Patentansprüche
1. Verfahren zur Darstellung von virtuellen Navigationselementen, wobei man aus Daten eines Navigationssystems wenigstens ein virtuelles Navigationselement (21) erzeugt und auf einer Anzeigeeinrichtung in Überlagerung mit einer realen Umgebung darstellt, dadurch gekennzeichnet, dass das virtuelle Navigationselement (21) ein primäres Bildelement (21a) und ein sekundäres Bildelement (21b) umfasst, wobei das sekundäre Bildelement (21b) in Abhängigkeit von wenigstes einem Parameter der realen Umgebung veränderbar dargestellt wird.
2. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, dass das primäre Bildelement (21a) als intransparentes Graphiksymbol dargestellt wird.
3. Verfahren gemäß einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass das sekundäre Bildelement (21b) ein mit dem primären Bildelement (21a) verbundenes graphisches Netz (21c) dargestellt wird, zwischen dessen Maschen die realen Umgebung erkennbar ist.
4. Verfahren gemäß Anspruch 3, dadurch gekennzeichnet, dass das graphische Netz (21c) aus an ihren Eckpunkten verbunden Dreiecken (21d) aufgebaut wird.
5. Verfahren gemäß einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das sekundäre Bildelement (21b) eine veränderbare Länge aufweist.
6. Verfahren gemäß einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das sekundäre Bildelement (21b) eine veränderbare Farbe aufweist.
7. Navigationssystem, welches Mittel zur Erzeugung wenigstens eines virtuellen Navigationselementes, das ein primäres Bildelement (21a) und ein sekundäres Bildelement (21b) umfasst, und eine Anzeigeeinrichtung zur Darstellung des virtuellen Navigationselementes in Überlagerung mit einer realen Umgebung umfasst, wobei das Navigationssystem Mittel zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 6 aufweist.
8. Navigationssystem gemäß Anspruch 7, dadurch gekennzeichnet, dass die Anzeigeeinrichtung ein Head-up-Display (16) umfasst.
9. Navigationssystem gemäß Anspruch 7, dadurch gekennzeichnet, dass die Anzeigeeinrichtung ein Display eines tragbaren Navigationsgerätes oder eines Smartphones umfasst.
10. Navigationssystem gemäß einem der Ansprüche 7-9, dadurch gekennzeichnet, dass die Anzeigeeinrichtung ein Datenbrille umfasst.
11. Kraftfahrzeug, dadurch gekennzeichnet, dass das Kraftfahrzeug (10) ein Navigationssystem nach einem der Ansprüche 7 bis 10 aufweist.
12. Computerprogramm, dadurch gekennzeichnet, dass das Computerprogramm ausgelegt ist, bei Abarbeitung in einer Recheneinheit die Schritte des Verfahrens zur Darstellung von virtuellen Navigationselementen nach einem der Ansprüche 1 bis 6 durchzuführen.
PCT/EP2020/085009 2020-01-06 2020-12-08 Verfahren und vorrichtung zur darstellung von virtuellen navigationselementen WO2021139941A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP20821178.9A EP4073470A1 (de) 2020-01-06 2020-12-08 Verfahren und vorrichtung zur darstellung von virtuellen navigationselementen
CN202080091966.4A CN114867992A (zh) 2020-01-06 2020-12-08 用于呈现虚拟导航元素的方法和装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020200047.6 2020-01-06
DE102020200047.6A DE102020200047A1 (de) 2020-01-06 2020-01-06 Verfahren und Vorrichtung zur Darstellung von virtuellen Navigationselementen

Publications (1)

Publication Number Publication Date
WO2021139941A1 true WO2021139941A1 (de) 2021-07-15

Family

ID=73790094

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/085009 WO2021139941A1 (de) 2020-01-06 2020-12-08 Verfahren und vorrichtung zur darstellung von virtuellen navigationselementen

Country Status (4)

Country Link
EP (1) EP4073470A1 (de)
CN (1) CN114867992A (de)
DE (1) DE102020200047A1 (de)
WO (1) WO2021139941A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021128257A1 (de) 2021-10-29 2023-05-04 Bayerische Motoren Werke Aktiengesellschaft Darstellung von Informationen an Bord eines Fahrzeugs

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010052000A1 (de) * 2010-11-19 2012-05-24 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Ausgabe von Navigationshinweisen
DE102014001710A1 (de) 2014-02-08 2014-08-14 Daimler Ag Vorrichtung und Verfahren zur augmentierten Darstellung eines virtuellen Bildobjektes in einer realen Umgebung
DE102014219567A1 (de) 2013-09-30 2015-04-02 Honda Motor Co., Ltd. Dreidimensionale (3-d) navigation
DE102015006640A1 (de) 2015-05-22 2016-03-10 Daimler Ag Darstellung augmentierter Navigationselemente durch ein Head-Up-Display System
DE102016203080A1 (de) * 2016-02-26 2017-08-31 Robert Bosch Gmbh Verfahren zum Betreiben eines Head-Up-Displays, Head-Up-Display Einrichtung
US20180137373A1 (en) * 2016-11-14 2018-05-17 Lyft, Inc. Rendering a Situational-Awareness View in an Autonomous-Vehicle Environment
US20180164115A1 (en) * 2016-12-13 2018-06-14 Inventec (Pudong) Technology Corporation Vehicle Navigation Projection System And Method Thereof
DE102017221488A1 (de) * 2017-11-30 2019-06-06 Volkswagen Aktiengesellschaft Verfahren zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102018203462A1 (de) * 2018-03-07 2019-09-12 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
WO2019174841A1 (de) * 2018-03-15 2019-09-19 Volkswagen Aktiengesellschaft Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-display-vorrichtung für ein kraftfahrzeug
DE102018207440A1 (de) * 2018-05-14 2019-11-14 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer "augmented reality"-Einblendung für die Darstellung einer Navigationsroute auf einer AR-Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007121001A (ja) * 2005-10-26 2007-05-17 Matsushita Electric Ind Co Ltd ナビゲーション装置
JP2013123970A (ja) * 2011-12-14 2013-06-24 Toshiba Corp 表示装置
JP6149824B2 (ja) * 2014-08-22 2017-06-21 トヨタ自動車株式会社 車載装置、車載装置の制御方法及び車載装置の制御プログラム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010052000A1 (de) * 2010-11-19 2012-05-24 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Ausgabe von Navigationshinweisen
DE102014219567A1 (de) 2013-09-30 2015-04-02 Honda Motor Co., Ltd. Dreidimensionale (3-d) navigation
DE102014001710A1 (de) 2014-02-08 2014-08-14 Daimler Ag Vorrichtung und Verfahren zur augmentierten Darstellung eines virtuellen Bildobjektes in einer realen Umgebung
DE102015006640A1 (de) 2015-05-22 2016-03-10 Daimler Ag Darstellung augmentierter Navigationselemente durch ein Head-Up-Display System
DE102016203080A1 (de) * 2016-02-26 2017-08-31 Robert Bosch Gmbh Verfahren zum Betreiben eines Head-Up-Displays, Head-Up-Display Einrichtung
US20180137373A1 (en) * 2016-11-14 2018-05-17 Lyft, Inc. Rendering a Situational-Awareness View in an Autonomous-Vehicle Environment
US20180164115A1 (en) * 2016-12-13 2018-06-14 Inventec (Pudong) Technology Corporation Vehicle Navigation Projection System And Method Thereof
DE102017221488A1 (de) * 2017-11-30 2019-06-06 Volkswagen Aktiengesellschaft Verfahren zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102018203462A1 (de) * 2018-03-07 2019-09-12 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
WO2019174841A1 (de) * 2018-03-15 2019-09-19 Volkswagen Aktiengesellschaft Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-display-vorrichtung für ein kraftfahrzeug
DE102018207440A1 (de) * 2018-05-14 2019-11-14 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer "augmented reality"-Einblendung für die Darstellung einer Navigationsroute auf einer AR-Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm

Also Published As

Publication number Publication date
CN114867992A (zh) 2022-08-05
EP4073470A1 (de) 2022-10-19
DE102020200047A1 (de) 2021-07-08

Similar Documents

Publication Publication Date Title
DE102017221191B4 (de) Verfahren zur Anzeige des Verlaufs einer Sicherheitszone vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
EP3543059B1 (de) Verfahren zur berechnung einer einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
EP3668742B1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines kraftfahrzeugs sowie kraftfahrzeug
EP3717954B1 (de) Verfahren zur anzeige des verlaufs einer trajektorie vor einem fahrzeug oder einem objekt mit einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens
DE102017212367B4 (de) Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit sowie Kraftfahrzeug
WO2019170387A1 (de) Einblendung von zusatzinformationen auf einer anzeigeeinheit
DE112017007631B4 (de) Anzeigesystem und Anzeigeverfahren
WO2003005102A1 (de) Head-up display system und verfahren zur ortskorrrekten darstellung eines objekts im aussenraum eines fahrzeugs in bezug auf die fahrerposition
EP3425442B1 (de) Verfahren und vorrichtung zum anreichern eines sichtfeldes eines fahrers eines fahrzeuges mit zusatzinformationen, vorrichtung zur verwendung in einem beobachter-fahrzeug sowie kraftfahrzeug
WO2004018970A1 (de) Verfahren und vorrichtung zur anzeige von navigationsinformationen für ein fahrzeug
WO2019228779A1 (de) Verfahren zur berechnung einer "augmented reality"-einblendung für die darstellung einer navigationsroute auf einer ar-anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
DE102018203121B4 (de) Verfahren zur Berechnung einer AR-Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102014203138A1 (de) Fahrerassistenzsystem für ein Kraftfahrzeug und Verfahren zur Assistenz eines Kraftfahrzeug-Fahrers
DE102015212664A1 (de) Kraftfahrzeug mit einem automatischen Fahrsystem
DE102010003851A1 (de) Verfahren und Informationssystem zum Markieren eines Zielorts für ein Fahrzeug
EP3296795B1 (de) Verfahren zur darstellung eines bildobjekts in einem fahrzeug auf einer fahrzeugintern und einer fahrzeugextern wahrgenommenen anzeige
WO2021139941A1 (de) Verfahren und vorrichtung zur darstellung von virtuellen navigationselementen
DE102019122895A1 (de) Vorrichtung, Verfahren sowie Computerprogramm zum Betreiben eines automatisiert fahrbaren Fahrzeugs mit einem von einem Nutzer des Fahrzeugs bedienbaren Bedienelement
WO2023165775A1 (de) Verfahren zum darstellen einer umgebung eines fahrzeugs
DE102022119302A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Betreiben eines Anzeige-Bediensystems eines Fahrzeugs
WO2021156018A1 (de) Verfahren und vorrichtung zum betreiben einer visuellen schnittstelle zwischen einem fahrzeug und einem fahrzeuginsassen
DE102019122892A1 (de) Vorrichtung, Verfahren sowie Computerprogramm zum Betreiben eines automatisiert fahrbaren Fahrzeugs mit einem von einem Nutzer des Fahrzeugs bedienbaren Bedienelement
DE102019122894A1 (de) Vorrichtung, Verfahren sowie Computerprogramm zum Betreiben eines automatisiert fahrbaren Fahrzeugs mit einem von einem Nutzer des Fahrzeugs bedienbaren Bedienelement

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20821178

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020821178

Country of ref document: EP

Effective date: 20220712