DE102020200047A1 - Verfahren und Vorrichtung zur Darstellung von virtuellen Navigationselementen - Google Patents

Verfahren und Vorrichtung zur Darstellung von virtuellen Navigationselementen Download PDF

Info

Publication number
DE102020200047A1
DE102020200047A1 DE102020200047.6A DE102020200047A DE102020200047A1 DE 102020200047 A1 DE102020200047 A1 DE 102020200047A1 DE 102020200047 A DE102020200047 A DE 102020200047A DE 102020200047 A1 DE102020200047 A1 DE 102020200047A1
Authority
DE
Germany
Prior art keywords
navigation
picture element
navigation system
real environment
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020200047.6A
Other languages
English (en)
Inventor
Robert Jan Wyszka
Daniel Morales Fernández
Adrian Haar
Michael Wittkämper
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102020200047.6A priority Critical patent/DE102020200047A1/de
Priority to EP20821178.9A priority patent/EP4073470A1/de
Priority to CN202080091966.4A priority patent/CN114867992A/zh
Priority to PCT/EP2020/085009 priority patent/WO2021139941A1/de
Publication of DE102020200047A1 publication Critical patent/DE102020200047A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3632Guidance using simplified or iconic instructions, e.g. using arrows

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Instrument Panels (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Darstellung von virtuellen Navigationselementen, wobei man aus Daten eines Navigationssystems wenigstens ein virtuelles Navigationselement (21) erzeugt und auf einer Anzeigeeinrichtung in Überlagerung mit einer realen Umgebung darstellt, wobei das virtuelle Navigationselement (21) ein primäres Bildelement (21a) und ein sekundäres Bildelement (21b) umfasst, wobei das sekundäre Bildelement (21b) in Abhängigkeit von wenigstes einem Parameter der realen Umgebung veränderbar dargestellt wird.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Darstellung von virtuellen Navigationselementen.
  • Navigationsgeräte, die einen Nutzer bei der Navigation von seinem aktuellen Standort zu einem gewünschten Ziel unterstützen, sind seit vielen Jahren bekannt. Üblicherweise wird dabei die Position des Navigationsgerätes mittels satellitengesteuerter Positionsbestimmung erfasst und die Route zum gewünschten Ziel mittels Kartendaten ermittelt. Derartige Navigationsgeräte weisen meist ein Display auf, auf dem eine Karte mit der Position des Gerätes, sowie die ermittelte Route angezeigt werden. Zusätzlich zur Route können, insbesondere wenn Richtungsänderungen bevorstehen, akustische oder visuelle Hinweise zu der aktuell einzuhaltenden oder zu ändernden Richtung ausgegeben werden. Für visuelle Richtungsinformationen sind insbesondere Richtungspfeile und Ähnliches weit verbreitet. Derartige Navigationsgeräte stehen für unterschiedlichste Fortbewegungsarten zur Verfügung. Beispielsweise sind Navigationsgeräte häufig in das Infotainmentsystem von Kraftfahrzeugen integriert. Es sind aber auch dezidierte Navigationsgeräte für Motorradfahrer, Fahrradfahrer, Wanderer, usw. auf dem Markt. Da Smartphones heutzutage über geeignete Bildschirme und die entsprechende Sensorik verfügen, sind inzwischen zahlreiche Navigationsapplikationen (Apps) für Smartphones auf dem Markt, die anstelle dezidierter Navigationsgeräte genutzt werden können.
  • In vielen Anwendungsfällen, insbesondere im Kraftfahrzeugsbereich, besteht eine wesentliche Herausforderung darin, den Nutzer von Navigationsinformationen möglichst wenig von seiner Hauptaufgabe, beispielsweise dem Führen eines Fahrzeugs, abzulenken. Daher werden heute in vielen Fahrzeugen sogenannte Head-up-Displays (HUDs) verbaut, die es ermöglichen, relevante Informationen, wie beispielsweise Fahrzeuggeschwindigkeit, aber auch Navigationshinweise, in das Sichtfeld des Nutzers (beispielsweise des Fahrers eines Kraftfahrzeugs) einzublenden. Bei herkömmlichen HUDs sollen die Navigationsinformationen zwar für den Fahrer sichtbar sein, ohne dass er den Blick von der Straße nehmen muss, aber die genaue Platzierung der Navigationsinformationen hat noch keinen unmittelbaren Bezug zu der vom Fahrer wahrgenommenen Umgebung. Es existieren aber bereits Versuche, die genaue Position und Ausrichtung des Fahrzeugs und die vom Fahrer wahrgenommene Umgebung so genau zu lokalisieren, dass Navigationsinformationen im Sinne einer „Augmented Reality“ (AR) so dargestellt werden können, dass beispielsweise ein Abbiegehinweis (Richtungspfeil) an der Stelle in das Gesichtsfeld des Fahrers projiziert wird, an der sich auch in der Realität die zu nutzende Abzweigung befindet.
  • In der deutschen Patentanmeldung DE 10 2014 001 710 A1 wird eine Vorrichtung zur augmentierten Darstellung eines virtuellen Bildobjektes in einer realen Umgebung eines Fahrzeugs beschrieben, bei dem zwei Teilbilder des darzustellenden virtuellen Bildobjektes derart mittels eines HUD auf eine Fahrzeugscheibe projiziert werden, dass der Nutzer ein virtuelles Tiefenbild wahrnimmt, das sich außerhalb des Fahrzeugs hinter der Scheibe in der realen Umgebung zu befinden scheint. Dadurch soll das virtuelle Bildobjekt passgenau in die reale Umgebung eingeführt werden, so dass dem Fahrer der Eindruck vermittelt wird, ein wahrgenommenes reales Objekt würde direkt markiert werden.
  • In der deutschen Patentanmeldung DE 10 2015 006 640 A1 wird die Darstellung augmentierter Navigationselemente durch ein Head-up-Displaysystem beschrieben, das kontaktanaloge Navigationselemente und richtungsanaloge Navigationselemente umfasst. Unter kontaktanalogen Navigationselementen werden dabei ortsfest projizierte Bestandteile der Umwelt verstanden, die in der sichtbaren Fahrzeugumgebung lokalisiert werden können. Die kontaktanalogen Navigationselemente werden angezeigt, wenn das Objekt im Rahmen der konkreten Fahrsituation augmentierbar ist. Demgegenüber sind richtungsanaloge Navigationselemente keiner konkreten Position in der wahrnehmbaren Umgebung zugeordnet, sondern zeigen lediglich die nächste vorzunehmende Richtungsänderung an, auch wenn der entsprechende Manöverpunkt noch nicht augmentierbar ist.
  • In der deutschen Patentanmeldung DE 10 2014 219 567 A1 wird ein System für dreidimensionale Navigation beschrieben, bei dem Grafikelemente in unterschiedlichen Brennebenen auf ein HUD projiziert werden. Durch sequentielles Projizieren eines Grafikelementes (Avatar) auf verschiedene Brennebenen kann das Grafikelement als ein sich bewegender Avatar animiert werden. Dadurch ist es beispielsweise möglich, dass sich der Avatar im Blickfeld des Nutzers bei einer bevorstehenden Richtungsänderung von der aktuellen Straße in die bei der Richtungsänderung zu bewegende Straße hineinbewegt und somit die bevorstehende Richtungsänderung deutlicher als nur durch einen bloßen Richtungspfeil anzeigt. Es wird auch vorgeschlagen, die anzuzeigenden Grafikelemente auf der Grundlage von einem oder mehreren Straßenzuständen und der momentanen Position des Fahrzeugs anzupassen, um beispielsweise entsprechende Warnungen vor Schlaglöchern und Ähnlichem zu symbolisieren.
  • Mit den bekannten Verfahren und Vorrichtungen ist es zwar möglich, virtuelle Bildobjekte, beispielsweise Navigationshinweise, im Sinne einer Augmented Reality (AR) in das Sichtfeld eines Nutzers, wie beispielsweise des Fahrers eines Kraftfahrzeugs, einzublenden und auch Zusatzinformationen auszugeben, beispielsweise Warnhinweise auf Objekte auf der Fahrbahn oder auf Straßenschäden. Allerdings sind bei bisher bekannten Navigationssystemen die virtuellen Navigationselemente lediglich Bildobjekte, deren Eigenschaften aus den vom Navigationssystem gelieferten Routendaten resultieren. Selbst bei einer möglichst guten Anpassung der Darstellung der virtuellen Navigationselemente in die sichtbare Umgebung im Sinne einer Augmented Reality (AR), fehlt es bei den bisher bekannten Navigationsdarstellungen an einer unmittelbaren, für den Nutzer nachvollziehbaren Verknüpfung der Bildelemente, insbesondere des visuellen Eindrucks der Bildelemente, mit der realen Umgebung. Der Nutzer wird daher die virtuellen Navigationselemente stets als Fremdkörper im Sichtfeld wahrnehmen, deren Daten von einem technischen System geliefert werden, das nicht mit seiner eigenen Wahrnehmung korreliert ist. Dies mag bei reinen Navigationssystemen noch kein größeres Problem darstellen, weil letztlich die Handlungshoheit im Sinne einer Umsetzung der Navigationshinweise beim Fahrer verbleibt. Mit zunehmendem Autonomiegrad zukünftiger Fahrzeuggenerationen kann diese Entkopplung von persönlicher Wahrnehmung der Nutzer und autonomer Entscheidungen von Fahrzeugsystemen ein Vertrauensproblem hervorrufen.
  • Auf europäischer Ebene wird im Straßenverkehr die Autonomie des Fahrzeugs in fünf Stufen klassifiziert, die von dem sogenannten Level 0 (alle Fahrfunktionen werden vom Fahrer ausgeübt), über Level 1 (einfache Assistenzsysteme, wie Abstandsregelsysteme), Level 2 (teilautonomes Fahren mit komplexeren Assistenzsystemen, wie Spurhalteassistent, Stauassistent, automatischer Einparkhilfe), Level 3 (hochautonomes Fahren mit Assistenzsystem, die selbständig Überholvorgänge und Abbiegevorgänge mit Spurwechsel durchführen können), Level 4 (vollautomatisches Fahren, wobei noch ein Fahrer vorhanden ist, der im Notfall die Kontrolle übernehmen kann) bis zu Level 5 (vollautomatisches Fahren ohne Fahrer) reichen. Spätestens ab Level 3 wird zumindest ein Teil der Verantwortung für die Steuerung des Fahrzeugs zumindest zeitweise von einem computergesteuerten System übernommen was zu einer Verunsicherung des Nutzers führen kann.
  • Der vorliegenden Erfindung liegt daher das technische Problem zu Grunde, ein Verfahren und eine Vorrichtung zur Darstellung virtueller Navigationselemente bereitzustellen, welche dem Nutzer ein besseres Verständnis für die Anzeigen und Handlungsempfehlungen des Navigationssystems ermöglicht. Vor allem im Bereich des autonomen oder teilautonomen Fahrens sollen mit dem erfindungsgemäßen Verfahren und der erfindungsgemäßen Vorrichtung Möglichkeiten geschaffen werden, dass aus Navigationsdaten und gegebenenfalls zusätzlichen Sensordaten berechnete Fahrzeugverhalten frühzeitig in einer intuitiv zu erfassenden Art und Weise darzustellen.
  • Gelöst wird dieses technische Problem durch das Verfahren des Anspruchs 1. Vorteilhafte Weiterbildungen des erfindungsgemäßen Verfahrens sind Gegenstand der abhängigen Ansprüche.
  • Die Erfindung betrifft daher ein Verfahren zur Darstellung von virtuellen Navigationselementen, wobei man aus Daten eines Navigationssystems wenigstens ein virtuelles Navigationselement erzeugt und auf einer Anzeigeeinrichtung in Überlagerung mit einer realen Umgebung darstellt, wobei das erfindungsgemäße Verfahren dadurch gekennzeichnet ist, dass das virtuelle Navigationselement ein primäres Bildelement und ein sekundäres Bildelement umfasst, wobei das sekundäre Bildelement in Abhängigkeit von wenigstes einem Parameter der realen Umgebung veränderbar dargestellt wird.
  • Der Erfindung liegt daher die Überlegung zu Grunde, die Darstellung von Navigationselementen in wenigstens zwei Bildelemente aufzutrennen, wobei ein erstes primäres Bildelement im Wesentlichen anhand von Navigationsdaten animiert wird, und daher beispielsweise herkömmlichen Navigationselementen, wie Richtungspfeilen oder beweglichen Avataren entsprechen kann. Die Darstellung des primären Bildelementes wird daher in erster Linie von Navigationsdaten beeinflusst. Wird beispielsweise das primäre Bildelement als plastischer, dreidimensionaler Pfeil animiert, so kann eine Richtungsänderung durch drehen/kippen des Pfeils angezeigt werden. Das primäre Bildelement kann auch dynamisch animiert werden, um beispielsweise anzuzeigen, in welcher Form ein Spur-oder Richtungswechsel durchgeführt werden soll. Im erfindungsgemäßen Verfahren ist dem primären Bildelement eines Navigationselementes jedoch noch wenigstens ein weiteres, sekundäres Bildelement zugeordnet, dessen Darstellung in Abhängigkeit von wenigstes einem Parameter der realen Umgebung verändert wird. Bei diesem wenigstens einem Parameter handelt es sich um einen zusätzlichen Parameter, der über die zur Darstellung des primären Bildelementes verwendeten Informationen hinausgeht. Vorzugsweise stammen die Parameter, die zur Darstellung des sekundären Bildelementes herangezogen werden aus Daten, welche die Wechselwirkung des Navigationssystems mit seiner Umgebung beschreiben, insbesondere den Einfluss der Umgebung auf das Navigationssystem bzw. auf das Fahrzeug, in welchem das Navigationssystem eingebaut ist. Zur Ermittlung derartiger Einflüsse und daher zur Festlegung der Parameter, welche die Darstellung des sekundären Bildelementes beeinflussen, können beispielsweise unterschiedlichste Sensoren, die mit dem Navigationssystem kommunizieren herangezogen werden. Im Anwendungsfall eines Kraftfahrzeugs können beispielsweise jegliche in modernen Fahrzeugen verbauten Sensoren ausgewertet werden. Im Darstellungsparadigma aus primären Bildelement und sekundären Bildelement zeigt die Veränderung des sekundären Bildelementes gewissermaßen die Wechselwirkung des primären Bildelementes mit der realen Umgebung an. Somit wird also eine Verbindung des primären Bildelementes, welches den Nutzer oder das Fahrzeug repräsentiert, zur realen Umgebung symbolisiert. Auf diese Weise ist es möglich, konkrete, situationsabhängige Umgebungseinflüsse auf das Verhalten des Navigationssystems, welches sich letztlich auch im Verhalten des primären Bildelementes und, beim Einsatz in Fahrzeugen, vor allem im Verhalten des Fahrzeugs widerspiegeln, grafisch anhand von Veränderungen des sekundären Bildelementes darzustellen. Aufgrund der kombinierten Darstellung von primären Navigationsinformationen mittels des primären Bildelementes und von Einflüssen der Umgebung auf die Navigation bzw. auf das Fahrzeugverhalten durch entsprechende grafische Veränderung des sekundären Bildelementes, kann der Nutzer die Anzeigen und Handlungsempfehlungen des Navigationssystems oder daraus abgeleitete autonome oder Teil autonome Fahrzeugaktionen besser nachvollziehen, was insbesondere bei zunehmender Autonomie von Fahrzeugen ein höheres Vertrauen des Nutzers in das technische System bewirkt. Vor allem wenn das System prädikativ anhand von Veränderungen des sekundären Bildelements Hinweise auf bevorstehende Fahrzeugaktionen gibt, werden für den Nutzer überraschende oder nicht nachvollziehbare Fahrzeugaktionen verringert, was ebenfalls das Vertrauen in einen autonomen oder teilautonomen Fahrzeugbetrieb erhöht.
  • Die durch Veränderung des sekundären Bildelementes grafisch repräsentierte Wechselwirkung des primären Bildelementes mit der realen Umgebung kann durch unterschiedlichste Faktoren modifiziert werden. Beispielsweise kann das primäre Bildelement ein beweglich entlang der Navigationsroute animiertes Bildelement sein. In diesem Fall kann das sekundäre Bildelement beispielsweise genutzt werden, um Bewegungsinformationen mit dem primären Bildelement zu verknüpfen, beispielsweise kann das sekundäre Bildelement ein an das primäre Bildelement angehängtes längliches Bildelement sein, dessen dargestellte Länge Informationen zur Geschwindigkeit des primären Bildelementes wiedergibt. Da das primäre Bildelement häufig ein Symbol des Fahrzeugs beziehungsweise des zukünftigen Verhaltens des Fahrzeugs darstellt, erkennt der Nutzer beispielsweise durch Längenänderung des sekundären Bildelementes, dass das Navigationssystem eine Veränderung der Fahrzeuggeschwindigkeit empfiehlt, beziehungsweise bei einem autonomen System erkennt der Nutzer, dass das Fahrzeug gleich eine entsprechende Geschwindigkeitsänderung vornehmen wird. In die Darstellung des sekundären Bildelementes können beispielsweise auch Informationen über die aktuelle Genauigkeit der Positionsbestimmung des Navigationssystems, eventuelle Gefahrensituationen und Ähnliches einfließen. Hierzu können zusätzlich zu den im Rahmen eines satellitengestützten Navigationssystems vorhandenen Daten auf weitere, je nach Anwendungsfall vorhandene Sensordaten, wie beispielsweise Kameradaten, Radardaten, Sonardaten, LIDAR-Daten zurückgegriffen werden.
  • Gemäß einer Ausführungsform der Erfindung wird das primäre Bildelement als intransparentes Grafiksymbol dargestellt, beispielsweise als ein zwei- oder dreidimensional animiertes Pfeilsymbol. „Intransparent“ bedeutet insofern, dass es vorzugsweise als ausgefülltes Symbol dargestellt wird, so dass die reale Umgebung nicht oder nur unwesentlich durchscheint.
  • Das sekundäre Bildelement wird gemäß einer bevorzugten Ausführungsform der Erfindung als ein mit dem primären Bildelement verbundenen grafischen Netz dargestellt, zwischen dessen Maschen die reale Umgebung erkennbar ist. In der Darstellung auf einer Anzeigeeinrichtung in Überlagerung mit der realen Umgebung stellt bereits diese Netzdarstellung eine Verknüpfung des primären Bildelementes mit der Umgebung dar, da sich das Netz gewissermaßen über die Umgebung legt und so bereits auf Grund der gewählten Darstellung eine Verknüpfung des technischen Systems (Navigationssystem) mit den Einflüssen der Umgebung symbolisiert, was das Vertrauen des Nutzers in das System erhöht.
  • Gemäß einer Ausführungsform wird das grafische Netz aus an ihren Eckpunkten verbundenen Dreiecken aufgebaut. Durch veränderliche Größe der Dreiecke können unterschiedliche Wechselwirkungen mit der Umgebung symbolisiert werden, beispielsweise höhere Genauigkeiten von Sensordaten durch ein dichteres Netz oder auch unterschiedlich wichtige Bereiche der Wechselwirkung des primären Bildelementes mit der Umgebung durch mehr oder weniger dichte Abschnitte des Netzes. Im teilautonomen Betrieb kann dem Nutzer so beispielsweise signalisiert werden, dass aufgrund der verschlechterten Sensordaten eine baldige Aufforderung zur Übernahme des Fahrzeugs im manuellen Betrieb zu erwarten ist. Wenn eine solche Aufforderung dann beispielsweise im Rahmen einer komplexeren Verkehrssituation, die mit den verschlechterten Sensordaten nicht mehr autonom beherrschbar ist, tatsächlich ausgelöst wird, ist für den Nutzer zumindest das Überraschungsmoment verringert.
  • Gemäß einer Ausführungsform weist das sekundäre Bildelement eine veränderbare Länge auf, um beispielsweise unterschiedliche Geschwindigkeiten zu symbolisieren. Das Netz kann auch ganz verschwinden, wenn beispielsweise ein Anhalten des Fahrzeugs erforderlich ist.
  • Gemäß einer weiteren Ausführungsform weist das sekundäre Bildelement eine veränderbare Farbe auf, um beispielsweise Gefahrensituationen wie Schlaglöcher, Glatteis, Aquaplaning oder Gegenstände auf der Fahrbahn zu symbolisieren.
  • Die Erfindung betrifft auch ein Navigationssystem, welches Mittel zur Erzeugung wenigstens eines virtuellen Navigationselementes und eine Anzeigeeinrichtung zur Darstellung des virtuellen Navigationselementes in Überlagerung mit einer realen Umgebung umfasst, wobei das Navigationssystem Mittel zur Durchführung des erfindungsgemäßen Verfahrens aufweist.
  • Das Navigationssystem kann beispielsweise ein in ein Fahrerinformationssystem eines Kraftfahrzeugs integriertes Navigationssystem sein. In diesem Fall ist die Anzeigeeinrichtung vorzugsweise als Head-up-Display (HUD) ausgebildet. Das Head-up-Display kann beispielsweise eine Projektionseinrichtung umfassen, welche das virtuelle Navigationselement auf die Windschutzscheibe im Blickfeld des Fahrers des Kraftfahrzeugs oder auf eine zwischen dem Fahrer und der Windschutzscheibe angeordnete, dedizierte transparente, aber teilweise reflektierende HUD-Scheibe projiziert. Da die reale Umgebung dann ohnehin im Blickfeld des Fahrers liegt, ist somit eine verbesserte Augmented Reality Darstellung von Navigationselementen möglich.
  • Bei dem erfindungsgemäßen Navigationssystem kann es sich aber auch um ein dezidiertes Navigationsgerät oder eine in einem Smartphone implementierte Applikation (App) handeln. In diesem Fall kann die reale Umgebung mittels einer Kamera des Navigationsgerätes oder einer Kamera des Smartphones erfasst werden und zusammen mit dem virtuellen Navigationselement auf einem Display des Navigationsgerätes beziehungsweise auf dem Smartphonedisplay als Anzeigeeinrichtung dargestellt werden. In allen bisher beschriebenen Varianten kann als Anzeigeeinrichtung auch eine vom Nutzer zu tragende Datenbrille (auch als Augmented Reality (AR)-Brille bekannt) verwendet werden, auf der dann die virtuellen Navigationselemente in Überlagerung mit der realen Umgebung dargestellt werden.
  • Das erfindungsgemäße Verfahren eignet sich nicht nur für Augmented Reality (AR)-Anwendungen, sondern kann beispielsweise auch in Virtual Reality (VR)-Umgebungen und Mixed Reality (MR)-Umgebungen eingesetzt werden.
  • Neben Kraftfahrzeugen, Fahrrädern, insbesondere E-Bikes, Skootern und zweirädrigen Personentransportern, wie sie beispielsweise von der Firma Segway Inc. angeboten werden, kann das erfindungsgemäße Verfahren und das erfindungsgemäße Navigationssystem in unterschiedlichen Mobilitätsanwendungen eingesetzt werden, wie beispielsweise in Drohnen, Fluggeräten, Zügen, Schiffen usw.
  • Besonders bevorzugt wird das erfindungsgemäße System aber in Kraftfahrzeugen eingesetzt. Gegenstand der Erfindung ist daher außerdem ein Kraftfahrzeug, dass ein wie oben beschriebenes Navigationssystem aufweist.
  • Schließlich betrifft die Erfindung auch ein Computerprogramm, das ausgelegt ist, bei Abarbeitung in einer Recheneinheit die Schritte des Verfahrens zur Darstellung von virtuellen Navigationselementen in der oben beschriebenen Weise durchzuführen.
  • Die Erfindung wird im Folgenden unter Bezugnahme auf in den beigefügten Zeichnungen dargestellte Ausführungsbeispiele näher erläutert.
  • In der Zeichnung zeigt
    • 1 ein Cockpit eines Kraftfahrzeugs mit einem Head-up-Display;
    • 2 einen Blick durch die Windschutzscheibe eines Kraftfahrzeugs mit einem einer realen Umgebung überlagerten Projektionsbereich des Head-up-Displays;
    • 3 eine Ausführungsform eines erfindungsgemäßen virtuellen Navigationselementes; und
    • 4 eine Variante der Darstellung der 3 in einer anderen Verkehrssituation;
  • In 1 ist ein Cockpit eines Kraftfahrzeugs 10 dargestellt, in welchem ein Fahrerinformationssystem/Infotainment-System 11 mit berührungsempfindlichen Bildschirm 12 angeordnet ist, das ein Navigationssystem 12 umfasst. Ein Infotainment-System bezeichnet bei Kraftfahrzeugen, speziell Pkw, die Zusammenführung von Autoradio, Navigationssystem, Freisprecheinrichtung, Fahrerassistenzsystemen und weiterer Funktionen in einer zentralen Bedieneinheit. Der Begriff Infotainment ist zusammengesetzt aus den Worten Information und Entertainment (Unterhaltung). Zur Bedienung des Infotainment-Systems wird hauptsächlich der berührungsempfindliche Bildschirm 12 („Touchscreen“) benutzt, wobei dieser Bildschirm 12 insbesondere von einem Fahrer des Fahrzeugs 10, aber auch von einem Beifahrer des Fahrzeugs 10 gut eingesehen und bedient werden kann. Unterhalb des Bildschirms 12 können zudem mechanische Bedienelemente, beispielsweise Tasten, Drehregler oder Kombinationen hiervon, wie beispielsweise Drückdrehregler, in einer Eingabeeinheit 13 angeordnet sein. Typischerweise ist auch eine Bedienung von Teilen des Infotainment-Systems 11 über ein Lenkrad 14 des Fahrzeugs 10 möglich.
  • Da der berührungsempfindlichen Bildschirm 12 während der Fahrt nicht im Sichtfeld des Fahrers liegt, können Informationen, wie beispielsweise Navigationsdaten, außerdem mittels eines Projektors 15 eines Head-up-Displays 16 auf einen Projektionsbereich 17 einer Windschutzscheibe 18 des Fahrzeugs 10 projiziert werden.
  • In 2 ist der Ausschnitt eines Blicks des Fahrers des Kraftfahrzeugs 10 der 1 in Fahrtrichtung durch die Windschutzscheibe 18 dargestellt man erkennt über dem Lenkrad 14 den transparenten Projektionsbereich 17 des Head-up-Displays 16 durch den die reale Umgebung des Kraftfahrzeugs 10, beispielsweise ein in Fahrtrichtung liegender Straßenabschnitt 19, erkennbar ist. In den Projektionsbereich 17 werden mittels des, in 2 durch das Lenkrad 14 verdeckten, Projektors 15 virtuelle Informationselemente 20 projiziert, die aus Sicht des Fahrers der realen Umgebung überlagert werden. Im dargestellten Beispiel bestehen die Informationselemente 20 aus einem Navigationselement 21 und einem Datenelement 22, dass beispielsweise die aktuelle Fahrzeuggeschwindigkeit anzeigen kann. Das Navigationselement 21 besteht aus einem primären Bildelement 21a und einem sekundären Bildelement 21b, die im folgenden unter Bezugnahme auf die 3 und 4 ausführlicher erläutert werden.
  • Die 3 und 4 zeigen den Blick des Fahrers durch die Windschutzscheibe 18 des Kraftfahrzeugs 10 der 1 und 2, wobei aufgrund des aktiven Head-up-Displays 16 ein virtuelle Informationselemente 20 einer realen Umgebung, die im dargestellten Beispiel eine Szenerie aus Straßen 23 und Gebäuden 24 umfasst, überlagert ist.
  • In 3 ist eine Ausführungsform eines virtuellen Navigationselementes 20 in einer situationsabhängigen ersten Darstellung gezeigt. Das virtuelle Navigationselement10 besteht einem primären Bildelement 21a, das im vorliegenden Fall ein intransparenter Richtungspfeil ist, sowie einem sekundären Bildelement 21b, welches im dargestellten Beispiel als grafisches Netz 21c ausgebildet ist, das aus zahlreichen miteinander an den Eckpunkten verknüpften Dreiecken 21d aufgebaut ist. Eine solche Darstellung wird in der Computergrafik auch als Mesh bezeichnet. Im vorliegenden Beispiel symbolisiert das Netz 21c einen digitalen Teppich, der das primäre Bildelement 21a mit der realen Umgebung verknüpft. Beispielsweise kann die Breite des Netzes 21c quer zu dem in Fahrtrichtung liegenden Straßenabschnitt 19 einer Straße 23 und/oder die Maschenweite des Netzes die Qualität der Sensordaten repräsentieren, die aktuell für die Navigation und/oder für das autonome Fahren zur Verfügung stehen. Die Breite des Netzes 21c zeigt daher an, wie präzise das primäre Bildelement 21a in der Umgebung verortet ist. Der Fahrer kann daher beim teilautonomen Fahren bereits aufgrund dieser visuellen Information darauf vorbereitet werden, vom System gegebenenfalls kurzfristig zur Übernahme der manuellen Fahrfunktion aufgefordert zu werden.
  • Derartige Mesh-Objekte werden in der Computergrafik auch verwendet, um eine reale Umgebung zu scannen, und sie in einer AR-, MR- oder VR-Umgebung graphisch zu repräsentieren. Entsprechende Software-Applikationen sind bereits kommerziell erhältlich, beispielsweise im Rahmen des HoloLens-Kinetic-Projektes der Firma Microsoft Inc. für Datenbrillen in einer MR-Umgebung. Entsprechende Applikationen können auch im Rahmen der vorliegenden Erfindung verwendet werden, um beispielsweise den Straßenabschnitt 19 zu scannen und Gefahrobjekte, wie beispielsweise Straßenunebenheiten, durch eine entsprechende Anpassung des Netzes räumlich wiederzugeben und/oder das Netz ganz oder einen entsprechenden Teilabschnitt des Netzes, welcher der Lage des erkannten Gefahrobjektes entspricht, etwa durch eine Signalfarbe oder eine lokale Erhöhung der Intensität bei der Darstellung des Netzes, zu markieren.
  • Außer durch scannen der Umgebung können auch andere Sensorparameter oder anderweitig übermittelte Informationen in die Darstellung des Netzes 21c einfließen. Beispielsweise können Sensordaten oder auch über das Infothemen-System empfangene Wetterdaten zu einer Einfärbung des Netzes 21c in einer Warn-oder Alarmfarbe verwendet werden, wenn die Daten beispielsweise auf tatsächlich registrierte oder potenziell mögliche Fahrbahnvereisung o. ä. hinweisen.
  • Zudem kann man beispielsweise die Länge des Netzes 21c mit der aktuellen beziehungsweise in den nächsten Momenten empfohlenen Fahrzeuggeschwindigkeit verknüpfen. Beispielsweise kann das in 3 dargestellte ausgedehnte Netz symbolisieren, dass derzeit keine Geschwindigkeitsverringerung nötig ist beziehungsweise sogar eine Geschwindigkeitserhöhung möglich ist.
  • In dem in 4 dargestellten Beispiel, welches im Wesentlichen der Darstellung der 3 entspricht, wird jedoch unterstellt, dass das Fahrzeug entsprechend der ermittelten Routenplanung an der nächsten Abzweigung links abbiegen soll. Nähert sich das Fahrzeug der Abzweigung befindet sich das primäre Bildelement 21a in der dargestellten Verkehrssituation noch auf dem aktuellen Straßenabschnitt 19, das sekundäre Bildelement 21b, also das Netz 21c, zeigt jedoch durch eine Verkürzung seiner Ausdehnung in der aktuellen Fahrtrichtung bereits an, dass die Geschwindigkeit verringert werden soll, beziehungsweise bei einem autonomen Fahrbetrieb, dass die Geschwindigkeit gerade verringert oder in Kürze verringert werden wird. Wie man aus 4 außerdem entnehmen kann, wird das primäre Bildelement 21a, das hier als plastischer Richtungspfeil ausgebildet ist, auf Höhe der Abzweigung in die neue Fahrtrichtung gedreht, um auch die bevorstehende Richtungsänderung zu signalisieren. Außerdem kann temporär ein weiteres bewegliches Bildelement 21e angezeigt werden, dass im dargestellten Beispiel eine ähnliche Form wie das primäre Bildelement hat, und sich von diesem ausgehend in die neue Fahrtrichtung bewegt, um die geplante Richtungsänderung noch deutlicher anzuzeigen.
  • Bezugszeichenliste
  • 10
    Kraftfahrzeug
    11
    Fahrerinformationssystem / Infotainment-System
    12
    berührungsempfindlichen Bildschirm
    13
    Eingabeeinheit
    14
    Lenkrad
    15
    Projektor
    16
    Head-up-Display
    17
    Projektionsbereich
    18
    Windschutzscheibe
    19
    Straßenabschnitt
    20
    virtuelles Informationselement
    21
    Navigationselement
    21a
    primäres Bildelement
    21b
    sekundäres Bildelement
    21c
    Netz / Mesh
    21d
    verknüpfte Dreiecke
    21e
    bewegliches Bildelement
    22
    Datenelement
    23
    Straße
    24
    Gebäude
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102014001710 A1 [0004]
    • DE 102015006640 A1 [0005]
    • DE 102014219567 A1 [0006]

Claims (12)

  1. Verfahren zur Darstellung von virtuellen Navigationselementen, wobei man aus Daten eines Navigationssystems wenigstens ein virtuelles Navigationselement (21) erzeugt und auf einer Anzeigeeinrichtung in Überlagerung mit einer realen Umgebung darstellt, dadurch gekennzeichnet, dass das virtuelle Navigationselement (21) ein primäres Bildelement (21a) und ein sekundäres Bildelement (21b) umfasst, wobei das sekundäre Bildelement (21b) in Abhängigkeit von wenigstes einem Parameter der realen Umgebung veränderbar dargestellt wird.
  2. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, dass das primäre Bildelement (21a) als intransparentes Graphiksymbol dargestellt wird.
  3. Verfahren gemäß einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass das sekundäre Bildelement (21b) ein mit dem primären Bildelement (21a) verbundenes graphisches Netz (21c) dargestellt wird, zwischen dessen Maschen die realen Umgebung erkennbar ist.
  4. Verfahren gemäß Anspruch 3, dadurch gekennzeichnet, dass das graphische Netz (21c) aus an ihren Eckpunkten verbunden Dreiecken (21d) aufgebaut wird.
  5. Verfahren gemäß einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das sekundäre Bildelement (21b) eine veränderbare Länge aufweist.
  6. Verfahren gemäß einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das sekundäre Bildelement (21b) eine veränderbare Farbe aufweist.
  7. Navigationssystem, welches Mittel zur Erzeugung wenigstens eines virtuellen Navigationselementes, das ein primäres Bildelement (21a) und ein sekundäres Bildelement (21b) umfasst, und eine Anzeigeeinrichtung zur Darstellung des virtuellen Navigationselementes in Überlagerung mit einer realen Umgebung umfasst, wobei das Navigationssystem Mittel zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 6 aufweist.
  8. Navigationssystem gemäß Anspruch 7, dadurch gekennzeichnet, dass die Anzeigeeinrichtung ein Head-up-Display (16) umfasst.
  9. Navigationssystem gemäß Anspruch 7, dadurch gekennzeichnet, dass die Anzeigeeinrichtung ein Display eines tragbaren Navigationsgerätes oder eines Smartphones umfasst.
  10. Navigationssystem gemäß einem der Ansprüche 7-9, dadurch gekennzeichnet, dass die Anzeigeeinrichtung ein Datenbrille umfasst.
  11. Kraftfahrzeug, dadurch gekennzeichnet, dass das Kraftfahrzeug (10) ein Navigationssystem nach einem der Ansprüche 7 bis 10 aufweist.
  12. Computerprogramm, dadurch gekennzeichnet, dass das Computerprogramm ausgelegt ist, bei Abarbeitung in einer Recheneinheit die Schritte des Verfahrens zur Darstellung von virtuellen Navigationselementen nach einem der Ansprüche 1 bis 6 durchzuführen.
DE102020200047.6A 2020-01-06 2020-01-06 Verfahren und Vorrichtung zur Darstellung von virtuellen Navigationselementen Pending DE102020200047A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102020200047.6A DE102020200047A1 (de) 2020-01-06 2020-01-06 Verfahren und Vorrichtung zur Darstellung von virtuellen Navigationselementen
EP20821178.9A EP4073470A1 (de) 2020-01-06 2020-12-08 Verfahren und vorrichtung zur darstellung von virtuellen navigationselementen
CN202080091966.4A CN114867992A (zh) 2020-01-06 2020-12-08 用于呈现虚拟导航元素的方法和装置
PCT/EP2020/085009 WO2021139941A1 (de) 2020-01-06 2020-12-08 Verfahren und vorrichtung zur darstellung von virtuellen navigationselementen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020200047.6A DE102020200047A1 (de) 2020-01-06 2020-01-06 Verfahren und Vorrichtung zur Darstellung von virtuellen Navigationselementen

Publications (1)

Publication Number Publication Date
DE102020200047A1 true DE102020200047A1 (de) 2021-07-08

Family

ID=73790094

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020200047.6A Pending DE102020200047A1 (de) 2020-01-06 2020-01-06 Verfahren und Vorrichtung zur Darstellung von virtuellen Navigationselementen

Country Status (4)

Country Link
EP (1) EP4073470A1 (de)
CN (1) CN114867992A (de)
DE (1) DE102020200047A1 (de)
WO (1) WO2021139941A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021128257A1 (de) 2021-10-29 2023-05-04 Bayerische Motoren Werke Aktiengesellschaft Darstellung von Informationen an Bord eines Fahrzeugs
DE102022133776A1 (de) 2022-12-16 2024-06-27 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung, Fortbewegungsmittel und Verfahren zur Ausgabe eines Hinweises an einen Anwender eines Fortbewegungsmittels

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100153000A1 (en) * 2005-10-26 2010-06-17 Takashi Akita Navigation system
JP2013123970A (ja) * 2011-12-14 2013-06-24 Toshiba Corp 表示装置
DE102014001710A1 (de) 2014-02-08 2014-08-14 Daimler Ag Vorrichtung und Verfahren zur augmentierten Darstellung eines virtuellen Bildobjektes in einer realen Umgebung
DE102014219567A1 (de) 2013-09-30 2015-04-02 Honda Motor Co., Ltd. Dreidimensionale (3-d) navigation
US20160052394A1 (en) * 2014-08-22 2016-02-25 Toyota Jidosha Kabushiki Kaisha In-vehicle device, control method of in-vehicle device, and computer- readable storage medium
DE102015006640A1 (de) 2015-05-22 2016-03-10 Daimler Ag Darstellung augmentierter Navigationselemente durch ein Head-Up-Display System

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010052000A1 (de) * 2010-11-19 2012-05-24 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Ausgabe von Navigationshinweisen
DE102016203080A1 (de) * 2016-02-26 2017-08-31 Robert Bosch Gmbh Verfahren zum Betreiben eines Head-Up-Displays, Head-Up-Display Einrichtung
US10769452B2 (en) * 2016-11-14 2020-09-08 Lyft, Inc. Evaluating and presenting pick-up and drop-off locations in a situational-awareness view of an autonomous vehicle
CN106500716A (zh) * 2016-12-13 2017-03-15 英业达科技有限公司 车辆导航投影系统及其方法
DE102017221488A1 (de) * 2017-11-30 2019-06-06 Volkswagen Aktiengesellschaft Verfahren zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102018203462A1 (de) * 2018-03-07 2019-09-12 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102018203927A1 (de) * 2018-03-15 2019-09-19 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Display-Vorrichtung für ein Kraftfahrzeug
DE102018207440A1 (de) * 2018-05-14 2019-11-14 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer "augmented reality"-Einblendung für die Darstellung einer Navigationsroute auf einer AR-Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100153000A1 (en) * 2005-10-26 2010-06-17 Takashi Akita Navigation system
JP2013123970A (ja) * 2011-12-14 2013-06-24 Toshiba Corp 表示装置
DE102014219567A1 (de) 2013-09-30 2015-04-02 Honda Motor Co., Ltd. Dreidimensionale (3-d) navigation
DE102014001710A1 (de) 2014-02-08 2014-08-14 Daimler Ag Vorrichtung und Verfahren zur augmentierten Darstellung eines virtuellen Bildobjektes in einer realen Umgebung
US20160052394A1 (en) * 2014-08-22 2016-02-25 Toyota Jidosha Kabushiki Kaisha In-vehicle device, control method of in-vehicle device, and computer- readable storage medium
DE102015006640A1 (de) 2015-05-22 2016-03-10 Daimler Ag Darstellung augmentierter Navigationselemente durch ein Head-Up-Display System

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021128257A1 (de) 2021-10-29 2023-05-04 Bayerische Motoren Werke Aktiengesellschaft Darstellung von Informationen an Bord eines Fahrzeugs
DE102022133776A1 (de) 2022-12-16 2024-06-27 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung, Fortbewegungsmittel und Verfahren zur Ausgabe eines Hinweises an einen Anwender eines Fortbewegungsmittels

Also Published As

Publication number Publication date
EP4073470A1 (de) 2022-10-19
CN114867992A (zh) 2022-08-05
WO2021139941A1 (de) 2021-07-15

Similar Documents

Publication Publication Date Title
EP3543059B1 (de) Verfahren zur berechnung einer einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
DE102017221191B4 (de) Verfahren zur Anzeige des Verlaufs einer Sicherheitszone vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
EP3668742B1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines kraftfahrzeugs sowie kraftfahrzeug
DE102017212367B4 (de) Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit sowie Kraftfahrzeug
EP3762684A1 (de) Einblendung von zusatzinformationen auf einer anzeigeeinheit
EP3717954B1 (de) Verfahren zur anzeige des verlaufs einer trajektorie vor einem fahrzeug oder einem objekt mit einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens
DE112017007631B4 (de) Anzeigesystem und Anzeigeverfahren
EP3425442B1 (de) Verfahren und vorrichtung zum anreichern eines sichtfeldes eines fahrers eines fahrzeuges mit zusatzinformationen, vorrichtung zur verwendung in einem beobachter-fahrzeug sowie kraftfahrzeug
DE102018203121B4 (de) Verfahren zur Berechnung einer AR-Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
EP1405124A1 (de) Head-up display system und verfahren zur ortskorrrekten darstellung eines objekts im aussenraum eines fahrzeugs in bezug auf die fahrerposition
EP1527322A1 (de) Verfahren und vorrichtung zur anzeige von navigationsinformationen für ein fahrzeug
DE102018208703A1 (de) Verfahren zur Berechnung einer "augmented reality"-Einblendung für die Darstellung einer Navigationsroute auf einer AR-Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102013016251A1 (de) Verfahren und Vorrichtung zur augmentierten Darstellung
DE102014221132A1 (de) Verfahren und Vorrichtung zum Anzeigen einer Verfügbarkeit eines ersten Fahrmodus eines Fahrzeugs
DE102015212664A1 (de) Kraftfahrzeug mit einem automatischen Fahrsystem
DE102010003851A1 (de) Verfahren und Informationssystem zum Markieren eines Zielorts für ein Fahrzeug
DE102016012313A1 (de) Vorrichtung zur Unterstützung eines Fahrers eines Fahrzeugs mit einer Projektionseinrichtung
WO2021139941A1 (de) Verfahren und vorrichtung zur darstellung von virtuellen navigationselementen
EP3296795B1 (de) Verfahren zur darstellung eines bildobjekts in einem fahrzeug auf einer fahrzeugintern und einer fahrzeugextern wahrgenommenen anzeige
EP3978294A1 (de) Betreiben einer head-up-displayeinrichtung bei ausserhalb eines sichtfelds positionierten einblendbaren objekten
EP1586861A1 (de) Verfahren und Vorrichtung zur Darstellung von Fahrerinformationen
DE102019122895A1 (de) Vorrichtung, Verfahren sowie Computerprogramm zum Betreiben eines automatisiert fahrbaren Fahrzeugs mit einem von einem Nutzer des Fahrzeugs bedienbaren Bedienelement
DE102022105187B4 (de) Verfahren zum Darstellen einer Umgebung eines Fahrzeugs und Anzeigesystem
DE102019122892A1 (de) Vorrichtung, Verfahren sowie Computerprogramm zum Betreiben eines automatisiert fahrbaren Fahrzeugs mit einem von einem Nutzer des Fahrzeugs bedienbaren Bedienelement
DE102019122894A1 (de) Vorrichtung, Verfahren sowie Computerprogramm zum Betreiben eines automatisiert fahrbaren Fahrzeugs mit einem von einem Nutzer des Fahrzeugs bedienbaren Bedienelement

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings