DE102017212367A1 - Verfahren zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm - Google Patents

Verfahren zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm Download PDF

Info

Publication number
DE102017212367A1
DE102017212367A1 DE102017212367.2A DE102017212367A DE102017212367A1 DE 102017212367 A1 DE102017212367 A1 DE 102017212367A1 DE 102017212367 A DE102017212367 A DE 102017212367A DE 102017212367 A1 DE102017212367 A1 DE 102017212367A1
Authority
DE
Germany
Prior art keywords
grid
vehicle
points
display
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102017212367.2A
Other languages
English (en)
Other versions
DE102017212367B4 (de
Inventor
Daniel Gurka
Andro Kleen
Robert Jan Wyszka
Adrian Haar
Vitalij Sadovitch
Rut Miras Martinez
Michael Wittkämper
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102017212367.2A priority Critical patent/DE102017212367B4/de
Publication of DE102017212367A1 publication Critical patent/DE102017212367A1/de
Application granted granted Critical
Publication of DE102017212367B4 publication Critical patent/DE102017212367B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/23
    • B60K35/28
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • B60K2360/166
    • B60K2360/177
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Abstract

Die Erfindung betrifft ein Verfahren zur Anzeige eines Trajektorien-Verlaufs vor einem Fahrzeug (10) oder Objekt. Der Trajektorien-Verlauf wird auf einer Anzeigeeinheit (20), insbesondere ein Head-Up Display oder eine Datenbrille eingeblendet. Das Verfahren kennzeichnet sich dadurch aus, dass der Trajektorien-Verlauf in Rasterform dargestellt wird.

Description

  • Der Vorschlag betrifft das technische Gebiet von Fahrerinformationssystemen, die auch unter dem Begriff Infotainmentsystem bekannt sind. Dabei geht es im Besonderen um ein Verfahren zur Anzeige eines Trajektorien-Verlaufs vor einem Fahrzeug oder einem Objekt mit Zusatzinformationen. Solche Systeme werden vor allem in Fahrzeugen eingesetzt. Der Vorschlag betrifft weiterhin eine entsprechend ausgelegte Vorrichtung zur Durchführung des Verfahrens sowie ein Kraftfahrzeug und ein Computerprogramm.
  • Zur Zeit wird intensiv an Technologien gearbeitet, die später ein autonomes Fahren ermöglichen sollen. Ein erster Ansatz ist dabei den Fahrer nicht komplett von seinen Aufgaben zu entlasten, sondern, der Fahrer kann jederzeit die Steuerung des Fahrzeuges übernehmen und nimmt außerdem Überwachungsfunktionen wahr. Durch neuere Technologien im Bereich der Fahrerinformationssysteme wie Head-Up Display (HUD) ist es möglich den Fahrer besser über das Geschehen im Umfeld seines Fahrzeuges zu informieren.
  • Für die nahe Zukunft ist deshalb davon auszugehen, dass systemseitig durch den Einsatz neuerer Technologien (Fahrzeug-zu-Fahrzeug-Kommunikation, Einsatz von Datenbanken, Fahrzeugsensorik, etc.) umfassende Informationen über Objekte (insb. Fahrzeuge) im direkten Umfeld des eigenen Fahrzeugs verfügbar sein werden. Im Bereich Fahrzeugsensorik werden insbesondere die folgenden Komponenten genannt, die eine Umfeldbeobachtung ermöglichen: RADAR-Geräte entsprechend Radio Detection and Ranging, LIDAR-Geräte, entsprechend Light Detection and Ranging, hauptsächlich für den Bereich Abstandserfassung / -warnung und Kameras mit entsprechender Bildverarbeitung für den Bereich der Objekterkennung. Diese Daten über die Umwelt können somit als Basis für systemseitige Fahrempfehlungen, Warnungen, etc. herangezogen werden. Beispielsweise sind so Anzeigen / Warnungen darüber denkbar, in welche Richtung (möglicherweise in die eigene Trajektorie) ein anderes, umgebendes Fahrzeug abbiegen will.
  • Die Fahrzeug-zu-Fahrzeug-Kommunikation ist mittlerweile auch mittels Mobilkommunikation mit Systemen wie LTE entsprechend Long Term Evolution möglich. Hier wurde von der Organisation 3GPP eine Spezifikation mit Namen LTE V2X verabschiedet. Als Alternative stehen auf WLAN-Technologie beruhende Systeme für die Fahrzeug-Direktkommunikation zur Verfügung, insbesondere das System nach WLAN p.
  • Der Begriff „autonomes Fahren“ wird in der Literatur teilweise unterschiedlich benutzt.
  • Zur Klärung dieses Begriffs wird deshalb hier noch folgender Einschub präsentiert. Unter autonomem Fahren (manchmal auch automatisches Fahren, automatisiertes Fahren oder pilotiertes Fahren genannt) ist die Fortbewegung von Fahrzeugen, mobilen Robotern und fahrerlosen Transportsystemen zu verstehen, die sich weitgehend autonom verhalten. Es gibt verschiedene Abstufungen des Begriffs autonomes Fahren. Dabei wird auf bestimmten Stufen auch dann von autonomen Fahren gesprochen, wenn noch ein Fahrer im Fahrzeug befindlich ist, der ggfs. nur noch die Überwachung des automatischen Fahrvorgangs übernimmt. In Europa haben die verschiedenen Verkehrsministerien (in Deutschland war die Bundesanstalt für Straßenwesen beteiligt) zusammengearbeitet und die folgenden Autonomiestufen definiert.
    • • Level 0: „Driver only“, der Fahrer fährt selbst, lenkt, gibt Gas, bremst etc.
    • • Level 1: Bestimmte Assistenzsysteme helfen bei der Fahrzeugbedienung (u.a. ein Abstandsregelsystem - Automatic Cruise Control ACC).
    • • Level 2: Teilautomatisierung. U.a. automatisches Einparken, Spurhaltefunktion, allgemeine Längsführung, beschleunigen, abbremsen etc. werden von den Assistenzsystemen übernommen (u.a. Stauassistent).
    • • Level 3: Hochautomatisierung. Der Fahrer muss das System nicht dauernd überwachen. Das Fahrzeug führt selbstständig Funktionen wie das Auslösen des Blinkers, Spurwechsel und Spurhalten durch. Der Fahrer kann sich anderen Dingen zuwenden, wird aber bei Bedarf innerhalb einer Vorwarnzeit vom System aufgefordert die Führung zu übernehmen. Diese Form der Autonomie ist auf Autobahnen technisch machbar. Der Gesetzgeber arbeitet darauf hin, Level 3-Fahrzeuge zuzulassen. Die gesetzlichen Rahmenbedingungen wurden dafür bereits geschaffen.
    • • Level 4: Vollautomatisierung. Die Führung des Fahrzeugs wird dauerhaft vom System übernommen. Werden die Fahraufgaben vom System nicht mehr bewältigt, kann der Fahrer aufgefordert werden, die Führung zu übernehmen.
    • • Level 5: Kein Fahrer erforderlich. Außer dem Festlegen des Ziels und dem Starten des Systems ist kein menschliches Eingreifen erforderlich.
  • Automatisierte Fahrfunktionen ab Stufe 3 nehmen dem Fahrer die Verantwortung für die Steuerung des Fahrzeugs ab.
  • Aufgrund der derzeitigen Entwicklung hin zu höheren Autonomiestufen, wo aber viele Fahrzeuge nach wie vor noch vom Fahrer gesteuert werden, ist davon auszugehen, dass entsprechende zusätzliche Informationen mittelfristig bereits für manuell geführte Fahrzeuge, und nicht erst langfristig für hochautomatisierte Systeme, genutzt werden können.
  • Für die Fahrer-Fahrzeug-Interaktion stellt sich hierbei die Frage, wie diese Informationen so dargestellt werden können, dass ein echter Mehrwert für den menschlichen Fahrer entsteht und er die bereitgestellten Informationen auch schnell, respektive intuitiv verorten kann. Folgende Lösungen in diesem Bereich sind dabei schon aus dem Stand der Technik bekannt.
  • Eine Zukunftsvision in der Automobilbranche ist es, die Windschutzscheibe des eigenen Fahrzeugs mit virtuellen Elementen bespielen zu können um dem Fahrer einige Vorteile zu ermöglichen. Genutzt wird die sogenannte „Augmented Reality“-Technologie (AR). Weniger geläufig ist der entsprechende deutschsprachige Begriff der „erweiterten Realität“. Dabei wird die reale Umgebung mit virtuellen Elementen angereichert. Das hat mehrere Vorteile: Der Blick nach unten, auf andere Displays als der Windschutzscheibe, entfällt, da viele relevante Informationen auf der Windschutzscheibe abgebildet werden. So muss der Fahrer seinen Blick nicht von der Fahrbahn abwenden. Außerdem ist durch die positionsgenaue Verortung der virtuellen Elemente in der realen Umwelt ein geringerer kognitiver Aufwand seitens des Fahrers wahrscheinlich, da keine Interpretation einer Grafik auf einem gesonderten Display erfolgen muss. Hinsichtlich des automatischen Fahrens kann ebenfalls ein Mehrwert erzeugt werden.
  • Da die technologischen Mittel heutzutage entsprechend begrenzt sind, kann davon ausgegangen werden, dass mittelfristig keine voll bespielbaren Windschutzscheiben in Fahrzeugen anzutreffen sein werden. Deshalb finden heute Head-Up Displays in den Fahrzeugen Verwendung. Bei diesen Displays handelt es sich eigentlich um Projektionseinheiten, die ein Bild auf die Windschutzscheibe projizieren. Dieses Bild befindet sich jedoch aus der Sicht des Fahrers je nach Bauart des Moduls 7-15 m vor dem Fahrzeug.
  • Das „Bild“ setzt sich dabei folgendermaßen zusammen: Es handelt sich dabei weniger um ein virtuelles Display, sondern eher um eine Art „Schlüsselloch“ in die virtuelle Welt. Die virtuelle Umgebung wird theoretisch über die reale Welt gelegt und enthält die virtuellen Objekte, die den Fahrer bei der Fahrt unterstützen und informieren. Die begrenzte Anzeigefläche des HUD hat zur Folge, dass davon ein Ausschnitt gesehen werden kann. Man schaut also durch die Anzeigefläche des HUD auf den Ausschnitt der virtuellen Welt. Da diese virtuelle Umgebung die reale Umgebung ergänzt, spricht man in diesem Fall auch von einer „Mixed Reality“.
  • Aus der DE 10 2007 016 868 A1 ist ein Verfahren zur Anzeige eines Fahrtbahnverlaufs vor einem Fahrzeug, wobei eine aktuelle Geschwindigkeit des Fahrzeugs bestimmt wird. Dabei werden vor dem Fahrzeug liegende Punkte einer Fahrzeugumgebung so bestimmt, dass ein optischer Fluss dieser Punkte unter Berücksichtigung der aktuellen Fahrzeuggeschwindigkeit bestimmt wird und dass Symbole zur Darstellung des optischen Flusses für eine Darstellung des Fahrbahnverlaufs in die Head-Up-Anzeige eingeblendet werden.
  • Aus der WO 2005/053991 A1 ist ein Verfahren und System zur Unterstützung eines Pfadsteuerungsverfahrens bekannt. Das Verfahren und Systems dient zur Unterstützung der Pfadsteuerung, insbesondere eines Fahrzeugs auf einer Straße oder in einer Geländeumgebung oder eines Schiffes oder eines Flugzeugs. Dabei besteht das Verfahren in der Durchführung mindestens eines der folgenden Schritte (a) und (b): (a) Schätzen eines tatsächlichen zukünftigen Pfades des Fahrzeugs auf der Grundlage von Fahrzeugbewegungsdaten und optische und / oder akustische und / oder taktile Anzeige des geschätzten tatsächlichen zukünftigen Weges an den Fahrer, (b) Erfassen des tatsächlichen gegenwärtigen Pfades des Fahrzeugs, Abschätzen einer gegenwärtigen Abweichung des detektierten tatsächlichen gegenwärtigen Weges von einem gewünschten gegenwärtigen Pfad und optische und / oder akustische und / oder taktile Anzeige der geschätzten gegenwärtigen Abweichung zum Fahrer.
  • Die bekannten Lösungen sind mit verschiedenen Nachteilen behaftet. Dies wurde im Rahmen der Erfindung erkannt. Bei den bekannten Lösungen besteht das Problem, dass die zusätzlichen Anzeigen (HUD) räumlich begrenzt sind. Sie decken aus Sicht des Fahrers nur einen kleinen Teil seines Sichtfeldes ab, weshalb Fahrrichtungsverläufe jeweils nur in kurzen Abschnitten visualisiert werden können.
  • Ein großer Vorteil der bisher bekannten „Augmented Reality“-Anzeigen (AR-Anzeigen) besteht darin, die entsprechenden Anzeigen direkt innerhalb bzw. als Teil der Umwelt darzustellen. Relativ naheliegende Beispiele beziehen sich meist auf den Bereich der Navigation. Während klassische Navigationsanzeigen (in herkömmlichen HUD) in der Regel schematische Darstellungen anzeigen (z.B. einen rechtwinklig verlaufenden Pfeil nach rechts als Zeichen dafür, das bei nächster Gelegenheit rechts abgebogen werden soll, bieten AR-Anzeigen wesentlich effektivere Möglichkeiten. Da die Anzeigen als „Teil der Umwelt“ dargestellt werden können, sind äußerst schnelle und intuitive Interpretationen für den Nutzer möglich. Dennoch weisen die bisher bekannten Ansätze auch verschiedene Probleme auf, für die zum jetzigen Zeitpunkt keine Lösungen bekannt sind.
  • Ein Problem ist bekannt als Problem der Überdeckung. Herkömmliche Konzepte arbeiten häufig mit flächigen Elementen wie Rechtecken oder Kreisen, die großflächig die Fahrbahn überdecken oder dahinter liegende Objekte (Fußgänger, Schilder usw.) verdecken können. Hier erweist sich der größte Vorteil der AR-Anzeigen (Darstellung als Teil der Umwelt) gleichfalls als ein wesentlicher Nachteil.
  • Klassische AR-Anzeigen haben den Nachteil, dass die Einblendungen für Fahrtrichtungsverläufe sehr genau auf der Straße liegen müssen, um als wirksam und effektiv wahrgenommen zu werden. Bekannte Ansätze weisen vielfach klare Kanten auf und versuchen sich so genau wie möglich an Konturen der realen Welt anzupassen. Diese herkömmlichen Konzepte stellen damit besonders große Anforderungen an die „Passgenauigkeit“ also an die technisch determinierte „Kontaktanalogie“ solcher Anzeigen. Vor dem Hintergrund der aktuellen technischen Möglichkeiten (sensor- und ortungsbasierte Wahrnehmung der Umwelt) sind diese Anforderungen allerdings äußerst schwer zu erfüllen. Anzeigekonzepte die diese hohen Anforderungen an die technischen Systeme stellen besitzen dementsprechend eine geringe „Fehlertoleranz“. Besonders problematisch hierbei ist, das zufriedenstellende AR-Anzeigen damit zunächst nur mit technisch aufwändigen und somit teuren Lösungen umgesetzt werden können. Es besteht also der Bedarf für andere Ansätze, die geringere Anforderungen stellen, weniger fehlertolerant und damit auch kostengünstiger sind.
  • Die Erfindung setzt sich zur Aufgabe einen solchen Ansatz zu finden.
  • Diese Aufgabe wird durch ein Verfahren zur Anzeige eines Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit Hilfe einer Anzeigeeinheit, gemäß Anspruch 1, eine Vorrichtung zur Durchführung des Verfahrens gemäß Anspruch 11, sowie ein Kraftfahrzeug gemäß Anspruch 15 und ein Computerprogramm gemäß Anspruch 16 gelöst.
  • Die abhängigen Ansprüche beinhalten vorteilhafte Weiterbildungen und Verbesserungen der Erfindung entsprechend der nachfolgenden Beschreibung dieser Maßnahmen.
  • Die Lösung gemäß der Erfindung setzt auf Dematerialisierung und Fragmentierung der AR-Anzeigen. Das erfindungsgemäße Verfahren zur Anzeige eines Verlaufs einer Trajektorie vor einem Fahrzeug mit Hilfe einer Anzeigeeinheit besteht darin, dass der Verlauf im Sichtfeld des Fahrers eingeblendet wird, wobei der Verlauf in Rasterform dargestellt wird.
  • Grundlage dieses Konzeptes ist ein virtuelles Raster, als Beispiel wird ein Punktraster gezeigt, dass über der tatsächlichen realen Umwelt dargestellt wird. Dieses Punktraster kann z.B. dazu verwendet werden, HUD-basierte Navigationsanzeigen und eine Reihe von weiteren Funktionen zu realisieren.
  • Bei diesem Konzept wird eine grundlegende und unbewusst ablaufende Fähigkeit der menschlichen Wahrnehmung ausgenutzt, indem einzelne Merkmale der Umwelt zu zusammenhängenden Mustern komplettiert und als solche dann bewusst wahrgenommen werden. Diese Fähigkeit hat sich in den evolutionsbiologischen Prozessen offenbar als großer Vorteil erwiesen (z.B. Wahrnehmung einer Bedrohung trotz teilweiser Verdeckung) und kann noch heute in vielfacher Art nachgewiesen werden. Geläufige Beispiele hierfür sind z.B. die Wahrnehmung von „Scheinkonturen“ oder die vielfach beschriebenen Gestaltgesetze der Wahrnehmung (z.B. das „Gesetz der Nähe“ oder das „Gesetz der Erfahrung“).
  • Eine systematische Fragmentierung der Flächen kann damit somit zwei entscheidende Probleme klassischer AR-Anzeigen lösen. Zum einen werden wesentliche Merkmale der Umwelt deutlich weniger stark überdeckt als durch flächig dargestellte Informationen. Damit ist eine wesentlich bessere Verteilung der Aufmerksamkeit zwischen tatsächlicher Umwelt und den zusätzlichen Anzeigen möglich.
  • Zum anderen weist diese Lösung eine stärkere Fehlertoleranz auf, da auf eine genaue Einpassung und die Verwendung klarer und langer Kanten verzichtet wird. Dieser Ansatz stellt damit geringere Anforderungen an die technische Wahrnehmung der Umwelt und kann so auch durch kostengünstigere Lösungen realisiert werden.
  • Bei diesem Verfahren ist es von Vorteil, wenn das Raster so berechnet wird, dass die Einblendung des Rasters in das Sichtfeld des Fahrers so erscheint, dass das Raster in einem Abstand über der zu sehenden Fahrbahn liegt. Dadurch kann das Raster besser verfolgt werden. Auch entsteht für den Fahrer der bessere Eindruck einer Führung weil das Fahrzeug quasi durch das Raster hindurchfährt, statt wie auf einer Fahrbahn darüber hinweg zu fahren.
  • Eine weitere sehr vorteilhafte Maßnahme besteht darin, dass das Raster so berechnet wird, dass die Punkte des Rasters auf einer Anzahl von Linien in vertikaler Richtung erhöht erscheinen. Dies entspricht einer räumlichen Verwendung des Rasters.
  • Neben der rein flächigen also zweidimensionalen Darstellung auf dem Boden oder in einem Abstand über dem Boden, erfolgt ein gezieltes „Anheben“ einzelner oder mehrerer Rasterpunkte. Ein Verschieben der Punkte in der z-Achse kann damit eine Fläche erzeugen, die sich dreidimensional im Raum anordnet. Damit lässt sich ein virtuelles Objekt erzeugen, dass die Dimensionen des Raums ausnutzt und trotzdem den Bezug zur Straße beibehält.
  • Durch dieses Konzept wird das bekannte „Problem der engen Kurve“ gelöst.
  • Die technische Konstruktion von HUD-Systemen bringt den Umstand mit sich, dass zwischen der Motorhaube und der virtuellen Projektionsfläche ein Bereich wie bei einem „Toten Winkel“ entsteht, in den keine AR-Anzeigen eingeblendet werden können. Dieser blinde, nicht bespielbare Bereich ist durch die aktuelle verfügbaren HUD Technologien bedingt und kann derzeit nicht restlos eliminiert werden. Damit stellen sich insbesondere für AR-Anzeigen die in unmittelbarere Nähe des Fahrzeugs liegen z.B. eine unmittelbare Abbiege-Empfehlung besondere Probleme, da diese schlichtweg aus dem virtuellen Sichtfeld wandern und somit nicht mehr angezeigt werden können.
  • Durch das Anheben einzelner Punkte, also die Verschiebung entlang der z-Achse, bleiben die Punkte länger im virtuellen Sichtfeld des Fahrers und ermöglichen so eine kontinuierliche visuelle Unterstützung. Abgesehen von der Tatsache, dass mit diesem Vorgehen auch dann noch unterstützt werden kann, wenn zweidimensionale Konzepte auf der Fahrbahnfläche nicht mehr helfen können, besteht hier ein weiterer besonderer Vorteil darin, dass die Punkte als Teil der bisherigen AR-Anzeigen verstanden werden können. Dafür müssen keine zusätzlichen Elemente eingeführt werden.
  • Besondere Ausführungsformen dieser Technik zur Behebung des „Problems der engen Kurve“, bestehen darin, das Raster so zu berechnen, dass die Punkte des Rasters auf einer Anzahl von Linien zur Mitte des dargestellten Trajektorien-Verlaufs hin in vertikaler Richtung erhöht erscheinen. Durch diese Maßnahme wird die Möglichkeit eine „Welle“ zu formen realisiert, bei dem sich die mittleren Punkte in der z-Achse in die Höhe verschieben.
  • In einer anderen Variante findet die Berechnung des Rasters so statt, dass ein komplettes Aufstellen des Rasters in Kurvensituationen resultiert. Dadurch wird ein dynamischer Fahreindruck verstärkt.
  • Als alternative Lösung wird mit Animationen gearbeitet. Hierzu wird die Metapher eines Schneepfluges aufgegriffen. Das eigene Fahrzeug fährt hierbei nicht „über“ das Punktraster, sondern schiebt die Punkte bei „Hindurchfahren“ zur Seite. Die Punkte des Rasters verlassen ihre ursprüngliche Position und wandern nach außen - wie Schnee, der vor einem Schneepflug hergeschoben wird. Diese Interaktion mit den virtuellen Elementen kann den Eindruck einer „Mixed Reality“ verstärken. Diese verdrängte virtuelle Materie befindet sich nun, im Fall der Kurve, weiterhin im Anzeigebereich des HUDs, da beim Anfahren an den Scheitelpunkt der Kurve die Punkte seitlich so verdrängt werden, dass sie im Anzeigebereich liegen.
  • Eine Variante des erfindungsgemäßen Verfahrens besteht also darin das Raster so zu berechnen, dass die dargestellten Rasterpunkte die unmittelbar vor dem Fahrzeug dargestellt werden sich durch die Bewegung des Fahrzeuges als zur Seite geschoben erscheinen, wobei die Punkte wie bei einem Schneepflug entweder zu einer Seite der Fahrbahn geschoben erscheinen oder zu beiden Seiten der Fahrbahn geschoben erscheinen.
  • Virtuelle Elemente lassen sich je nach Raum, in dem sie sich bewegen, unterschiedlich kategorisieren. Bisher wurden hauptsächlich zweidimensionale Elemente beschrieben Navigationspfad, Punkteraster), die sich im dreidimensionalen Raum (reale Welt) anordnen. Da sich in bestimmten Situationen (s. das „Problem der engen Kurve“) ein virtuelles Element aufgrund des begrenzten Anzeigebereichs nicht in der Umgebung abbilden lässt, ist es sinnvoll einen Dimensionswechsel zu vollziehen. Gemeint ist: Virtuelle Elemente die sich augmentiert in der Umwelt kontaktanalog platzieren verlassen ihre ursprüngliche Position und bilden sich als zweidimensionales Objekt auf der Sichtebene ab.
  • Diese Variante des erfindungsgemäßen Verfahren besteht darin das Raster so zu berechnen, dass die dargestellten Rasterpunkte bevor sie aus dem Anzeigebereich der Anzeigeeinheit verschwinden einen Dimensionswechsel vollziehen, wobei Rasterpunkte dann so berechnet werden, dass sie so eingeblendet werden, dass sie einen Richtungspfeil, insbesondere Navigationspfeil, Fahrtrichtungspfeil, Abbiegepfeil oder Einbiegepfeil formen.
  • Dabei kann das Raster so berechnet werden, dass der Richtungspfeil als an die virtuelle Projektionsfläche des Fahrzeuges angeheftet erscheint. So wird der Richtungspfeil dann übersichtlich dargestellt.
  • Wie oben bereits zum Problem der Fehlertoleranz beschrieben, stellt die genaue Passung der Anzeigen große Herausforderungen an die technische Wahrnehmung der Umwelt. Dies gilt insbesondere für dynamische Objekte, wie zum Beispiel vorausfahrende Fahrzeuge. Herkömmliche Anzeigen erfordern ein hochgenaues „Ausschneiden“ dieser Umweltobjekte aus den eigenen Anzeigen. Durch dieses Vorgehen werden bereits kleinere Fehler unmittelbar sichtbar und erzeugen ein nicht zufriedenstellendes Nutzererlebnis.
  • Auch dieses Problem kann mit der Trajektorien-Verlaufsanzeige in Rasterform elegant gelöst werden. Ist z.B. ein vorausfahrendes Fahrzeug im Anzeigebereich des HUDs zu sehen, können die Punkte des dargestellten Rasters an dieser Stelle einfach ausgespart werden. Es müssen keine klaren Kanten und eine entsprechende Form der Grafik des Navigationspfades berechnet werden, es werden schlicht ein paar Punkte des zukünftigen Navigationspfades ausgelassen. So entsteht der Effekt eines Fahrzeuges, das auf dem virtuellen Navigationspfad. fährt.
  • Dazu wird bei der entsprechenden Variante des erfindungsgemäßen Verfahrens durch Umfeldbeobachtung die Umgebung des Fahrzeuges erfasst und wenn vor dem Fahrzeug ein Objekt erkannt wird, wird das Raster so berechnet, dass die Rasterpunkte, deren Positionen im Bereich des Objektes liegen, bei der Darstellung des Rasters ausgespart werden. Meist wird das Objekt ein vorausfahrendes Fahrzeug sein.
  • Insgesamt sind für die verschiedenen Varianten der erfindungsgemäßen Lösung mehrere Rasterformen einsetzbar. Besonders einfach und besonders übersichtlich ist der Einsatz eines Punktrasters.
  • Für eine Vorrichtung zur Durchführung des erfindungsgemäßen Verfahrens mit einer entsprechend programmierten Recheneinheit gelten die entsprechenden Vorteile.
  • Statt eines Head-Up Displays kann in der Vorrichtung als Anzeigeeinheit eine Datenbrille oder ein Monitor eingesetzt werden auf dem ein Kamerabild angezeigt wird in das ein Trajektorien-Verlauf eingeblendet wird.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden nachfolgend anhand der Figuren näher erläutert.
  • Es zeigen:
    • 1 das Prinzip der Einblendung von Informationen in das Sichtfeld des Fahrers eines Fahrzeuges während der Fahrt mit Hilfe eines Head-Up Displays;
    • 2 das Problem der bruchstückhaften Darstellung von virtuellen Objekten im Sichtfeld des Fahrers durch Einblendung mit Hilfe eines Head-Up Displays;
    • 3 das typische Cockpit eines Fahrzeuges;
    • 4 das Blockschaltbild des Infotainment-Systems des Fahrzeuges;
    • 5 eine Darstellung eines Fahrtrichtungsverlaufs gemäß eines ersten Ausführungsbeispiels der Erfindung;
    • 6 eine Darstellung des Problems der Darstellung eines Fahrtrichtungsverlaufs bei Durchfahren einer engen Kurve
    • 7 eine Darstellung eines Fahrtrichtungsverlaufs gemäß eines zweiten Ausführungsbeispiels der Erfindung;
    • 8 zwei Darstellungen eines Fahrtrichtungsverlaufs gemäß eines dritten Ausführungsbeispiels der Erfindung;
    • 9 die Anpassung der Darstellung eines Fahrtrichtungsverlaufs zur Lösung des Anzeigeproblems bei Durchfahren einer engen Kurve; und
    • 10 die Anpassung der Darstellung eines Fahrtrichtungsverlaufs zur Lösung des Anzeigeproblems bei vorausfahrenden Fahrzeugen.
  • Die vorliegende Beschreibung veranschaulicht die Prinzipien der erfindungsgemäßen Offenbarung. Es versteht sich somit, dass Fachleute in der Lage sein werden, verschiedene Anordnungen zu konzipieren, die zwar hier nicht explizit beschrieben werden, die aber Prinzipien der erfindungsgemäßen Offenbarung verkörpern und in ihrem Umfang ebenfalls geschützt sein sollen.
  • 1 veranschaulicht die prinzipielle Funktionsweise eines Head-Up Displays. Das Head-Up Display 20 ist im Fahrzeug 10 an der Armaturenbrettverkleidung angebracht. Durch Projektion auf die Windschutzscheibe werden Zusatzinformationen in das Sichtfeld des Fahrers eingeblendet. Diese Zusatzinformationen erscheinen so, als seien sie auf eine Projektionsfläche 21 im Abstand von 7 - 15 m vor dem Fahrzeug 10 projiziert. Durch diese Projektionsfläche 21 hindurch bleibt aber die reale Welt sichtbar. Mit den eingeblendeten Zusatzinformationen wird quasi eine virtuelle Umgebung erzeugt. Die virtuelle Umgebung wird theoretisch über die reale Welt gelegt und enthält die virtuellen Objekte, die den Fahrer bei der Fahrt unterstützen und informieren. Es wird aber nur auf einen Teil der Windschutzscheibe projiziert, so dass die Zusatzinformationen nicht beliebig im Sichtfeld des Fahrers angeordnet werden können.
  • Das ist auch in 2 angedeutet. Ein eingeblendetes virtuelles Objekt 22 kann dann je nach Ausdehnung des virtuellen Objektes 22 nur abschnittsweise angezeigt werden. Der Fahrer schaut also durch die Windschutzscheibe und sieht im Bereich der Projektionsfläche 21 einen Ausschnitt der virtuellen Welt. Da diese virtuelle Umgebung die reale Umgebung ergänzt spricht man in diesem Fall auch von einer „Mixed Reality“. In 2 sind die eingeblendeten virtuellen Objekte 22 nur abschnittsweise erkennbar, hervorgehoben durch die dunkelgrau dargestellten Abschnitte.
  • 3 zeigt das Cockpit des Fahrzeuges 10. Dargestellt ist ein Personenkraftwagen Pkw. Als Fahrzeug 10 kämen allerdings beliebige andere Fahrzeuge ebenfalls in Betracht. Beispiele von weiteren Fahrzeugen sind: Busse, Nutzfahrzeuge, insbesondere Lastkraftwagen Lkw, Landmaschinen, Baumaschinen, Motorräder, Schienenfahrzeuge, usw. Der Einsatz der Erfindung wäre allgemein bei Landfahrzeugen, Schienenfahrzeugen, Wasserfahrzeugen und Luftfahrzeugen einsetzbar.
  • In dem Cockpit sind drei Anzeigeeinheiten eines Infotainment-Systems dargestellt. Es handelt sich um das Head-Up-Display 20 und einen berührungsempfindlichen Bildschirm 30 der in der Mittelkonsole angebracht ist. Bei der Fahrt liegt die Mittelkonsole nicht im Sichtfeld des Fahrers. Deshalb werden die Zusatzinformationen während der Fahrt nicht auf der Anzeigeeinheit 30 eingeblendet.
  • Der berührungsempfindliche Bildschirm 30 dient dabei insbesondere zur Bedienung von Funktionen des Fahrzeugs 10. Beispielsweise können darüber ein Radio, ein Navigationssystem, eine Wiedergabe von gespeicherten Musikstücken und/oder eine Klimaanlage, andere elektronische Einrichtungen oder andere Komfortfunktionen oder Applikationen des Fahrzeugs 10 gesteuert werden. Zusammengefasst wird häufig von einem „Infotainment-System“ gesprochen. Ein Infotainment-System bezeichnet bei Kraftfahrzeugen, speziell Pkw, die Zusammenführung von Autoradio, Navigationssystem, Freisprecheinrichtung, Fahrerassistenzsystemen und weiterer Funktionen in einer zentralen Bedieneinheit. Der Begriff Infotainment ist ein Kofferwort zusammengesetzt aus den Worten Information und Entertainment (Unterhaltung). Zur Bedienung des Infotainment-Systems wird hauptsächlich der berührungsempfindliche Bildschirm 30 („Touchscreen“) benutzt, wobei dieser Bildschirm 30 insbesondere von einem Fahrer des Fahrzeugs 10 aber auch von einem Beifahrer des Fahrzeugs 10 gut eingesehen und bedient werden kann. Unterhalb des Bildschirms 30 können zudem mechanische Bedienelemente, beispielsweise Tasten, Drehregler oder Kombinationen hiervon, wie beispielsweise Drückdrehregler, angeordnet sein.
  • 4 zeigt schematisch ein Blockschaltbild des Infotainment-Systems 200 sowie beispielhaft einige Teilsysteme oder Applikationen des Infotainment-Systems. Die BedienungsVorrichtung umfasst die berührungsempfindliche Anzeigeeinheit 30, eine Recheneinrichtung 40, eine Eingabeeinheit 50 und einen Speicher 60. Die Anzeigeeinheit 30 umfasst sowohl eine Anzeigefläche zum Anzeigen veränderlicher grafischer Informationen als auch eine über der Anzeigefläche angeordnete Bedienoberfläche (berührungssensitive Schicht) zum Eingeben von Befehlen durch einen Benutzer.
  • Die Anzeigeeinheit 30 ist über eine Datenleitung 70 mit der Recheneinrichtung 40 verbunden. Die Datenleitung kann nach dem LVDS-Standard ausgelegt sein, entsprechend Low Voltage Differential Signalling. Über die Datenleitung 70 empfängt die Anzeigeeinheit 30 Steuerdaten zum Ansteuern der Anzeigefläche des Touchscreens 30 von der Recheneinrichtung 40. Über die Datenleitung 70 werden auch Steuerdaten der eingegebenen Befehle von dem Touchscreen 30 zu der Recheneinrichtung 40 übertragen. Mit der Bezugszahl 50 ist eine Eingabeeinheit bezeichnet. Ihr zugehörig sind die schon erwähnten Bedienelemente wie Tasten, Drehregler, Schieberegler, oder Drehdrückregler, mit deren Hilfe die Bedienperson über die Menüführung Eingaben machen kann. Unter Eingabe wird allgemein das Anwählen einer ausgewählten Menüoption verstanden, wie auch das Ändern eines Parameters, das Ein- und Ausschalten einer Funktion, usw.
  • Die Speichereinrichtung 60 ist über eine Datenleitung 80 mit der Recheneinrichtung 40 verbunden. In dem Speicher 60 ist ein Piktogrammverzeichnis und/oder Symbolverzeichnis hinterlegt, mit den Piktogrammen und/oder Symbolen für die möglichen Einblendungen von Zusatzinformationen.
  • Die weiteren Teile des Infotainment-Systems Kamera 150, Radio 140, Navigationsgerät 130, Telefon 120 und Kombiinstrument 110 sind über den Datenbus 100 mit der Vorrichtung zur Bedienung des Infotainment-Systems verbunden. Als Datenbus 100 kommt die Highspeed-Variante des CAN-Bus nach ISO Standard 11898-2 in Betracht. Alternativ käme z.B. auch der Einsatz eines auf Ethernet-Technologie beruhenden Bussystems wie BroadR-Reach in Frage. Auch Bussysteme, bei denen die Datenübertragung über Lichtwellenleiter geschieht, sind einsetzbar. Als Beispiele werden genannt der MOST Bus (Media Oriented System Transport) oder der D2B Bus (Domestic Digital Bus). Hier wird noch erwähnt, dass die Kamera 150 als konventionelle Videokamera ausgelegt sein kann. In diesem Fall nimmt sie 25 Vollbilder/s auf, was bei dem Interlace-Aufnahmemodus 50 Halbbilder/s entspricht. Alternativ kann eine Spezialkamera eingesetzt werden, die mehr Bilder/s aufnimmt um die Genauigkeit der Objekterkennung bei sich schneller bewegenden Objekten zu erhöhen. Es können mehrere Kameras zur Umfeldbeobachtung eingesetzt werden. Daneben könnten auch die schon erwähnten RADAR- oder LIDAR-Systeme ergänzend oder alternativ eingesetzt werden um die Umfeldbeobachtung durchzuführen oder zu erweitern. Für die drahtlose Kommunikation nach Innen und Außen ist das Fahrzeug 10 mit einem Kommunikationsmodul 160 ausgestattet. Dieses Modul wird oft auch als On-Board Unit bezeichnet. Es kann für die Mobilfunk-Kommunikation, z.B. nach LTE Standard, entsprechend Long Term Evolution, ausgelegt sein. Ebenfalls kann es für WLAN-Kommunikation, entsprechend Wireless LAN, ausgelegt sein, sei es für die Kommunikation zu Geräten der Insassen im Fahrzeug oder für die Fahrzeug-zu-Fahrzeug Kommunikation, etc.
  • Das erfindungsgemäße Verfahren zur Anzeige eines Trajektorien-Verlaufs vor einem Fahrzeug oder einem Objekt mit Hilfe einer Anzeigeeinheit wird im Folgenden anhand von mehreren Ausführungsbeispielen erläutert. Dabei wird als Beispiel eines Trajektorien-Verlaufs der Fahrtrichtungsverlauf vor einem Fahrzeug verwendet.
  • Für die weiteren Figuren gilt, dass gleiche Bezugszahlen die gleichen Felder und Symbole bezeichnen wie bei der Beschreibung der 1 bis 4 erläutert.
  • Wie zuvor beschrieben, ist Grundlage der erfindungsgemäßen Anzeige des Fahrtrichtungsverlaufs ist ein virtuelles Raster, dass in einem Abstand über der tatsächlichen realen Umwelt dargestellt wird. Die reale Umwelt entspricht dem realen Fahrbahnverlauf. Das Raster wird vorzugsweise so projiziert, dass es für den Fahrer so aussieht, dass das Raster in einem Abstand von einigen Zentimetern über der Fahrbahn liegt. Der Abstand kann dabei je nach Ausführungsart variieren.
  • In 5 ist eine erste Variante dargestellt, wie der Fahrtrichtungsverlauf erfindungsgemäß angezeigt werden kann. Der Fahrtrichtungsverlauf wird typischerweise im Rahmen der Navigationsfunktion des Fahrzeuges 10 angezeigt. Es wird also dadurch der Weg markiert, der das Fahrzeug 10 zum eingegebenen Ziel führt. Im Dunkeln kann die Anzeige der Fahrtrichtung zur Unterstützung des Fahrers auch unabhängig von einem eingegebenen Ziel eingeblendet werden. In dem Fall würde dadurch der Fahrbahnverlauf angezeigt werden. Das hilft dem Fahrer, da er dann schon früher erkennen kann, welche Kurve oder Abbiegung als nächstes kommt. Die Darstellung des Fahrtrichtungsverlaufs geschieht in diesem Beispiel mit Hilfe eines Punktrasters 22. Das Punktraster 22 erstreckt sich vorzugsweise über die Breite der Fahrspur auf der das Fahrzeug 10 sich bewegt. Dabei ist die Art der Darstellung in diesem Beispiel so gewählt, dass die Punkte im mittleren Bereich 23 stärker betont sind als die Punkte an den Rändern der Fahrspur. Die Betonung der Punkte kann durch Variation von Helligkeit, Farbe, Größe und/oder Form der Punkte erfolgen. In dem in 5 gezeigten Beispiel sind die betonten Punkte durch Fettdruck hervorgehoben. Durch die Betonung der Punkte im mittleren Spurbereich entsteht beim Fahrer der Eindruck einer Linie, wie er es auch sonst von Navigationssystemen gewohnt ist. Dies nutzt die schon beschriebene Fähigkeit der menschlichen Wahrnehmung aus nach der das Gehirn fragmentierte Muster automatisch komplettiert.
  • 6 illustriert ein Prinzip-bedingtes Problem, dass bei der Fahrtrichtungsanzeige mittels Head-Up Display auftreten kann. Dieses Problem ist wie bereits erwähnt als „Problem der engen Kurve“ bekannt. Die technische Konstruktion von HUD-Systemen bringt den Umstand mit sich, dass zwischen der Motorhaube und der virtuellen Projektionsfläche ein „Toter Winkel“ entsteht, in den keine AR-Anzeigen möglich sind. Dieser blinde, nicht bespielbare Bereich ist durch die aktuelle verfügbaren HUD Technologien bedingt und kann derzeit nicht restlos eliminiert werden. Damit stellen sich insbesondere für AR-Anzeigen die in unmittelbarer Nähe des Fahrzeugs liegen, z.B. die in 6 mit den Pfeilen 24 gezeigte unmittelbare Abbiege-Empfehlung besondere Probleme, da diese schlichtweg aus dem virtuellen Sichtfeld wandern und somit nicht mehr angezeigt werden können. Die Sichtebene ist schraffiert und beginnt im Abstand von ca. 13 bis 15 m vor dem Fahrzeug 10.
  • Eine erste Variante zur Lösung diese Problem ist in 7 dargestellt. Dieser Ansatz beruht darauf, dass das Raster nicht mehr nur als plane Ebene dargestellt wird, sondern als gekrümmte Fläche. Die flächige Form des Rasters erstreckt sich also in die dritte Dimension. Dies erfolgt durch ein gezieltes „Anheben“ einzelner oder mehrerer Rasterpunkte. Durch Berechnung einer Verschiebung von Rasterpunkten in der Richtung der z-Achse kann damit eine Fläche erzeugt werden, die sich dreidimensional im Raum anordnet. Damit lässt sich ein virtuelles Objekt zur Fahrtrichtungsanzeige erzeugen, dass die Dimensionen des Raums vollständig ausnutzt und trotzdem den Bezug zur Straße beibehält. Die Berechnung der Verschiebung von Punkten erfolgt wie auch sonst die Berechnung von virtuellen Objekten in der Recheneinheit 40. 7 zeigt verschiedene Ansichten des Punktrasters 22, wobei im rechten oberen Bereich eine Draufsicht gezeigt ist.
  • Wie in 7 zu erkennen, bietet diese Form der Berechnung einer Fahrtrichtungsanzeige die Möglichkeit eine „Welle“ zu formen, bei dem sich die mittleren Punkte in der z-Achse in die Höhe verschieben. Es sind aber auch andere Umsetzungen möglich. Interessant ist z.B. auch die Berechnung des Rasters in der Art, durch die ein komplettes „Aufstellen“ des Rasters erfolgt in Kurvensituationen. In der Kurve würde das Raster dann die Form einer Steilkurve annehmen.
  • Das oben beschriebene „Problem der engen Kurve“ kann ist damit gelöst. Durch das Anheben einzelner Punkte, also die Verschiebung der in Richtung der z-Achse, bleiben die Punkte länger im virtuellen Sichtfeld des Fahrers und ermöglichen so eine kontinuierliche visuelle Unterstützung. Es besteht hier noch der weitere besondere Vorteil, dass die Punkte z.B. für die Abbiegeempfehlung keine neuen Symbole oder zusätzlichen Anzeige-Elemente eingeführt werden müssen. Denn die angehobenen Rasterpunkte werden sofort als zum Raster zugehörig empfunden.
  • In 8 ist noch eine weitere Variante gezeigt. Dabei wird mit Animationen gearbeitet. Hierzu wird die Metapher eines Schneepfluges aufgegriffen. Das eigene Fahrzeug 10 fährt hierbei nicht „über“ das Raster 22, sondern schiebt die Rasterpunkte wie bei einem „Hindurchfahren“ zur Seite. Die Punkte des Rasters verlassen ihre ursprüngliche Position und wandern nach außen - wie Schnee, der vor einem Schneepflug hergeschoben wird. Diese Interaktion mit den virtuellen Elementen kann den Eindruck einer „Mixed Reality“ verstärken. Die Position der Punkte kann von der Recheneinheit 40 wiederum so berechnet werden, dass diese verdrängte virtuelle Materie sich nun, im Fall der Kurve, weiterhin im Anzeigebereich des HUDs befindet, da beim Anfahren an den Scheitelpunkt der Kurve die Punkte seitlich so verdrängt werden, dass sie im Anzeigebereich liegen. Das ist im rechten Teil der 8 dargestellt. Im linken Teil der 8 wie die Punkte beim Fahren auf gerader Strecke mittig nach links und rechts weggedrängt werden.
  • Eine dritte Variante, wie das „Problem der engen Kurve“ gelöst werden kann, ist in 9 dargestellt. Im oberen Teil der 9 ist der Moment dargestellt in dem die Punkte des Rasters 22 soeben aus dem Sichtbereich verschwinden. Das Raster ist hier nicht gekrümmt, so dass die Punkte früher aus dem Sichtbereich verschwinden.
  • Bei den bisher vorgestellten Varianten wurden die virtuellen Elemente als zweidimensionale oder dreidimensionale Flächen, allerdings in Rasterform dargestellt, ausgeführt. Es ist gerade ein besonderer Vorteil der Einblendung von virtuellen Elementen, dass damit viele Möglichkeiten der Darstellung gegeben sind. Wenn sich in bestimmten Situationen ein virtuelles Element aufgrund des begrenzten Anzeigebereichs nicht in der Umgebung abbilden lässt, wird gemäß dieser weiteren Variante ein Dimensionswechsel vollzogen.
  • Damit ist gemeint: Virtuelle Elemente die sich augmentiert in der Umwelt kontaktanalog platzieren, verlassen ihre ursprüngliche Position und bilden sich als zweidimensionales Objekt auf der Sichtebene ab. Im Fall des Rasters würde es bedeuten, dass die Rasterpunkte sich animiert vom Boden lösen, hochklappen und sich an der Projektionsfläche 21 „anheften“. Dabei oder danach ändern sie zusätzlich die Anordnung um ein Symbol, in diesem Fall einen Pfeil 25, zu formen. Dieser Pfeil 25 zeigt dem Fahrer die Richtung an, fungiert also als Navigationselement, wenn der Navigationspfad in Form der Punktraster-Linie nicht mehr zu sehen ist. Besonders beim Rechtsabbiegen kann diese Variante hilfreich sein. Sobald der Lenkprozess abgeschlossen und die Linie wieder sichtbar wird, wird die Anzeige so gesteuert, dass sich der Pfeil in umgekehrter Weise wieder abbaut. Die Rasterpunkte werden neu berechnet und das Raster wird dann in der vorhergehenden Form wieder eingeblendet.
  • Wie oben bereits zum Problem der Fehlertoleranz beschrieben, stellt die genaue Passung der Anzeigen große Herausforderungen an die technische Wahrnehmung der Umwelt. Dies gilt insbesondere für dynamische Objekte, wie zum Beispiel vorausfahrende Fahrzeuge. Herkömmliche Anzeigen erfordern ein hochgenaues „Ausschneiden“ dieser Umweltobjekte aus den eigenen Anzeigen. Durch dieses Vorgehen werden bereits kleinere Fehler unmittelbar sichtbar und erzeugen ein nicht zufriedenstellendes Nutzererlebnis.
  • In der 10 ist noch eine weitere Variante gemäß der Erfindung gezeigt, die für dieses Problem Abhilfe schafft. Ist ein vorrausfahrendes Fahrzeug 11 im Anzeigebereich 21 des HUDs, können die Punkte zur Anzeige des Fahrtrichtungsverlaufs an der Stelle des vorausfahrenden Fahrzeuges einfach ausgespart werden. Dies ist eine einfach realisierbare Lösung, weil keine klaren Kanten und eine entsprechende Form der Grafik des Navigationspfades berechnet werden müssen. Die Lösung beruht auf der Berechnung der von ein paar Punkten des zukünftigen Navigationspfades die ausgelassen werden. Dazu ist die Umfeldbeobachtung erforderlich. Durch die Umfeldbeobachtung wird z.B. mit Kamera 150 das vorausfahrende Fahrzeug 11 aufgenommen. Mit Bildverarbeitung wird eine Objekterkennung durchgeführt. Es wird das vorausfahrende Fahrzeug 11 erkannt. Die Recheneinheit 40 ermittelt daraufhin die Punkte des Rasters 22 die ausgespart werden müssen. Durch die fortwährende Aussparung entsteht der Effekt eines Fahrzeuges 11, das auf dem virtuellen Navigationspfad fährt.
  • Alle hierin erwähnten Beispiele wie auch bedingte Formulierungen sind ohne Einschränkung auf solche speziell angeführten Beispiele zu verstehen. So wird es zum Beispiel von Fachleuten anerkannt, dass das hier dargestellte Blockdiagramm eine konzeptionelle Ansicht einer beispielhaften Schaltungsanordnung darstellt. In ähnlicher Weise ist zu erkennen, dass ein dargestelltes Flussdiagramm, Zustandsübergangsdiagramm, Pseudocode und dergleichen verschiedene Varianten zur Darstellung von Prozessen darstellen, die im Wesentlichen in computerlesbaren Medien gespeichert und somit von einem Computer oder Prozessor ausgeführt werden können. Das in den Patentansprüchen genannte Objekt kann ausdrücklich auch eine Person sein.
  • Es sollte verstanden werden, dass das vorgeschlagene Verfahren und die zugehörigen Vorrichtungen in verschiedenen Formen von Hardware, Software, Firmware, Spezialprozessoren oder einer Kombination davon implementiert werden können. Spezialprozessoren können anwendungsspezifische integrierte Schaltungen (ASICs), Reduced Instruction Set Computer (RISC) und / oder Field Programmable Gate Arrays (FPGAs) umfassen. Vorzugsweise wird das vorgeschlagene Verfahren und die Vorrichtung als eine Kombination von Hardware und Software implementiert. Die Software wird vorzugsweise als ein Anwendungsprogramm auf einer Programmspeichervorrichtung installiert. Typischerweise handelt es sich um eine Maschine auf Basis einer Computerplattform die Hardware aufweist, wie beispielsweise eine oder mehrere Zentraleinheiten (CPU), einen Direktzugriffsspeicher (RAM) und eine oder mehrere Eingabe/Ausgabe (I/O) Schnittstelle(n). Auf der Computerplattform wird typischerweise außerdem ein Betriebssystem installiert. Die verschiedenen Prozesse und Funktionen, die hier beschrieben wurden, können Teil des Anwendungsprogramms sein, oder ein Teil der über das Betriebssystem ausgeführt wird.
  • Die Offenbarung ist nicht auf die hier beschriebenen Ausführungsbeispiele beschränkt. Es gibt Raum für verschiedene Anpassungen und Modifikationen, die der Fachmann aufgrund seines Fachwissens als auch zu der Offenbarung zugehörend in Betracht ziehen würde.
  • Zum Beispiel wurde als Ausführungsbeispiel in den verschiedenen Varianten ein Punktraster gewählt. Eine andere Rasterform käme aber auch in Frage, z.B. ein Linienraster. Auch die Rasterpunkte könnten anders dargestellt werden, z.B. mit Hilfe von Kreuz-Symbolen.
  • Die Erfindung wird in den Ausführungsbeispielen am Beispiel des Einsatzes in Fahrzeugen genauer erläutert. Von besonderem Interesse kann die Anwendung auch für den Bereich der Einsatzfahrzeuge von Feuerwehr, Ärzten, Polizei, Katastrophenschutz, etc. sein, um die Einsatzkräfte dabei zu unterstützen besonders schnell hilfsbedürftige Personen aufzufinden oder um Gefahren abzuwenden. Hier wird auch auf die Einsatzmöglichkeit bei Flugzeugen und Helikoptern zum Beispiel bei Landemanövern oder Sucheinsätzen, etc. hingewiesen.
  • Es wird aber darauf hingewiesen, dass der Einsatz nicht darauf beschränkt ist. Die Erfindung kann immer dann eingesetzt werden, wenn mit AR-Einblendungen das Sichtfeld eines Fahrers, einer Bedienperson oder auch einfach nur einer Person mit Datenbrille angereichert werden kann.
  • Auch bei ferngesteuerten Geräten wie Robotern bei denen die Fernsteuerung über einen Monitor erfolgt auf dem ein Kamerabild wiedergegeben wird, können AR Einblendungen die Bedienung erleichtern. Also besteht hier auch eine Einsatzmöglichkeit.
  • Bezugszeichenliste
  • 10
    Fahrzeug
    11
    vorausfahrendes Fahrzeug
    20
    Head-Up Display HUD
    21
    virtuelle Projektionsfläche
    22
    virtuelles Objekt
    23
    hervorgehobener Rasterbereich
    24
    Fahrtrichtungspfeile
    25
    Abbiegepfeil
    26
    Raster
    30
    berührungsempfindliche Anzeigeeinheit
    40
    Recheneinheit
    50
    Eingabeeinheit
    60
    Speichereinheit
    70
    Datenleitung zur Anzeigeeinheit
    80
    Datenleitung zur Speichereinheit
    90
    Datenleitung zur Eingabeeinheit
    100
    Datenbus
    110
    Kombiinstrument
    120
    Telefon
    130
    Navigationsgerät
    140
    Radio
    150
    Kamera
    160
    Kommunikationsmodul
    200
    Infotainment-System
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102007016868 A1 [0013]
    • WO 2005/053991 A1 [0014]

Claims (16)

  1. Verfahren zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug (10) oder einem Objekt mit Hilfe einer Anzeigeeinheit (20), insbesondere ein Head-Up Display oder eine Datenbrille, wobei die Trajektorie im Sichtfeld des Fahrers oder des Objektes eingeblendet wird, dadurch gekennzeichnet, dass der Trajektorien-Verlauf in Rasterform dargestellt wird.
  2. Verfahren nach Anspruch 1, wobei das Raster (26) so berechnet wird, dass die Einblendung des Rasters (26) in das Sichtfeld des Fahrers oder der Bedienperson des Objektes so erscheint, dass das Raster (26) in einem Abstand über der zu sehenden Wegstrecke liegt.
  3. Verfahren nach Anspruch 1 oder 2, wobei das Raster (26) so berechnet wird, dass die Punkte des Rasters (26) auf einer Anzahl von Linien in vertikaler Richtung erhöht erscheinen.
  4. Verfahren nach Anspruch 3, wobei das Raster (26) so berechnet wird, dass die Punkte des Rasters (26) auf einer Anzahl von Linien zur Mitte der dargestellten Trajektorie hin in vertikaler Richtung erhöht erscheinen.
  5. Verfahren Anspruch 3, wobei das Raster (26) so berechnet wird, dass die Punkte des Rasters (26) so berechnet werden, dass ein komplettes Aufstellen des Rasters (26) in Kurvensituationen resultiert.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Raster (26) so berechnet wird, dass die dargestellten Rasterpunkte die unmittelbar vor dem Fahrzeug (10) oder dem Objekt dargestellt werden sich durch die Bewegung des Fahrzeuges (10) oder des Objektes als zur Seite geschoben erscheinen, wobei die Punkte wie bei einem Schneepflug entweder zu einer Seite der Wegstrecke geschoben erscheinen oder zu beiden Seiten der Wegstrecke geschoben erscheinen.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Raster (26) so berechnet wird, dass die dargestellten Rasterpunkte bevor des Verschwindens aus dem Anzeigebereich der Anzeigeeinheit (20) einen Dimensionswechsel vollziehen, wobei Rasterpunkte so angeordnet werden, dass sie einen Richtungspfeil (25), insbesondere Navigationspfeil, Fahrtrichtungspfeil, Abbiegepfeil oder Einbiegepfeil formen.
  8. Verfahren nach Anspruch 7, wobei das Raster (26) so berechnet wird, dass der Richtungspfeil (25) als an die virtuelle Projektionsfläche (21) des Fahrzeuges (10) oder des Objektes angeheftet erscheint.
  9. Verfahren nach einem der vorhergehenden Ansprüche, wobei durch Umfeldbeobachtung die Umgebung des Fahrzeuges (10) oder des Objektes erfasst wird und wenn vor dem Fahrzeug (10) oder dem Objekt ein anderes Fahrzeug oder Objekt (11) erkannt wird, dass das Raster (26) so berechnet wird, dass die Rasterpunkte, deren Positionen im Bereich des anderen Objektes (11) liegen, bei der Darstellung des Rasters (26) ausgespart werden.
  10. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Raster (26) einem Punktraster entspricht.
  11. Vorrichtung zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche, aufweisend eine Anzeigeeinheit (20) mit der virtuelle Zusatzinformationen in das Sichtfeld des Fahrers oder der Bedienperson des Objektes eingeblendet werden können, und eine Recheneinheit (40), dadurch gekennzeichnet, dass die Recheneinheit (40) für die Anzeige eines Trajektorien-Verlaufs ein Raster (26) berechnet, wobei die Recheneinheit (40) die Rasterpunkte so berechnet, das sie auf Rasterlinien liegen durch die der Trajektorien-Verlauf angezeigt wird.
  12. Vorrichtung nach Anspruch 11, wobei die Recheneinheit das Raster (26) so berechnet, dass die Einblendung des Rasters in das Sichtfeld des Fahrers oder der Bedienperson so erscheint, dass das Raster (26) in einem Abstand über der zu sehenden Wegstrecke liegt.
  13. Vorrichtung nach Anspruch 11 oder 12, wobei die Recheneinheit (40) das Raster (26) so berechnet, dass die Punkte des Rasters (26) auf einer Anzahl von Rasterlinien in vertikaler Richtung erhöht erscheinen.
  14. Vorrichtung nach einem der Ansprüche 11 bis 13, wobei die Anzeigeeinheit ein Head-Up Display oder eine Datenbrille ist.
  15. Kraftfahrzeug, dadurch gekennzeichnet, dass das Kraftfahrzeug (10) eine Vorrichtung nach einem der Ansprüche 11 bis 14 aufweist.
  16. Computerprogramm, dadurch gekennzeichnet, dass das Computerprogramm ausgelegt ist bei Abarbeitung in einer Recheneinheit (40) die Schritte des Verfahrens zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug (10) oder einem Objekt nach einem der Ansprüche 1 bis 10 durchzuführen.
DE102017212367.2A 2017-07-19 2017-07-19 Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit sowie Kraftfahrzeug Active DE102017212367B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017212367.2A DE102017212367B4 (de) 2017-07-19 2017-07-19 Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit sowie Kraftfahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017212367.2A DE102017212367B4 (de) 2017-07-19 2017-07-19 Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit sowie Kraftfahrzeug

Publications (2)

Publication Number Publication Date
DE102017212367A1 true DE102017212367A1 (de) 2019-01-24
DE102017212367B4 DE102017212367B4 (de) 2022-12-22

Family

ID=64951979

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017212367.2A Active DE102017212367B4 (de) 2017-07-19 2017-07-19 Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit sowie Kraftfahrzeug

Country Status (1)

Country Link
DE (1) DE102017212367B4 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018203121A1 (de) 2018-03-02 2019-09-05 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer AR-Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102019202592A1 (de) * 2019-02-26 2020-08-27 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem
DE102019207951A1 (de) * 2019-05-29 2020-12-03 Volkswagen Aktiengesellschaft Verfahren zum Durchführen einer Korrektur der Fahrtrichtung durch ein Fahrerassistenzsystem in einem Kraftfahrzeug sowie eine Steuervorrichtung hierzu
DE102019218079A1 (de) * 2019-11-22 2021-05-27 Zf Friedrichshafen Ag Bestimmen einer Steuerung eines zumindest teilweise autonom fahrenden Fahrzeugs
WO2021106270A1 (ja) * 2019-11-29 2021-06-03 三菱電機株式会社 情報処理装置、表示方法、及び表示プログラム
DE102021123585A1 (de) 2021-09-13 2023-03-16 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Fahrerassistenzsystem zur Unterstützung eines Fahrers beim Fahren entlang einer aufgezeichneten Trajektorie
US11762616B2 (en) 2019-02-26 2023-09-19 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system
US11807260B2 (en) 2019-02-26 2023-11-07 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19540108A1 (de) * 1995-10-27 1997-04-30 Ldt Gmbh & Co Vorrichtung zur Darstellung eines ersten Bildes in einem durch eine durchsichtige Scheibe sichtbaren zweiten Bild
WO2005053991A1 (en) 2003-12-01 2005-06-16 Volvo Technology Corporation Method and system for supporting path control
DE102007016868A1 (de) 2007-04-10 2008-10-16 Robert Bosch Gmbh Verfahren zur Anzeige eines Fahrbahnverlaufs und Steuereinrichtung
DE102011121948A1 (de) * 2011-12-22 2013-06-27 Gm Global Technology Operations, Llc Vorausschau auf Aktionen eines autonomen Fahrsystems
DE102012103669A1 (de) * 2012-04-26 2013-10-31 Continental Teves Ag & Co. Ohg Verfahren zur Darstellung einer Fahrzeugumgebung
EP3246664A2 (de) * 2016-05-19 2017-11-22 Ricoh Company, Ltd. Informationsverarbeitungssystem und informationsanzeigeverfahren

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004117294A (ja) 2002-09-27 2004-04-15 Clarion Co Ltd ナビゲーション装置、方法及びプログラム
DE102013019144B4 (de) 2013-11-15 2020-12-31 Audi Ag Head-up-Display für ein Fahrzeug und Verfahren zum Bereitstellen eines elektronischen Bildsignals für ein Head-up-Display

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19540108A1 (de) * 1995-10-27 1997-04-30 Ldt Gmbh & Co Vorrichtung zur Darstellung eines ersten Bildes in einem durch eine durchsichtige Scheibe sichtbaren zweiten Bild
WO2005053991A1 (en) 2003-12-01 2005-06-16 Volvo Technology Corporation Method and system for supporting path control
DE102007016868A1 (de) 2007-04-10 2008-10-16 Robert Bosch Gmbh Verfahren zur Anzeige eines Fahrbahnverlaufs und Steuereinrichtung
DE102011121948A1 (de) * 2011-12-22 2013-06-27 Gm Global Technology Operations, Llc Vorausschau auf Aktionen eines autonomen Fahrsystems
DE102012103669A1 (de) * 2012-04-26 2013-10-31 Continental Teves Ag & Co. Ohg Verfahren zur Darstellung einer Fahrzeugumgebung
EP3246664A2 (de) * 2016-05-19 2017-11-22 Ricoh Company, Ltd. Informationsverarbeitungssystem und informationsanzeigeverfahren

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018203121B4 (de) 2018-03-02 2023-06-22 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer AR-Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
WO2019166222A1 (de) 2018-03-02 2019-09-06 Volkswagen Aktiengesellschaft Verfahren zur berechnung einer ar-einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
DE102018203121A1 (de) 2018-03-02 2019-09-05 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer AR-Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102019202592A1 (de) * 2019-02-26 2020-08-27 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem
US11807260B2 (en) 2019-02-26 2023-11-07 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system
US11762616B2 (en) 2019-02-26 2023-09-19 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system
DE102019207951A1 (de) * 2019-05-29 2020-12-03 Volkswagen Aktiengesellschaft Verfahren zum Durchführen einer Korrektur der Fahrtrichtung durch ein Fahrerassistenzsystem in einem Kraftfahrzeug sowie eine Steuervorrichtung hierzu
DE102019207951B4 (de) 2019-05-29 2022-06-30 Volkswagen Aktiengesellschaft Verfahren zum Durchführen einer Korrektur der Fahrtrichtung durch ein Fahrerassistenzsystem in einem Kraftfahrzeug sowie eine Steuervorrichtung hierzu
WO2020239303A1 (de) 2019-05-29 2020-12-03 Volkswagen Aktiengesellschaft Verfahren zum durchführen einer korrektur der fahrtrichtung durch ein fahrerassistenzsystem in einem kraftfahrzeug sowie eine steuervorrichtung hierzu
US11878710B2 (en) 2019-05-29 2024-01-23 Volkswagen Aktiengesellschaft Method for carrying out a correction of the direction of travel by a driver assistance system in a motor vehicle, and a control device therefor
DE102019218079A1 (de) * 2019-11-22 2021-05-27 Zf Friedrichshafen Ag Bestimmen einer Steuerung eines zumindest teilweise autonom fahrenden Fahrzeugs
WO2021106270A1 (ja) * 2019-11-29 2021-06-03 三菱電機株式会社 情報処理装置、表示方法、及び表示プログラム
DE102021123585A1 (de) 2021-09-13 2023-03-16 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Fahrerassistenzsystem zur Unterstützung eines Fahrers beim Fahren entlang einer aufgezeichneten Trajektorie

Also Published As

Publication number Publication date
DE102017212367B4 (de) 2022-12-22

Similar Documents

Publication Publication Date Title
DE102017221191B4 (de) Verfahren zur Anzeige des Verlaufs einer Sicherheitszone vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
EP3543059B1 (de) Verfahren zur berechnung einer einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
DE102017212367B4 (de) Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit sowie Kraftfahrzeug
EP3762684A1 (de) Einblendung von zusatzinformationen auf einer anzeigeeinheit
EP2720899B1 (de) Verfahren und anzeigeeinrichtung zum anzeigen eines fahrzustands eines fahrzeugs und entsprechendes computer-programprodukt
EP3668742B1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines kraftfahrzeugs sowie kraftfahrzeug
DE102018203121B4 (de) Verfahren zur Berechnung einer AR-Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
EP3717954B1 (de) Verfahren zur anzeige des verlaufs einer trajektorie vor einem fahrzeug oder einem objekt mit einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens
EP3425442B1 (de) Verfahren und vorrichtung zum anreichern eines sichtfeldes eines fahrers eines fahrzeuges mit zusatzinformationen, vorrichtung zur verwendung in einem beobachter-fahrzeug sowie kraftfahrzeug
EP3765324B1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-display-vorrichtung für ein kraftfahrzeug
DE102018208703A1 (de) Verfahren zur Berechnung einer "augmented reality"-Einblendung für die Darstellung einer Navigationsroute auf einer AR-Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102017221871A1 (de) Verfahren zur Berechnung der Bewegungsdaten des Kopfes eines Fahrers eines Fahrzeuges, Datenbrille sowie Fahrzeug zur Verwendung bei dem Verfahren und Computerprogramm
DE102011121763A1 (de) Verfahren zur Darstellung einer Abstandsinformation auf einer Anzeigevorrichtung eines Fahrzeugs
EP3685123A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug
DE102016225268A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
EP3296795B1 (de) Verfahren zur darstellung eines bildobjekts in einem fahrzeug auf einer fahrzeugintern und einer fahrzeugextern wahrgenommenen anzeige
DE112022000986T5 (de) Anzeigesteuervorrichtung und anzeigesteuerprogramm
DE102011082606A1 (de) Verfahren und Vorrichtung zur Anzeige eines Richtungsweisers für einen Fahrer eines Fahrzeugs
EP4073470A1 (de) Verfahren und vorrichtung zur darstellung von virtuellen navigationselementen
DE102018218746A1 (de) Verfahren zur Vermeidung einer Sichtfeldstörung für eine Bedienperson eines Objektes, Vorrichtung zur Durchführung des Verfahrens sowie Fahrzeug und Computerprogramm
DE102016225346A1 (de) Verfahren zum Ermitteln eines Anzeigebereichs mindestens eines Elements auf einer Anzeigevorrichtung
DE102021120888A1 (de) Anzeigesteuervorrichtung für ein fahrzeug, anzeigeverfahren, speichermedium und anzeigesystem für ein fahrzeug
DE102020201242A1 (de) Verfahren zum Anzeigen einer Hinweisinformation als Hinweis für ein nachfolgendes Abbiegen eines Fahrzeugs an einer Abbiegestelle auf einer Anzeigeeinheit des Fahrzeugs kontaktanalog, sowie Anzeigevorrichtung und Fahrzeug
DE102018001750A1 (de) Integrierte Anzeige von Fahrerassistenzfunktionen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final