DE102014219575A1 - Verbesserte 3-Dimensionale (3-D) Navigation - Google Patents

Verbesserte 3-Dimensionale (3-D) Navigation Download PDF

Info

Publication number
DE102014219575A1
DE102014219575A1 DE102014219575.6A DE102014219575A DE102014219575A1 DE 102014219575 A1 DE102014219575 A1 DE 102014219575A1 DE 102014219575 A DE102014219575 A DE 102014219575A DE 102014219575 A1 DE102014219575 A1 DE 102014219575A1
Authority
DE
Germany
Prior art keywords
vehicle
component
hud
navigation
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102014219575.6A
Other languages
English (en)
Inventor
c/o Honda Patents & Tech Ng-Thow-Hing Victor
c/o Honda Patents & Tech. Bark Karlin
c/o Honda Patents & Tech. Tran Cuong
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/041,614 external-priority patent/US20160054563A9/en
Priority claimed from US14/321,105 external-priority patent/US20140362195A1/en
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE102014219575A1 publication Critical patent/DE102014219575A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/3676Overview of the route on the road map
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Instrument Panels (AREA)
  • Navigation (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Eine oder mehrere Ausführungsformen von Techniken oder Systemen für dreidimensionale(3-D)-Navigation werden hierin bereitgestellt. Eine Heads-Up-Display(HUD)-Komponente kann Grafikelemente auf Brennebenen um eine Umgebung herum projizieren, rendern, anzeigen oder präsentieren, die ein Fahrzeug umgibt. Die HUD-Komponente kann diese Grafikelemente dazu veranlassen, volumetrisch oder dreidimensional zu erscheinen, indem ein Abstand zwischen einer Brennebene und dem Fahrzeug bewegt oder angepasst wird. Objekte innerhalb der Umgebung werden verfolgt, identifiziert, und entsprechende Grafikelemente können auf, in die Nähe von oder um jeweilige Objekte herum projiziert werden. Beispielsweise kann die HUD-Komponente Grafikelemente oder Zeiger auf Fußgänger derart projizieren, dass die den Fahrer oder Bediener des Fahrzeugs über ihre Anwesenheit alarmiert. Diese Zeiger können an dem Fußgänger „kleben”, wenn er oder sie innerhalb der Umgebung läuft. Metadaten im Zusammenhang mit Objekten können präsentiert werden, wie beispielsweise Adress-Informationen, Bewertungen, Telefonnummern, Logos, etc.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beruht auf einer „continuation-in-part (CIP)” der anhängigen US Non-Provisional-Patentanmeldung Nr. 14/041,614 (Attorney Docket Nr. 107745.54CIP1) mit dem Titel „3-Dimensionale (3-D) Navigation”, die am 30. September 2013 eingereicht worden ist, die eine „continuation-in-part (CIP)” der anhängigen US Non-Provisional-Patentanmeldung Nr. 13/832,918 (Attorney Docket Nr. HRA-36332.01) mit dem Titel „Volumetrisches Heads-Up Display mit dynamischer Brennebene”, die am 15. März 2013 eingereicht worden ist. Die Gesamtheit der genannten Anmeldung sei hierin durch Verweis aufgenommen.
  • HINTERGRUND
  • Um den Komfort des Fahrers zu verbessern, kann ein Fahrzeug mit einem Heads-Up-Display (HUD) ausgestattet sein, das dem Fahrer Informationen anzeigt. Die von dem HUD angezeigten Informationen können auf die Windschutzscheibe des Fahrzeugs projiziert werden, um die Informationen im Sichtfeld des Fahrers darzustellen, während der Fahrer fährt. Indem die Informationen im Sichtfeld des Fahrers angezeigt werden, muss der Fahrer während der Fahrt nicht von der Windschutzscheibe wegschauen (z. B. in Richtung einer Instrumententafel an einem zentralen Armaturenbrett), um die dargestellten Informationen sehen zu können.
  • Das HUD kann Fahrzeug-Informationen darstellen, die typischerweise in dem zentralen Armaturenbrett des Fahrzeugs angezeigt werden, wie beispielsweise Informationen bezüglich der Geschwindigkeit des Fahrzeugs, des Kraftstoffstands, der Motortemperatur etc. Zusätzlich kann das HUD dem Fahrer Karten-Informationen und Kommunikations-Ereignisse (z. B. Navigations-Anweisungen, Fahr-Anweisungen, Warnungen, Alarme etc.) präsentieren. Das Fahrzeug-HUD kann dem Fahrer die Informationen auf eine ähnliche Weise anzeigen, wie sie vom Fahrzeug-Armaturenbrett verwendet wird, wie beispielsweise indem Messinstrumente und Textfelder angezeigt werden, die auf der Windschutzscheibe als grafische Elemente erscheinen. Zusätzlich kann das Fahrzeug-HUD Erweiterte-Realität-Grafikelemente (Augmented Reality) präsentieren, die eine physikalisches Umfeld, das das Fahrzeug umgibt, um Echtzeit-Informationen erweitert.
  • Jedoch sind existierende HUD-Vorrichtungen, die in Fahrzeugen verwendet werden, nicht in der Lage, Augmented-Reality-Grafikelemente mit konsistenter Raumtiefe zu präsentieren. Dementsprechend können Augmented-Reality-Grafikelemente, die von existierenden Fahrzeug-HUDs präsentiert werden, nur als oberflächliche Überlagerungen (Overlays) präsentiert werden.
  • KURZBESCHREIBUNG
  • Diese Kurzbeschreibung ist dazu vorgesehen, eine Auswahl von Konzepten in einer vereinfachten Form einzuführen, die später in der detaillierten Beschreibung beschrieben werden. Diese Kurzbeschreibung ist nicht dazu vorgesehen, ein erschöpfender Überblick des beanspruchten Gegenstands zu sein, Schlüsselfaktoren oder wesentliche Merkmale des beanspruchten Gegenstands zu identifizieren, oder dazu verwendet zu werden, den Schutzbereich des beanspruchten Gegenstands einzuschränken.
  • Gemäß einem Aspekt umfasst eine Fahrzeug-Heads-Up-Display-Vorrichtung zum Anzeigen von Grafikelementen in einem Sichtfeld eines Fahrers eines Fahrzeugs einen ersten Projektor und einen ersten Aktuator. Der erste Projektor kann dazu eingerichtet sein, ein erstes Grafikelement auf eine erste Brennebene im Sichtfeld des Fahrers zu projizieren. Die erste Brennebene kann im Wesentlichen senkrecht zu der Sichtlinie des Fahrers orientiert sein und einem Abstand entfernt von dem Fahrzeug. Der erste Projektor kann an dem ersten Aktuator montiert sein. Der erste Aktuator kann dazu eingerichtet sein, den ersten Projektor linear zu bewegen. Das lineare Bewegen des erste Projektors kann die erste Brennebene des ersten Grafikelements dazu veranlassen, sich in einer Richtung der Sichtlinie des Fahrers zu bewegen.
  • Gemäß einem weiteren Aspekt umfasst ein Fahrzeug-Heads-Up- Display-System eine Fahrzeug-Heads-Up-Display-Vorrichtung und eine Steuer-/Regelvorrichtung. Die Fahrzeug-Heads-Up-Display-Vorrichtung zeigt Grafikelemente im Sichtfeld eines Fahrers eines Fahrzeugs an und umfasst einen ersten Projektor und einen zweiten Projektor. Der erste Projektor kann dazu eingerichtet sein, ein erstes Grafikelement auf eine erste Brennebene im Sichtfeld des Fahrers zu projizieren. Die erste Brennebene kann im Wesentlichen senkrecht zu einer Sichtlinie des Fahrers orientiert sein. Der erste Projektor kann dazu eingerichtet sein, die erste Brennebene in einer Richtung der Sichtlinie des Fahrers zu bewegen. Der zweite Projektor kann dazu eingerichtet sein, ein zweites Grafikelement auf eine zweite Brennebene im Sichtfeld des Fahrers zu projizieren. Die zweite Brennebene kann statisch und im Wesentlichen parallel zu einer Untergrundfläche orientiert sein. Die Steuer-/Regelvorrichtung kann dazu eingerichtet sein, mit einem oder mehreren zugeordneten Fahrzeug-Steuer-/Regelsystemen zu kommunizieren und die Fahrzeug-Heads-Up-Display-Vorrichtung dazu zu steuern/regeln, die ersten und zweiten Grafikelemente auf Grundlage der Kommunikation mit einem oder mehreren der zugeordneten Fahrzeug-Steuer-/Regelsysteme anzuzeigen.
  • Gemäß noch einem weiteren Aspekt umfasst ein Verfahren zum Präsentieren von Augmented-Reality-Grafikelementen in einem Fahrzeug-Heads-Up-Display ein Projizieren eines ersten Grafikelements auf eine erste Brennebene im Sichtfeld eines Fahrers und eines zweiten Grafikelements auf eine zweite Brennebene im Sichtfeld eines Fahrers. Die erste Brennebene kann im Wesentlichen senkrecht zu einer Sichtlinie des Fahrers orientiert sein, und die zweite Brennebene kann statisch und im Wesentlichen parallel zu einer Untergrundfläche orientiert sein. Das Verfahren kann ein Bewegen oder Anpassen der ersten Brennebene in einer Richtung der Sichtlinie des Fahrers umfassen.
  • Eine oder mehrere Ausführungsformen von Techniken oder Systemen für dreidimensionale (3-D) Navigation werden hierin bereitgestellt. Beispielsweise kann ein System zur 3-D-Navigation ein Grafikelement oder einen Avatar projizieren, das/der sich im Sichtfeld eines Insassen eines Fahrzeugs zu bewegen scheint. In einer oder mehreren Ausführungsformen kann eine Heads-Up-Display-Komponente (HUD-Komponente) dazu eingerichtet sein, das Grafikelement oder den Avatar auf eine oder mehrere Brennebenen in einem Umfeld zu projizieren, das ein Fahrzeug umgibt. In anderen Worten kann die HUD-Komponente Grafikelemente oder Avatare in einstellbaren Abständen oder auf einstellbaren Brennebenen projizieren, um einem Insassen eines Fahrzeugs den Eindruck zu geben, dass ein Avatar oder Grafikelement sich bewegt, fliegt, animiert ist, etc.
  • Als ein Beispiel kann die HUD-Komponente dazu eingerichtet sein, eine Bewegung für einen Avatar zu „animieren” oder bereitzustellen, indem der Avatar sequentiell auf eine oder mehrere verschiedene Brennebenen projiziert wird. Die Projektion auf diese Brennebenen kann erreicht werden, indem ein Aktuator verwendet wird, um beispielsweise einen Projektor der HUD-Komponente zu bewegen. Als Ergebnis hiervon werden Raumtiefen-Werte wie die Akkomodation und die Vergenz, die einem Grafikelement oder einem Avatar zugeordnet sind, im Allgemeinen beibehalten. Wann eine Route von einer ersten Position zu einer zweiten Position erzeugt wird, kann die HUD-Komponente ein oder mehrere Grafikelemente für einen Fahrer oder einen Insassen eines Fahrzeugs erzeugen, dem/denen er „folgen” kann. Da die HUD-Komponente auf mehrere Brennebenen projizieren kann oder projizierte Grafikelemente von einer Brennebene zu einer anderen bewegen kann, können Grafikelemente oder projizierte Bilder viel „echter” erscheinen, ähnlich einem Bild, das in einem Spiegel gesehen wird.
  • Wenn ein Insasse eines Fahrzeugs nach einer Navigations-Führung verlangt, kann ein Grafikelement, wie beispielsweise ein Avatar, bereitgestellt werden. Der Avatar kann vor dem Fahrzeug scheinbar sich bewegen, gleiten, fliegen, etc., ähnlich dem, was beispielsweise ein Insasse oder Fahrer sehen würde, wenn er dem Fahrzeug eines Freundes folgen würde. Zusätzlich könnte der Avatar scheinbar um Behinderungen, Hindernisse, Fußgänger, Schutt, Schlaglöcher etc. herum navigieren, wie es ein echtes Fahrzeug auch tun würde. In einer oder mehreren Ausführungsformen könnte der Avatar gemäß dem Verkehr in Echtzeit „fahren”, sich bewegen, sich scheinbar bewegen etc. Beispielsweise kann der Avatar an Zugschienen anhalten, wenn eine Straße einen Fahrer oder ein Fahrzeug über die Zugschienen führt, wenn ein Zug die Straße kreuzt. Als ein weiteres Beispiel kann der Avatar die Spur derart wechseln, dass der Avatar scheinbar ein anderes Fahrzeug nicht „trifft” oder anderweitig in den Verkehr eingreift.
  • In einer oder mehreren Ausführungsformen kann eine Sensorkomponente ein oder mehrere Objekte oder Informationen im Zusammenhang mit der Umgebung verfolgen oder detektieren, in der sich das Fahrzeug bewegt. Diese Informationen könne an die Fahrzeug-Steuer-/Regelkomponente weitergegeben werden. Die Fahrzeug-Steuer-/Regelkomponente kann Informationen über die Umgebung um das Fahrzeug herum aus verschiedenen Quellen ansammeln, sammeln oder empfangen. Eine Steuerungs-/Regelungskomponente kann diese Informationen verwenden, um Entscheidungen zu fällen, bezüglich ob oder ob nicht ein Grafikelement an einer Position oder einer Brennebene zu projizieren ist, und bezüglich Attributen oder Modellen, die zu verwenden sind, wenn das Grafikelement gerendert wird. Eine HUD-Komponente kann das Grafikelement auf Grundlage der Entscheidung der Steuerungs-/Regelungskomponente rendern oder projizieren.
  • Beispielsweise kann, wenn eine Sensorkomponente einen Fußgänger auf einem Fußgängerüberweg über einen Straßenabschnitt detektiert, der sich auf einer Route befindet, die ein Einbiegen des Fahrzeugs in diesen Straßenabschnitt umfasst, die Steuerungs-/Regelungskomponente die HUD-Komponente anweisen oder ihr befehlen, ein Grafikelement auf oder um den Fußgänger herum zu projizieren, um einen Fahrer oder Passagier des Fahrzeugs auf die Anwesenheit des Fußgängers aufmerksam zu machen. Ferner kann die Sensorkomponente aktiv den Fußgänger derart verfolgen, dass die HUD-Komponente Grafikelemente, wie beispielsweise Zeiger, projizieren kann, die dem Fußgänger in Echtzeit folgen oder ihn verfolgen, wenn er den Fußgängerüberweg überquert. Zusätzlich kann die Steuerungs-/Regelungskomponente es identifizieren oder erkennen, wenn der Fußgänger das Überqueren abgeschlossen hat oder einen Gehweg betritt, und der HUD-Komponente mitteilen, dass sie aufhören soll, Grafikelemente für den Fußgänger zu projizieren.
  • Ein System zur 3-D-Navigation kann eine Identifizierung oder eine Projektion von Frühwarnungs-Grafikelementen erlauben. Beispielsweise können, wenn eine Fahrt von einem ersten Straßenabschnitt in einen zweiten Straßenabschnitt abbiegt (beispielsweise ein Abbiegen nach links oder ein Abbiegen nach rechts von einer Straße in eine andere), von der Fahrzeug-Steuer-/Regelkomponente empfangene Informationen, wie beispielsweise Umgebungs-Informationen oder Verkehrszustand-Informationen von der Steuerungs-/Regelungskomponente verwendet werden, um eine Bestimmung durchzuführen, dass ein Frühwarnungs-Grafikelement für einen Insassen oder Fahrer des Fahrzeugs gerendert werden sollte. Anders ausgedrückt kann die Steuer-/Regelkomponente die HUD-Komponente anweisen oder ihr befehlen, ein Grafikelement zu rendern, das auf ein Objekt zeigt (z. B. eine Gefährdung, einen Straßenzustand etc.), das nicht notwendigerweise im Sichtfeld des Fahrers sein muss. Hierbei kann, wenn er durch die Windschutzscheibe des Fahrzeugs schaut, der Fahrer beispielsweise eine Gefährdung zu seiner Linken nicht sehen. Jedoch kann die HUD-Komponente ein Grafikelement projizieren, das die Aufmerksamkeit des Fahrers in Richtung nach links lenkt (z. B. außerhalb der Windschutzscheibe oder außerhalb des Sichtfelds des Fahrers). Auf dieses Weise kann die Sicherheit erhöht werden, indem Fahrern oder Insassen eines Fahrzeugs frühzeitig ein Hinweis auf Objekte innerhalb einer Umgebung bereitgestellt wird.
  • Zusätzlich kann die HUD-Komponente Details projizieren oder rendern, die Objekte innerhalb der Umgebung betreffen, wie beispielsweise einen Namen eines Geschäfts, Adressmarkierungen, Zielmarkierungen, Park-Grafikelemente, Bewertungen etc.
  • Die folgende Beschreibung und angehängten Zeichnungen stellen illustrative Aspekte und Implementierungen dar. Diese zeigen nur einige der zahlreichen Möglichkeiten an, wie eine oder mehrere Aspekte umgesetzt werden können. Andere Aspekte, Vorteile oder neuartige Merkmale der Offenbarung werden aus der folgenden detaillierten Beschreibung deutlich, wenn sie in Zusammenschau mit den angehängten Zeichnungen betrachtet wird.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Aspekte der Offenbarung werden aus der folgenden detaillierten Beschreibung verstanden, wenn diese zusammen mit den beiliegenden Zeichnungen gelesen wird. Elemente, Strukturen, etc. der Zeichnungen sind nicht notwendigerweise maßstabsgetreu gezeichnet. Dementsprechend können die Abmessungen derselben beliebig vergrößert oder verkleinert sein, beispielsweise für die Klarheit der Diskussion.
  • 1 ist eine Illustration eines beispielhaften schematischen Diagramms eines Fahrzeug-Heads-Up-Display-Systems, gemäß einer oder mehrerer Ausführungsformen.
  • 2 ist eine Illustration eines beispielhaften schematischen Diagramms eines Fahrzeugs, in ein Fahrzeug-Heads-Up-Display-System bereitgestellt ist, gemäß einer oder mehrerer Ausführungsformen.
  • 3 ist eine Illustration einer beispielhaften Seitenansicht eines Fahrzeugs und von vier Brennebenen, auf die Grafikelemente von einem Fahrzeug-Heads-Up-Display-System projiziert werden, gemäß einer oder mehrerer Ausführungsformen.
  • 4 ist eine Illustration eines beispielhaften Sichtfelds eines Fahrers, während er ein Fahrzeug fährt, wobei er durch eine Windschutzscheibe des Fahrzeugs schaut, und von beispielhaften Grafikelementen, die von einem Fahrzeug-Heads-Up-Display-System projiziert werden, gemäß einem oder mehrerer Ausführungsformen.
  • 5 ist eine Illustration eines beispielhaften Komponenten-Diagramms eines Systems zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 6 ist eine Illustration eines beispielhaften Flussdiagramms eines Verfahrens zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 7A ist eine Illustration eines beispielhaften Avatars zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 7B ist eine Illustration eines beispielhaften Avatars zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 8A ist eine Illustration eines beispielhaften Avatars zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 8B ist eine Illustration eines beispielhaften Avatars zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 9A ist eine Illustration eines beispielhaften Avatars zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 9B ist eine Illustration eines beispielhaften Avatars zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 10A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 10B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 11A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 11B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 12A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 12B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 13A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 13B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 14A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 14B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 15 ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 16A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 16B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 17A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 17B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 18A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 18B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 19A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 19B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 20A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 20B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 21 ist eine Illustration eines beispielhaften Flussdiagramms eines Verfahrens zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen.
  • 22 ist eine Illustration eines beispielhaften Computer-lesbaren Mediums oder einer Computer-lesbaren Vorrichtung, umfassend Prozessor-ausführbare Anweisungen, welche dazu eingerichtet sind, eine oder mehrere der hierin vorgestellten Maßnahmen auszuführen, gemäß einer oder mehrerer Ausführungsformen.
  • 23 ist eine Illustration einer beispielhaften Computer-Umgebung, in der eine oder mehrere der hierin vorgestellten Maßnahmen implementiert sind, gemäß einer oder mehrerer Ausführungsformen.
  • Ausführungsformen oder Beispiele, die in den Zeichnungen illustriert sind, werden im Folgenden unter Verwendung spezifischer Sprache erläutert. Es sei dennoch festgehalten, dass die Ausführungsformen oder Beispiele nicht als einschränkend zu verstehen sind. Sämtliche Änderungen oder Modifikationen in den offenbarten Ausführungsformen und sämtliche weitere Anwendungen der in diesem Dokument offenbarten Prinzipien sind so zu verstehen, wie sie ein Fachmann auf dem einschlägigen Gebiet verstehen würde.
  • Für eine oder mehrere der hier gezeigten Figuren sind eine oder mehrere Begrenzungslinien, wie beispielsweise die Begrenzungslinie 116 in 2 oder die Begrenzungslinie 1030 in 10B mit verschiedenen Höhen, Breiten, Umrissen, Seitenverhältnissen, Formen etc. relativ zueinander lediglich aus illustrativen Gründen gezeichnet, und sind nicht notwendigerweise maßstabsgetreu gezeichnet. Beispielsweise wären, da gestrichelte oder gepunktete Linien verwendet werden, um verschiedene Begrenzungslinien zu repräsentieren, wenn die gepunkteten und gestrichelten Linien übereinander gezeichnet werden, sie in den Figuren nicht unterscheidbar, und somit sind sie in einer oder mehreren der Figuren mit verschiedenen Maßen oder leicht voneinander versetzt gezeichnet, so dass sie voneinander unterscheidbar sind. Als ein weiteres Beispiel muss, wo eine Begrenzungslinie einer unregelmäßigen Form etc. zugehörig ist, die Begrenzungslinie, wie beispielsweise eine Box in einem oder mehreren Beispielen nicht notwendigerweise eine gesamte Komponente umschließen. Andererseits umschließt eine gezeichnete Box nicht notwendigerweise nur eine zugehörige Komponente, sondern kann in einem oder mehreren Beispielen ebenfalls einen Abschnitt von einer oder mehreren weiteren Komponenten umschließen.
  • Grafikelemente, die visuell auf Umgebungs-Elemente in dem direkten Sichtfeld eines Fahrers durch ein Fahrzeug-HUD platziert sind, werden oft kontakt-analoge oder konformale Augmented-Reality-Grafikelemente genannt. Dem Fahrer eines Fahrzeugs erfolgreich kontakt-analoge Augmented-Reality-Grafikelemente zu präsentieren, kann von der Fähigkeit der Fahrzeug-HUD-Vorrichtung abhängen, Raumtiefen-Werte korrekt zu reproduzieren. Diese Raumtiefen-Werte können eine Akkomodation und eine Vergenz umfassen. Die Akkomodation ist ein Raumtiefen-Wert, in dem das Auge aktiv die optische Brechkraft ändert, um den Brennpunkt in verschiedenen Abständen einzustellen. Die Vergenz ist das gleichzeitige oder zusammenfallende Nach-innen-Drehen der Augen in Richtung zueinander, um ein einzelnes binokulares Bild zu erhalten, wenn ein Objekt betrachtet wird.
  • Wenngleich sich hierin beschriebene Beispiele auf einen Fahrer eines Fahrzeugs beziehen können, so können Grafikelemente in dem Sichtfeld von einem oder mehreren Insassen eines Fahrzeugs, wie beispielsweise Passagieren etc. projiziert, bereitgestellt, gerendert etc. werden. Daher sind diese Beispiele nicht als einschränkend zu verstehen und sind lediglich offenbart, um einen oder mehrere beispielhafte Aspekte der vorliegenden Anmeldung zu illustrieren.
  • Wenn eine HUD-Vorrichtung ein Grafikelement auf einer Windschutzscheibe eines Fahrzeugs anzeigt, kann die Akkomodation dazu führen, dass das menschliche Auge zwischen Umgebungs-Elementen und von der HUD-Vorrichtung angezeigten Elementen springt. Vergenz führt beim Auge dazu, dass Punkte hinter der Windschutzscheibe mit der Umgebung zusammenlaufen, was dazu führen kann, dass sich der Eindruck eines doppelten Bilds des auf der Windschutzscheibe angezeigten HUD-Grafikelements ergibt. Dementsprechend sollten, um kontakt-analoge Erweiterte-Realität-Grafikelemente mit korrekt reproduzierter Raumtiefe zu rendern, Grafikelemente in dem selben Raum wie die echte Umgebung gerendert werden (z. B. an entsprechenden Brennebenen), anstatt auf der Windschutzscheibe des Fahrzeugs.
  • Eine Heads-Up-Display-Vorrichtung für ein Fahrzeug zum Anzeigen von Grafikelementen im Sichtfeld eines Fahrers eines Fahrzeugs, während der Fahrer eine Umgebung durch eine Windschutzscheibe betrachtet, wird bereitgestellt. Die Heads-Up-Display-Vorrichtung kann einen oder mehrere Projektoren umfassen, die ein Grafikelement auf eine vordere Brennebene im Sichtfeld des Fahrers projizieren, während der Fahrer die Umgebung durch die Windschutzscheibe betrachtet, und einer oder mehrere Projektoren, die ein Grafikelement auf eine zum Untergrund parallele Brennebene im Sichtfeld des Fahrers projizieren, während der Fahrer die Umgebung durch die Windschutzscheibe betrachtet. Der Projektor, der das Grafikelement auf die vordere Brennebene projiziert, kann an einem Aktuator montiert sein, der den Projektor linear bewegt, um die vordere Brennebene dazu zu bringen, sich in einer Richtung einer Sichtlinie des Fahrers zu bewegen. Der Projektor, der die zum Untergrund parallele Brennebene projiziert, kann derart fest angeordnet sein, dass die zum Untergrund parallele Brennebene statisch ist.
  • Unter Bezugnahme auf 1 ist ein volumetrisches Heads-Up-Display-System 100 für ein Fahrzeug („HUD-System 100”) oder („HUD-Komponente 100”) illustriert, das in der Lage ist, volumetrische kontakt-analoge Augmented-Reality-Grafikelemente (z. B. 3-dimensionale oder „3-D”-Grafikelemente, die in den selben Raum gerendert werden wie die reale Umgebung) mit korrekt reproduzierten Raumtiefen-Werten zu rendern. Das HUD-System 100 umfasst eine Fahrzeug-Heads-Up-Display-Vorrichtung 102 („HUD-Vorrichtung 102”) und ein Steuer-/Regelelement 104 (oder „Steuer-/Regelkomponente 104”). Unter Bezugnahme auf 2 kann das HUD-System 100 in einem Fahrzeug 106 bereitgestellt sein, das einen Fahrersitz 108, ein Armaturenbrett-Gehäuse 110 und eine Windschutzscheibe 112 umfasst.
  • Die Konfiguration des Fahrzeugs 106 bezüglich der relativen Positionierung beispielsweise des Fahrersitzes 108, des Armaturenbrett-Gehäuses 110 und der Windschutzscheibe 112 kann konventionell sein. Um das hierin beschriebene HUD-System 100 aufzunehmen, definiert das Armaturenbrett-Gehäuse 110 einen Gehäuseraum, in dem das HUD-System 100 beherbergt ist. Ferner weist das Armaturenbrett-Gehäuse 110 eine HUD-Ausgangsöffnung 114 auf, die durch eine obere Fläche davon definiert ist. Das HUD-System 100, das in dem Armaturenbrett-Gehäuse 110 beherbergt ist, projiziert Grafikelemente, wie beispielsweise kontakt-analoge Augmented-Reality-Grafikelemente durch die HUD-Ausgangsöffnung 114 auf die Windschutzscheibe 112, die als ein Anzeigebildschirm für das HUD-System 100 verwendet werden kann. Wie im Folgenden detailliert beschrieben, können die Augmented-Reality-Grafikelemente für den Fahrer so gerendert werden, als ob sie sich in dem selben Raum wie die reale Umgebung befänden.
  • Ein Fahrer des Fahrzeugs 106 fährt das Fahrzeug 106, während er in dem Fahrersitz 108 sitzt. Dementsprechend kann der Fahrer von einer Position her auf eine Sitzposition in dem Fahrersitz 108 innerhalb des Fahrzeugs 106 eingeschränkt sein. Angesichts dieser Positions-Einschränkung kann das HUD-System 100 dazu ausgelegt sein, die Annahme zu verwenden, dass das Sichtfeld des Fahrers von einer Augenbox 116 innerhalb des Fahrzeugs ausgeht. Die Augenbox 116 kann derart angenommen werden, dass sie einen Bereich eines Innenraums des Fahrzeugs 106 umfasst, in dem sich die Augen des Fahrers befinden, während der Fahrer in dem Fahrersitz 108 sitzt.
  • Die Augenbox 116 kann eine derartige Größe aufweisen, dass sie alle möglichen Kopfpositionen des Fahrers ungeachtet einer Position und Stellung des Fahrersitzes 108 umschließt, oder das HUD-System 100 kann dazu eingerichtet sein, die Position und die Stellung des Fahrersitzes 108 zu detektieren und eine Position und Größe der Augenbox 116 auf Grundlage davon anzupassen. In einer oder mehreren Ausführungsformen kann das HUD-System 100 dazu ausgelegt sein, anzunehmen, dass die Augenbox 116 eine feste Größe aufweist und sich an einer festen Position befindet. Beispielsweise kann die Augenbox die folgenden Abmessungen aufweisen: 20 cm × 10 cm × 10 cm. In jedem Fall kann das HUD-System 100 dazu eingerichtet sein, die kontakt-analogen Augmented-Reality-Grafikelemente dem Fahrer zu präsentieren, wenn die Augen des Fahrers innerhalb der Augenbox 116 sind und der Fahrer in eine Richtung nach vorne durch die Windschutzscheibe 112 des Fahrzeugs 106 schaut/blickt. Wenngleich die Augenbox 116 in 2 für den Fahrerdes Fahrzeugs 106 illustriert ist, kann die Augenbox 116 so ausgeführt sein, dass sie einen oder mehrere weitere Insassen des Fahrzeugs umfasst. In einer oder mehreren Ausführungsformen können zusätzliche Augenboxen oder HUD-Vorrichtungen beispielsweise für Passagiere oder andere Insassen bereitgestellt sein.
  • Die HUD-Vorrichtung 102 zeigt ein oder mehrere Grafikelemente in dem Sichtfeld des Fahrers des Fahrzeugs 106 an, während der Fahrer eine Umgebung durch die Windschutzscheibe 112 des Fahrzeugs 106 betrachtet. Jedes Grafik- oder Umgebungselement, das der Fahrer durch die Windschutzscheibe 112 sieht, während die Augen des Fahrers in der Augenbox 116 sind und der Fahrer in die Richtung nach vorne durch die Windschutzscheibe 112 blickt/schaut, kann als im Sichtfeld des Fahrers befindlich angesehen werden. So wie der Begriff hierin verwendet wird, ist vorgesehen, dass das Sichtfeld des Fahrers des Fahrzeugs 106, während der Fahrer eine Umgebung durch die Windschutzscheibe 112 des Fahrzeugs 106 betrachtet, einen Bereich einschließt, der durch die Windschutzscheibe 112 betrachtet wird, wobei Armaturenbrett-Anzeigen, die innerhalb des Fahrzeugs 106 liegen, ausgeschlossen sind. In anderen Worten präsentiert die HUD-Vorrichtung 102 die Grafikelemente derart, dass der Fahrer die Grafikelemente sehen kann, ohne dass er von der Straße wegblicken muss.
  • Zurück unter Bezugnahme auf 1 umfasst die HUD-Vorrichtung 102 des HUD-Systems 100 einen ersten Projektor 118, einen zweiten Projektor 120, einen dritten Projektor 122 und einen vierten Projektor 124. Der erste Projektor 118 und der dritte Projektor 122 teilen sich einen ersten Strahlteiler 126 und eine erste Objektiv-Linse 128, während sich der zweite Projektor 120 und der vierte Projektor 124 einen zweiten Strahlteiler 130 und eine zweite Objektiv-Linse 132 teilen. Folglich können die Ausgabe des ersten Projektors 118 und des dritten Projektors 122 in dem ersten Strahlteiler 126 erhalten werden und zu einer einzelnen Ausgabe kombiniert werden, die auf (und durch) die erste Objektiv-Linse 128 gerichtet ist. Ähnlich können die Ausgabe des zweiten Projektors 120 und des vierten Projektors 124 in dem zweiten Strahlteiler 130 erhalten werden und zu einer einzelnen Ausgabe kombiniert werden, die auf (und durch) die zweite Objektiv-Linse 132 gerichtet ist.
  • Die HUD-Vorrichtung 102 umfasst ferner einen dritten Strahlteiler 134, der stromabwärts von der ersten und der zweiten Objektiv-Linse 128, 132 angeordnet und dazu eingerichtet ist, die Ausgabe von der ersten und der zweiten Objektiv-Linse 128, 132 zu erhalten. Die Ausgaben der ersten und der zweiten Objektiv-Linse 128, 132 können bei dem dritten Strahlteiler 134 zu einer einzelnen Ausgabe kombiniert werden, die eine Kombination der Ausgabe von jedem aus dem ersten, zweiten, dritten und vierten Projektor 118, 120, 122, 124 sein kann und auf (und durch) eine dritte Objektiv-Linse 136 und eine Okular-Linse 138 gerichtet sein kann, bevor sie aus der HUD-Ausgangsöffnung 114 heraus auf die Windschutzscheibe 112 gerichtet wird, die als der Anzeigebildschirm für das HUD-System 100 verwendet werden kann.
  • Jeder aus dem ersten Projektor 118, dem zweiten Projektor 120, dem dritten Projektor 122 und dem vierten Projektor 124 umfasst eine Projektoreinheit 140, 142, 144, 146 und eine Diffusorscheibe 148, 150, 152, 154, die fest in einem bestimmten Abstand von der Projektoreinheit 140, 142, 144, 146 befestigt und relativ zu der Projektoreinheit 140, 142, 144, 146 derart angeordnet sind, dass das von der Projektoreinheit 140, 142, 144, 146 ausgestrahlte Licht durch die Diffusorscheibe 148, 150, 152, 154 läuft. Die Projektoreinheiten 140, 142, 144, 146 können lichtemittierende Einheiten sein, die ein Bild oder Grafikelement projizieren, das durch die zugeordnete Diffusorscheibe 148, 150, 152, 154 läuft. Die Diffusorscheiben 148, 150, 152, 154 dienen als leuchtende Bildquelle (oder Objekt) für den Rest des optischen Systems der HUD-Vorrichtung 102 und stellen sicher, dass ein großer Teil des Lichts, das die Diffusorscheiben 148, 150, 152, 154 verlässt, auf die den Diffusorscheiben 148, 150, 152, 154 folgenden optischen Elemente fällt (z. B. den ersten Strahlteiler 126, die erste Objektiv-Linse 128, den zweiten Strahlteiler 130, die zweite Objektiv-Linse 132, den dritten Strahlteiler 134, die dritte Objektiv-Linse 136 und die Okular-Linse 138), während das Licht derart ausgestreut wird, dass es letztlich die Augenbox 116 derart ausfüllt, dass eine Helligkeit des Bilds oder des Grafikelements beziehungsweise der Grafikelemente konstant bleibt, wenn sich der Kopf des Fahrers innerhalb der Augenbox 116 bewegt. Dementsprechend verhindert die Verwendung der Diffusorscheiben 148, 150, 152, 154 im Wesentlichen, dass verschiedene Teile des Bilds oder des Grafikelements beziehungsweise der Grafikelemente von verschiedenen Punkten innerhalb der Augenbox 116 sichtbar sind, und verhindert somit im Wesentlichen das Auftreten von verschiedenem visuellen Verhalten bei leichten Kopfbewegungen.
  • Die Projektoreinheiten 140, 142, 144, 146 können die Form jeder für die hierin beschriebene Verwendung geeigneten lichtemittierenden Einheit annehmen. Die Projektoreinheiten 140, 142, 144, 146 können die Form jeder lichtemittierenden Einheit annehmen, die in der Lage ist, ein Bild oder Grafikelement gemäß der hierin beschriebenen Verwendung beziehungsweise den hierin beschriebenen Verwendungen zu projizieren. Ähnlich können die Diffusorscheiben 148, 150, 152, 154 die Form jeder lichtstreuenden Scheibe annehmen, die für die hierin beschriebene Verwendung beziehungsweise die hierin beschriebenen Verwendungen geeignet ist.
  • Der erste Projektor 118 kann an einem ersten Aktuator 156 in der HUD-Vorrichtung 102 montiert sein. Der erste Aktuator 156 kann ein linearer Aktuator sein, der in der Lage ist, den ersten Projektor 118 in einer linearen Richtung auf den ersten Strahlteiler 126 zu und von ihm weg zu bewegen. Zusätzlich kann der dritte Projektor 122 an einem zweiten Aktuator 158 in der HUD-Vorrichtung 102 montiert sein. Der zweite Aktuator 158 kann ein linearer Aktuator sein, der in der Lage ist, den dritten Projektor 122 in einer linearen Richtung auf den ersten Strahlteiler 126 zu oder von ihm weg zu bewegen. Der erste und der zweite Aktuator 156, 158 können die Form von jedem linearen Aktuator annehmen, der für die hierin beschriebene Verwendung geeignet ist. Die Fähigkeit des ersten Projektors 118 und des dritten Projektors 122, sich linear zu bewegen, erlaubt es dem ersten Projektor 118 und dem dritten Projektor 122, grafische Elemente auf dynamische oder bewegbare Brennebenen zu projizieren. Im Gegensatz zu dem ersten und dem dritten Projektor 118, 122 können der zweite und der vierte Projektor 120, 124 fest in der HUD-Vorrichtung 102 angeordnet sein und somit Grafikelemente auf statische Brennebenen projizieren.
  • Durch Verwendung des ersten, zweiten, dritten und vierten Projektors 118, 120, 122, 124 kann die HUD-Vorrichtung 102 Grafikelemente (kontakt-analoge Augmented-Reality-Grafikelemente oder ähnliches) in vier bestimmten Brennebenen in dem von dem Fahrer durch die Windschutzscheibe 112 betrachteten Umfeld rendern. In dieser Hinsicht kann der erste Projektor 118 dazu eingerichtet sein, ein erstes Grafikelement 160 in eine erste Brennebene 162 zu projizieren, der zweite Projektor 120 kann dazu eingerichtet sein, ein zweites Grafikelement 164 in eine zweite Brennebene 166 zu projizieren, der dritte Projektor 122 kann dazu eingerichtet sein, ein drittes Grafikelement 168 in eine dritte Brennebene 170 zu projizieren, und der vierte Projektor 124 kann dazu eingerichtet sein, ein viertes Grafikelement 172 in eine vierte Brennebene 174 zu projizieren (wie es unter Bezugnahme auf 3 und 4 beschrieben werden wird). Alle aus dem ersten, zweiten, dritten und vierten Grafikelement 160, 164, 168, 172 und ihre zugeordnete erste, zweite, dritte und vierte Brennebene 162, 166, 170, 174 können in der Umgebung im Sichtfeld des Fahrers gerendert werden, wenn der Fahrer das Fahrzeug 106 fährt und die Augen des Fahrers in der Augenbox 116 sind, während der Fahrer in eine Richtung nach vorne durch die Windschutzscheibe 112 schaut.
  • Unter Bezugnahme auf 3 und 4 werden die Projektion des ersten, zweiten, dritten und vierten Grafikelements 160, 164, 168, 172 auf die erste, zweite, dritte und vierte Brennebene 162, 166, 170, 174 unter Bezugnahme auf eine Untergrundfläche 176 und eine Sichtlinie 178 des Fahrers beschrieben. In dieser Hinsicht ist die Untergrundfläche 176 eine Oberfläche einer Straße vor dem Fahrzeug 106. Zum Zweck der vorliegenden Beschreibung wird davon ausgegangen, dass die Untergrundfläche 176 eine im Wesentlichen ebene Fläche ist. Die Sichtlinie 178 des Fahrers ist eine Linie, die sich im Wesentlichen parallel zu der Untergrundfläche 176 von der Augenbox 116 in die Vorwärts-Richtung erstreckt. Wie der Begriff hierin verwendet wird, ist eine Richtung der Sichtlinie 178 eine Richtung, die sich in Richtung des Fahrers und des Fahrzeugs 106 und von ihnen weg entlang der Sichtlinie 178 erstreckt.
  • Die erste Brennebene 162 ist eine frontale Brennebene, die im Wesentlichen senkrecht zu der Sichtlinie 178 des Fahrers orientiert sein kann. Die dritte Brennebene 170 ist ebenfalls eine frontale Brennebene, die im Wesentlichen senkrecht zu der Sichtlinie 178 des Fahrers orientiert sein kann. Die erste und die dritte Brennebene 162, 170 können dynamische Brennebenen sein, die in der Richtung der Sichtlinie 178 bewegbar sind, sowohl in der Vorwärts-Richtung (weg von dem Fahrzeug 106) als auch in eine Rückwärts-Richtung (auf das Fahrzeug 106 zu). Die zweite Brennebene 166 ist eine zum Untergrund parallele Brennebene, die im Wesentlichen parallel zu der Untergrundfläche 176 orientiert sein kann, und sie kann derart auf der Untergrundfläche 176 angeordnet sein, dass die zweite Brennebene 166 eine Grund-Brennebene ist. Die vierte Brennebene 174 ist ebenfalls eine zum Untergrund parallele Brennebene, die im Wesentlichen parallel zu der Untergrundfläche 176 orientiert sein kann, und sie ist oberhalb der Untergrundfläche 176 angeordnet. Die vierte Brennebene 174 kann oberhalb der Untergrundfläche 176 und der Sichtlinie 178 des Fahrers angeordnet sein und eine Himmel- oder Decken-Brennebene sein. Folglich können die zweite und die vierte Brennebene 166, 174 statische Brennebenen sein.
  • Unter Bezugnahme auf 4 können das erste, zweite, dritte und vierte Grafikelement 160, 164, 168, 172 dazu verwendet werden, dem Fahrer verschiedene Informationen zu präsentieren. Der exakte Typ der von dem ersten, zweiten, dritten und vierten Grafikelement 160, 164, 168, 172 angezeigten Information kann variieren. Beispielsweise können das erste Grafikelement 160 und das dritte Grafikelement 168 dem Fahrer eine Warnung präsentieren, die den Fahrer anweisen, auf eine Gefahr oder ein Hindernis zu reagieren, oder sie können Navigations-Anweisungen oder Fahr-Anweisungen, die mit den Regeln der Straße zusammenhängen (z. B. ein Stop-Schild, ein Vorfahrt-Schild etc.), präsentieren. Das zweite Grafikelement 164 und das vierte Grafikelement 172 können dem Fahrer Navigations-Anweisungen als eine Grafik-Überlagerung präsentieren, die auf der Untergrundfläche 176 präsentiert wird, oder können dem Fahrer eine Fahrzeug-umgebende Anzeige präsentieren. Das erste, zweite, dritte und vierte Grafikelement 160, 164, 168, 172 können dem Fahrer Informationen oder Grafikelemente präsentieren, die verschieden von den hierin beschriebenen sind, und eine Untergruppe aus dem ersten, zweiten, dritten und vierten Grafikelement 160, 164, 168, 172 kann präsentiert werden.
  • Zurück unter Bezugnahme auf 1 kann das Steuer-/Regelelement 104 einen oder mehrere Computer, (z. B. arithmetische) Prozessoren oder beliebige andere Vorrichtungen umfassen, die in der Lage sind, mit einem oder mehreren Fahrzeug-Steuer-/Regelsystemen 180 zu kommunizieren und die HUD-Vorrichtung 102 zu steuern/regeln. Eines oder mehrere der Fahrzeug-Steuer-/Regelsysteme 180 (im Folgenden „Fahrzeug-Steuer-/Regelsystem 180” oder „Fahrzeug-Steuer-/Regelkomponente 180”) können die Form eines beliebigen Fahrzeug-Steuer-/Regelsystem 180 annehmen, das dazu verwendet wird, aktiv oder passiv die Steuerung/Regelung des Fahrzeugs 106 zu erleichtern. Das Fahrzeug-Steuer-/Regelsystem 180 kann einen oder mehrere (nicht gezeigte) Sensoren umfassen oder mit ihnen kommunizieren, die Fahr- und Umgebungs-Bedingungen im Zusammenhang mit dem Betrieb des Fahrzeugs 106 detektieren.
  • Unter allgemeiner Bezugnahme auf den Betrieb des HUD-Systems 100 kommuniziert das Steuer-/Regelelement 104 mit dem Fahrzeug-Steuer-/Regelsystem 180 und auf Grundlage der Kommunikation mit dem Fahrzeug-Steuer-/Regelsystem 180 bestimmt es den Typ und die Position von Grafikelementen, die dem Fahrer des Fahrzeugs 106 präsentiert werden sollen. Das Steuer-/Regelelement 104 bestimmt den Typ des Grafikelements, das als erstes, zweites, drittes und viertes Grafikelement 160, 164, 168, 172 von dem ersten, zweiten, dritten und vierten Projektor 118, 120, 122, 124 präsentiert werden soll und steuert/regelt den ersten, zweiten, dritten und vierten Projektor 118, 120, 122, 124, um das erste, zweite, dritte und vierte Grafikelement 160, 164, 168, 172 als das bestimmte Grafikelement zu projizieren. Das Steuer-/Regelelement 104 kann eine Sollposition des ersten Grafikelements und eine Sollposition des dritten Grafikelements als Sollpositionen bestimmen, an denen das erste und das dritte Grafikelement 160, 168 in der Umgebung für den Fahrer gerendert werden sollen. Das Steuer-/Regelelement 104 steuert/regelt dann den ersten und den zweiten Aktuator 156, 158, um den ersten und den dritten Projektor 118, 122 derart linear zu bewegen, dass die erste und die dritte Brennebene 162, 170 jeweils zu der Sollposition des ersten und des dritten Grafikelements bewegt werden.
  • Dementsprechend projiziert der erste Projektor 118 das erste Grafikelement 160 auf die erste Brennebene 162, die im Wesentlichen senkrecht zu der Sichtlinie des Fahrers orientiert sein kann und zu dem Fahrzeug 106 hin und von ihm weg in der Richtung der Sichtlinie 178 des Fahrers durch eine lineare Bewegung des ersten Projektors 118 durch den ersten Aktuator 156 bewegbar sein kann. Der zweite Projektor 120 projiziert das zweite Grafikelement 164 auf die zweite Brennebene 166, die statisch und parallel zu der Untergrundfläche 176 orientiert und auf der Untergrundfläche 176 angeordnet ist. Der dritte Projektor 122 projiziert das dritte Grafikelement 168 an der dritten Brennebene 170, die im Wesentlichen senkrecht zu der Sichtlinie des Fahrers orientiert sein kann und auf das Fahrzeug 106 zu oder von ihm weg in der Richtung der Sichtlinie 178 des Fahrers durch eine lineare Bewegung des dritten Projektor 122 durch den zweiten Aktuator 158 bewegbar oder einstellbar sein kann. Der vierte Projektor 124 projiziert das vierte Grafikelement 172 an der vierten Brennebene 174, die statisch parallel zu der Untergrundfläche 176 orientiert ist und oberhalb der Sichtlinie 178 des Fahrers angeordnet sein kann. Das Steuer-/Regelelement 104 steuert/regelt den ersten und den zweiten Aktuator 156, 158, um den ersten und den dritten Projektor 118, 122 zu bewegen, um die erste und die dritte Brennebene 162, 170 zu bewegen.
  • Indem der erste und der dritte Projektor 118, 122 das erste und das zweite Grafikelement 160, 168 auf die bewegbare erste und dritte Brennebene 162, 170 projizieren, die im Wesentlichen senkrecht zu der Sichtlinie 178 des Fahrers orientiert sind, kann der Fokus von Objekten in verschiedenen Abständen von dem Fahrzeug 106 angepasst werden. Das kann das Vorsehen von korrekten Raumtiefen-Werten für den Fahrer für das erste und das dritte Grafikelement 160, 168 vereinfachen, insbesondere wenn das HUD-System 100 eine Fahrzeug-Anwendung ist, wobei das Fahrzeug 106 als fahrende Plattform dient.
  • Während der zweite und vierte Projektor 120, 124 das zweite und vierte Grafikelement 164, 172 auf die statische zweite und vierte Brennebene 166, 174 projizieren, können die zweite und die vierte Brennebene 166, 174 kontinuierlich sein. Um die zweite und die vierte Brennebene 166, 174 parallel mit der Untergrundfläche 176 auszurichten, können die Diffusorscheiben 150, 154 des zweiten und des vierten Projektors 120, 124 gekippt sein. Da das optische System der HUD-Vorrichtung 102 eine sehr niedrige Verzerrung aufweist und nahezu telozentrisch für Bilder in einer zum Untergrund parallelen Brennebene ist, sind Lichtstrahlen nahezu parallel mit der optischen Achse, was es den projizierten zweiten und vierten Grafikelementen 164, 172 erlaubt, ohne Verzerrung oder Änderung der Vergrößerung projiziert oder gerendert zu werden, während die zweite und vierte Brennebene 166, 174 gekippt sind. Das resultierende zweite und vierte Grafikelement 164, 172 erscheinen daher in einer kontinuierlichen Brennebene (die zweite und die vierte Brennebene 166, 174) parallel zu der Untergrundfläche 176. In dieser Hinsicht können das zweite und das vierte Grafikelement 164, 172 mit einer tatsächlichen 3-dimensionalen (3-D) volumetrischen Form gerendert werden, anstatt als Liniensegmente, um monokulare Elemente hinzuzufügen, um den Tiefeneindruck zu verstärken.
  • Die kontinuierliche statische zweite und vierte Brennebene 166, 174 erleichtern eine Tiefen-Wahrnehmung des Fahrers bezüglich dem zweiten und vierten Grafikelement 164, 172. Die kontinuierliche statische zweite und vierte Brennebene 166, 174 erlauben eine korrekte Erzeugung von realen Bildern oder Grafikelementen durch die Vorwärts-Rückwärts-Richtung im 3-D-Raum (z. B. der Richtung der Sichtlinie 178 des Fahrers), was es erlaubt, richtige Bewegungs-Parallaxenwerte zu erzeugen. Dementsprechend erscheinen, wenn der Kopf des Fahrers sich von einer Seite zur anderen oder von oben nach unten bewegt, das zweite und das vierte Grafikelement 164, 172 dem Fahrer fest in ihrer Position in der Umgebung, anstatt dass sie sich herumbewegen. Folglich benötigt das HUD-System 100 keine Kopf-Verfolgungsfunktion, um Bewegungen des Kopfs des Fahrers auszugleichen.
  • Bezüglich der zuvor aufgeführten Beispiele für Informationen, die dem Fahrer präsentiert werden können, kann das Fahrzeug-Steuer-/Regelsystem 180 ein Prozessieren oder Sensoren umfassen, die in der Lage sind, die folgenden Funktionen auszuführen: Gefahr- oder Hindernisdetektion; Navigation; Navigations-Anweisungen und Überwachung der Umgebung des Fahrzeugs (z. B. den toten Winkel). Das Fahrzeug-Steuer-/Regelsystem 180 kann ein Prozessieren und Sensoren umfassen, die in der Lage sind, andere Steuer-/Regelfunktionen des Fahrzeugs auszuführen (z. B. Autobahn-Einscherassistent etc.), die alternativ oder zusätzlich mit dem Fahrer unter Verwendung des HUD-Systems 100 präsentierten Informationen zusammenhängen. Ungeachtet der von dem Fahrzeug-Steuer-/Regelsystem 180 durchgeführten Funktionen kann die präzise Art und Weise des Betriebs des Fahrzeug-Steuer-/Regelsystems 180 bei Ausführung der Funktionen, einschließlich der zugehörigen Sensoren und Prozessierung, irrelevant für den Betrieb des HUD-Systems 100 sein.
  • Das Steuer-/Regelelement 104 kommuniziert mit dem Fahrzeug-Steuer-/Regelsystem 180 und erhält davon Eingaben bezüglich des Betriebs des Fahrzeugs 106 und im Zusammenhang mit den oben aufgelisteten (und anderen) Funktionen. Das Steuer-/Regelelement 104 steuert/regelt dann die HUD-Vorrichtung 102 auf Grundlage der von dem Fahrzeug-Steuer-/Regelsystem 180 erhaltenen Eingaben. In dieser Hinsicht können einer oder beide aus dem Steuer-/Regelelement 104 und dem Fahrzeug-Steuer-/Regelsystem 180 bestimmen: den Typ des Grafikelements, das als das erste, zweite, dritte und vierte Grafikelement 160, 164, 168, 172 angezeigt werden soll; die Position des ersten, zweiten, dritten und vierten Grafikelements 160, 164, 168, 172; und welche aus dem ersten, zweiten, dritten und vierten Grafikelement 160, 164, 168, 172 angezeigt werden sollen. Diese Bestimmungen können auf einer oder mehreren Fahrzeug-Funktionen basieren, die von dem Fahrer benutzt werden, wie beispielsweise ob der Fahrer die Navigations-Funktion benutzt.
  • Ungeachtet dessen, ob das Steuer-/Regelelement 104 oder das Fahrzeug-Steuer-/Regelsystem 180 verwendet werden, um diese Bestimmungen durchzuführen, steuert/regelt das Steuer-/Regelelement 104 die HUD-Vorrichtung 102, um die angemessenen Grafikelemente an den angemessenen Positionen anzuzeigen. Dies kann ein Steuern/Regeln des ersten, zweiten, dritten und vierten Projektors 118, 120, 122, 124 zum Projizieren des angemessenen ersten, zweiten, dritten und vierten Grafikelements 160, 164, 168, 172 umfassen. Dies kann ein Steuern/Regeln des ersten und des zweiten Aktuators 156, 158 umfassen, um den ersten und den dritten Projektor 118, 122 linear zu bewegen, um die erste und die dritte Brennebene 162, 170 in die angemessenen Positionen (d. h. die Sollpositionen) zu bewegen. Beispielsweise können ein oder mehrere Aktuatoren, wie beispielsweise 156, 158 dazu eingerichtet sein, eine oder mehrere Brennebenen, wie beispielsweise 162, 170 zu bewegen. Beispielsweise kann unter Bezugnahme auf die dritte Brennebene 170 ein Abstand zwischen der dritten Brennebene 170 und einer Windschutzscheibe des Fahrzeugs 106 (z. B. bei 302) durch Anpassen des Abstands 170' angepasst werden. Ähnlich kann der Abstand 162' dazu angepasst werden, eine Sollposition für die Brennebene 162 anzupassen.
  • Hinsichtlich der zuvor aufgeführten beispielhaften Informationen im Zusammenhang mit dem ersten, zweiten, dritte und vierten Grafikelement 160, 164, 168, 172 wird der Betrieb des HUD-Systems 100 unter Bezugnahme auf das Fahrzeug 106 beschrieben werden, das das Fahrzeug-Steuer-/Regelsystem 180 aufweist, das die folgenden Funktionen erlaubt: eine Gefahr- oder Hindernisdetektion und Warnfunktion; eine Navigations-Funktion; eine Navigations-Anweisungsfunktion und eine Überwachungs-Funktion für die Umgebung des Fahrzeugs (z. B. einen toten Winkel). Wiederum kann das Fahrzeug 106 eine Untergruppe dieser Funktionen oder zusätzliche Funktionen aufweisen, und das HUD-System 100 kann unter Bezugnahme auf die Untergruppe oder zusätzliche Funktionen eingesetzt werden. Die Beschreibung des HUD-Systems 100 unter Bezugnahme auf diese Funktionen ist lediglich exemplarisch und dazu vorgesehen, die Beschreibung des HUD-Systems 100 zu vereinfachen. Wenngleich einer oder beide aus dem Steuer-/Regelelement 104 und dem Fahrzeug-Steuer-/Regelsystem 180 Bestimmungen im Zusammenhang mit dem Betrieb des HUD-Systems 100 vornehmen können, wird das Steuer-/Regelelement 104 so beschrieben, dass es dazu eingerichtet ist, Bestimmungen auf Grundlage von von dem Fahrzeug-Steuer-/Regelsystem 180 erhaltenen Eingaben vorzunehmen.
  • Informationen bezüglich der Hindernisdetektion und Warnfunktion können dem Fahrer als ein kontakt-analoges Augmented-Reality-Grafikelement präsentiert werden, das von dem ersten Projektor 118 der HUD-Vorrichtung 102 projiziert wird. In dieser Hinsicht kann das Fahrzeug-Steuer-/Regelsystem 180 verschiedene Hindernisse auf der Straße detektieren, auf der sich das Fahrzeug 106 bewegt. Beispielsweise können die Hindernisse Fußgänger, die die Straße überqueren, andere Fahrzeuge, Tiere, Unrat auf der Straße, Schlaglöcher etc. umfassen. Die Detektion dieser Hindernisse kann durch Prozessieren von Informationen aus der Umgebung vorgenommen werden, die von (nicht gezeigten) Sensoren erfasst wird, die in dem Fahrzeug 106 vorgesehen sind. Ferner kann eine Hindernisdetektion auch auf beliebige andere Weise durchgeführt werden.
  • Wenn ein Hindernis detektiert wird, gibt das Fahrzeug-Steuer-/Regelsystem 180 die Hindernis-Informationen an das Steuer-/Regelelement 104 weiter. Das Steuer-/Regelelement 104 erhält die Hindernis-Informationen von dem Fahrzeug-Steuer-/Regelsystem 180 und bestimmt den Typ von Grafikelement, der als erstes Grafikelement 160 präsentiert werden soll, und die Sollposition des ersten Grafikelements auf Grundlage der erhaltenen Hindernis-Informationen. Während verschiedene Typen von Grafikelementen verwendet werden können, wie beispielsweise blinkende Symbole, andere Zeichen, etc., werden die Beispiele hierin unter Bezugnahme auf ein „YIELD”-Zeichen (Vorfahrt-Zeichen) beschrieben, das präsentiert wird, wenn ein Hindernis detektiert wird.
  • Unter Bezugnahme auf 4 kann das von dem Fahrzeug-Steuer-/Regelsystem 180 detektierte Hindernis ein Fußgänger 182 sein, der die Straße überquert, auf der das Fahrzeug 106 fährt. In dem exemplarischen Sichtfeld das Fahrers in 4 bewegt sich das Fahrzeug 106 auf einer Straße, die von dem Fußgänger 182 überquert wird. Dementsprechend kann das Fahrzeug-Steuer-/Regelsystem 180 Hindernis-Informationen im Zusammenhang mit dem Fußgänger 182 an das Steuer-/Regelelement 104 senden. Auf Grundlage der Hindernis-Informationen kann das Steuer-/Regelelement 104 den Typ von Grafikelement bestimmen, der als das erste Grafikelement 160 angezeigt werden soll; in diesem Fall kann beispielsweise das Grafikelement ein „YIELD”-Zeichen sein, wenngleich andere Grafiken verwendet werden können. Das Steuer-/Regelelement 104 kann die Sollposition des ersten Grafikelements derart bestimmen, dass das erste Grafikelement 160 derart projiziert und gerendert wird, dass es von dem Fahrer wahrgenommen wird, als ob es sich bei der selben Tiefe (z. B. Brennebene) befindet wie der Fußgänger 182. Ferner kann das Steuer-/Regelelement 104 dazu eingerichtet sein, die Sollposition des ersten Grafikelements derart anzupassen, dass das erste Grafikelement 160 den Fußgänger „trackt” oder ihm „folgt”, beispielsweise wenn der Fußgänger 182 läuft.
  • Dann steuert/regelt das Steuer-/Regelelement 104 den ersten Projektor 118 so, dass dieser das „YIELD”-Zeichen als das erste Grafikelement 160 projiziert, und steuert/regelt den ersten Aktuator 156 so, dass der erste Projektor 118 linear derart bewegt wird, dass das erste Grafikelement 160 so projiziert und gerendert werden kann, dass es von dem Fahrer (z. B. während die Augen des Fahrers in der Augenbox 116 sind und der Fahrer in die Vorwärts-Richtung durch die Windschutzscheibe 112 schaut) so wahrgenommen wird, als ob es in der selben Tiefe wie der Fußgänger 182 ist. Der erste Aktuator 156 kann derart gesteuert/geregelt werden, dass das erste Grafikelement 160 auf die erste Brennebene 162 projiziert werden kann, die an der Sollposition des ersten Grafikelements positioniert werden kann und im Wesentlichen senkrecht zu der Sichtlinie 178 orientiert sein kann.
  • Da das Fahrzeug 106 und der Fußgänger 182 sich auf der Straße bewegen, wird sich der relative Abstand zwischen den beiden ändern. Diese Änderung des Abstands kann an das Steuer-/Regelelement 104 von dem Fahrzeug-Steuer-/Regelelement 180 weitergegeben werden, die Sollposition des ersten Grafikelements kann entsprechend geändert werden, und der erste Aktuator 156 kann von dem Steuer-/Regelelement 104 so gesteuert/geregelt werden, dass die erste Brennebene 162 bei der (z. B. geänderten/sich ändernden) Sollposition des ersten Grafikelements verbleibt. Dementsprechend kann, indem das erste Grafikelement 160 auf die erste Brennebene 162 projiziert wird, die in der Richtung der Sichtlinie 178 des Fahrers bewegbar sein kann, die dem ersten Grafikelement 160 zugeordnete Raumtiefe korrekt reproduziert werden, so dass der Fahrer akkurat die Position des ersten Grafikelements 160 (z. B. des detektierten Hindernisses) einschätzen kann.
  • Zusätzlich können dem Fahrer Informationen im Zusammenhang mit der Navigations-Funktion als ein kontakt-analoges Augmented-Reality-Grafikelement präsentiert werden, das von dem zweiten Projektor 120 der HUD-Vorrichtung 102 projiziert wird. In dieser Hinsicht kann das Fahrzeug-Steuer-/Regelsystem 180, auf ein Erhalten einer Navigations-Anweisung von dem Fahrer hin (z. B. der Eingabe eines gewünschten Orts), eine Navigations-Route für den Fahrer erzeugen, der dieser folgen kann, um zu dem gewünschten Ort zu gelangen. Die Navigations-Route umfasst eine Reihe von Fahr-Anweisungen, die den Fahrer befolgen soll, einschließlich Anweisungen, auf der Route zu dem gewünschten Ort in Straßen einzubiegen. Die Navigations-Funktion kann auf jede beliebige Weise ausgeführt werden. Wenn die Navigations-Funktion aktiviert ist, kann das Fahrzeug-Steuer-/Regelsystem 180 die Fahr-Anweisungen im Zusammenhang mit der Navigations-Funktion an das Steuer-/Regelelement 104 weitergeben.
  • Das Steuer-/Regelelement 104 kann die Fahr-Anweisungen von dem Fahrzeug-Steuer-/Regelsystem 180 erhalten und den Typ von Grafikelement bestimmen, der als das zweite Grafikelement 164 präsentiert werden soll.
  • Die der Navigations-Funktion zugeordneten Typen von Grafikelementen können Grafikelemente umfassen, die den Fahrer anweisen, auf der momentanen Straße weiterzufahren (z. B. eine gerade Linie oder ein gerader Pfeil), an der nächsten Kreuzung nach links oder rechts abzubiegen (z. B. ein Pfeil nach links/rechts oder eine Linie, die in die entsprechende Richtung verläuft), auf eine Autobahn aufzufahren, einzuscheren oder sie zu verlassen (z. B. eine Linie oder einen Pfeil, die/der den entsprechenden Weg anzeigt), etc. Das Steuer-/Regelelement 104 wählt das angemessene Grafikelement aus, um es als zweites Grafikelement 164 auf Grundlage der von dem Fahrzeug-Steuer-/Regelsystem 180 weitergegebenen Fahr-Richtung zu präsentieren.
  • Unter Bezugnahme auf das exemplarische Sichtfeld des Fahrers in 4 umfasst die Fahr-Richtung für die von der Navigations-Funktion des Fahrzeug-Steuer-/Regelsystems 180 bestimmte Fahr-Route ein Abbiegen nach links auf eine näher kommende Straße. Dementsprechend steuert/regelt das Steuer-/Regelelement 104 den zweiten Projektor 120, um ein Links-Abbiegen-Grafikelement als das zweite Grafikelement 164 zu erzeugen und an der zweiten Brennebene 166 zu projizieren. Wie in 4 gezeigt, kann die zweite Brennebene 166 parallel zu der Untergrundfläche 176 sein und an der Untergrundfläche 176 angeordnet sein. Wie oben angesprochen, kann der zweite Projektor 120 fest in der HUD-Vorrichtung 102 angeordnet sein, so dass die zweite Brennebene 166 statisch ist. Wie oben angesprochen kann die zweite Brennebene 166 kontinuierlich sein, so dass das zweite Grafikelement 164 für den Fahrer mit geeigneter Raumtiefe als ein 3-D-Bild gerendert werden kann.
  • Ähnlich können Informationen im Zusammenhang mit der Navigations-Anweisungsfunktion dem Fahrer als ein kontakt-analoges Augmented-Reality-Grafikelement präsentiert werden, das von dem dritten Projektor 122 der HUD-Vorrichtung 102 projiziert wird. In dieser Hinsicht kann das Fahrzeug-Steuer-/Regelsystem 180 Sensoren oder in einer Datenbank gespeicherte und einer Karte zugeordnete Informationen verwenden, um die Straße zu überwachen, auf der das Fahrzeug 106 fährt, und um bevorstehende Navigations-Anweisungen zu bestimmen, die mit der Fahrt auf dieser Straße zusammenhängen. Beispielsweise kann das Fahrzeug-Steuer-/Regelsystem 180 ein bevorstehendes notwendiges Anhalten, ein „Vorfahrt gewähren” oder einen sonstigen Zustand (im Folgenden insgesamt als „Straßen-Zustand” bezeichnet) auf der Straße detektieren, auf der das Fahrzeug 106 fährt. Das Fahrzeug-Steuer-/Regelsystem 180 kann eine Navigations-Anweisung im Zusammenhang mit dem detektierten Straßen-Zustand (z. B. eine Stop-Anweisung im Zusammenhang mit einem Stop-Straßen-Zustand etc.) bestimmen. Die Navigations-Anweisungsfunktion kann auf beliebige Weise ausgeführt werden, deren Besonderheiten für den Betrieb des HUD-Systems 100 nicht relevant sind. Zusätzlich können die Straßen-Zustände unter anderem den Verkehr auf einem Straßenabschnitt, Sperrungen, Hindernisse, Wetterbedingungen, eine Oberflächenbeschaffenheit eines Straßenabschnitts, Geschwindigkeitsbegrenzungen im Zusammenhang mit einem Teil einer Straße oder einem Straßenabschnitt etc. umfassen. Anders gesagt können Straßen-Zustände im Allgemeinen Gründe zum Beschleunigen, Abbremsen, Wenden, Anhalten, vorsichtig sein etc. beispielsweise während des Fahrens umfassen.
  • Das Fahrzeug-Steuer-/Regelsystem 180 gibt den Straßen-Zustand oder die Navigations-Anweisungen im Zusammenhang mit dem Straßen-Zustand, sowie Informationen im Zusammenhang mit einer Position des Straßen-Zustands an die Steuer-/Regeleinheit 104 weiter. Die Steuer-/Regeleinheit 104 kann den dritten Projektor 122 steuern/regeln, so dass dieser das dritte Grafikelement 168 projiziert, um dem Fahrer Informationen im Zusammenhang mit dem Straßen-Zustand oder zugehörige Navigations-Anweisungen entsprechend weiterzugeben. Das Steuer-/Regelelement 104 kann den Straßen-Zustand oder Navigations-Anweisungsinformationen sowie die Positions-Informationen von dem Fahrzeug-Steuer-/Regelsystem 180 erhalten, und den Typ von Grafikelement bestimmen, der als das dritte Grafikelement 168 präsentiert werden soll, sowie eine Sollposition des dritten Grafikelements.
  • Verschiedene Typen von Grafikelementen können in Verbindung mit Navigations-Anweisungsfunktionen verwendet werden, beispielsweise: ein STOP-Schild, ein YIELD-Schild (Vorfahrt-Gewähren-Schild), ein „ONE WAY”-Schild (Einbahnstraße-Schild), ein „NO TURN ON RED”-Schild („bei Rotlicht nicht rechts Abbiegen”-Schild) etc. Der Typ von Grafikelement kann ausgewählt werden, um die Navigations-Anweisung im Zusammenhang mit dem Straßen-Zustand zu kommunizieren. Unabhängig davon, welchen Typ von Grafikelement das Steuer-/Regelelement 104 als das zu verwendende dritte Grafikelement 168 bestimmt, kann dieses Grafikelement projiziert werden, um an der Position des Fahr-Zustands zu erscheinen. Diesbezüglich kann die Sollposition des dritten Grafikelements als eine Position bestimmt werden, an der das dritte Grafikelement 168 im Sichtfeld des Fahrers gerendert werden soll, auf Grundlage der Position des detektierten Straßen-Zustands relativ zu dem Fahrzeug 106.
  • Das Steuer-/Regelelement 104 kann dazu eingerichtet sein, den dritten Projektor 122 so zu steuern/regeln, dass er das geeignete Grafikelement als das dritte Grafikelement 168 projiziert. Das Steuer-/Regelelement kann den zweiten Aktuator 158 so steuern/regeln, dass er den dritten Projektor 122 derart linear bewegt, dass das dritte Grafikelement 168 so projiziert und gerendert wird, dass es der Fahrer (z. B. während die Augen das Fahrers in der Augenbox 116 sind und der Fahrer in Richtung nach vorne durch die Windschutzscheibe 112 blickt) so wahrnimmt, als ob es sich bei der selben Tiefe befindet (z. B. die selbe Brennebene aufweist) wie der Straßen-Zustand. Der zweite Aktuator 158 kann derart gesteuert/geregelt werden, dass das dritte Grafikelement 168 auf die dritte Brennebene 170 projiziert wird, die an der Sollposition des dritten Grafikelements positioniert und im Wesentlichen senkrecht zu der Sichtlinie 178 orientiert sein kann. Das Steuer-/Regelelement 104 kann den zweiten Aktuator 158 so steuern/regeln, dass er den dritten Projektor 122 linear bewegt, so dass sich die dritte Brennebene 170 bewegt, wenn sich ein Abstand zwischen dem Fahrzeug 106 und dem detektierten Straßen-Zustand (z. B. der Sollposition des dritten Grafikelements) ändert (wie es von dem Fahrzeug-Steuer-/Regelsystem 180 detektiert und an das Steuer-/Regelelement 104 weitergeleitet wird), beispielsweise infolgedessen, dass das Fahrzeug 106 auf den detektierten Straßen-Zustand zu fährt.
  • In der exemplarischen Ansicht aus der Perspektive des Fahrers in 4 nähert sich das Fahrzeug 106 einer Vier-Straßen-Kreuzung, an der das Fahrzeug 106 anhalten sollte. Dementsprechend detektiert das Fahrzeug-Steuer-/Regelsystem 180 den Stop-Straßen-Zustand an einer Position einer Einfahrt der Kreuzung und bestimmt, dass die Navigations-Anweisung im Zusammenhang mit dem Stop-Straßen-Zustand eine Stop-Anweisung ist. Der Stop-Straßen-Zustand oder die Stop-Anweisung sowie die Position des Stop-Straßen-Zustands können an das Steuer-/Regelelement 104 weitergegeben werden, das bestimmt, dass ein Stop-Schild als das dritte Grafikelement 168 präsentiert werden soll. Das Steuer-/Regelelement 104 kann bestimmen, dass das dritte Grafikelement 168 (z. B. das STOP-Schild) an der Position der Einfahrt der Vier-Straßen-Kreuzung erscheinen soll. Die Position der Einfahrt der Kreuzung kann somit als die Sollposition des dritten Grafikelements bestimmt werden.
  • Das Steuer-/Regelelement 104 kann den dritten Projektor 122 so steuern/regeln, dass er das STOP-Schild als das dritte Grafikelement 168 projiziert, und den zweiten Aktuator 158 so steuern/regeln, dass der dritte Projektor 122 so bewegt wird, dass des dritte Grafikelement 168 so projiziert und gerendert wird (z. B. während die Augen des Fahrers in der Augenbox 116 sind und der Fahrer in Richtung nach vorne durch die Windschutzscheibe 112 blickt), dass es in der selben Tiefe wie die Einfahrt der Vier-Straßen-Kreuzung ist. Der zweite Aktuator 158 kann derart gesteuert/geregelt werden, dass das dritte Grafikelement 168 auf die dritte Brennebene 170 projiziert wird, die an der Sollposition des dritten Grafikelements positioniert und im Wesentlichen senkrecht zu der Sichtlinie 178 orientiert ist. Wenn das Fahrzeug 106 auf der Straße fährt, wird sich der relative Abstand zwischen dem Fahrzeug 106 und der Einfahrt der Vier-Straßen-Kreuzung ändern. Diese Änderung des Abstands kann von dem Fahrzeug-Steuer-/Regelsystem 180 an das Steuer-/Regelelement 104 weitergegeben werden, die Sollposition des dritten Grafikelements kann entsprechend geändert werden und der zweite Aktuator 158 kann von dem Steuer-/Regelelement 104 so gesteuert/geregelt werden, dass er die dritte Brennebene 170 so bewegt, dass sie an der (z. B. geänderten/sich ändernden) Sollposition des dritten Grafikelements verbleibt. Dementsprechend können, indem das dritte Grafikelement 168 auf die dritte Brennebene 170 projiziert wird, die in der Richtung der Sichtlinie 178 des Fahrers bewegbar sein kann, die dem dritten Grafikelement 168 zugeordneten Raumtiefen-Werte somit korrekt reproduziert werden, so dass der Fahrer akkurat die Position des dritten Grafikelements 168 (z. B. den detektierten Straßen-Zustand) einschätzen kann.
  • Informationen im Zusammenhang mit der Überwachungs-Funktion für die Umgebung des Fahrzeugs (z. B. einen toten Winkel) können dem Fahrer von dem vierten Projektor 124 der HUD-Vorrichtung 102 präsentiert werden. In dieser Hinsicht kann das Fahrzeug-Steuer-/Regelsystem 180 die Anwesenheit von anderen Fahrzeugen in einem Bereich unmittelbar um das Fahrzeug 106 herum oder um das Fahrzeug 106 herum detektieren. Die Detektion der anderen Fahrzeuge unmittelbar um das Fahrzeug 106 herum kann durch ein Prozessieren von Informationen betreffend die Umgebung des Fahrzeugs 106 durchgeführt werden, die von an dem Fahrzeug 106 bereitgestellten (nicht gezeigten) Sensoren erfasst werden. Die Bestimmung der Umgebung des Fahrzeugs kann auf beliebige Weise durchgeführt werden.
  • Die Informationen betreffend die Umgebung des Fahrzeugs können von dem Fahrzeug-Steuer-/Regelsystem 180 bestimmt werden und an das Steuer-/Regelelement 104 weitergegeben werden. Das Steuer-/Regelelement 104 erhält die Informationen betreffend die Umgebung des Fahrzeugs von dem Fahrzeug-Steuer-/Regelsystem 180 und bestimmt wie, falls überhaupt, das auf die vierte Brennebene 174 projizierte vierte Grafikelement 172 modifiziert werden soll. In dieser Hinsicht kann das Grafikelement, das als das vierte Grafikelement 172 verwendet wird, um die Überwachungs-Funktion der Umgebung des Fahrzeugs (z. B. einen toten Winkel) zu erleichtern, ein Fahrzeugumgebungs-Anzeiger sein, wie er in 4 gezeigt ist.
  • Der Fahrzeugumgebungs-Anzeiger umfasst eine zentrale Markierung, die das Fahrzeug 106 repräsentiert und acht Umgebungs-Markierungen, die Positionen unmittelbar um das Fahrzeug 106 herum repräsentieren. Das Fahrzeug-Steuer-/Regelsystem 180 gibt Informationen über die Positionen von Fahrzeugen in der unmittelbaren Umgebung des Fahrzeugs 106 weiter, und das Steuer-/Regelelement 104 steuert/regelt den vierten Projektor 124 so, dass das vierte Grafikelement 172 derart geändert wird, dass eine oder mehrere der acht zugeordneten Umgebungs-Markierungen betont werden. Das Betonen der acht Umgebungs-Markierungen zeigt dem Fahrer die Position anderer Fahrzeuge in der unmittelbaren Umgebung des Fahrzeugs 106 an.
  • In 4 kann das vierte Grafikelement 172 auf die vierte Brennebene 174 projiziert werden, die parallel zu der Untergrundfläche 176 orientiert und oberhalb der Untergrundfläche 176 und der Sichtlinie 178 angeordnet sein kann. Wie oben angesprochen, kann der vierte Projektor 124 fest in der HUD-Vorrichtung 102 angeordnet sein, so dass die vierte Brennebene 174 statisch ist. Wie oben angesprochen kann die vierte Brennebene 174 kontinuierlich sein, so dass das vierte Grafikelement 172 für den Fahrer mit geeigneten Raumtiefen-Werten als ein 3-D-Bild gerendert werden kann.
  • Das vierte Grafikelement 172 kann in einer von der Fahrzeug-Umgebungs-Markierung aus 4 verschiedenen Form präsentiert werden. Jedenfalls kann das vierte Grafikelement 172 auf die vierte Brennebene 174 projiziert werden, die parallel zu der Untergrundfläche 176 orientiert sein kann und es kann oberhalb der Untergrundfläche 176 und der Sichtlinie 178 des Fahrers angeordnet sein. Dementsprechend kann das vierte Grafikelement 172 an einer Himmel-Brennebene bereitgestellt werden, was angemessen sein kann, da die von dem vierten Grafikelement 172 wiedergegebenen Informationen nicht mit der Umgebung zusammenwirken müssen.
  • Das oben beschriebene HUD-System 100 kann Grafikelemente projizieren, einige von ihnen als kontakt-analoge Augmented-Reality-Grafikelemente, bei sich kontinuierlich ändernden Brennabständen, sowie in zum Untergrund parallelen Brennebenen mit sich kontinuierlich änderndem Fokus von hinten nach vorne in der Richtung der Sichtlinie 178 des Fahrers. Dementsprechend können Tiefenwahrnehmungs-Werte verbessert werden, um das Fokussieren zu erleichtern und die Aufmerksamkeit zu erhöhen, die der Fahrer gleichzeitig oder nebenbei (oder nahezu gleichzeitig) der Umgebung schenkt. Dies erlaubt es dem Fahrer, Informationen, die mittels der Grafikelemente präsentiert werden, sowie die Umgebung zu beobachten. In dieser Hinsicht haben die Erfinder durch Experimentieren bestimmt, dass die räumliche Wahrnehmung stark von Fokus-Werten beeinflusst sein kann, und dass die Brennebenen-Anpassungsfähigkeit sowie die Fähigkeit des hierin beschriebenen HUD-Systems 100, Grafikelemente auf kontinuierlichen, statischen, zum Untergrund parallelen Brennebenen zu zeigen, die räumliche Wahrnehmung verbessert. Daher wird eine größere Verbesserung der räumlichen Wahrnehmung beobachtet, wenn die Fokus-Werte wie hierin beschrieben angepasst werden, als beobachtet werden kann, wenn eine Größe eines Grafikelements angepasst wird.
  • Die Konfiguration der HUD-Vorrichtung 102, einschließlich der Verwendung der Strahlteiler 126, 130, 134 und Linsen 128, 132, 136, 138 erlaubt es, dass die HUD-Vorrichtung 102 eine relativ kompakte Größe aufweist. Ferner erlauben es die Linsen 128, 132, 136, 138, dass sich ein Tiefenbereich von wenigen Metern vor dem Fahrzeug bis zum Unendlichen innerhalb des für die Optiken der HUD-Vorrichtung 102 vorgesehenen physikalischen Raums erstreckt. Ferner können die Strahlteiler 126, 130, 134 als optische Kombinatoren verwendet werden, um alle getrennten Mengen von projizierten Strahlen von dem ersten, zweiten, dritte und vierten Projektor 118, 1120, 122, 124 durch die Linsen 128, 132, 136, 138 zusammenzuführen, um getrennte Bilder von dem ersten, zweiten, dritten und vierten Projektor 118, 120, 122, 124 in ein vereinigtes Bild (oder z. B. ein Grafikelement) zu kombinieren, das im Sichtfeld des Fahrers projiziert wird.
  • In einer oder mehreren Ausführungsformen können einige der oben offenbarten sowie weitere Merkmale und Funktionen oder Alternativen oder Abwandlungen davon, bevorzugt zu vielen anderen verschiedenen Systemen oder Anwendungen kombiniert werden. Zusätzlich können verschiedene momentan nicht vorgesehene oder nicht betrachtete Alternativen, Modifikationen oder Verbesserungen daran nachträglich von Fachleuten durchgeführt werden, wobei beabsichtigt ist, dass dies ebenfalls von den folgenden Ansprüchen umfasst wird.
  • Beispielsweise können in dem HUD-System 100 weniger oder mehr Projektoren verwendet werden, um weniger oder mehr Grafikelemente zu projizieren. Ferner kann, wenngleich das HUD-System 100 so beschrieben worden ist, dass es zwei Projektoren aufweist, die Grafikelemente auf frontale Brennebenen projizieren und zwei Projektoren aufweist, die Grafikelement auf Brennebene projizieren, die parallel zum Untergrund sind, das Verhältnis von frontalen zu zum Untergrund parallelen Brennebenen geändert werden. Die oben beschriebenen Fahrzeug-Funktionen im Zusammenhang mit dem HUD-System sind exemplarisch und können geändert oder modifiziert werden.
  • Ferner kann der Mechanismus, durch den die vorderen Brennebenen bewegt werden, gegenüber dem oben beschriebenen modifiziert werden. Beispielsweise können, anstatt den gesamten Projektor zu bewegen (z. B. den ersten und dritten Projektor 118, 122 unter Verwendung des ersten und zweiten Aktuators 156, 158) nur die Diffusorscheiben (z. B. die Diffusorscheiben 148, 152 des ersten und dritten Projektors 118, 122) relativ zu den jeweiligen Projektor-Einheiten (z. B. den Projektor-Einheiten 140, 144) bewegt werden.
  • Zusätzlich kann, wenngleich das HUD-System 100 unter Bezugnahme auf das Fahrzeug 106 beschrieben worden ist, das ein vierrädriges Automobil für die Verwendung unter freiem Himmel sein kann, das HUD-System 100 in verschiedenen Fahrzeugtypen eingesetzt werden. Beispielsweise kann das HUD-System in einem Wasserfahrzeug (z. B. einem Boot), einem Luftfahrzeug (z. B. einem Flugzeug oder Düsenflugzeug) oder einem Fahrzeug verwendet werden, das zum Einsatz in überdachten Räumen vorgesehen ist (z. B. ein Transportwagen, ein Fahrzeug, das zum Bewegen von Gegenständen vorgesehen ist, wie beispielsweise ein Gabelstapler etc.).
  • 5 ist eine Illustration eines beispielhaften Komponenten-Diagramms eines Systems 500 für eine 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Das System 500 kann eine HUD-Komponente 100, eine Fahrzeug-Steuer-/Regelkomponente 180, eine Steuer-/Regelkomponente 104, eine Navigations-Komponente 540, eine Tiefenkarte-Komponente 550, eine Tiefenpuffer-Komponente 560, eine oder mehrere Sensor-Komponenten 570 und ein oder mehrere Steuer-/Regelbereich-Netzwerke (CANs – Controller Area Network) 580 umfassen. Die HUD-Komponente 100 kann ein Fahrzeug-HUD-System, wie beispielsweise das HUD-System aus 1 sein und oben beschriebene Komponenten umfassen. In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 unter anderem ein 3-D-HUD, ein Variabler-Abstand-HUD, ein Augmented-Reality-HUD (AR-HUD) etc. sein.
  • Die Navigations-Komponente 540 kann dazu eingerichtet sein, eine Ausgangsposition zu erhalten oder zu identifizieren (z. B. Punkt A) und eine oder mehrere Zielpositionen (z. B. Punkt B). Die Navigations-Komponente 540 kann dazu eingerichtet sein, beispielsweise eine oder mehrere Routen von Punkt A zu Punkt B zu bestimmen. Im Allgemeinen ist die Navigations-Komponente 540 einem Fahrzeug zugeordnet. Beispielsweise kann die Navigations-Komponente 540 in dem Fahrzeug montiert, in einem oder mehreren Systemen oder einer oder mehreren Komponenten des Fahrzeugs integriert sein, innerhalb des Fahrzeugs beherbergt sein, mit einer oder mehreren Komponenten des Fahrzeugs verbunden oder kommunikativ gekoppelt sein, oder innerhalb des Fahrzeugs angeordnet sein etc. Jedenfalls kann die Navigations-Komponente 540 die Ausgangsposition und die Zielposition erhalten oder identifizieren. In einer oder mehreren Ausführungsformen kann die Navigations-Komponente 540 eine (nicht gezeigte) Telematik-Komponente umfassen, die dazu eingerichtet sein kann, einen momentanen Ort oder einer eine momentane Position des Fahrzeugs zu bestimmen.
  • Zusätzlich kann die Navigations-Komponente 540 dazu eingerichtet sein, eine oder mehrere Routen von der Ausgangsposition zu einer oder mehreren der Zielpositionen zu erzeugen. In einer oder mehreren Ausführungsformen kann die Navigations-Komponente 540 dazu eingerichtet sein, eine oder mehrere der Routen von einem momentanen Ort oder einer momentanen Position des Fahrzeugs zu einer oder mehreren der Zielpositionen zu erzeugen. Eine Route der einen oder mehreren Routen kann einen oder mehrere Abschnitte oder einen oder mehrere Routenabschnitte umfassen. Beispielsweise können einer oder mehrere Abschnitte der Route eine oder mehrere Navigations-Anweisungen oder -Manöver im Zusammenhang mit einem oder mehreren Straßenabschnitten oder einer oder mehreren Kreuzungen von Straßenabschnitten umfassen. Anders gesagt können einer oder mehrere Abschnitt der Route einen oder mehrere Richtungswechsel, Navigations-Manöver, Straßenabschnitte, Kreuzungen, Wegmarken oder andere Elemente entlang der Route umfassen. Die Navigations-Komponente 540 kann dazu eingerichtet sein, einen oder mehrere dieser Richtungswechsel, Navigations-Manöver, Wegmarken etc. zu identifizieren und einen oder mehrere Navigations-Anweisungen oder eine oder mehrere Navigations-Instruktionen entsprechend ausgeben, beispielsweise an einen Fahrer des Fahrzeugs.
  • Die Navigations-Komponente 540 kann eine oder mehrere der Navigations-Anweisungen oder Navigations-Instruktionen mittels einer Audio-Ausgabe, visuellen Ausgabe, taktilen Ausgabe etc. ausgeben. Beispielsweise kann die Navigations-Komponente 540 mit einer oder mehreren (nicht gezeigten) Peripherie-Komponenten zusammenarbeiten, indem eine oder mehrere Ausgaben über ein oder mehrere Steuer-/Regelbereich-Netzwerke (CANs) 580 übertragen werden. Die Navigations-Komponente 540 kann eine hörbare Anweisung abspielen, wie beispielsweise „An der Hauptstraße links abbiegen” oder ein Licht an dem linken Abschnitt einer Anzeige aufblinken lassen, das Lenkrad vibrieren lassen etc., um dem Fahrer anzuzeigen, dass eine Fahr-Handlung ausgeführt werden soll. Die Navigations-Komponente 540 kann mit einer oder mehreren anderen Komponenten zusammenarbeiten, um eine Übertragung oder ein Liefern von einer oder mehreren Fahr-Anweisungen zu erleichtern.
  • Beispielsweise kann die HUD-Komponente 100 dazu eingerichtet sein, eine oder mehrere Navigations-Anweisungen oder ein oder mehrere Navigations-Manöver als ein oder mehrere Grafikelemente oder Avatare im Sichtfeld eines Insassen oder Fahrers des Fahrzeugs zu projizieren. Diese Navigations-Anweisungen können von der Navigations-Komponente 540 (z. B. direkt oder indirekt) erhalten werden. Die HUD-Komponente 100 kann dazu eingerichtet sein, einen Avatar auf aufeinander folgende Brennebenen derart zu projizieren, dass der Avatar sich für einen Insassen, wie beispielsweise einen Fahrer, der aus der Augenbox aus 2 herausblickt, zu bewegen scheint. Auf diese Weise kann die HUD-Komponente 100 es einem Fahrer erlauben, ein volumetrisches Bild im Sichtfeld des Fahrers wahrzunehmen, wobei das volumetrische Bild als ein „virtuelles” Führungsfahrzeug für den Fahrer des Fahrzeugs dienen kann, dem er folgen kann. Anders gesagt kann es dem Fahrer des Fahrzeugs so vorkommen, dass er oder sie lediglich einem Führungsfahrzeug beispielsweise zu einer Zielposition folgen muss. Zusätzlich können eine oder mehrere Navigations-Anweisungen oder Navigations-Instruktionen als ein/e volumetrische/r Platzhalter, Markierung oder Fahnenmast projiziert werden, wie hierin beschrieben werden wird.
  • Die HUD-Komponente 100 kann dazu eingerichtet sein, ein oder mehrere Grafikelemente zu projizieren, die kontakt-analoge Augmented-Reality-Grafikelemente, konformale Augmented-Reality-Grafikelemente, Avatare, Zeichen etc. sein können. Diese Grafikelemente können von der HUD-Komponente 100 volumetrisch projiziert werden. Folglich können ein oder mehrere visuelle Werte oder ein oder mehrere Raumtiefen-Werte im Zusammenhang mit den Grafikelementen im Wesentlichen beibehalten werden. Das Beibehalten von einem oder mehreren dieser visuellen Werte oder Raumtiefen-Werte kann erreicht werden, indem Grafikelemente auf eine dynamische Brennebene oder eine bewegbare Brennebene projiziert werden. Das heißt, dass die HUD-Komponente 100 dazu eingerichtet sein kann, ein oder mehrere Grafikelemente auf eine bewegbare oder anpassbare Brennebene zu projizieren oder zu rendern. Eine dynamische Brennebene oder eine bewegbare Brennebene können entlang eines Pfads oder einer Linie, wie beispielsweise einer Sichtlinie eines Insassen eines Fahrzeugs bewegt oder angepasst werden, wie beispielsweise unter Bezugnahme auf 1 und 3 diskutiert worden ist. Anders gesagt kann die dynamische Brennebene in Richtung eines Fahrzeugs oder einer Windschutzscheibe eines Fahrzeugs oder davon weg bewegbar sein.
  • In einer oder mehreren Ausführungsformen kann eine Brennebene als Folge einer Bewegung von Projektoren oder Schirmen der HUD-Komponente 100 dynamisch sein, wie beispielsweise durch die Verwendung von Aktuatoren. Das heißt, dass ein oder mehrere Projektoren der HUD-Komponente 100 dazu eingerichtet sein können, sich linear zu bewegen, wodurch es den jeweiligen Projektoren ermöglicht wird, ein oder mehrere Grafikelemente auf eine dynamische, bewegbare oder anpassbare Brennebene zu projizieren, die sich bewegen, wenn sich die Projektoren bewegen. In anderen Ausführungsformen können ein oder mehrere andere Mittel oder alternative Mittel für die Anpassungen verwendet werden.
  • Anders ausgedrückt kann, wenn ein Grafikelement auf eine dynamische, bewegbare oder anpassbare Brennebene projiziert wird, das Grafikelement auf eine Brennebene projiziert werden, wobei ein Abstand (z. B. Abstand 162' oder Abstand 170' aus 3) zwischen der Brennebene und dem Fahrzeug angepasst wird. Da Projektoren einer HUD-Komponente 100 Grafikelemente auf bewegbare Brennebenen projizieren oder rendern können, kann der Fokus von in verschiedenen Abständen von dem Fahrzeug projizierten Grafikelementen angepasst werden. Wie angesprochen können eine oder mehrere der Brennebenen im Wesentlichen senkrecht oder im Wesentlichen parallel zu einer Sichtlinie eines Insassen des Fahrzeugs orientiert sein. Anders ausgedrückt kann eine Brennebene parallel zum Untergrund oder senkrecht zum Untergrund sein. Zusätzlich können eine oder mehrere der Brennebenen bewegbar oder statisch bezüglich der Sichtlinie des Insassen oder dem Untergrund sein. Dies erlaubt es, dass Raumtiefen-Werte im Zusammenhang mit den Grafikelementen korrekt für Insassen des Fahrzeugs, wie beispielsweise dem Fahrer präsentiert werden, wenn sich das Fahrzeug bewegt oder fährt (z. B. wenn es somit als eine sich bewegende Plattform dient).
  • Die HUD-Komponente 100 aus 5 kann dazu eingerichtet sein, volumetrische kontakt-analoge Augmented-Reality-Grafikelemente zu projizieren oder zu rendern. Das bedeutet, dass diese Grafikelement so projiziert werden können, dass sie in verschiedenen Abständen erscheinen. Anders gesagt kann die HUD-Komponente 100 Grafikelemente auf verschiedenen Brennebenen oder auf eine anpassbare Weise projizieren. Noch anders ausgedrückt können Brennebenen von Grafikelementen, die von der HUD-Komponente 100 projiziert werden, an Abstände angepasst werden, die sich über die Windschutzscheibe hinaus erstrecken, beispielsweise bis in die Nähe eines Fußgängers auf dem Gehweg, wodurch es einem Insassen ermöglicht wird, sich auf die Betriebs-Umgebung oder Fahr-Umgebung zu konzentrieren, anstatt den Fokus ihrer Augen zwischen der Windschutzscheibe oder dem Armaturenbrett des Fahrzeugs und der Fahr-Umgebung verstellen zu müssen. Auf diese Weise kann die Fahrsicherheit durch das System 500 für eine 3-D-Navigation verbessert werden.
  • Dementsprechend können Grafikelemente in eine Umgebung im direkten Sichtfeld eines Insassen projiziert oder visuell platziert werden (z. B. durch die HUD-Komponente 100). Das bedeutet, dass Grafikelemente in den selben Raum wie die echte Umgebung gerendert werden können, anstatt auf die Windschutzscheibe, was es Raumtiefen-Werten im Zusammenhang mit den Grafikelementen erlaubt, auf eine akkurate oder korrekte Weise reproduziert zu werden. Folglich können Grafikelemente auf die selben Brennebenen projiziert werden wie Objekte aus der realen Welt (z. B. die Straße), so dass beispielsweise ein Insasse des Fahrzeugs die Grafikelemente betrachten kann, ohne von der Straße wegzuschauen.
  • Diese mehreren Brennebenen oder anpassbaren Brennebenen können erreicht werden, da wenn Projektoren der HUD-Komponente 100 bewegt werden, Lichtstrahlen derart umgeformt oder verändert werden können, dass ein projiziertes Grafikelement oder virtuelles Objekt weiter entfernt als die Windschutzscheibe erscheinen kann oder eine Brennebene aufweisen kann, die nicht auf der Windschutzscheibe ist. Das heißt, dass beispielsweise das projizierte Grafikelement oder virtuelle Objekt ähnliche Brenneigenschaften wie ein reales Objekt (z. B. ein Fußgänger, ein Fahrzeug, ein Schild etc.) haben kann, das weit entfernt ist (z. B. zehn Meter). Wenn Lichtstrahlen von dem Glas der Windschutzscheibe weg reflektiert werden, zerstreuen sich ausgehende Lichtstrahlen, wodurch ein „reflektiertes” Bild oder ein reales Bild erzeugt wird, das als ein Grafikelement projiziert werden kann.
  • Da die Lichtstrahlen von der Windschutzscheibe weg reflektiert werden, anstatt von der Windschutzscheibe emittiert zu werden oder auf ihr erscheinen (z. B. wie durch spezielle Beschichtungen), ist ein erneutes Rendern eines Grafikelements nicht notwendig, wenn ein Insasse seinen Kopf bewegt. Beispielsweise erlauben die kontinuierlichen, statischen Brennebenen aus 3, dass durch die Vorwärts-Rückwärts-Richtung im 3-dimensionalen Raum (z. B. der Richtung der Sichtlinie eines Insassen) optisch „korrekte” oder reale Bilder erzeugt werden, wodurch es ermöglicht wird, geeignete Bewegungs-Parallaxenwerte zu erzeugen. Dementsprechend können, wenn sich der Kopf des Insassen bewegt, Grafikelemente im Zusammenhang mit dieser Brennebene so erscheinen, als ob ihre Position in der Umgebung fest wäre, anstatt sich herumzubewegen. Wie angesprochen bedeutet das, dass die HUD-Komponente 100 keine Verfolgungsfunktionalität für den Kopf benötigt, um die Bewegung des Kopfs eines Insassen zu kompensieren.
  • Die HUD-Komponente 100 kann Raster-basiert sein, anstatt Vektor-basiert zu sein. Das bedeutet, dass von der HUD-Komponente 100 projizierte Grafikelemente ein Bitmap sein können, eine Matrix-Punktstruktur aufweisen können, oder ein rechteckiges Pixelgitter sein können. Zusätzlich kann die HUD-Komponente 100 dazu eingerichtet sein, einen oder mehrere Abschnitte von einem oder mehreren Grafikelementen mit verschiedenen Schattierungen, Transparenz-Niveaus, Farben, Helligkeiten etc. zu projizieren.
  • Somit kann die HUD-Komponente dazu eingerichtet sein, Grafikelemente oder Avatare mit verschiedenen Freiheitsgraden zu rendern oder zu projizieren. Das heißt, dass die Akkomodation beibehalten werden kann, so dass die Augen eines Insassen aktiv eine optische Brechkraft ändern können, um sich auf ein Grafikelement zu konzentrieren, das auf eine Brennebene projiziert wird. Ähnlich kann eine Vergenz beibehalten werden so dass der Insasse eine gleichzeitige Drehung eines Grafikelements nach innen haben kann, wenn das Grafikelement so projiziert wird, dass es „näher kommt” (z. B. durch Projizieren auf aufeinander folgende Brennebenen).
  • In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 ein Grafikelement als einen Avatar oder einen sich bewegenden Avatar für einen Fahrer oder Insassen eines Fahrzeugs projizieren, denen er als eine Navigations-Anweisung, Manöver oder Befehl folgen kann. Beispielsweise kann die HUD-Komponente 100 dazu eingerichtet sein, eines oder mehrere der Grafikelemente als einen sich bewegenden Avatar, einen Platzhalter, eine Identifizierung, einen Fahnenmast, eine Markierung etc. zu projizieren oder zu rendern. Diese Grafikelemente können auf eine oder mehrere Brennebenen um eine Umgebung herum projiziert werden, die das Fahrzeug umgibt, und sie können im Sichtfeld eines Insassen des Fahrzeugs projiziert werden. Ein Avatar oder Grafikelement, das von der HUD-Komponente 100 projiziert wird, kann einen Fahrer eines Fahrzeugs durch einen oder mehrere Abschnitte einer Route führen und Kollisionen mit Hindernissen, Sperrungen oder Straßen-Zuständen vermeiden, indem zum Ausweichen, Navigieren, Bewegen oder Fahren um diese Hindernisse herum projiziert wird. Eine Sensor-Komponente 570 kann dazu eingerichtet sein, ein oder mehrere Hindernisse oder Straßen-Zustände zu detektieren, und eine Steuer-/Regelkomponente 104 kann die HUD-Komponente 100 dazu anleiten, das Grafikelement derart zu projizieren, dass das Grafikelement um den Straßen-Zustand herum fährt oder ihn umgeht, beispielsweise durch einen Spurwechsel oder das Vermeiden einer Engstelle für den Verkehr.
  • In einer oder mehreren Ausführungsformen kann die Sensor-Komponente 570 dazu eingerichtet sein, einen oder mehrere Straßen-Zustände in einer Umgebung um das Fahrzeug herum oder das Fahrzeug umgebend zu sensieren, identifizieren oder detektieren. Die Sensor-Komponente 570 kann Straßenabschnitte, Gehwege, Objekte, Fußgänger, andere Fahrzeuge, Sperrungen, Hindernisse, Unrat, Schlaglöcher, Straßenoberfläche-Zustände (z. B. Eis, Regen, Sand, Kies etc.), Verkehrsbedingungen, Verkehrsschilder (z. B. rote Ampeln, Geschwindigkeitsbegrenzung-Schilder, Stop-Schilder, Bahnübergänge, Züge etc.) detektieren oder identifizieren. Diese Straßen-Zustände können an die Steuer-/Regelkomponente 104 oder die Fahrzeug-Steuer-/Regelkomponente 180 übertragen werden. Beispielsweise können eine oder mehrere der CANs 580 dazu verwendet werden, die Kommunikation zwischen der Sensor-Komponente 570 und der Steuer-/Regelkomponente 104 oder der Fahrzeug-Steuer-/Regelkomponente 180 zu erleichtern. In einer oder mehreren Ausführungsformen kann die Sensor-Komponente 570 eine oder mehrere Bildaufnahme-Vorrichtungen, ein Mikrofon, einen Toter-Winkel-Monitor, einen Parksensor, eine Annäherungssensor, einen Anwesenheitssensor, einen Infrarot-Sensor, einen Bewegungssensor etc. umfassen.
  • So wie der Begriff hierin verwendet wird, kann ein Verkehrs-Zustand eine Kreuzung, ein Fahrzeug, wie beispielsweise ein Fahrzeug, das sich eine Straße mit einem Fahrzeug teilt, das mit einem 3-D-Navigationssystem ausgestattet ist, eine Straßenkreuzung, eine rote Ampel, einen Straßenabschnitt, einen Gehweg, ein Stop-Schild, ein Vorfahrt-Gewähren-Schild, ein Verkehrsschild, einen Zug etc. umfassen. So wie der Begriff hierin verwendet wird, kann ein Straßen-Zustand Unrat, Kies, Schlaglöcher, einen Straßenoberfläche-Zustand, Sand, umgestürzte Bäume, ausgelaufene Flüssigkeiten, Ölpfützen, Wetterbedingungen, wie beispielsweise Eis oder Regen, etc. umfassen. Ferner kann ein „Objekt” im Wesentlichen jeden Verkehrs-Zustand, jeden Straßen-Zustand, jede Wetterbedingung etc. umfassen. Beispiele von Objekten können andere Fahrzeuge, Geschäfte, Gebäude, Wegmarken, Hindernisse auf einer Straße, Straßen-Abschnitte, Kreuzungen, Fußgänger etc. umfassen, sind jedoch nicht darauf beschränkt. Objekte können in Zusammenhang mit einem Pfad, einem oder mehreren Straßen-Abschnitten etc. entlang einer Route gefunden, detektiert oder zugeordnet werden, auf dem/der/denen das Fahrzeug fährt oder voraussichtlich entlang fahren wird.
  • Detaillierter gesagt kann die Sensor-Komponente 570 Informationen (z. B. Objekte, Verkehrs-Zustände, Straßen-Zustände, Wetterbedingungen etc.) aus einer Umgebung erhalten, erfassen oder detektieren, wie beispielsweise einer Fahr-Umgebung, einer Betriebs-Umgebung oder einer Umgebung, die ein Fahrzeug umgibt. Von der Sensor-Komponente 570 gesammelte Informationen können durch das Steuer-/Regelbereich-Netzwerk 580 weitergegeben werden und von der Steuer-/Regelkomponente 104 analysiert werden, oder über einen von der Navigations-Komponente 540 bereitgestellten Telematik-Kanal weitergegeben und von einem (nicht gezeigten) entfernten Server analysiert werden. In jedem Fall können von der Sensor-Komponente 570 erhaltene oder gesammelte Informationen einen Grund, Vorsicht walten zu lassen, einen Grund, abzubremsen (z. B. aufgrund einer Geschwindigkeitsbegrenzungs-Anzeige oder eines Geschwindigkeitsbegrenzungs-Schilds), einen Grund zu beschleunigen, einen Grund anzuhalten, einen Grund zu wenden, etc. für einen Fahrer anzeigen. Anders ausgedrückt können die von der Sensor-Komponente 570 gesammelten Informationen von der Steuer-/Regelkomponente 104 oder einem entfernten Server analysiert und in eine oder mehrere vorgeschlagene Fahr-Aktionen für einen Fahrer übersetzt werden. Diese vorgeschlagenen Fahr-Aktionen können von der HUD-Komponente 100 als visuelle Objekte oder grafische Elemente auf Grundlage von von der Fahrzeug-Steuer-/Regelkomponente 180 gesammelten Informationen und von der Steuer-/Regelkomponente 104 gemachten Bestimmungen projiziert werden.
  • In einer oder mehreren Ausführungsformen kann die Sensor-Komponente 570 ein oder mehrere Objekte, einen oder mehrere Verkehrs-Zustände, einen oder mehrere Straßen-Zustände, eine oder mehrere Wetterbedingungen etc. erfassen oder detektieren. Beispielsweise kann ein Annäherungssensor (z. B. eine der Sensor-Komponenten 570) an einem Fahrzeug einen Fußgänger detektieren, der einen Fußgängerüberweg überquert. Zusätzlich können andere Komponenten Informationen im Zusammenhang mit der Umgebung, Fahr-Umgebung oder Betriebs-Umgebung erhalten. Beispielsweise kann die Fahrzeug-Steuer-/Regelkomponente 180 ähnliche Informationen (z. B. mittels eines von der Navigations-Komponente 540 bereitgestellten Telematik-Kanals oder von der Sensor-Komponente 570 über das Steuer-/Regelbereich-Netzwerk 580) erhalten. Auf diese Weise kann die Fahrzeug-Steuer-/Regelkomponente 180 Informationen aus einer oder mehreren Quellen ansammeln. Anders ausgedrückt kann die Fahrzeug-Steuer-/Regelkomponente 180 Informationen, Verkehrs-Zustandinformationen, Straßen-Zustandinformationen, Wetterbedingungs-Informationen etc. erhalten.
  • Die Sensor-Komponente 570 kann Informationen direkt aus der Umgebung sammeln, während die Fahrzeug-Steuer-/Regelkomponente 180 Informationen aus verschiedenen Quellen ansammeln kann, die nicht unbedingt in dem Fahrzeug lokalisiert sein müssen. Beispielsweise kann die Fahrzeug-Steuer-/Regelkomponente 180 Verkehrs-Informationen entlang einer voraussichtlichen Route für das Fahrzeug aus einer Verkehrs-Datenbank oder einer Nachrichten-Quelle erhalten. In jedem Fall kann die Fahrzeug-Steuer-/Regelkomponente 180 Informationen über die Umgebung ansammeln, wie beispielsweise die Umgebung um ein Fahrzeug herum oder Umgebungs-Informationen im Zusammenhang mit einer voraussichtlichen Route für das Fahrzeug (z. B. Umgebungs-Informationen an einem Ort, den ein Fahrzeug voraussichtlich passieren wird, während es entlang einer vorbestimmten Route fährt).
  • Ungeachtet dessen kann die Fahrzeug-Steuer-/Regelkomponente 180 dazu eingerichtet sein, Daten im Zusammenhang mit einem oder mehreren der Straßen-Zustände oder Daten im Zusammenhang mit einer Umgebung, die das Fahrzeug umgibt (z. B. eine Betriebs-Umgebung, eine Fahr-Umgebung, die umgebende Umgebung, etc.) zu erhalten. In einer oder mehreren Ausführungsformen kann die Fahrzeug-Steuer-/Regelkomponente 180 einen oder mehrere der Straßen-Zustände von der Sensor-Komponente 570 erhalten. Zusätzlich kann die Fahrzeug-Steuer-/Regelkomponente 180 einen oder mehrere Straßen-Zustände von einer oder mehreren anderen Quellen, wie beispielsweise einem (nicht gezeigten) Server oder einer (nicht gezeigten) Datenbank erhalten. Die Fahrzeug-Steuer-/Regelkomponente 180 kann kommunikativ mit dem Server, einem Drittanbieter, einer Datenbank oder anderen Einrichtungen mittels eines Telematik-Kanals gekoppelt sein, der mittels einer (nicht gezeigten) Telematik-Komponente initialisiert wird. Auf diese Weise kann die Fahrzeug-Steuer-/Regelkomponente 180 Informationen im Zusammenhang mit einem oder mehreren Abschnitten einer Route von einer Ausgangsposition zu einer Zielposition sammeln.
  • Beispielsweise kann die Fahrzeug-Steuer-/Regelkomponente 180 Straßen-Zustandinformationen erhalten, die Verkehrs-Informationen eines Straßenabschnitts (z. B. ob sich der Verkehr staut, ob es auf der Straßen einen Unfall gab, etc.) umfassen. Zusätzlich kann die Fahrzeug-Steuer-/Regelkomponente 180 Geschwindigkeitsbegrenzung-Informationen im Zusammenhang mit einem oder mehreren Straßenabschnitten einer Route erhalten. Diese Information kann verwendet werden, um zu bestimmen, wie ein oder mehrere Grafikelemente für einen Fahrer oder Insassen eines Fahrzeugs projiziert werden sollen. Das heißt, wenn ein Straßenabschnitt eine Geschwindigkeitsbegrenzung von 65 Meilen pro Stunde hat, und eine momentane (z. B. von der Sensor-Komponente 570 detektierte) Geschwindigkeit des Fahrzeugs 25 Meilen pro Stunde ist, kann die Fahrzeug-Steuer-/Regelkomponente 180 die HUD-Komponente 100 anweisen, einen Avatar derart zu projizieren, dass sich der Avatar beim Einfahren auf den Straßenabschnitt zu beschleunigen scheint.
  • Als ein weiteres Beispiel kann die Fahrzeug-Steuer-/Regelkomponente 180, wenn die Sensor-Komponente 570 eine Verkehrsbehinderung auf einer Spur detektiert, auf der das Fahrzeug momentan fährt, diese Information erhalten und bestimmen, dass eine Navigations-Anweisung zum Wechseln der momentanen Spur von der HUD-Komponente 100 angezeigt werden soll. Diese Anweisung kann über einen oder mehrere CANs 580 zu der HUD-Komponente 100 übertragen werden, die einen Avatar oder ein Grafikelement, das die Spur wechselt oder eine Position ändert, als Reaktion auf die detektierte Verkehrsbehinderung projizieren, rendern oder animieren kann. Anders gesagt kann die HUD-Komponente 100 einen Avatar oder ein Symbol projizieren, das der Verkehrsbehinderung auszuweichen oder um sie herum zu navigieren scheint, wobei der Avatar oder das Symbol vor dem Fahrzeug in der Betriebs-Umgebung um das Fahrzeug herum positioniert ist. Ebenso kann die Fahrzeug-Steuer-/Regelkomponente 180 dazu eingerichtet sein, die HUD-Komponente 100 dazu zu veranlassen, ein Blink-Signal auf dem Avatar zu projizieren, da ein reales Fahrzeug blinken würde, wenn es die Spur wechselt. Ferner kann die Fahrzeug-Steuer-/Regelkomponente 180 eine wahrgenommene Geschwindigkeit für den Avatar anpassen, wenn der Avatar sich der Verkehrsbehinderung nähert. Dies kann erreicht werden, indem der Avatar oder das Grafikelement auf zunehmend näheren Brennebenen projiziert wird, oder indem eine dynamische Brennebene des Grafikelements angepasst wird, so dass der Abstand zwischen der dynamischen Brennebene und dem Fahrzeug oder der Windschutzscheibe des Fahrzeugs verringert wird. (Im Gegensatz hierzu kann, wenn es gewünscht ist, dass der Avatar so projiziert wird, als ob er beschleunigt, die dynamische Brennebene so angepasst werden, dass sich der Abstand zwischen der dynamischen Brennebene und dem Fahrzeug oder der Windschutzscheibe davon erhöht).
  • Anders gesagt kann die Fahrzeug-Steuer-/Regelkomponente 180 dazu eingerichtet sein, einen oder mehrere Straßen-Zustände zu erhalten, wobei ein Straßen-Zustand von dem einen oder mehreren Straßen-Zuständen Verkehrs-Informationen von einem oder mehreren der Straßenabschnitte oder Geschwindigkeitsbegrenzung-Informationen im Zusammenhang mit einem oder mehreren der Straßenabschnitte umfasst. Ferner kann die Fahrzeug-Steuer-/Regelkomponente 180 dazu eingerichtet sein, die HUD-Komponente 100 dazu zu betreiben, ein oder mehrere Grafikelemente auf Grundlage einer oder mehrerer der Straßen-Zustände, wie beispielsweise einer Geschwindigkeitsbegrenzung eines Straßenabschnitts und einer momentanen Geschwindigkeit des Fahrzeugs, zu projizieren. Auf diese Weise kann das Fahrzeug-Steuer-/Regelsystem 180 eine oder mehrere geeignete Handlungen (z. B. Anhalten, Beschleunigen, Spurwechsel, Abbremsen etc.) oder Navigations-Anweisungen bestimmen, die von der HUD-Komponente 100 projiziert werden sollen.
  • In einer oder mehreren Ausführungsformen kann das System 500 eine (nicht gezeigte) Sichtfeld-Verwaltungskomponente umfassen, die einen oder mehrere Aspekte des einen oder der mehreren von der HUD-Komponente 100 projizierten Grafikelemente verwaltet. In einer oder mehrere Ausführungsformen kann die Steuer-/Regelkomponente 104 dazu eingerichtet sein, einen oder mehrere dieser Aspekte oder Funktionalitäten im Zusammenhang mit der Fahrzeug-Steuer-/Regelkomponente 180 zu verwalten. Beispielsweise kann die Steuer-/Regelkomponente 104 dazu eingerichtet sein, einen oder mehrere Straßen-Zustände zu erhalten.
  • Die Steuer-/Regelkomponente 104 kann dazu eingerichtet sein, einen Typ von Grafikelement zu bestimmen, der von der HUD-Komponente 100 angezeigt, projiziert, animiert, gerendert etc. werden soll. Als ein Beispiel kann die Steuer-/Regelkomponente 104, wenn ein Fahrzeug entlang einem oder mehreren Abschnitten einer Route fährt, die relativ gerade Straßenabschnitte umfasst, ein Grafikelement als Avatar projizieren. Der Avatar kann als ein Fahrzeug oder ein Führungsfahrzeug erscheinen oder projiziert werden. In einem Szenario, in dem ein Fahrzeug entlang einem oder mehreren Abschnitten einer Route fährt, die einen oder mehrere Abbiege-Vorgänge oder andere Navigations-Manöver umfasst, kann die Steuer-/Regelkomponente 104 die HUD-Komponente 100 anweisen, ein Grafikelement als eine Markierung an einer Position im Zusammenhang mit einem oder mehreren der Abbiege-Vorgänge zu projizieren. Beispielsweise kann, wenn eine Route ein Abbiegen nach rechts von einer ersten Straßen in eine zweite Straße umfasst, die Steuer-/Regelkomponente 104 die HUD-Komponente 100 anweisen, eine Markierung oder Identifizierung zu, an, um etc. die Kreuzung der ersten Straße und der zweiten Straße zu projizieren. Auf diese Weise kann die Steuer-/Regelkomponente 104 dazu eingerichtet sein, einen oder mehrere Typen (z. B. Markierungen, Identifizierungen, Fahnenmasten, Führungsavatare, etc.) von anzuzeigenden Grafikelementen zu bestimmen.
  • Zusätzlich kann die Steuer-/Regelkomponente 104 dazu eingerichtet sein, eine oder mehrere Positionen zu bestimmen, an denen ein Grafikelement projiziert werden wird. Anders gesagt kann die Steuer-/Regelkomponente 104 entscheiden, wann und wo ein Grafikelement projiziert werden wird oder wie das Grafikelement angezeigt werden wird. Eine Position eines Grafikelements kann beispielsweise eine Brennebene, einen Abstand der Brennebene von dem Fahrzeug oder der Windschutzscheibe davon, x-Koordinaten, y-Koordinaten, z-Koordinaten etc. entlang einer x-, y- oder z-Achse umfassen. Diese Position kann als Zielposition für eines oder mehrere der Grafikelemente bezeichnet werden. In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente 104 dazu eingerichtet sein, einen Abstand zwischen einer oder mehreren der Brennebenen von einem oder mehreren der Grafikelemente und dem Fahrzeug (oder z. B. der Windschutzscheibe des Fahrzeugs) auf Grundlage von einem oder mehreren Straßen-Zuständen im Zusammenhang mit einem oder mehreren Abschnitten der Route, einer momentanen Position des Fahrzeugs, einer momentanen Geschwindigkeit des Fahrzeugs etc. anzupassen.
  • Das heißt, dass wenn auf einem Straßen-Abschnitt (z. B. ein Abschnitt einer Straße, auf dem sich ein Fahrzeug befindet oder positioniert ist) eine Geschwindigkeitsbegrenzung von 65 Meilen pro Stunde gilt (z. B. ein Straßen-Zustand), und eine momentane Geschwindigkeit (z. B. von der Sensor-Komponente 570 detektiert) des Fahrzeugs 25 Meilen pro Stunde ist (z. B. die momentane Geschwindigkeit des Fahrzeugs), die Steuer-/Regelkomponente 104 dazu eingerichtet sein kann, die HUD-Komponente 100 anzuweisen, einen Avatar oder ein Grafikelement zu projizieren, das mit einer Geschwindigkeit von etwa 65 Meilen pro Stunde zu fahren scheint. In einer oder mehreren Ausführungsformen kann der Avatar auf eine Weise projiziert werden, die eine graduelle Beschleunigung von 25 Meilen pro Stunde auf 65 Meilen pro Stunde demonstriert. Das bedeutet, dass ein Abstand zwischen der Brennebene des Avatars und dem Fahrzeug entsprechend angepasst werden kann. Beispielsweise kann in einem Szenario, in dem das Fahrzeug mit etwa derselben Rate beschleunigt, der Abstand zwischen der Brennebene und dem Fahrzeug in etwa gleich bleiben. Wenn das Fahrzeug mit einer langsameren Rate als der Avatar beschleunigt, kann dieser Abstand zwischen der Brennebene und dem Fahrzeug so von der Steuer-/Regelkomponente 104 angepasst werden, dass er zunimmt. In jedem Fall kann diese Anpassung auf Grundlage einer momentanen Position des Fahrzeugs oder einer momentanen Geschwindigkeit des Fahrzeugs geschehen, sowie Straßen-Zuständen der zugeordneten Route.
  • Zusätzlich kann die Steuer-/Regelkomponente 104 dazu eingerichtet sein, eine Größe eines Grafikelements gemäß oder auf Grundlage eines Abstands der Brennebene des Grafikelements von dem Fahrzeug mit der HUD-Komponente 100 zu bestimmen. Das heißt, dass die Steuer-/Regelkomponente 104 eine Höhe, Größe, Breite, Tiefe etc. eines Grafikelements, Führungssymbols oder Avatars auf Grundlage einer gewünschten Wahrnehmung anpassen kann. Beispielsweise kann die Steuer-/Regelkomponente 104, um den Avatar beschleunigend erscheinen zu lassen, die Größe des Avatars so anpassen, dass sie schrumpft oder reduziert wird, während der Avatar auf zunehmend weiter entfernte Brennebenen projiziert wird oder eine dynamische Brennebene so angepasst wird, dass sie weiter und weiter von dem Fahrzeug entfernt ist.
  • In einer oder mehreren Ausführungsformen kann die Größe des Grafikelements als ein Indikator für ein Wichtigkeits-Niveau einer Navigations-Anweisung oder Nachricht verwendet werden. Anders gesagt wird, je wichtiger die Nachricht oder Navigations-Anweisung ist, der Avatar, das Symbol oder das Grafikelement umso größer projiziert.
  • Die Steuer-/Regelkomponente 104 kann dazu eingerichtet sein, eine oder mehrere Aktionen für eines oder mehrere der von der HUD-Komponente 100 zu projizierenden Grafikelemente zu bestimmen. Beispielsweise kann die Steuer-/Regelkomponente 104 die HUD-Komponente 100 dazu anweisen, den Avatar so zu projizieren, dass er beschleunigt, abbremst, anhält, die Spur wechselt, ein Blink-Signal vor einem Spurwechsel aktiviert, leuchtet, blinkt, eine Orientierung oder einen Winkel eines Avatars ändert, eine Farbe eine Avatars ändert, etc. Ferner kann die Steuer-/Regelkomponente 104 Zielpositionen für eines oder mehrere der Grafikelemente auf Grundlage von Straßen-Zuständen, einer momentanen Position des Fahrzeugs, einer momentanen Geschwindigkeit des Fahrzeugs oder anderen Attributen, Charakteristiken oder Messungen anpassen. In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente 104 mit der Navigations-Komponente 540 über einen oder mehrere CANs 580 wechselwirken oder kommunizieren.
  • Die Steuer-/Regelkomponente 104 kann dazu eingerichtet sein, Behinderungen, Ablenkungen oder andere Aspekte abzuschwächen, die einen Fahrer oder Insassen eines Fahrzeugs beeinträchtigen könnten. In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente 104 dazu eingerichtet sein, eine Position des Horizonts beispielsweise von einer Sensor-Komponente 570 zu erhalten und Grafikelement oberhalb des Horizonts oder einer Himmelebene etc. zu projizieren. Die Steuer-/Regelkomponente kann dazu eingerichtet sein, eine Farbe, Transparenz oder Schattierung von einem oder mehreren Grafikelementen auf Grundlage einer Tageszeit, Verkehrsaufkommen im Zusammenhang mit der Route, einer Kenntnis des Fahrers der Route, etc. zu bestimmen.
  • Die Tiefenkarte-Komponente 550 kann dazu eingerichtet sein, eine Tiefenkarte einer Umgebung um das Fahrzeug herum oder das Fahrzeug umgebend zu erstellen oder zu erhalten. Die HUD-Komponente 100 kann die Tiefenkarte verwenden, um eine oder mehrere Grafikelemente dementsprechend zu projizieren. Das bedeutet, dass wenn ein Avatar abbiegt und „hinter” einem Gebäude ist (z. B. dass ein Gebäude zwischen der Sichtlinie eines Insassen des Fahrzeugs und einer wahrgenommenen Position oder Zielposition des Grafikelements oder Avatars ist), die HUD-Komponente 100 eine Projektion von einem oder mehreren Abschnitten des Avatars oder Grafikelements entsprechend dem, was gesehen werden soll, aktiviert oder deaktiviert.
  • Die Tiefenkarte-Komponente 550 kann dazu eingerichtet sein, eine Tiefenkarte von einem Server oder einem Drittanbieter-Server zu erhalten. Beispielsweise kann die Tiefenkarte-Komponente 550 eine Tiefenkarte über einen Telematik-Kanal herunterladen, der mittels einer (nicht gezeigten) Telematik-Komponente initialisiert wird. In anderen Ausführungsformen kann die Sensor-Komponente 570 dazu eingerichtet sein, Tiefen-Informationen zu detektieren, die verwendet werden können, um die Tiefenkarte mittels der Tiefenkarte-Komponente 550 zu erstellen. Das heißt, dass die Tiefenkarte-Komponente 550 mit einem oder mehreren Sensoren wechselwirken oder kommunizieren kann, um die Tiefenkarte zu erstellen oder eine vor-erstellte Tiefenkarte aus einer Datenbank zu erhalten. In jedem Fall kann die Tiefenkarte-Komponente 550 eine Tiefenkarte auf Grundlage von Tiefen-Informationen erstellen oder erhalten. Die Tiefenkarte kann Abstände von einer oder mehreren Oberflächen, Objekten, Hindernissen, Geometrien etc. in der Umgebung oder dem Bereich um das Fahrzeug herum anzeigen.
  • Die Tiefenkarte kann an die Steuer-/Regelkomponente 104 weitergegeben oder übertragen werden, welche die HUD-Komponente 100 anweisen kann, eines oder mehrere der Grafikelemente entsprechend zu rendern. Beispielsweise kann die HUD-Komponente 100 Grafikelemente auf Grundlage einer Höhe einer Augenbox im Zusammenhang mit einem Insassen eines Fahrzeugs, einer Position des Fahrzeugs und einer Tiefenkarte des Bereichs projizieren oder rendern, die aktiv erfasst oder von einer Datenbank erhalten werden können. Die HUD-Komponente 100 kann somit eines oder mehrere der Grafikelemente auf Grundlage der Tiefenkarte projizieren, um eine Perspektive von einem oder mehreren Insassen des Fahrzeugs zu berücksichtigen.
  • Die Tiefenpuffer-Komponente 560 kann dazu eingerichtet sein, eine Perspektiven-Verwaltung für einen oder mehrere Insassen des Fahrzeugs unter Verwendung der von der Tiefenkarte-Komponente 550 erzeugten oder erhaltenen Tiefenkarte zu vereinfachen. Das heißt, dass die Tiefenpuffer-Komponente dazu eingerichtet sein kann, ein Rendern von Grafikelementen derart zu vereinfachen, dass die Grafikelemente einem Insassen visuell „korrekt” erscheinen. Beispielsweise kann, wenn ein Grafikelement hinter ein Objekt der realen Welt projiziert werden soll, die Tiefenpuffer-Komponente 560 einen Abschnitt des Grafikelements vor einem Insassen „verstecken”, indem dieser Abschnitt des Grafikelements nicht projiziert oder gerendert wird. Anders gesagt kann die Tiefenpuffer-Komponente 560 verwalten, welche Abschnitte (z. B. Pixel) eines Grafikelements gezeichnet, projiziert oder gerendert werden und welche Abschnitt nicht. Auf diese Weise kann die Tiefenpuffer-Komponente 560 dazu eingerichtet sein, ein Rendern von einem oder mehreren Abschnitten von einem oder mehreren Grafikelementen auf Grundlage der Tiefenkarte ein- oder auszuschalten.
  • Zusätzlich kann die Tiefenpuffer-Komponente 560 dazu eingerichtet sein, Objekte der realen Welt zu verdecken, wodurch beeinflusst wird, was ein Insasse eines Fahrzeugs sehen kann. Beispielsweise kann die Tiefenpuffer-Komponente 560 die HUD-Komponente 100 dazu anweisen, ein weißes Grafikelement derart zu projizieren, dass das Grafikelement ein Objekt der realen Welt, wie beispielsweise eine Werbetafel (z. B. detektiert von der Sensor-Komponente 570) verdeckt. Folglich kann ein Insasse die Werbetafel nicht sehen oder er hat eine verdeckte Sicht auf die Werbetafel. Auf diese Weise kann die Tiefenpuffer-Komponente dazu eingerichtet sein, Ablenkungen für einen Fahrer oder Insassen eines Fahrzeugs zu verhindern, indem Grafikelemente bereitgestellt werden, die eine verminderte Realität erleichtern.
  • Beispiele für Navigations-Anweisungen, die von der HUD-Komponente 100 projiziert werden können umfassen: einem Führungsfahrzeug zu folgen, zu beschleunigen (z. B. die dynamische Brennebene zu verändern, um einen vergrößerten Abstand von der Brennebene zu dem Fahrzeug zu haben, wodurch eine Nah-Fern-Wahrnehmung eines Fahrers oder Insassen angepasst wird, die er von dem Grafikelement haben könnte), abzubremsen (z. B. den Abstand zwischen einer Brennebene so anzupassen, dass er verringert wird), eine Fahrspur zu wechseln (z. B. Anpassen einer Sollposition für ein Grafikelement), um Hindernisse herum zu navigieren, zu wenden, das Ziel zu erreichen, eine Position zu markieren etc. Beispielsweise kann die Steuer-/Regelkomponente 104 die HUD-Komponente 100 anweisen, einen Avatar zum „abbremsen” zu projizieren, wenn ein Fußgänger auf den Straßenabschnitt, die Straße, einen Zebrastreifen etc. tritt. Als weiteres Beispiel kann das Steuer-/Regelelement 104 die HUD-Komponente 100 anweisen, ein Bremsen auf Grundlage eines Kurvenwinkels, einer Geschwindigkeitsbegrenzung im Zusammenhang mit einem Straßenabschnitt, Straßen-Zuständen wie beispielsweise Eis etc. zu projizieren. Das heißt, dass wenn sich Eis auf der Straßen-Oberfläche befindet, kann das Steuer-/Regelelement 104 die HUD-Komponente 100 anweisen, einen Avatar zu projizieren, der sich langsamer bewegt, als wenn sich kein Eis auf der Straßen-Oberfläche befände.
  • In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente 100 eine bevorstehende Kurve oder Kreuzung mit einer Markierung, einem Fahnenmast, einer Fahnenstange, einer Identifizierung etc. markieren. Beispielsweise kann die HUD-Komponente 100 einen Platzhalter oder eine Markierung gemäß der Perspektive des Insassen des Fahrzeugs rendern oder projizieren. Die Tiefenkarte-Komponente 550 kann dazu eingerichtet sein, eine Tiefenkarte derart bereitzustellen, dass Objekte der realen Welt, wie beispielsweise Gebäude, Bäume etc. als Sichtlinie-Blockierungen für einen oder mehrere Abschnitte des Platzhalters wirken. Beispielsweise kann, wenn ein Platzhalter eine wahrgenommene Höhe von 100 Fuß aufweist und ein 50 Fuß hohes Gebäude sich vor dem Platzhalter befindet, die Tiefenpuffer-Komponente 560 kompensieren, dass die Sichtlinie blockiert ist, indem ein unterer Abschnitt des Platzhalter-Grafikelements nicht gerendert oder projiziert wird, wodurch der Platzhalter gemäß der Perspektive des Fahrers oder Insassen projiziert wird.
  • In einer oder mehreren Ausführungsformen werden ein oder mehrere Grafikelemente im Sichtfeld eines Insassen des Fahrzeugs auf Grundlage der Route (z. B. einem „Folge einem Führungsfahrzeug-Modus”) projiziert. In einer oder mehreren Ausführungsformen kann das Grafikelement als ein Avatar oder ein anderes Führungssymbol projiziert werden. Der Avatar kann so erscheinen, als ob er fliegt und gegen eine Umgebung aus der realen Welt um das Fahrzeug herum projiziert werden. Der Avatar kann sich im 3-D-Raum oder in drei Dimensionen bewegen, fahren oder „fliegen”. Daher kann der Avatar oder das Grafikelement so erscheinen, als ob er sich in 3-D bewegt, wodurch eine intuitiveres Gefühl oder sicheres Gefühl für einen Insassen oder Fahrer entsteht, der dem Avatar folgt. Beispielsweise kann ein Avatar, ein Grafikelement oder ein Führungssymbol derart projiziert werden, dass es sich in Höhe oder Größe auf Grundlage eines wahrgenommenen Abstands von einem Insassen des Fahrzeugs zu ändern scheint. Der Avatar kann animiert werden, indem der sich bewegende Avatar sequentiell auf eine oder mehrere verschiedene Brennebenen projiziert wird. Zusätzlich könnte der Avatar erscheinen, als ob er um Sperrungen, Hindernisse, Fußgänger, Unrat, Schlaglöcher etc. herum navigiert, so wie es ein Fahrzeug der realen Welt tun würde. In einer oder mehreren Ausführungsformen könnte der Avatar gemäß dem Echtzeit-Verkehr „fahren”, sich bewegen, erscheinen, als ob er sich bewegt etc. Der Avatar kann derart die Fahrspur wechseln, dass der Avatar andere Fahrzeuge nicht zu „treffen” oder anderweitig mit dem Verkehr einzugreifen scheint. Als weiteres Beispiel kann, wenn eine Route einen Fahrer oder ein Fahrzeug über Zugschienen führt, der Avatar an den Zugschienen anhalten, wenn ein Zug die Straße kreuzt. In anderen Ausführungsformen kann die HUD-Komponente 100 dazu eingerichtet sein, den Avatar oder das Grafikelement so zu projizieren, dass er/es an Stop-Schildern, roten Ampeln oder um Verkehrsregeln zu befolgen anhält. Auf eine Ankunft an einer Zielposition hin kann die HUD-Komponente 100 dazu eingerichtet sein, einen Avatar beispielsweise in einer Ruhepose zu rendern oder zu projizieren.
  • Auf diese Weise kann das System 500 für 3-D-Navigation eine intuitive Nachricht, Anweisung oder einen Befehl für einen Insassen eines Fahrzeugs, wie beispielsweise einen Fahrer, erzeugen. Die Anweisung kann auf einem oder mehreren Aspekten bezüglich einer Perspektive basieren, wie sie von der Fähigkeit der HUD-Komponente bereitgestellt wird, volumetrische 3-D-Grafikelemente entlang einer oder mehrerer Brennebenen zu projizieren oder zu rendern. Beispielsweise kann der 3-D-Effekt auf Grundlage eines Abstands, einer Perspektive, eines wahrgenommenen Abstands, Straßen-Zuständen etc. bestimmt werden.
  • 6 ist eine Illustration eines beispielhaften Flussdiagramms eines Verfahrens 600 zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Bei 602 kann eine Route von einer Ausgangsposition zu einer Zielposition erzeugt werden. In einer oder mehreren Ausführungsformen kann die Ausgangsposition oder die Zielposition mittels eines Telematik-Kanals, wie beispielsweise von einer Global Positioning System(GPS)-Einheit, erhalten werden. Bei 604 können ein oder mehrere Grafikelemente auf eine oder mehrere Brennebenen im Sichtfeld eines Insassen eines Fahrzeugs projiziert werden. Hier können Grafikelemente als Avatare, Bilder, Symbole, Identifizierungen, Markierungen etc. angezeigt werden. Zusätzlich können diese Grafikelemente auf einem oder mehreren Abschnitten der Route basieren. Das bedeutet, dass diese Grafikelemente in verschiedenen Abständen abhängig von dem Abschnitt der Route projiziert werden können, an denen sich ein Fahrzeug befinden kann (z. B. einer momentanen Position des Fahrzeugs).
  • Bei 606 kann ein Abstand zwischen einer Brennebene und dem Fahrzeug auf Grundlage von Straßen-Zuständen im Zusammenhang mit einem oder mehreren Abschnitten der Route angepasst werden. Ferner kann der Abstand ebenfalls auf Grundlage einer momentanen Geschwindigkeit des Fahrzeugs angepasst werden. Beispielsweise kann, wenn ein Fahrzeug entlang einem Abschnitt einer Route im Zusammenhang mit einer „65 Meilen pro Stunde(mph)”-Geschwindigkeitsbegrenzung fährt, und die momentane Geschwindigkeit des Fahrzeugs 25 mph ist, der Abstand zwischen der Brennebene eines projizierten Grafikelements oder Avatars erhöht werden (z. B. um dem Fahrer oder einem Insassen anzuzeigen, dass er beschleunigen soll). Anders gesagt kann das Grafikelement so projiziert werden, dass es erscheint, als ob es etwa 65 mph schnell fährt, wodurch der Insasse oder Fahrer dazu veranlasst werden soll, zu beschleunigen und den Avatar „einzuholen” (z. B. ähnlich oder simuliert einem Führungsfahrzeug zu folgen).
  • 7A ist eine Illustration eines beispielhaften Avatars 700 für eine 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Der Avatar 700 aus 7A kann vor einem Fahrzeug erscheinen und um Elemente, Hindernisse, Verkehr, Straßen-Zustände etc. herum fliegen, gleiten, sich bewegen, manövrieren etc. 7B ist eine Illustration eines beispielhaften Avatars 710 für 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Der Avatar oder die Avatare 710 aus 7B sind aus einer erhöhten Ansicht gezeigt, wie beispielsweise einer Vogelperspektive knapp hinter dem Avatar oder den Avataren 710. Es kann erkannt werden, dass einer oder mehrere der Avatare 710 auf eine oder mehrere verschiedene Brennebenen oder Sollpositionen projiziert sind, wodurch die Wahrnehmung erzeugt wird, dass ein Fahrer oder Insasse einem realen Fahrzeug folgt.
  • 8A ist eine Illustration eines beispielhaften Avatars 800 für 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Der Avatar 800 aus 8A ist gegen den Uhrzeigersinn gedreht, um ein Abbiegen nach links anzuzeigen. 8B ist eine Illustration eines beispielhaften Avatars 810 für 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. In einer oder mehreren Ausführungsformen kann der Avatar 810 aus 8B ein Abbiegen nach links durch ein Blinken, Aufblinken, einen Farbwechsel etc. anzeigen. Beispielsweise kann der linke Flügel des Papierflugzeug-Avatars 810 leuchten oder eine Intensität ändern, um das bevorstehende Abbiegen nach links anzuzeigen. In einer oder mehreren Ausführungsformen kann ein Avatar auf Brennebenen projiziert werden, die näher an dem Fahrzeug sind, so dass es erscheint, als ob der Avatar „abbremst”, bevor er abbiegt.
  • 9A ist eine Illustration eines beispielhaften Avatars 900 für 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 9B ist eine Illustration eines beispielhaften Avatars 910 für 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Der Avatar 900 aus 9A kann als eine Navigations-Anweisung für einen Fahrer eines Fahrzeugs beispielsweise zum Abbremsen projiziert werden. In 9B wird der Avatar 910 oberhalb des Horizonts oder einer Himmel-Ebene projiziert, so dass der Avatar 910 nicht den Fahrer oder Insassen davon abhält, einen oder mehrere Abschnitt der Umgebung um das Fahrzeug herum zu betrachten.
  • 1020 werden unter Bezugnahme auf eine oder mehrere der vorherigen Figuren beschrieben, wie beispielsweise auf das System 500 zur 3-D-Navigation aus 5 oder die Seitenansicht 300 oder Brennebenen aus 3.
  • 10A ist eine Illustration eines beispielhaften Szenarios 1000 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. In 10A kann ein Insasse, Fahrer, Passagier, Bediener etc. eines Fahrzeugs eine Anweisung an eine oder mehrere Komponenten des Fahrzeugs eingeben, wie beispielsweise die Sensor-Komponente 570 aus 5. In einer oder mehreren Ausführungsformen kann die Sensor-Komponente 570 eine oder mehrere Peripherie-Komponenten, ein oder mehrere Peripheriegeräte, eine oder mehrere Schnittstellen, einen oder mehrere Schnittstellen-Komponenten, wie beispielsweise einen Touchscreen, eine Tastatur, einen oder mehrere Knöpfe, eine Schnittstelle, ein Mikrofon, eine oder mehrere Bilderfassungs-Vorrichtungen, eine Gesten-Erkennungsvorrichtung, etc. umfassen. Beispielsweise kann ein Fahrzeug mit einer Touchscreen-Schnittstelle bereitgestellt sein oder Knöpfe an einer Armatur können als Schnittstelle mit einem Menü verwendet werden. In jedem Fall können eine oder mehrere Komponenten oder die Sensor-Komponente 570 Anweisungen erfassen oder erhalten, die von einem Insassen eines Fahrzeugs gegeben oder eingegeben werden.
  • Beispielsweise kann ein Fahrer Navigations-Anweisungen an das Fahrzeug aussprechen, wie beispielsweise „Wie komme ich in die Innenstadt von Sunnyvale?”. In diesem Beispiel umfasst die Sensor-Komponente 570 ein Mikrofon, das die verbale oder gesprochene Anweisung von dem Insassen oder Fahrer erhält und die Anweisung durch ein Steuer-/Regelbereichnetzwerk 580 an eine Steuer-/Regelkomponente 104 oder eine Navigations-Komponente 540 weitergibt. In anderen Ausführungsformen kann, wenn eine mobile Vorrichtung kommunikativ mit einem Fahrzeug gekoppelt ist, ein Insasse ein Mikrofon der mobilen Vorrichtung, einen Touchscreen der mobilen Vorrichtung, eine Tastatur oder ein Keypad der mobilen Vorrichtung etc. als Schnittstelle zu dem System 500 zur 3-D-Navigation verwenden. Die Steuer-/Regelkomponente 104 kann Spracherkennung der Anweisung durch Verwenden eines An-Bord-Spracherkennungsmoduls durchführen, um die Anweisung von Sprache in Text umzuwandeln (STT – speech to text). Als weitere Möglichkeit kann die Navigations-Komponente 540 einen Telematik-Kanal verwenden, um mit einem entfernten Server zu kommunizieren, wo die STT-Verarbeitung durchgeführt werden kann.
  • In einer oder mehreren Ausführungsformen kann die HUD-Komponente, wie beispielsweise die HUD-Komponente oder das System 100 aus 1 oder die HUD-Komponente 100 aus 5 eine Bestätigung einer Anweisung oder eines Befehls projizieren, präsentieren, rendern oder darstellen. Anders ausgedrückt kann die HUD-Komponente 100 als eine Anzeige-Komponente dienen oder andere Anzeige-Komponenten eines Fahrzeugs ergänzen. Um mit dem „Wie komme ich in die Innenstadt von Sunnyvale?”-Beispiel aus 10A fortzufahren, kann, wenn eine Anweisung oder ein Befehl von der Steuer-/Regelkomponente 104 erhalten wird, die Steuer-/Regelkomponente 104 auf Grundlage von Umgebungsinformationen bestimmen, ob oder ob nicht eine Bestätigung der Anweisung projiziert wird, die von der Sensor-Komponente 570 bereitgestellt oder detektiert worden ist. Hierbei kann, da die Sensor-Komponente 570 nicht Fahrzeuge, Fußgänger oder andere Hindernisse detektiert, die Steuer-/Regelkomponente 104 eine Bestimmung durchführen, dass eine Bestätigung der Anweisung von der HUD-Komponente 100 projiziert werden sollte. Zusätzlich kann die Steuer-/Regelkomponente 104 eine Größe, eine Form, ein Modell, eine Transparenz, ein Farbschema, eine Höhe, eine Breite, eine Tiefe, eine Zielposition, eine Brennebene etc. für ein entsprechendes Grafikelement bestimmen. Somit kann eine Bestätigung der Anweisung von der HUD-Komponente 100 in einer Textbox projiziert werden, wie bei 1004 zu sehen ist.
  • In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente 104 die HUD-Komponente anweisen, ein Grafikelement als einen Avatar 1002 zu projizieren, der als ein Führungssymbol erscheinen kann. In 10A kann das Grafikelement als ein Avatar 1002 mit einer Form oder Erscheinung eines Flugzeugs projiziert werden, das entlang einer Route leicht vor einem Fahrer oder Insassen des Fahrzeugs gleitet. Um die Aufmerksamkeit zu verbessern, kann die Steuer-/Regelkomponente 104 die HUD-Komponente 100 dazu veranlassen, den Avatar 1002 derart zu animieren, das der Avatar 1002 schwebt oder konstant in Bewegung ist. Anders ausgedrückt kann, damit der Avatar 1002 leichter sichtbar ist, die Steuer-/Regelkomponente 104 die HUD-Komponente 100 dazu veranlassen, dem Avatar 1002 periodisch eine Bewegung zuzuordnen. Beispielsweise kann die HUD-Komponente 100 den Avatar 1002 so projizieren, dass es erscheint, als ob er in Wasser treibt, wippt, schwebt, etc. Auf diese Weise kann die Aufmerksamkeit des Fahrers erhöht werden.
  • 10B ist eine Illustration eines beispielhaften Szenarios 1010, das einer 3-D-Navigation zugeordnet ist, gemäß einer oder mehrerer Ausführungsformen. Wenn eine Anweisung oder ein Befehl, wie beispielsweise ein Navigations-Befehl, von der Steuer-/Regelkomponente 104 erhalten wird, kann die Steuer-/Regelkomponente 104 die Anweisung oder den Befehl an die geeignete Komponente oder das geeignete Modul weiterleiten. In diesem Beispiel kann die Steuer-/Regelkomponente 104 die Anweisung oder den Befehl als einen Navigations-Befehl identifizieren und den Navigations-Befehl an die Navigations-Komponente 540 weitergeben. Dementsprechend kann die Navigations-Komponente 540 eine Ausgangsposition für das Fahrzeug (z. B. eine momentane Position) und die Zielposition bestimmen und eine Route von der Ausgangsposition zu der Zielposition berechnen. Wie oben diskutiert, kann die Route einen oder mehrere Routenabschnitte entlang einem einem oder mehrerer Straßenabschnitte oder/und eine oder mehrere Navigations-Aktionen oder -Manöver umfassen.
  • Die Navigations-Komponente 540 kann die Route, Routen-Abschnitte oder Routen-Informationen der Steuer-/Regelkomponente 104 bereitstellen, die bestimmen kann, ob oder ob nicht oder/und wie die Routen-Informationen gerendert werden sollen. Beispielsweise kann, da das Fahrzeug in 10B nicht in Bewegung ist (z. B. beim Parken) oder sich mit einer geringen Geschwindigkeit bewegt (z. B. unterhalb eines über das Steuer-/Regelbereich-Netzwerk 580 detektierten oder bereitgestellten Schwellenwerts), die Steuer-/Regelkomponente 104 bestimmen, dass eine Draufsicht 1030 der Route für die HUD-Komponente zum Projizieren geeignet sein kann. Dementsprechend kann die Steuer-/Regelkomponente 104 die HUD-Komponente dazu veranlassen, die Draufsicht 1030 derart zu projizieren, dass die Draufsicht 1030 einen größeren Bereich innerhalb der Umgebung einnimmt. Anders ausgedrückt kann die Steuerung/Regelung eine Größe für ein Grafikelement oder ob das Grafikelement projiziert werden soll oder nicht auf Grundlage einer Geschwindigkeit des Fahrzeugs bestimmen. Im Gegensatz hierzu kann, wenn das Fahrzeug in Bewegung ist oder sich oberhalb einer Schwellenwert-Geschwindigkeit bewegt, die Steuer-/Regelkomponente 104 eine Bestimmung durchführen, dass eine kleinere Version projiziert werden soll, oder dass die HUD-Komponente 100 die Draufsicht 1030 zu dieser Zeit nicht projiziert.
  • In 10B kann die HUD-Komponente eine Draufsicht 1030 einer Karte projizieren, die eine Route 1032 von einer Ausgangsposition zu einer Zielposition entlang eines oder mehrerer Straßenabschnitte umfasst. Die HUD-Komponente 100 kann einen Kompass 1034, Straßenabschnitt-Kennungen 1036, Verkehrs-Informationen, geschätzte Ankunftszeiten, geschätzte Fahrzeiten, eine momentane Position des Fahrzeugs, etc. projizieren. In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 verschiedene Aspekte der Draufsicht 1030 unter Verwendung von einem oder mehreren Farbschemata projizieren. Beispielsweise kann die HUD-Komponente 100 die Route derart projizieren, dass die Route 1032 unter Verwendung einer ersten Farbe gerendert wird, und andere Straßenabschnitte, wie beispielsweise der mit 1036 bezeichnete Straßenabschnitt, unter Verwendung einer zweiten Farbe gerendert werden.
  • In einer oder mehreren Ausführungsformen kann die Sensor-Komponente 570 Bilderfassungs-Vorrichtungen oder andere Sensoren umfassen, die bei einer Bestimmung einer Farbpalette oder eines Farbschemas zum Anzeigen oder Projizieren von grafischen Elementen helfen. Beispielsweise ist in 10B zu sehen, dass sich im Hintergrund oder der Umgebung einer oder mehrere Bäume befinden, die dafür sorgen, dass ein Grün schwieriger zu sehen oder zu visualisieren ist.
  • Dementsprechend kann die Steuer-/Regelkomponente 104 ein Farbschema zum Projizieren von einem oder mehreren Grafikelementen auswählen, das Farben verwendet, die einen Kontrast zu Grün bilden, wie beispielsweise Gelb. Als weiteres Beispiel kann beispielsweise tagsüber von der Sensor-Komponente 570 erfasst werden, dass der Himmel blau ist, während in der Nacht der Himmel schwarz erscheinen kann. Anders ausgedrückt kann die Sensor-Komponente 570 Farbinformationen erhalten, aufnehmen, erfassen oder detektieren, die mit der Umgebung zusammenhängen, was für einen Kontrast von Grafikelementen verwendet werden kann. Die Steuer-/Regelkomponente 104 kann diese Informationen verwenden, um Farben zu bestimmen, für die die HUD-Komponente 100 ein oder mehrere Grafikelemente projizieren kann. Hierbei kann die Steuer-/Regelkomponente 104 bestimmen, dass Rot tagsüber eine Option ist, während nachts Blau eine Option ist. Auf diese Weise kann die Steuer-/Regelkomponente Farbschemata oder eine Farbe für ein Grafikelement oder einen Avatar auf Grundlage einer Tageszeit oder Farbinformationen im Zusammenhang mit der Umgebung bestimmen (z. B. erhalten oder detektiert von der Sensor-Komponente 570).
  • In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 einen oder mehrere Aspekte der Draufsicht 1030 animieren. Beispielsweise kann die HUD-Komponente 100 die Route 1032 entlang einem oder mehreren Straßenabschnitten derart animieren, dass oder als ob die Route 1032 von der Ausgangsposition zu der Zielposition mit einem durchgehenden Federstrich gezeichnet wäre. Anders ausgedrückt kann die HUD-Komponente 100 eine Animation, die ein Fahren entlang der Route repräsentiert, schlangenartig von der Ausgangsposition zu der Zielposition rendern.
  • Die HUD-Komponente 100 kann Grafikelemente oder Avatare, wie beispielsweise den Avatar 1002 aus 10A, unter Verwendung verschiedener Kamerawinkel, Kameraperspektiven oder verschiedener Ansichten projizieren. Ferner kann die HUD-Komponente 100 zwischen diesen Ansichten in animierter oder gradueller Weise übergehen. Beispielsweise kann die HUD-Komponente 100 die Kameraperspektive oder den Kamerawinkel von einer Vogelperspektive, wie beispielsweise der Draufsicht 1030 aus 10B in eine Erste-Person-Ansicht oder eine Dritte-Person-Ansicht überführen, wie in 10A gezeigt. Anders erklärt kann die HUD-Komponente 100 graduell die Kameraperspektive so anpassen, dass sie von einer Vogelperspektive, Layout-Ansicht, Überkopf-Ansicht, herausgezoomten Ansicht oder Dritte-Person-Ansicht zu einer hereingezoomten Ansicht, Erste-Person-Ansicht, Straßenniveau-Ansicht etc. übergeht.
  • Beispielsweise kann die HUD-Komponente 100 eine Kameraperspektive oder einen Kamerawinkel verwenden, der ein Zoomen oder einen Übergang in eine Straßenniveau-Ansicht zu beenden scheint, die mit der Ansicht der realen Welt oder der selben Ansicht der Umgebung zusammenfällt, die ein Insasse oder Fahrer haben würde, der in seinem Fahrzeug sitzt und durch die Windschutzscheibe in die reale Welt nach draußen schaut. Anders ausgedrückt kann die Straßenniveau-Ansicht eine Ansicht sein, die ein Insasse hat, während er sich innerhalb einer Augenbox befindet und in eine Vorwärts-Richtung durch eine Windschutzscheibe des Fahrzeugs schaut/blickt. Anders erklärt kann die Zoom-Animation oder der Übergang zu einem Rendern lediglich eines Avatars oder Grafikelements im Sichtfeld des Fahrers führen, wie beispielsweise des Avatars 1002 aus 10A. 11A ist eine Illustration eines beispielhaften Szenarios 1100 im Zusammenhang mit einer 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Es ist zu sehen, dass die Ansicht des Avatars 1002, der in diesem beispielhaften Szenario 1100 bereitgestellt ist, eine Übergangs-Ansicht ist, die zwischen einer Vogelperspektive oder einer Draufsicht 1030 aus 10B und der Dritte-Person-Ansicht aus 10A erreicht wird.
  • In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 eine Zoom-Animation in umgekehrter Reihenfolge (d. h. von einer Dritte-Person-Ansicht zu einer Vogelperspektive) bereitstellen, wenn ein Insasse eine Ansicht einer Karte verlangt, oder wenn der Insasse eine Kartenansicht-Anweisung auslöst. In diesem Szenario kann die HUD-Komponente 100 eine Dritte-Person-Ansicht eines Avatars (z. B. 1002 aus 10A projizieren und herauszoomen oder weg in eine Vogelperspektive (z. B. die Draufsicht 1030 aus 10B) fliegen. Ferner kann die HUD-Komponente 100 eine Orientierung der Route, Karte oder Ansicht auf Grundlage einer Richtung oder Ausrichtung des Fahrzeugs anpassen. Anders ausgedrückt kann die HUD-Komponente 100 die Karte oder Ansicht derart orientieren, dass die Richtung der Bewegung entlang eines momentanen Straßen-Abschnitts beispielsweise nach oben oder nach vorne zu verlaufen scheint.
  • 11B ist eine Illustration eines beispielhaften Szenarios 1110 im Zusammenhang mit einer 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 einem Fahrer eines Fahrzeugs Navigations-Anweisungen oder vorgeschlagene Navigations-Manöver bereitstellen. Beispielsweise kann die Navigations-Komponente 540 eine Liste von Navigations-Anweisungen für eine Route von einer Ausgangsposition zu einer Zielposition erzeugen. Die Steuer-/Regelkomponente 104 kann die HUD-Komponente 100 dazu veranlassen, jeweilige Navigations-Anweisungen in die Umgebung, wie beispielsweise bei 1130, zu projizieren. Navigations-Anweisungen können Richtungen für einen Fahrer, wie beispielsweise rechts abbiegen, links abbiegen, rechts einordnen, links einordnen, Vorfahrt gewähren, anhalten, abbremsen, Geschwindigkeit erhöhen, beschleunigen etc. Ferner müssen Navigations-Anweisungen nicht notwendigerweise einen Fahrer dazu anleiten, eine Handlung auszuführen. Beispielsweise können Navigations-Anweisungen einen Fahrer eines Fahrzeugs alarmieren, dass kein Abbiegen bei Rotlicht erlaubt ist.
  • In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente 104 ein Farbschema verwenden oder die HUD-Komponente 100 dazu veranlassen, eines oder mehrere der Grafikelemente oder der Avatare unter Verwendung verschiedener Farben zu projizieren, um eine oder mehrere Navigations-Aktionen zu repräsentieren. Beispielsweise kann, wenn die HUD-Komponente 100 einen Avatar, wie beispielsweise den Avatar 1002A, 1002B oder 1002C aus 11B grün projiziert, dies anzeigen, dass keine Objekte, Hindernisse oder entgegenkommender Verkehr von der Sensor-Komponente 570 detektiert werden. Als weiteres Beispiels kann die HUD-Komponente 100 einen oder mehrere der Avatare 1002A, 1002B oder 1002C rot projizieren, um dem Fahrer anzuzeigen, dass es noch nicht sicher ist, abzubiegen. Hierbei kann die HUD-Komponente 100 beispielsweise ein „Vorfahrt gewähren”-Schild als eine Navigations-Anweisung anstatt eines „rechts abbiegen” projizieren.
  • Wie in 11B zu sehen ist, kann die HUD-Komponente 100 mehrere Avatare 1002A, 1002B und 1002C projizieren. In diesem Beispiel kann der Avatar 1002A auf eine erste Brennebene projiziert werden, der Avatar 1002B kann auf eine zweite Brennebene projiziert werden und der Avatar 1002C kann auf eine dritte Brennebene projiziert werden, wobei die erste Brennebene dem Fahrzeug am nächsten ist, gefolgt von der zweiten Brennebene, dann die dritte Brennebene, wodurch der Anschein erweckt wird, dass der Avatar 1002C am weitesten von dem Fahrzeug entfernt ist. Da die HUD-Komponente 100 in der Lage ist, mehrere Avatare 1002A, 1002B und 1002C auf verschiedene Brennebenen zu projizieren, gestattet dies dem System 500 für 3-D-Navigation, eine projizierte Route, Pfad oder eine vorbestimmte Route für einen Fahrer bereitzustellen, der bzw. dem dieser folgen kann.
  • In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 einen oder mehrere der Avatare 1002A, 1002B oder 1002C derart projizieren, dass jeweilige Avatare Brennebenen beibehalten, die statisch bezüglich der momentanen Position des Fahrzeugs sind. Anders ausgedrückt kann die HUD-Komponente 100 Avatare oder Grafikelemente derart projizieren, dass der Abstand zwischen dem Fahrzeug und Brennebenen für jeweilige Avatare abnimmt, wenn das Fahrzeug sich einem Avatar „nähert”. Anders ausgedrückt kann die HUD-Komponente 100 einen Avatar, wie beispielsweise einen aus 1002A, 1002B oder 1002C als ein Objekt projizieren, das stationär bezüglich des Fahrzeugs ist, wodurch es einem Fahrer oder Insassen erscheint, als ob ein Avatar vor dem Fahrzeug zu einer Zeit passiert wird oder darauf wartet, dass das Fahrzeug zu einer späteren Zeit „aufholt”. In diesen Ausführungsformen kann die HUD-Komponente 100 zusätzliche Avatare projizieren, wenn eine Route fortschreitet und eine Person oder ein Fahrer eines Fahrzeugs die stationären oder statischen Avatare „passiert”.
  • In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 einen oder mehrere der Avatare 1002A, 1002B oder 1002C derart projizieren, dass jeweilige Avatare Brennebenen aufweisen, die dynamisch auf die momentane Position des Fahrzeugs angepasst werden, oder die einen konstanten oder festgelegten Abstand von dem Fahrzeug aufweisen. Anders ausgedrückt kann die HUD-Komponente Avatare oder Grafikelemente derart projizieren, dass der Abstand zwischen dem Fahrzeug und Brennebenen für jeweilige Avatare konstant bleibt, wenn das Fahrzeug sich bewegt. Noch einmal anders ausgedrückt kann die HUD-Komponente Avatare als stationäre Objekte projizieren, die sich zusammen mit dem Fahrzeug zu bewegen scheinen. In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 zwischen einem Projizieren von Avataren als Objekte, die bezüglich des Fahrzeugs stationär sind, und einem Projizieren von Avataren als Objekte, die sich mit dem Fahrzeug zu bewegen scheinen, übergehen.
  • In jedem Fall kann die HUD-Komponente 100 ein beliebiges einer Mehrzahl von Grafikelementen oder Avataren als eine Animation projizieren, indem Brennebenen angepasst werden, auf denen eines oder mehrere der Grafikelemente oder Avatare zu projizieren sind. Beispielsweise können Positionierungen der Avatare 1002A, 1002B und 1002C erreicht werden, indem ein einzelner Avatar, wie beispielsweise der Avatar 1002 aus 11A oder 10A erweitert wird. Anders ausgedrückt können ein oder mehrere Avatare (oder Grafikelemente) von einem ersten Avatar aus erweitert werden, und jeweilige Avatare können in einen einzelnen Avatar zusammengefasst werden. Anders ausgedrückt können mehrere Avatare auseinander fliegen, sich trennen, fortschreiten oder vor einen ersten Avatar von der HUD-Komponente 100 projiziert werden, um beispielsweise ein Animieren einer Routen-Navigation oder Navigations-Anweisungen zu vereinfachen.
  • In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 ein oder mehrere Grafikelemente als Zeiger projizieren, die einen Fahrer oder Insassen eines Fahrzeugs über ein oder mehrere Objekte, Hindernisse, Straßen-Zustände, etc. alarmieren. Die Steuer-/Regelkomponente 104 kann einen Zeigertyp auf Grundlage einer Geschwindigkeit des Fahrzeugs und einer Geschwindigkeit eines Objekts auswählen. Beispielsweise kann, wenn das Fahrzeug stationär ist, entgegenkommender Verkehr (oder beispielsweise andere Objekte) durch Projizieren eines Grafikelements identifiziert werden, das auf eine Weise rotiert, die auf den Verkehr, die Gefahr, oder das sich bewegende Objekt zeigt, während sich das Objekt dem Fahrzeug nähert oder sich von dem Fahrzeug entfernt.
  • 12A ist eine Illustration eines beispielhaften Szenarios 1200 im Zusammenhang mit 3-D-Navigation gemäß einem oder mehrerer Ausführungsformen. Hierbei kann die Sensor-Komponente 570 vorbeifahrenden Verkehr oder ein weiteres Fahrzeug 1214 detektieren. Da die Trajektorie oder der Pfad des anderen Fahrzeugs 1214 auf einem Kollisionskurs mit der vorgeschlagenen, von dem Avatar 1002B angezeigten Navigations-Aktion ist, kann die Steuer-/Regelkomponente 104 die HUD-Komponente 100 dazu veranlassen, Navigations-Anweisungen zu projizieren, die den Fahrer darüber alarmieren, dass er bei 1130 die Vorfahrt gewähren sollte. Anders ausgedrückt kann die Sensor-Komponente 570 die Position des anderen Fahrzeugs 1214 verfolgen. Diese Information kann an die Steuer-/Regelkomponente 104 übertragen werden, die bestimmen kann, dass das Zeiger-Grafikelement von der HUD-Komponente 100 bei 1002A projiziert werden sollte. Die HUD-Komponente 100 kann somit das Zeiger-Grafikelement 1002A derart projizieren, dass es das andere Fahrzeug 1214 verfolgt oder es ihm folgt 1212A.
  • 12B ist eine Illustration eines beispielhaften Szenarios 1210 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Fortfahrend mit dem Beispiel aus 12A ist zu sehen, dass das andere Fahrzeug 1214 das Fahrzeug passiert hat, das stationär war. Die HUD-Komponente 100 kann weiterhin die Vorfahrt-Gewähren-Anweisung 1130 projizieren, sowie die nächste Navigations-Anweisung oder -Aktion (z. B. rechts abbiegen) bei 1002B. Da die Sensor-Komponente 570 das andere Fahrzeug 1214 detektiert, kann die HUD-Komponente 100 den Avatar 1002B in einer entsprechenden Farbe, wie beispielsweise Rot, projizieren. Anders ausgedrückt kann die Steuer-/Regelkomponente 104 eine Farbe für ein Grafikelement auswählen, das von der HUD-Komponente 100 auf Grundlage von Objekt-Informationen oder Umgebungs-Informationen (z. B. von der Sensor-Komponente 570 gesammelt oder detektiert) zu projizieren ist. Der Zeiger 1002A aus 12B kann weiterhin auf das Fahrzeug 1214 zeigen oder es verfolgen, indem er entlang einer z-Achse auf eine Weise rotiert, die einem verfolgten Objekt entspricht. Anders ausgedrückt kann die Steuer-/Regelkomponente 104 ein Gieren des Zeiger-Grafikelements 1002A anpassen.
  • 13A ist eine Illustration eines beispielhaften Szenarios 1300 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Während eine Person oder ein Fahrer ein Fahrzeug fährt, kann die Navigations-Komponente 540 eine momentane Position eines Fahrzeugs oder/und entsprechende Koordinaten bestimmen. Unter Verwendung dieser Informationen kann die Navigations-Komponente 540 oder die Steuer-/Regelkomponente 104 einen Straßennamen bestimmen und die HUD-Komponente 100 dazu veranlassen, den Straßennamen auf eine Brennebene zu projizieren, der einer Oberfläche der Straße oder des Straßen-Abschnitts entspricht, wie in 1330 zu sehen ist. Wie hierin diskutiert, kann die Projektion des Grafikelements auf die Straßenoberfläche auf eine Weise durchgeführt werden, die bezüglich des Fahrzeugs stationär erscheint, oder auf eine Weise, die sich mit dem Fahrzeug zu bewegen scheint. In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 den Straßennamen 1330 als Reaktion auf eine Anfrage von einem Insassen des Fahrzeugs projizieren, beispielsweise „Auf welcher Straße befinde ich mich?”. Zusätzlich können andere Grafikelemente, Informationen oder Hervorhebungen auf Wegmarken, Objekte, etc. projiziert werden.
  • In 13A werden verschiedene Grafikelemente oder Avatare von der HUD-Komponente projiziert und können animiert, zusammengefasst, erweitert, etc. werden, wie zuvor diskutiert worden ist. Auf diese Weise können die Avatare 1002A, 1002B und 1002C einem Fahrer eines Fahrzeugs oder anderen Insassen entlang einer Route zu einem Ziel bereitgestellt werden. 13B ist eine Illustration eines beispielhaften Szenarios 1310 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Hierbei ist zu sehen, dass die Avatare 1002A und 1002B mit variierenden Nickwinkeln, Rollwinkeln und Gierwinkeln projiziert werden. Die Steuer-/Regelkomponente kann einen Nick-, Roll oder Gierwinkel für einen Avatar oder ein Grafikelement auf Grundlage einer Trajektorie eines Pfads, eines Radius einer bevorstehenden Kurve, einer momentanen Geschwindigkeit eines Fahrzeugs, einer Geschwindigkeitsbegrenzung im Zusammenhang mit einer bevorstehenden Kurve, einer vorgeschlagenen Navigations-Aktion, Informationen von der Umgebung, einer Distanz bis zur nächsten Navigations-Anweisung oder -Aktion, etc. auswählen oder anpassen.
  • Hierbei kann in diesem Beispiel, da eine vorgeschlagene Route das Fahrzeug dazu veranlasst, eine bevorstehende Ausfahrt mit einer/einem kreisförmigen Straßenform oder Straßenabschnitt zu nehmen, die Steuer-/Regelkomponente 104 die HUD-Komponente dazu veranlassen, den Avatar 1002B mit einem größeren Roll- oder Gierwinkel als den Avatar 1002A zu projizieren, wodurch eine Wahrnehmung bereitgestellt wird, dass eine Kurve nach rechts folgt. Zusätzlich kann die Steuer-/Regelkomponente 104 einen kürzeren Abstand zwischen den Brennebenen für die Avatare 1002A und 1002B wählen, um anzuzeigen, wie eng eine Kurve sein kann. In anderen Ausführungsformen kann die Steuer-/Regelkomponente 104 eine Farbe, wie beispielsweise Geld oder Orange für einen oder mehrere der Avatare auswählen, um eine bevorstehende Kurve oder/und einen entsprechenden Grund für einen Fahrer, beispielsweise abzubremsen, anzuzeigen.
  • 14A ist eine Illustration eines beispielhaften Szenarios 1400 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Ein Fahrer oder Insasse kann einem System 500 für 3-D-Navigation eine Anweisung oder einen Befehl bereitstellen, während es mit einer Navigation von einer Ausgangsposition zu einer Zielposition beschäftigt ist. Anders ausgedrückt kann die Navigations-Komponente 540 ein Hinzufügen von einem oder mehreren Wegpunkten zwischen der Ausgangsposition und der Zielposition unterstützen, so dass die Navigation zu der Zielposition nicht auf eine Weise unterbrochen wird, die ein erneutes Einstellen der Navigation zu der Zielposition erfordert. Anders ausgedrückt kann, wenn ein Wegpunkt eingefügt wird, die Navigations-Komponente 540 eine überarbeitete Route von der momentanen Position des Fahrzeugs zu dem Wegpunkt und von dem Wegpunkt zu der Zielposition (die zuvor bestimmt worden war) berechnen. In 14A ist eine Navigation von einer Ausgangsposition zu einer Zielposition im Gange, wie von dem Avatar 1002 angezeigt wird, die den Fahrer des Fahrzeugs anleitet, geradeaus über die momentane Kreuzung weiter zu fahren. Bei 1404 kann eine Bestätigung der Anweisung oder des Befehls in einer Textbox projiziert werden. In einer oder mehreren Ausführungsformen muss die Steuer-/Regelkomponente 104 nicht die HUD-Komponente 100 dazu veranlassen, die Textbox 1404 zu projizieren, beispielsweise wenn mehrere Hindernisse von der Sensor-Komponente 570 detektiert werden, das Fahrzeug sich oberhalb einer Schwellenwert-Geschwindigkeit bewegt, oder auf Grundlage von Vorlieben des Benutzers.
  • In einer oder mehreren Ausführungsformen kann das System 500 eine Schnittstelle zu einer oder mehreren Komponenten, Servern, anderen Systemen, wie beispielsweise einer mobilen Vorrichtung oder entfernten Servern, zum Bestimmen von einem oder mehreren der Wegpunkte aufweisen. Beispielsweise kann ein Fahrer das System 500 dazu anweisen, ihn „zur nächsten Tankstelle zu führen”, „der billigsten Tankstelle in der Nähe” zu führen oder „einer Tankstelle auf dem Weg nach Hause”. Gemäß dieser Anweisungen kann die Steuer-/Regelkomponente 104 mit der Navigations-Komponente 540 zusammenarbeiten, um eine momentane Position für das Fahrzeug, eine Zielposition, eine Route zwischen der momentanen Position und der Zielposition zu bestimmen, oder mit einer Benzinpreis-Anwendung, wie beispielsweise einer Anwendung auf einer mobilen Vorrichtung etc. zum Bestimmen eines Preises, einer Position oder anderen Kriterien.
  • 14B ist eine Illustration eines beispielhaften Szenarios 1410 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Die Steuer-/Regelkomponente 104 kann eine Position eines Wegpunkts bestimmen oder einen geeigneten Wegpunkt aus einem oder mehreren verfügbaren Wegpunkten in Zusammenarbeit mit der Navigations-Komponente 540 auswählen. Die Navigations-Komponente 540 kann eine neue Route berechnen oder erstellen, um das Fahrzeug zu dem Wegpunkt als momentane Zielposition zu führen und die momentane Zielposition als die nächste Zielposition festlegen. Die Navigations-Komponente 540 kann zusätzliche Reisezeit im Zusammenhang mit dem Wegpunkt berechnen. In diesem Zusammenhang kann die HUD-Komponente 100 diese Informationen (z. B. Umleitung, die zu etwa acht Minuten zusätzlicher Reisezeit führen wird) in einer Textbox 1430A projizieren. Wie hierin diskutiert, kann die HUD-Komponente 100 Navigations-Anweisung 1130 und einen Avatar 1002 an einer oder mehreren Brennebenen in der Umgebung bereitstellen oder projizieren. Ferner kann die Navigations-Komponente 540 einen Telematik-Kanal zum Erhalten oder Herunterladen von Metadaten oder Informationen im Zusammenhang mit einem Wegpunkt oder einem Ziel verwenden. Beispielsweise kann die Navigations-Komponente 540 ein Logo im Zusammenhang mit dem Wegpunkt erhalten, wie beispielsweise ein Logo für einen Laden oder eine Tankstelle etc. Die HUD-Komponente 100 kann dieses Logo oder andere verwandte Informationen bei 1430B projizieren. Ferner kann die HUD-Komponente 100 einen oder mehrere Aspekte, wie beispielsweise durch Falten des Logos 1430B in eine ebene Form oder anderweitiges Umformen des Logos 1430B in den Avatar 1002 oder ein anderes Grafikelement animieren. Die HUD-Komponente 100 kann im Wesentlichen jedes Grafikelement in im Wesentlichen jedes andere Grafikelement animieren, umformen, umwandeln, etc.
  • 15 ist eine Illustration eines beispielhaften Szenarios 1500 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Die HUD-Komponente 100 kann Navigations-Anweisungen in einer Textbox 1130 und einen oder mehrere Avatare 1002A, 1002B, 1002C, 1002D, 1002E, etc. projizieren. Zusätzlich kann die HUD-Komponente 100 eine Route oder einen Pfad hervorheben, der durch jeweilige Avatare 1002A, 1002B, 1002C, 1002D oder 1002E bereitgestellt ist, beispielsweise indem die Avatare aufeinander folgend aufblinken. Die HUD-Komponente 100 kann einen oder mehrere der Avatare 1002A, 1002B, 1002C, 1002D oder 1002E derart projizieren, dass sie um andere Objekte, die von der Sensor-Komponente 570 detektiert werden, wie beispielsweise Gefahren, Straßen-Zustände oder andere Fahrzeuge, herum zu navigieren, fahren oder sich zu bewegen scheinen. Das Logo 1430B aus 14B kann so animiert werden, dass es in ein Logo „L” von der Größe eines Zeichens zusammenschrumpft, wie in 15 gezeigt. Beispielsweise kann die Steuer-/Regelkomponente 104 eine Zeitperiode bestimmen, während der das Logo 1430B in einer ersten Größe oder einen vollen Größe angezeigt wird. Nach dem Ablauf dieser Zeitperiode kann die HUD-Komponente 100 das Logo „L” in einer kleineren Größe, einer Zeichen-Größe oder einer zweiten Größe projizieren. Die Steuer-/Regelkomponente 104 kann die Zeitperiode für das Logo auf Grundlage des Abstands zu dem jeweiligen Objekt bestimmen (beispielsweise ein Restaurant, Laden oder eine Wegmarke etc.).
  • In einer oder mehreren Ausführungsformen kann eine Frühwarn-Detektion für ein oder mehrere Hindernisse oder Objekte bereitgestellt sein, die noch nicht im Sichtfeld oder der Reichweite eines Insassen eines Fahrzeugs sind, wie beispielsweise wenn der Insasse nach vorne aus dem Fahrzeug durch die Windschutzscheibe schaut. 16A ist eine Illustration eines beispielhaften Szenarios 1600 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. In diesem Beispiel können Verkehrs-Zustandinformationen von der Fahrzeug-Steuer-/Regelkomponente 180 für einen oder mehrere Verkehrs-Zustände entlang einer Route empfangen werden, auf der sich ein Fahrzeug bewegt oder voraussichtlich bewegen wird. Hierbei kann die Fahrzeug-Steuer-/Regelkomponente 180 Verkehrs-Zustandinformationen erhalten, die Bauarbeiten entlang einem oder mehrerer Routenabschnitte vor dem Fahrzeug anzeigen. Anders ausgedrückt finden Bauarbeiten entlang eines Straßenabschnitts statt, den das Fahrzeug nehmen wird, wenn die Navigations-Anweisungen befolgt werden. Anders ausgedrückt kann ein Auftreten dieser Baustelle von der Fahrzeug-Steuer-/Regelkomponente 180 erhalten werden, bevor das Fahrzeug an der Baustelle eintrifft.
  • Die HUD-Komponente 100 kann Navigations-Anweisungen 1130 projizieren, die Text, Pfeile, blinkende Pfeile, etc. umfassen können. Avatare 1002A und 1002B können ebenfalls projiziert werden. In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente 104 einen Anhaltepunkt oder eine Anhaltelinie bestimmen, wo ein Fahrer das Fahrzeug anhalten sollte. Beispielsweise kann die Steuer-/Regelkomponente 104 den Anhaltepunkt auf Grundlage einer Position eines anderen Fahrzeugs, Hindernisses in der Umgebung, anderer Umgebung-Informationen, etc. bestimmen. Die Steuer-/Regelkomponente 104 kann die HUD-Komponente 100 dazu veranlassen, diese als eine horizontale Linie 1630 zu projizieren, um ein sicheres Fahren zu fördern. In anderen Ausführungsformen kann die HUD-Komponente 100 eine vertikale Linie oder ein anderes Grafikelement projizieren, die/das einen sicheren Folge-Abstand zwischen dem Fahrzeug des Fahrers und beispielsweise einem voraus fahrenden weiteren Fahrzeug anzeigt.
  • Dementsprechend kann die Steuer-/Regelkomponente 104 dieses Hindernis (z. B. Objekt) oder diesen Verkehrs-Zustand identifizieren und die HUD-Komponente 100 dazu veranlassen, eine Benachrichtigung im Voraus oder ein Frühwarn-Grafikelement 1602 zu projizieren. Dies erlaubt es dem System 500, einen Fahrer oder Insassen eines Fahrzeugs über ein oder mehrere Objekte, Gefahren, Hindernisse, Verkehrs-Zustände, etc. zu alarmieren, selbst wenn. entsprechende Objekte nicht direkt sichtbar sind, wenn aus der Windschutzscheibe des Fahrzeugs geblickt oder geschaut wird. 16B ist eine Illustration eines beispielhaften Szenarios 1610 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Es ist in 16B zu sehen, dass der Verkehrs-Zustand oder die Behinderung im Zusammenhang mit 1602 in dem Abstand weit voraus liegt und einem Fahrer eines Fahrzeugs nicht ersichtlich sein muss. Dementsprechend kann die HUD-Komponente 100 die Gefahr, die Baustelle oder das Objekt identifizieren (z. B. erhalten von der Fahrzeug-Steuer-/Regelkomponente 180), indem ein Vorwarn-Grafikelement 1602 projiziert wird, das auf die Baustelle relativ zu dem Fahrzeug zeigt und sie identifiziert. Beispielsweise kann in 16A, da sich die Baustelle links des Fahrzeugs befindet, der Zeiger oder Schwanz im Zusammenhang mit dem Vorwarn-Grafikelement 1602 nach außerhalb des Windschutzscheiben-Sichfeldbereichs zeigen, wodurch ein Fahrer oder anderer Insasse des Fahrzeugs darüber alarmiert wird, dass eine Baustelle voraus liegt.
  • Die Steuer-/Regelkomponente 104 kann eine oder mehrere Zielpositionen bestimmen, und eine Zielposition für ein oder mehrere Grafikelemente, die von der HUD-Komponente 100 projiziert werden aktualisieren oder anpassen. Beispielsweise kann die Steuer-/Regelkomponente 104 eine Zielposition für das Vorwarn-Grafikelement 1602 auf Grundlage eines Abstands des Fahrzeugs von dem Objekt auswählen bestimmen, das mit dem Vorwarn-Grafikelement 1602 in Zusammenhang steht oder auf das von ihm gezeigt wird. Hierbei kann die Steuer-/Regelkomponente 104 bestimmen, dass die Baustelle (z. B. das Objekt) im Zusammenhang mit dem Vorwarn-Grafikelement 1602 größer ist als ein Schwellenwert-Abstand weg von dem Fahrzeug (z. B. indem die Navigations-Komponente 540 dazu verwendet wird, eine momentane GPS-Position für das Fahrzeug zum Vergleich mit Koordinaten der Baustelle zu bestimmen, die von der Fahrzeug-Steuer-/Regelkomponente 180 bereitgestellt werden). Da bestimmt wird, dass die Baustelle sich weiter als der Schwellenwert-Abstand weg befindet, kann die HUD-Komponente 100 das Vorwarn-Grafikelement 1602 in den Himmel projizieren, wobei ein Zeiger mit einer Länge verwendet wird, die größer als eine Schwellenwert-Länge ist, anstatt ein Grafikelement in der Nähe von, in Überlappung mit oder benachbart zu der Baustelle zu projizieren.
  • 17A ist eine Illustration eines beispielhaften Szenarios 1700 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Wenn sich ein Fahrzeug einem Objekt nähert, wie beispielsweise der durch das Vorwarn-Grafikelement 1602 angezeigten Baustelle, kann die Steuer-/Regelkomponente 104 die Position oder Zielposition des jeweiligen Grafikelements (z. B. 1602) anpassen. Zusätzlich kann die Steuer-/Regelkomponente 104 den Typ des anzuzeigenden Grafikelements ändern. Beispielsweise schließt, wie in 17A gezeigt, das Vorwarn-Grafikelement 1602 nicht einen Zeiger ein, wie er zuvor in 16A oder 16B verwendet worden ist. Hierbei kann, da die Nähe zwischen dem Fahrzeug und dem Objekt (z. B. der Baustelle) kleiner ist als ein Schwellenwert-Abstand, die Steuer-/Regelkomponente 104 bestimmen, dass der Zeiger weggelassen wird. Hierbei kann die HUD-Komponente 100 den Avatar 1002, das Vorwarn-Grafikelement 1602 und ein Gefahr-Grafikelement 1704A projizieren.
  • Beispielsweise kann, wenn die Fahrzeug-Steuer-/Regelkomponente 180 oder die Sensor-Komponente 540 ein Objekt identifiziert, das eine Gefahr, Behinderung, ein Hindernis oder anderweitig unbefahrbar ist, wie beispielsweise ein Straßenabschnitt, auf dem gebaut wird, etc., die Steuer-/Regelkomponente 104 die HUD-Komponente 100 dazu veranlassen, ein Gefahr-Grafikelement zu projizieren, wie beispielsweise das Gefahr-Grafikelement 1704A auf eine Weise, die die Gefahr überlagert. Die Tiefenpuffer-Komponente 560 kann ein Ausblenden eines oder mehrerer Abschnitte der Gefahr in der realen Welt oder der Umgebung ermöglichen, so dass die Gefahr aus dem Sichtfeld eines Insassen, Bedieners oder Fahrers des Fahrzeugs verdeckt wird. Anders ausgedrückt kann die HUD-Komponente 100 Grafikelemente projizieren, die undurchsichtig sind oder verschiedene Transparenz-Grade aufweisen. Wenn die Steuer-/Regelkomponente 104 bestimmt, dass auf oder über einen Bereich, eine Gefahr oder ein Objekt nicht gefahren werden sollte, kann die HUD-Komponente 100 Gefahr-Grafikelemente so projizieren, dass sie dementsprechend solche Bereiche „auffüllen”.
  • 17B ist eine Illustration eines beispielhaften Szenarios 1710 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. In 17B ist zu erkennen, dass sich das Fahrzeug der Gefahr oder Baustelle genähert hat, die in 17A gezeigt ist, und die HUD-Komponente 100 hat die Perspektive des Gefahr-Grafikelements 1704B entsprechend angepasst. Beispielsweise ist, da das Fahrzeug sich in einem näheren Abstand zu der Baustelle befindet, das Gefahr-Grafikelement 1704B aus 17B von seiner Fläche her größer als das Gefahr-Grafikelement 1704A aus 17A. Von der Sensor-Komponente 540 oder der Fahrzeug-Steuer-/Regelkomponente 180 erhaltene Informationen im Zusammenhang mit oder zugeordnet zu der Gefahr, Baustelle oder Objekten in der Umgebung können von der Steuer-/Regelkomponente 104 verwendet werden, um eine Größe, Form, ein Modell (z. B. Führungszeichen, Avatar, Abdeckung, Transparenz, Farbe), Höhe, Breite, Tiefe, Brennebene, Farbe, Zielposition für ein Grafikelement zu bestimmen, oder eine Überlappung zwischen Grafikelementen oder Tiefenkarten-Informationen zu identifizieren. Anders ausgedrückt können diese Attribute auf Objekt-Informationen oder Umgebung-Informationen basieren, die von der Fahrzeug-Steuer-/Regelkomponente 180 oder der Sensor-Komponente 570 erhalten werden. In einer oder mehreren Ausführungsformen kann die Steuerung/Regelung Farben von Grafikelementen auf Grundlage von entgegenkommendem Verkehr, Tageszeit, Farben von Objekten in der Umgebung, Verkehrsregeln, etc. auswählen oder ändern.
  • Die Tiefenkarte-Komponente 550 kann eine Tiefenkarte der Umgebung oder von Objekten in der Umgebung um ein Fahrzeug herum verwalten oder erstellen. Die Steuer-/Regelkomponente 104 kann die Tiefenkarte verwenden, um zu bestimmen, ob oder ob nicht ein Objekt sichtbar, transparent, undurchsichtig, etc. bezüglich eines Grafikelements sein sollte. Beispielsweise kann die Baustelle (unter Gefahr-Grafikelementen 1704A oder 1704B versteckt) Verkehrs-Tonnen, Verkehrs-Pylonen, Unrat, Schlaglöcher, Grabungen, nicht befahrbare Straßenoberflächen, etc. umfassen. Hierbei hat in diesem Beispiel die Steuer-/Regelkomponente 104 eine Bestimmung durchgeführt, dass diese Aspekte unter den Gefahr-Grafikelementen 1704A und 1704B versteckt werden sollen. Jedoch müssen andere Objekt in der Umgebung nicht notwendigerweise unter den Gefahr-Grafikelementen 1704A und 1704B versteckt oder geschichtet werden. Beispielsweise kann, wenn ein Fußgänger die Baustelle durchquert, die Steuer-/Regelkomponente 104 bestimmen, dass der Fußgänger ein Objekt ist, das nicht verdeckt werden soll, und die HUD-Komponente dazu veranlassen, das Gefahr-Grafikelement 1704B derart zu projizieren, dass das Gefahr-Grafikelement 1704B den Fußgänger nicht aus dem Sichtfeld des Fahrers ausblendet (z. B. wenn der Fußgänger „durch” das Gefahr-Grafikelement 1704B läuft). Anders ausgedrückt kann die Steuer-/Regelkomponente 104 eine Sichtbarkeit, Schichtung, ein Transparenz-(Niveau, Undurchsichtigkeits-Niveau, etc. eines Grafikelement auf Grundlage einer Bewegung eines Objekts innerhalb einer Umgebung oder anderer Daten bestimmen, die von der Sensor-Komponente 540 oder der Fahrzeug-Steuer-/Regelkomponente 180 erhalten werden, wie beispielsweise einer Identität eines Objekts, eines Objekttyps, einer Objektgröße, etc. Auf diese Weise können Tiefenkarten-Informationen von der Steuer-/Regelkomponente 104 oder der HUD-Komponente 100 verwendet werden, um einem Insassen, Bediener oder Fahrer eines Fahrzeugs eine realistische Wahrnehmung von einem oder mehreren Grafikelementen bezüglich der ihn umgebenden Umgebung oder der realen Welt bereitzustellen.
  • 18A ist eine Illustration eines beispielhaften Szenarios 1800 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Wenn detektiert wird (z. B. von der Sensor-Komponente 570), dass ein oder mehrere Objekte sich auf einem Pfad eines Fahrzeugs oder entlang einer vorgesehenen Route befinden (z. B. durch von der Fahrzeug-Steuer-/Regelvorrichtung 180 erhaltenen Umgebungs-Informationen), kann die Steuer-/Regelkomponente 100 jeweilige Objekte mit Grafikelementen oder/und Zeigern hervorheben oder verfolgen. Beispielsweise kann, wenn sich ein Fahrzeug einem Abbiegen nach rechts nähert, das durch Navigations-Anweisungen 1130 und die Avatare 1002A, 1002B und 1002C angezeigt wird, die Sensor-Komponente 570 einen Fußgänger 1832 nahe einem Straßenabschnitt detektieren, auf welchen das Fahrzeug einbiegen soll. Als Ergebnis davon kann die Steuer-/Regelkomponente 104 die HUD-Komponente 100 dazu anleiten, das Grafikelement 1834 auf den Fußgänger 1832 zu projizieren. In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 ein Grafikelement über den Fußgänger 1832 projizieren. Ferner kann die HUD-Komponente 100 ein Grafikelement 1804 projizieren, das ein Signal illustriert, dass ein Fußgänger die Straße überquert.
  • Während das Fahrzeug und der Fußgänger 1832 sich entlang des Straßenabschnitts bewegen, kann sich der relative Abstand zwischen den beiden ändern (z. B. kann sich der Fußgänger 1832 bewegen, das Fahrzeug kann sich bewegen, oder sowohl der Fußgänger 1832 als auch das Fahrzeug können sich bewegen, etc.). Die Sensor-Komponente 570 kann diese Änderung des Abstands detektieren und die Änderung an die Steuer-/Regelkomponente 104 oder die Fahrzeug-Steuer-/Regelkomponente 180 übertragen oder sie aktualisieren. Die Steuer-/Regelkomponente 104 kann Positionen für eines oder mehrere der Grafikelemente (z. B. 1832 oder 1834) aktualisieren, ändern oder verfolgen. Anders ausgedrückt kann die Steuer-/Regelkomponente 104 eine oder mehrere Brennebenen für eines oder mehrere der Grafikelemente auf Grundlage von Objekt-Informationen oder Umgebungs-Informationen anpassen. Wie zuvor diskutiert, kann ein Aktuator im Zusammenhang mit einem Projizieren eines Grafikelements auf eine Brennebene von der Steuer-/Regelkomponente 104 dazu gesteuert/geregelt werden, die Brennebene zu bewegen, anzupassen oder zu ändern (z. B. die Brennebene entlang einer Richtung der Sichtlinie eines Fahrers oder Insassen zu bewegen, wie beispielsweise der Sichtlinie 178 aus 3).
  • 18B ist eine Illustration eines beispielhaften Szenarios 1810 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehreren Ausführungsformen. In 18 kann die HUD-Komponente 100 mehrere Grafikelemente 1834 und 1844 jeweils für mehrere Fußgänger 1832 und 1842 projizieren. Zusätzlich kann die HUD-Komponente 100 ein oder mehrere Grafikelemente als Anzeiger projizieren, wie beispielsweise bei 1802 oder 1804.
  • 19A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. In einer oder mehreren Ausführungsformen kann das System für 3-D-Navigation 500 es einem Insassen eines Fahrzeugs ermöglichen, mit dem Fahrzeug bezüglich Objekten in der Umgebung zu interagieren. Anders ausgedrückt kann ein Insasse Fragen stellen („Was ist das?”, „Das sieht gut aus”) oder Kommentare abgeben (z. B. verbal oder mittels Texteingabe) und Grafikelement-Projektionen als Antworten erhalten. Beispielsweise kann die Sensor-Komponente 570 eine oder mehrere Abfragen, Anfragen oder Befehle von einem Benutzer, Insassen oder Fahrer eines Fahrzeugs akzeptieren. Hier hat ein Insasse des Fahrzeugs gefragt „Was ist das da rechts?”. Die HUD-Komponente 100 kann eine Bestätigung anzeigen oder die Abfrage wiederholen oder ein Verwenden eines Textbox-Grafikelements 1904 anfordern. In einer oder mehreren Ausführungsformen können Abfragen oder Anweisungen während einer Navigation aktiviert sein, wie durch den Avatar 1002 zu sehen. Eine oder mehrere andere Komponenten können verwendet werden, um das Erfüllen von einem oder mehreren der Anweisungen oder Befehle zu erleichtern. Beispielsweise kann, wenn eine mobile Vorrichtung kommunikativ mit dem System 500 gekoppelt ist, die Steuer-/Regelkomponente 104 die mobile Vorrichtung dazu veranlassen, eine Telefonnummer eines Geschäfts zu wählen, wenn angewiesen wird „Rufe das Restaurant da rechts an”. Als weiteres Beispiel kann die Steuer-/Regelkomponente 104 mit einer Restaurant-Reservierungsanwendung zusammenarbeiten, die auf der mobilen Vorrichtung oder in dem Fahrzeug installiert ist, als Reaktion auf „Reserviere in Restaurant X”. Andere Befehle oder Anweisungen können Audiosysteme des Fahrzeugs verwenden, wie beispielsweise „Lies mir die Speisekarte vor”.
  • 19B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Die Steuer-/Regelkomponente 104 kann die Anweisung verarbeiten oder die Anweisung im Zusammenhang mit 1904 an die Navigations-Komponente 540 weiterleiten, um Objekte nahe dem Fahrzeug zu bestimmen, wie beispielsweise Geschäfte, Restaurants, etc. Die Steuer-/Regelkomponente 104 kann Informationen im Zusammenhang mit einem Objekt, wie beispielsweise einem Restaurant aus einer Karten-Anwendung, einem entfernten Server, etc. erhalten. Diese Informationen können Metadaten im Zusammenhang mit dem Objekt umfassen, wie beispielsweise Öffnungszeiten, ein Logo, einen Status, Kritiken für das Geschäft, Kontakt-Informationen, eine Telefonnummer, eine Speisekarte, etc. Hierbei kann die HUD-Komponente 100 ein Logo-Grafikelement 1430B, Informationen 1930 (z. B. eine Telefonnummer, einen Status, Öffnungszeiten, etc.) und ein Hervorhebungs-Grafikelement 1932 projizieren, das Aufmerksamkeit auf die Position des Objekts (z. B. ein Restaurant oder Geschäft) ziehen kann.
  • 20A ist eine Illustration eines beispielhaften Szenarios 2000 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. In einer oder mehreren Ausführungsformen kann die Navigations-Komponente 540 dem Fahrzeug-Steuer-/Regelsystem Metadaten im Zusammenhang mit einem oder mehreren Objekten in der Umgebung bereitstellen. Beispielsweise können ein oder mehrere Objekte in der Umgebung Gebäude oder Geschäfte sein. Die Navigations-Komponente 540 kann Adressen-Informationen für jeweilige Gebäude oder Geschäfte herunterladen, die als Grafikelemente von der HUD-Komponente 100 projiziert werden können. Beispielsweise können Adressen für die Gebäude 2002, 2004 und 2006 von der HUD-Komponente 100 präsentiert werden. In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente 104 ein Präsentieren von Adressen-Grafikelementen ermöglichen, beispielsweise wenn ein Fahrzeug sich innerhalb eines Schwellenwert-Abstands von einer Zielposition befindet, oder auf Anweisung eines Benutzers. In anderen Ausführungsformen können Adressen-Informationen während des Navigations-Modus projiziert werden, beispielsweise wenn Richtungen von der Navigations-Komponente 540 bereitgestellt werden, wie von dem Avatar 1002 angezeigt.
  • 20B ist eine Illustration eines beispielhaften Szenarios 2010 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Hierbei kann in diesem Beispiel die Sensor-Komponente 570 oder die Navigations-Komponente 540 einen oder mehrere Parkplätze identifizieren. Als Ergebnis kann die Steuer-/Regelkomponente 104 die HUD-Komponente 100 dazu veranlassen, ein Grafikelement 2030 zu projizieren, das einen Parkplatz im Sichtfeld eines Insassen des Fahrzeugs anzeigt. Das Grafikelement 2030 kann als ein Vorwarn-Grafikelement einschließlich eines Zeigers erscheinen, kann ein oder mehrere Transparenz-Attribute, eine Farbe, Form, Größe, etc. aufweisen oder Objekt-Metadaten (z. B. Parkkosten, Zeitgrenze für den Platz, etc.) wie hierin beschrieben umfassen.
  • 21 ist eine Illustration eines beispielhaften Flussdiagramms eines Verfahrens 2100 für 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Bei 2102 beginnt das Verfahren 2100. Bei 2104 können ein oder mehrere Objekte verfolgt werden, oder Metadaten im Zusammenhang mit jeweiligen Objekten können erhalten werden. Zusätzlich können Informationen im Zusammenhang mit einer Umgebung oder Route von einer Ausgangsposition zu einer Zielposition erhalten werden. Bei 2106 können eine oder mehrere Brennebenen oder aktualisierte Brennebenen für Grafikelemente berechnet werden, die im Zusammenhang mit einem oder mehreren der Objekte projiziert werden sollen. Bei 2108 können ein oder mehrere Grafikelemente an einer oder mehrere der Brennebenen oder einem oder mehreren jeweiligen Objekten gerendert oder projiziert werden. Bei 2110 kann eine Bestimmung durchgeführt werden, ob oder ob nicht das Verfolgen oder Projizieren der Grafikelemente in Zusammenhang mit einem oder mehreren der Objekte weitergeführt werden soll. Wenn bestimmt wird, dass zusätzliches Verfolgen gewünscht ist, kehrt das Verfahren zu 2104 zurück. Wenn kein zusätzliches Verfolgen gewünscht ist, kann das Verfahren bei 2112 enden.
  • Eine weitere Ausführungsform umfasst ein Computer-lesbares Medium umfassend Prozessor-ausführbare Instruktionen, die dazu eingerichtet sind, eine oder mehrere Ausführungsformen der hierin präsentierten Techniken zu implementieren. Eine Ausführungsform eines Computer-lesbaren Mediums oder einer Computer-lesbaren Vorrichtung, das/die auf diese Weise konstruiert ist, ist in 22 illustriert, wobei eine Implementation 2200 ein Computer-lesbares Medium 2208, wie beispielsweise eine CD-R, DVD-R, ein Flash-Drive, eine Scheibe einer Festplatte etc. umfasst, auf dem kodiert Computer-lesbare Daten 2206 vorliegen. Diese Computer-lesbaren Daten 2206, wie beispielsweise Binärdaten, wie in 2206 gezeigt umfassend eine Mehrzahl von Nullen oder Einsen, umfassen wiederum eine Menge von Computer-Anweisungen 2204, die dazu eingerichtet sind, gemäß einem oder mehrerer der hierin vorgestellten Prinzipien zu arbeiten. In einer solchen Ausführungsform 2200 sind die Prozessor-ausführbaren Computer-Anweisungen 2204 dazu eingerichtet, ein Verfahren 2202, wie beispielsweise das Verfahren 600 aus 6 oder das Verfahren 2100 aus 21 auszuführen. In einer anderen Ausführungsform sind die Prozessor-ausführbaren Anweisungen 2204 dazu eingerichtet, ein System, wie beispielsweise das System 500 aus 5 zu implementieren. Viele solcher Computer-lesbaren Medien sind dem Fachmann bekannt, die dazu eingerichtet sind, gemäß der hierin präsentierten Techniken betrieben zu werden.
  • Wie sie in dieser Anmeldung verwendet werden, sind die Begriffe „Komponente”, „Modul”, „System”, „Schnittstelle” und ähnlichen im Allgemeinen dazu vorgesehen, sich auf eine Computer-bezogene Funktionseinheit zu beziehen, entweder Hardware, eine Kombination aus Hardware und Software, Software oder Software bei ihrer Ausführung. Beispielsweise kann eine Komponente ein Prozess, der auf einem Prozessor abläuft, ein Prozessor, ein Objekt, ein ausführbares Programm, ein Ausführungs-Thread, ein Programm oder ein Computer sein, ist aber nicht darauf beschränkt. Um das zu illustrieren können sowohl eine auf einem Steuer-/Regelelement laufende Anwendung und das Steuer-/Regelelement selbst eine Komponente sein. Eine oder mehrere Komponenten, die sich innerhalb eines Prozesses oder Ausführungs-Threads befinden, und auch eine Komponente können auf einem Computer befindlich oder zwischen zwei oder mehreren Computern verteilt sein.
  • Ferner ist der anspruchsgemäße Gegenstand als ein Verfahren, eine Vorrichtung oder ein Herstellungs-Erzeugnis unter Verwendung üblicher Programmier- oder Ingenieurs-Techniken zum Herstellen von Software, Firmware, Hardware oder einer beliebigen Kombination davon zum Steuern/Regeln eines Computers implementiert, um den offenbarten Gegenstand zu implementieren. Der Begriff „Herstellungs-Erzeugnis” wie er hierin verwendet wird, ist so vorgesehen, dass er ein Computerprogramm umfasst, das von jeglicher/jeglichem Computer-lesbarer Vorrichtung, Träger oder Medium zugänglich ist. Natürlich können an dieser Konfiguration vielerlei Modifikationen vorgenommen werden, ohne vom Umfang oder Geist des anspruchsgemäßen Gegenstands abzuweichen.
  • 23 und die folgende Diskussion stellen eine Beschreibung einer geeigneten Computer-Umgebung bereit, um eine Ausführungsform von einer oder mehreren der hierin beschriebenen Einrichtungen zu implementieren. Die Betriebs-Umgebung aus 23 ist lediglich ein Beispiel einer geeigneten Betriebs-Umgebung und ist nicht dazu vorgesehen, eine Einschränkung des Umfangs der Verwendung oder Funktionalität der Betriebs-Umgebung vorzunehmen. Beispielhafte Computer-Vorrichtungen umfassen, sind allerdings nicht beschränkt auf, Personal-Computer, Server-Computer, Handheld- oder Laptop-Einheiten, mobile Geräte wie beispielsweise Mobiltelefone, Personal Digital Assistants (PDAs), Medienspieler und ähnliches, Mainframe-Computer, verteilte Computer-Umgebungen, die beliebige der oben genannten Systeme oder Vorrichtungen umfassen und ähnliches.
  • Im Allgemeinen werden Ausführungsformen im allgemeinen Kontext von „Computer-lesbaren Anweisungen” von einer oder mehreren Computer-Vorrichtungen ausgeführt. Computer-lesbare Anweisungen werden mittels Computer-lesbarer Medien wie unten beschrieben verteilt. Computer-lesbare Anweisungen sind als Programm-Module, wie beispielsweise Funktionen, Objekte, Application Programming Interfaces (APIs), Datenstrukturen und ähnliches implementiert, die eine oder mehrere Aufgaben ausführen oder einen oder mehrere abstrakte Datentypen implementieren. Typischerweise werden die Funktionalität der Computer-lesbaren Anweisungen wie gewünscht in verschiedenen Umgebungen kombiniert oder verteilt.
  • 23 illustriert ein System 2300, umfassend ein Computer-Vorrichtung 2312, die dazu eingerichtet ist, eine oder mehrere der hierin bereitgestellten Ausführungsformen zu implementieren. In einer Konfiguration umfasst die Computer-Vorrichtung 2312 eine oder mehrere Prozessierungs-Einheiten 2316 und Memory 2318. Abhängig von der exakten Konfiguration und dem Typ der Computer-Vorrichtung kann der Memory 2318 flüchtig, wie beispielsweise RAM, nicht-flüchtig, wie beispielsweise ROM, Flash-Speicher etc. oder eine Kombination der beiden sein. Diese Konfiguration ist in 23 durch eine gestrichelte Linie 2314 illustriert.
  • In anderen Ausführungsformen umfasst die Vorrichtung 2312 zusätzliche Merkmale oder Funktionalitäten. Beispielsweise kann die Vorrichtung 2312 zusätzlichen Speicher, wie beispielsweise entfernbaren Speicher oder nicht-entfernbaren Speicher, einschließlich aber nicht beschränkt auf magnetischen Speicher, optischen Speicher und ähnliches umfassen. Solcher zusätzlicher Speicher ist in 23 durch Speicher 2320 illustriert. In einer oder mehreren Ausführungsformen befinden sich die Computer-lesbaren Anweisungen zum Implementieren von einem oder mehreren hierin bereitgestellten Ausführungsformen in dem Speicher 2320. Der Speicher 2320 kann andere Computer-lesbare Anweisungen zum Implementieren eines Betriebssystems, eines Anwendungsprogramms und ähnlichem speichern. Computer-lesbare Anweisungen werden in den Memory 2318 geladen, um beispielsweise von der Prozessierungs-Einheit 2316 ausgeführt zu werden.
  • Der Begriff „Computer-lesbares Medium” wie er hierin verwendet wird, umfasst Computer-Speichermedien. Computer-Speichermedien umfassen flüchtige und nicht-flüchtige, entfernbare und nicht-entfernbare Medien, die in jedem Verfahren oder jeder Technologie zum Speichern von Informationen, wie beispielsweise als Computer-lesbare Anweisungen oder andere Daten implementiert sind. Memory 2318 und Speicher 2320 sind Beispiele für Computer-Speichermedien. Computer-Speichermedien umfassen, sind allerdings nicht beschränkt auf, RAM, ROM, EEPROM, Flash-Speicher oder andere Speicher-Technologien, CD-ROM, Digital Versatile Disks (DVDs) oder anderen optischen Speicher, Magnetkasetten, Magnetbänder, Magnetische Diskspeicher oder andere magnetische Speicher-Vorrichtungen oder jedes andere Medium, das verwendet werden kann, um die gewünschten Informationen zu speichern und auf das von der Vorrichtung 2312 zugegriffen werden kann. Jedes dieser Computer-Speichermedien kann Teil der Vorrichtung 2312 sein.
  • Der Begriff „Computer-lesbares Medium” umfasst Kommunikations-Medien. Kommunikations-Medien verkörpern typischerweise Computerlesbare Anweisungen oder andere Daten in einem „modulierten Datensignal”, wie beispielsweise einer Trägerwelle oder anderen Transport-Mechanismen und umfassen sämtliche Informations-Liefermedien. Der Begriff „moduliertes Datensignal” umfasst ein Signal, das eine oder mehrere seiner Charakteristiken derart gesetzt oder geändert hat, dass Informationen in dem Signal kodiert sind.
  • Die Vorrichtung 2312 umfasst eine Eingabevorrichtung oder Eingabevorrichtungen 2324 wie eine Tastatur, Maus, Stift, Spracheingabe-Vorrichtung, Berührungs-Eingabevorrichtung, Infrarot-Kameras, Video-Eingabevorrichtungen oder beliebige andere Eingabevorrichtungen. Die Ausgabevorrichtung oder Ausgabevorrichtungen 2322 wie beispielsweise eine oder mehrere Anzeigen, Lautsprecher, Drucker oder beliebige andere Ausgabevorrichtungen können in der Vorrichtung 2312 vorgesehen sein. Die Eingabevorrichtung(en) 2324 und Ausgabevorrichtung(en) 2322 sind mit der Vorrichtung 2312 mittels einer kabelgebundenen Verbindung, kabellosen Verbindung oder einer beliebigen Kombination davon verbunden. In einer oder mehreren Ausführungsformen werden eine Eingabevorrichtung oder eine Ausgabevorrichtung von einer anderen Computer-Vorrichtung als Eingabevorrichtung(en) 2324 oder Ausgabevorrichtung(en) 2322 für die Computer-Vorrichtung 2312 verwendet. Die Vorrichtung 2312 kann eine Kommunikations-Verbindung oder Kommunikations-Verbindungen 2326 umfassen, um eine Kommunikation mit einer oder mehreren anderen Vorrichtungen zu erleichtern.
  • Gemäß einem oder mehreren Aspekten ist ein System für 3-dimensionale (3-D) Navigation bereitgestellt, umfassend eine Navigations-Komponente, die dazu eingerichtet ist, eine Ausgangsposition und eine Zielposition zu erhalten. Die Navigations-Komponente kann einem Fahrzeug zugeordnet sein und dazu eingerichtet sein, eine Route von der Ausgangsposition zu der Zielposition zu erzeugen. Ein oder mehrere Abschnitte der Route können eine oder mehrere Navigations-Anweisungen im Zusammenhang mit einem oder mehreren Straßenabschnitten oder einer oder mehreren Kreuzungen der Straßenabschnitte umfassen. Das System kann eine Heads-Up-Display(HUD)-Komponente umfassen, die dazu eingerichtet ist, ein oder mehrere Grafikelemente auf eine oder mehrere Brennebenen um eine das Fahrzeug umgebende Umgebung herum zu projizieren. Die HUD-Komponente kann dazu eingerichtet sein, eines oder mehrere der Grafikelemente in ein Sichtfeld eines Insassen des Fahrzeugs auf Grundlage der Route zu projizieren. Das System kann eine Steuer-/Regelkomponente umfassen, die dazu eingerichtet ist, einen Abstand zwischen einer oder mehrerer der Brennebenen von einem oder mehreren der Grafikelemente und dem Fahrzeug auf Grundlage von einem oder mehreren Straßen-Zuständen im Zusammenhang mit einem oder mehreren Abschnitten der Straße und einer momentanen Position des Fahrzeugs anzupassen.
  • In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente dazu eingerichtet sein, eine Sollposition für eines oder mehrere der Grafikelemente auf Grundlage von einem oder mehreren der Straßen-Zustände und der momentanen Position des Fahrzeugs anzupassen. Das System kann eine Fahrzeug-Steuer-/Regelkomponente umfassen, die dazu eingerichtet ist, einen oder mehrere der Straßen-Zustände zu erhalten. Zusätzlich kann das System eine Sensor-Komponente umfassen, die dazu eingerichtet ist, einen oder mehrere der Straßen-Zustände zu detektieren. Ein Straßen-Zustand des einen oder der mehreren Straßen-Zustände kann Verkehrs-Informationen über einen oder mehrere der Straßenabschnitte oder Geschwindigkeitsbegrenzungs-Informationen im Zusammenhang mit einem oder mehreren der Straßenabschnitte umfassen. Zusätzlich können Straßen-Zustände beispielsweise eine Sperrung, ein Hindernis, einen Fußgänger, Unrat oder ein Schlagloch umfassen.
  • Das System kann eine Tiefenkarte-Komponente umfassen, die dazu eingerichtet ist, eine Tiefenkarte der das Fahrzeug umgebenden Umgebung zu erzeugen. Die HUD-Komponente kann dazu eingerichtet sein, eines oder mehrere der Grafikelemente auf Grundlage der Tiefenkarte der Umgebung zu projizieren. Die Tiefenkarte-Komponente kann dazu eingerichtet sein, die Tiefenkarte auf Grundlage von Tiefen-Informationen zu erzeugen. In einer oder mehreren Ausführungsformen kann das System eine Sensor-Komponente umfassen, die dazu eingerichtet ist, Tiefen-Informationen von der das Fahrzeug umgebenden Umgebung zu detektieren. Die Tiefenkarte-Komponente kann dazu eingerichtet sein, die Tiefenkarte auf Grundlage eines Telematik-Kanals zu erhalten. Das System kann eine Tiefenpuffer-Komponente umfassen, die dazu eingerichtet ist, ein Rendern von einem oder mehreren Abschnitten von einem oder mehreren der Grafikelemente auf Grundlage der Tiefenkarte zu aktivieren oder zu deaktivieren.
  • Die HUD-Komponente kann dazu eingerichtet sein, ein oder mehrere Grafikelemente als einen sich bewegenden Avatar oder als einen Platzhalter, wie beispielsweise einen Fahnenmast, eine Markierung, eine Identifizierung etc. zu projizieren.
  • Gemäß einem oder mehreren Aspekten ist ein Verfahren für 3-dimensionale (3-D) Navigation bereitgestellt, einschließlich eines Erzeugens einer Route von einer Ausgangsposition zu einer Zielposition für ein Fahrzeug. Ein oder mehrere Abschnitte der Route können eine oder mehrere Navigations-Anweisungen im Zusammenhang mit einem oder mehreren Straßenabschnitten oder einer oder mehreren Kreuzungen der Straßenabschnitte umfassen. Das Verfahren kann ein Projizieren von einem oder mehreren Grafikelementen auf eine oder mehrere Brennebenen um eine das Fahrzeug umgebende Umgebung umfassen. Eines oder mehrere der Grafikelemente können in einem Sichtfeld eines Insassen des Fahrzeugs auf Grundlage der Route projiziert werden. Das Verfahren kann ein Anpassen eines Abstands zwischen einer oder mehreren der Brennebenen von einem oder mehreren der Grafikelemente und dem Fahrzeug auf Grundlage von einem oder mehreren Straßen-Zuständen im Zusammenhang mit einem oder mehreren Abschnitten der Route und einer momentanen Position des Fahrzeugs umfassen. Ein oder mehrere Abschnitte des Verfahrens können mittels einer Prozessierungs-Einheit implementiert werden.
  • Das Verfahren kann ein Anpassen einer Sollposition für eines oder mehrere der Grafikelemente auf Grundlage von einem oder mehreren der Straßen-Zustände und der momentanen Position des Fahrzeugs umfassen. Das Verfahren kann ein Erhalten oder Detektieren von einem oder mehreren Straßen-Zuständen umfassen. Ein Straßen-Zustand des einen oder der mehreren Straßen-Zustände kann Verkehrs-Informationen über einen oder mehrere der Straßenabschnitte, Geschwindigkeitsbegrenzungs-Informationen im Zusammenhang mit einem oder mehreren der Straßenabschnitte, eine Sperrung, ein Hindernis, einen Fußgänger, Unrat oder ein Schlagloch umfassen.
  • Das Verfahren kann unter anderem ein Erzeugen einer Tiefenkarte der das Fahrzeug umgebenden Umgebung, ein Projizieren von einem oder mehreren der Grafikelemente auf Grundlage der Tiefenkarte der Umgebung, ein Detektieren von Tiefen-Informationen von der das Fahrzeug umgebenden Umgebung, ein Erzeugen der Tiefenkarte auf Grundlage der detektierten Tiefen-Informationen, ein Aktivieren oder Deaktivieren eines Renderns von einem oder mehreren Abschnitten von einem oder mehreren der Grafikelemente auf Grundlage der Tiefenkarte umfassen.
  • Gemäß einem oder mehreren Aspekten führt ein Computer-lesbares Speichermedium, umfassend Computer-ausführbare Anweisungen, die, wenn sie von einer Prozessierungs-Einheit ausgeführt werden, Tätigkeiten durch, einschließlich eines Erzeugens einer Route von einer Ausgangsposition zu einer Zielposition für ein Fahrzeug, wobei ein oder mehrere Abschnitte der Route eine oder mehrere Navigations-Anweisungen im Zusammenhang mit einem oder mehreren Straßenabschnitten oder einer oder mehreren Kreuzungen der Straßenabschnitte umfassen, einem Projizieren von einem oder mehreren Grafikelementen auf eine oder mehrere Brennebenen um eine das Fahrzeug umgebende Umgebung herum, wobei ein oder mehrere der Grafikelemente in ein Sichtfeld eines Insassen des Fahrzeugs auf Grundlage der Route projiziert werden, oder ein Abstand zwischen einer oder mehrerer der Brennebenen von einem oder mehreren der Grafikelemente und dem Fahrzeug auf Grundlage von einem oder mehreren Straßen-Zuständen im Zusammenhang mit einem oder mehreren Abschnitten der Route und einer momentanen Position des Fahrzeugs angepasst wird.
  • In einer oder mehreren Ausführungsformen werden beim Projizieren von einem oder mehreren der Grafikelemente Raster-basierte Grafiken verwendet. Zusätzlich können eine oder mehrere der Ausführungsformen ein Bereitstellen von einer oder mehreren Navigations-Anweisungen durch ein Projizieren eines oder mehrerer der Grafikelemente als ein sich bewegender Avatar oder durch ein Animieren des sich bewegenden Avatars durch sequentielles Projizieren des sich bewegenden Avatars auf eine oder mehrere verschiedene Brennebenen umfassen.
  • Gemäß einem oder mehreren Aspekten ist ein System für dreidimensionale(3-D)-Navigation bereitgestellt, umfassend eine Sensor-Komponente, eine Heads-Up-Display(HUD)-Komponente und eine Steuer-/Regelkomponente. Die Sensor-Komponente kann ein oder mehrere Objekte in einer Umgebung, die das Fahrzeug umgibt und einen oder mehrere entsprechende Koordinaten für entsprechende Objekte relativ zu dem Fahrzeug verfolgen. Die HUD-Komponente kann ein oder mehrere Grafikelemente auf eine oder mehrere Brennebenen entsprechend einem oder mehrerer der Objekte projizieren, rendern, präsentieren oder anzeigen, wobei eines oder mehrere der Grafikelemente in einem Sichtfeld eines Insassen des Fahrzeugs projiziert werden. Die Steuer-/Regelkomponente kann eine oder mehrere aktualisierte Brennebenen für eines oder mehrere der Grafikelemente auf Grundlage von einer oder mehrerer der Koordinaten für jeweilige Objekte berechnen.
  • In einer oder mehreren Ausführungsformen kann die HUD-Komponente eines oder mehrere der Grafikelemente auf eine oder mehrere der aktualisierten Brennebenen für eines oder mehrere der Objekte projizieren. Zusätzlich kann die HUD-Komponente ein Projizieren von einem oder mehreren der Grafikelement auf einer oder mehreren der Brennebenen auf ein Projizieren auf einer oder mehrerer der aktualisierten Brennebenen hin beenden. Eines oder mehrere der Grafikelemente können einen Zeiger umfassen, welcher Informationen im Zusammenhang mit einem oder mehreren der Objekte aufweist, auf die eines oder mehrere der Grafikelemente projiziert werden. Eines oder mehrere der Objekte können eine Sperrung, ein Hindernis, ein Fußgänger, eine Baustelle, eine Wegmarke, ein Gebäude, ein Geschäft oder ein Parkplatz sein.
  • Das System kann eine Fahrzeug-Steuer-/Regelkomponente umfassen, die eine Größe, eine Form, ein Modell, eine Farbe oder ein oder mehrere Attribute für eines oder mehrere der Grafikelemente bestimmt. Die Fahrzeug-Steuer-/Regelkomponente kann eine Überlappung zwischen einem oder mehreren der Grafikelemente verwalten. Das System kann eine Navigations-Komponente umfassen, die eine Route von einer Ausgangsposition zu einer Zielposition erzeugt, und eine Fahrzeug-Steuer-/Regelkomponente, die Informationen im Zusammenhang mit einem oder mehreren der Objekte entlang der Route erhält, wobei eines oder mehrere der Objekte Geschäfte sind. Die HUD-Komponente kann eines oder mehrere der Grafikelemente als ein Logo im Zusammenhang mit einem oder mehreren der Geschäfte projizieren. In einer oder mehreren Ausführungsformen kann die Sensor-Komponente eine Navigations-Komponente umfassen oder Telematik verwenden.
  • Gemäß einem oder mehreren Aspekten ist ein System für dreidimensionale (3-D) Navigation bereitgestellt, umfassend eine Navigations-Komponente, eine Steuer-/Regelkomponente und eine Heads-Up-Display(HUD)-Komponente. Die Navigations-Komponente kann Metadaten im Zusammenhang mit einem oder mehreren Objekten in einer Umgebung, die ein Fahrzeug umgibt, ein Layout für jeweilige Objekte innerhalb der Umgebung und eine momentane Position des Fahrzeugs relativ zu dem Layout erhalten. Die Steuer-/Regelkomponente kann eine oder mehrere Brennebenen für ein oder mehrere Grafikelemente auf Grundlage des Layouts von einem oder mehreren der Objekte und der momentanen Position des Fahrzeugs berechnen. Die HUD-Komponente kann eines oder mehrere der Grafikelemente auf einer oder mehreren der Brennebenen entsprechend einem oder mehreren der Objekte projizieren, rendern, präsentieren oder anzeigen, wobei eines oder mehrere der Grafikelemente in einem Sichtfeld eines Insassen des Fahrzeugs projiziert werden.
  • Eines oder mehrere der Grafikelemente kann einen Zeiger umfassen, der wenigstens einen Teil der Metadaten im Zusammenhang mit einem oder mehreren der Objekte präsentiert, auf das bzw. die eines oder mehrere der Grafikelemente projiziert wird bzw. werden. Die Metadaten können eine Telefonnummer, eine Adresse, eine Bewertung, einen Namen eines Geschäfts, Öffnungszeiten oder einen Status im Zusammenhang mit einem Objekt umfassen. Die HUD-Komponente kann eines oder mehrere der Grafikelemente auf Grundlage des Layouts von einem oder mehreren der Objekte und der momentanen Position des Fahrzeugs projizieren. Zusätzlich kann die HUD-Komponente von einem Projizieren eines Layout-Ansicht oder einer Vogelperspektiven-Ansicht zu einem Projizieren einer Erste-Person-Ansicht oder einer Dritte-Person-Ansicht übergehen.
  • Das System kann eine Sensor-Komponente umfassen, die eine Abfrage von dem Insassen im Zusammenhang mit einem oder mehreren der Objekte erhält, wobei die HUD-Komponente einen oder mehrere Abschnitte von entsprechenden Metadaten für eines oder mehrere der Objekte im Zusammenhang mit der Abfrage als Reaktion auf die Abfrage projiziert. Die Navigations-Komponente kann eine Route von einer Ausgangsposition zu einer Zielposition erzeugen, wobei die HUD-Komponente eines oder mehrere der Grafikelemente als einen Avatar rendert, der den Insassen entlang der Route führt. Die Steuer-/Regelkomponente kann einen Nickwinkel, Rollwinkel, Gierwinkel oder eine Geschwindigkeit für den Avatar (oder andere Grafikelemente) berechnen. Die HUD-Komponente kann eines oder mehrere der Grafikelemente als einen Straßennamen auf Grundlage der Metadaten und der momentanen Position des Fahrzeugs präsentieren, anzeigen oder rendern.
  • Gemäß einem oder mehreren Aspekten ist ein Verfahren für dreidimensionale(3-D)-Navigation bereitgestellt, umfassend ein Verfolgen von einem oder mehreren Objekten in einer Umgebung, die ein Fahrzeug umgebt, und ein Bestimmen von einer oder mehreren entsprechender Koordinaten für jeweilige Objekte relativ zu dem Fahrzeug, ein Berechnen von einer oder mehreren Brennebenen für ein oder mehrere Grafikelemente auf Grundlage von einer oder mehrerer der Koordinaten für jeweilige Objekte, und ein Rendern von einem oder mehreren der Grafikelemente auf einer oder mehreren der Brennebenen entsprechend einem oder mehreren der Objekte, wobei eines oder mehrere der Grafikelemente in einem Sichtfeld eines Insassen des Fahrzeugs projiziert werden. Das Verfolgen, das Berechnen oder das Rendern können mittels einer Prozessierungs-Einheit implementiert sein.
  • Wenngleich der Gegenstand in einer Sprache beschrieben worden ist, die spezifisch ist für strukturelle Merkmale oder methodische Vorgänge, sollte verstanden werden, dass der Gegenstand der beiliegenden Ansprüche nicht notwendigerweise auf die oben beschriebenen spezifischen Merkmale oder Vorgänge beschränkt ist. Vielmehr sind die spezifischen Merkmale und Vorgänge als beispielhafte Ausführungsformen beschrieben worden.
  • Verschiedene Betriebsformen von Ausführungsformen werden hierin bereitgestellt. Die Reihenfolge, in der eine oder mehrere oder alle der Betriebsformen beschrieben sind, sollte nicht so verstanden werden, dass diese Betriebsformen notwendigerweise Reihenfolge-abhängig sind. Alternative Anordnungen werden auf Grundlage dieser Beschreibung verstanden. Ferner müssen nicht notwendigerweise alle Betriebsformen in jeder hierin bereitgestellten Ausführungsform vorliegen.
  • Wie es in dieser Anmeldung verwendet wird, ist „oder” dazu vorgesehen, ein inklusives „oder” zu bezeichnen anstatt ein exklusives „oder”. Zusätzlich sind „ein” und „eine”, wie sie in dieser Anmeldung verwendet werden, grundsätzlich so gedacht, dass die „eine(s) oder mehrere” bezeichnen, es sei denn, dass sie anders lautend oder aus dem Kontext klar ersichtlich auf die Singularform gerichtet sind. Zusätzlich bedeutet wenigstens eines aus A und B oder/und ähnliches im Allgemeinen A oder B oder sowohl A als auch B. Ferner werde „einschließen”, „aufweisen”, „weist auf”, „mit” oder Variationen davon in der Beschreibung und den Ansprüchen derart verwendet, dass solche Begriffe in einer ähnlichen Weise wie der Begriff „umfassend” inklusive zu verstehen sind.
  • Ferner sind, sofern nicht anders dargestellt, „erstes”, „zweites” oder ähnliches nicht dazu gedacht, einen zeitlichen Aspekt, einen räumlichen Aspekt, eine Reihenfolge etc. zu bezeichnen. Vielmehr werden solche Begriffe lediglich als Identifikationen, Namen, etc. für Merkmale, Elemente, Gegenstände, etc. verwendet. Beispielsweise entsprechen ein erster Kanal und ein zweiter Kanal im Allgemeinen einem Kanal A und einem Kanal B oder zwei verschiedenen oder zwei identischen Kanälen oder dem selben Kanal.
  • Wenngleich diese Offenbarung bezüglich einer oder mehrerer Implementationen gezeigt und beschrieben worden ist, so werden äquivalente Änderungen und Modifikationen auf Grundlage eines Lesens und Verständnisses dieser Beschreibung und der beiliegenden Ansprüche auftreten. Die Offenbarung umfasst alle solche Modifikationen und Änderungen und ist nur durch den Umfang der folgenden Ansprüche eingeschränkt.
  • Eine oder mehrere Ausführungsformen von Techniken oder Systemen für dreidimensionale(3-D)-Navigation werden hierin bereitgestellt. Eine Heads-Up-Display(HUD)-Komponente kann Grafikelemente auf Brennebenen um eine Umgebung herum projizieren, rendern, anzeigen oder präsentieren, die ein Fahrzeug umgibt. Die HUD-Komponente kann diese Grafikelemente dazu veranlassen, volumetrisch oder dreidimensional zu erscheinen, indem ein Abstand zwischen einer Brennebene und dem Fahrzeug bewegt oder angepasst wird. Objekte innerhalb der Umgebung werden verfolgt, identifiziert, und entsprechende Grafikelemente können auf, in die Nähe von oder um jeweilige Objekte herum projiziert werden. Beispielsweise kann die HUD-Komponente Grafikelemente oder Zeiger auf Fußgänger derart projizieren, dass die den Fahrer oder Bediener des Fahrzeugs über ihre Anwesenheit alarmiert. Diese Zeiger können an dem Fußgänger „kleben”, wenn er oder sie innerhalb der Umgebung läuft. Metadaten im Zusammenhang mit Objekten können präsentiert werden, wie beispielsweise Adress-Informationen, Bewertungen, Telefonnummern, Logos, etc.

Claims (20)

  1. System für dreidimensionale (3-D) Navigation, umfassend: eine Sensor-Komponente, welche ein oder mehrere Objekte in einer Umgebung, welche ein Fahrzeug umgibt, und eine oder mehrere entsprechende Koordinaten für jeweilige Objekte relativ zu dem Fahrzeug verfolgt; eine Heads-Up-Display(HUD)-Komponente, welche ein oder mehrere Grafikelemente auf eine oder mehrere Brennebenen entsprechend einem oder mehreren der Objekte projiziert, wobei eines oder mehrere der Grafikelemente im Sichtfeld eines Insassen des Fahrzeugs projiziert werden; und eine Steuer-/Regelkomponente, welche eine oder mehrere aktualisierte Brennebenen für eines oder mehrere der Grafikelemente auf Grundlage von einer oder mehrerer der Koordinaten für jeweilige Objekte berechnet.
  2. System nach Anspruch 1, wobei die HUD-Komponente eines oder mehrere der Grafikelemente auf eine oder mehrere der aktualisierten Brennebenen für eines oder mehrere der Objekte projiziert.
  3. System nach Anspruch 2, wobei die HUD-Komponente das Projizieren von einem oder mehreren der Grafikelemente auf eine oder mehrere der Brennebenen auf ein Projizieren auf eine oder mehrere der aktualisierten Brennebenen hin beendet.
  4. System nach Anspruch 1, wobei eines oder mehrere der Grafikelemente einen Zeiger umfasst, welcher Informationen im Zusammenhang mit einem oder mehreren der Objekte aufweist, auf welches bzw. welche eines oder mehrere der Grafikelemente projiziert wird bzw. werden.
  5. System nach Anspruch 1, wobei eines oder mehrere der Objekte eine Sperrung, ein Hindernis, ein Fußgänger, eine Baustelle, eine Wegmarke, ein Gebäude, ein Geschäft oder ein Parkplatz ist.
  6. System nach Anspruch 1, umfassend eine Fahrzeug-Steuer-/Regelkomponente, welche eine Größe, eine Form, ein Modell, eine Farbe oder ein oder mehrere Attribute für eines oder mehrere der Grafikelemente bestimmt.
  7. System nach Anspruch 1, umfassend eine Fahrzeug-Steuer-/Regelkomponente, welche eine Überlappung zwischen zwei oder mehr der Grafikelemente verwaltet.
  8. System nach Anspruch 1, umfassend eine Navigations-Komponente, welche eine Route von einer Ausgangsposition zu einer Zielposition erzeugt.
  9. System nach Anspruch 8, umfassend eine Fahrzeug-Steuer-/Regelkomponente, welche Informationen im Zusammenhang mit einem oder mehreren der Objekte entlang der Route erhält, wobei eines oder mehrere der Objekte Geschäfte sind.
  10. System nach Anspruch 9, wobei die HUD-Komponente eines oder mehrere der Grafikelemente als ein Logo im Zusammenhang mit einem oder mehreren der Geschäfte projiziert.
  11. System für dreidimensionale (3-D) Navigation, umfassend: eine Navigations-Komponente, welche Metadaten im Zusammenhang mit einem oder mehreren Objekten in einer Umgebung, welche ein Fahrzeug umgibt, ein Layout für jeweilige Objekte innerhalb der Umgebung, und eine momentane Position des Fahrzeugs relativ zu dem Layout erhält; eine Steuer-/Regelkomponente, welche eine oder mehrere Brennebenen für ein oder mehrere Grafikelemente auf Grundlage des Layouts von einem oder mehreren der Objekte und der momentanen Position des Fahrzeugs berechnet; und eine Heads-Up-Display(HUD)-Komponente, welche eines oder mehrere der Grafikelemente auf eine oder mehrere der Brennebenen entsprechend einem oder mehreren der Objekte projiziert, wobei eines oder mehrere der Grafikelemente in einem Sichtfeld eines Insassen des Fahrzeugs projiziert werden.
  12. System nach Anspruch 11, wobei eines oder mehrere der Grafikelemente einen Zeiger umfasst, welcher wenigstens einen Teil der Metadaten im Zusammenhang mit einem oder mehreren der Objekte projiziert, auf welche eines oder mehrere der Grafikelemente projiziert werden.
  13. System nach Anspruch 11, wobei die Metadaten eine Telefonnummer, eine Adresse, eine Bewertung, einen Namen eines Geschäfts, Öffnungszeiten oder einen Status im Zusammenhang mit einem Objekt umfassen.
  14. System nach Anspruch 11, wobei die HUD-Komponente eines oder mehrere der Grafikelemente auf Grundlage des Layouts von einem oder mehreren der Objekte und der momentanen Position des Fahrzeugs projiziert.
  15. System nach Anspruch 14, wobei die HUD-Komponente von einem Projizieren einer Layout-Ansicht zu einem Projizieren einer Erste-Person-Ansicht oder einer Dritte-Person-Ansicht übergeht.
  16. System nach Anspruch 11, umfassend eine Sensor-Komponente, welche eine Abfrage von dem Insassen des Fahrzeugs im Zusammenhang mit einem oder mehreren der Objekte erhält, wobei die HUD-Komponente einen oder mehrere Teile von entsprechenden Metadaten für eines oder mehrere der Objekte im Zusammenhang mit der Abfrage als Antwort auf die Abfrage projiziert.
  17. System nach Anspruch 11, wobei die Navigations-Komponente eine Route von einer Ausgangsposition zu einer Zielposition erzeugt, wobei die HUD-Komponente eines oder mehrere der Grafikelemente als einen Avatar rendert, der den Insassen entlang der Route führt.
  18. System nach Anspruch 17, wobei die Steuer-/Regelkomponente einen Nickwinkel, Rollwinkel, Gierwinkel oder eine Geschwindigkeit für den Avatar berechnet.
  19. System nach Anspruch 11, wobei die HUD-Komponente eines oder mehrere der Grafikelemente als einen Straßennamen auf Grundlage der Metadaten und der momentanen Position des Fahrzeugs rendert.
  20. Verfahren für dreidimensionale (3-D) Navigation, umfassend: Verfolgen von einem oder mehreren Objekten in einer Umgebung, welche ein Fahrzeug umgibt, und Bestimmen von einer oder mehreren entsprechenden Koordinaten für jeweilige Objekte relativ zu dem Fahrzeug; Berechnen von einer oder mehreren Brennebenen für ein oder mehrere Grafikelemente auf Grundlage von einer oder mehreren der Koordinaten für jeweilige Objekte; und Rendern von einem oder mehreren der Grafikelemente auf eine oder mehrere der Brennebenen entsprechend einem oder mehreren der Objekte, wobei eines oder mehrere der Grafikelemente in einem Sichtfeld eines Insassen des Fahrzeugs projiziert werden, wobei das Verfolgen, das Berechnen oder das Rendern mittels einer Prozessierungs-Einheit implementiert wird.
DE102014219575.6A 2013-09-30 2014-09-26 Verbesserte 3-Dimensionale (3-D) Navigation Ceased DE102014219575A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US14/041,614 2013-09-30
US14/041,614 US20160054563A9 (en) 2013-03-14 2013-09-30 3-dimensional (3-d) navigation
US14/321,105 US20140362195A1 (en) 2013-03-15 2014-07-01 Enhanced 3-dimensional (3-d) navigation
US14/321,105 2014-07-01

Publications (1)

Publication Number Publication Date
DE102014219575A1 true DE102014219575A1 (de) 2015-07-23

Family

ID=52791193

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014219575.6A Ceased DE102014219575A1 (de) 2013-09-30 2014-09-26 Verbesserte 3-Dimensionale (3-D) Navigation

Country Status (3)

Country Link
JP (1) JP2015068831A (de)
CN (1) CN104515531B (de)
DE (1) DE102014219575A1 (de)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015214192A1 (de) * 2015-07-27 2017-02-02 Volkswagen Aktiengesellschaft Sicherheitssystem für ein Kraftfahrzeug
DE102016218006A1 (de) 2016-09-20 2018-03-22 Volkswagen Aktiengesellschaft Verfahren zur Darstellung eines Bildobjekts in einem Fahrzeug auf einer fahrzeugintern und einer fahrzeugextern wahrgenommenen Anzeige
DE102017210429A1 (de) 2017-06-21 2018-12-27 Bayerische Motoren Werke Aktiengesellschaft Verkehrsassistenzsystem mit sichtbarkeitsadaptiven und situationsabhängigen Eingriffsparametern
DE102017211521A1 (de) * 2017-07-06 2019-01-10 Bayerische Motoren Werke Aktiengesellschaft Steuerung von Fahrzeugfunktionen aus einer virtuellen Realität
CN109311423A (zh) * 2016-06-07 2019-02-05 爱信精机株式会社 驾驶辅助装置
DE102019000901A1 (de) 2019-02-07 2019-07-25 Daimler Ag Verfahren zur Anzeige von Navigationshinweisen in einem Head-up-Display eines Krafftfahrzeugs sowie Computerprogrammprodukt
WO2019166222A1 (de) * 2018-03-02 2019-09-06 Volkswagen Aktiengesellschaft Verfahren zur berechnung einer ar-einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
DE102018208700A1 (de) * 2018-06-01 2019-12-05 Volkswagen Aktiengesellschaft Konzept für die Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes
DE102019000401A1 (de) 2019-01-22 2020-07-23 Daimler Ag Verfahren zur Animation von Bewegungen in einem Fahrzeug
DE102019119056A1 (de) * 2019-07-15 2021-01-21 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Fortbewegungsmittel zum kontaktanalogen Darstellen eines virtuellen Insassen in einer Fahrgastzelle des Fortbewegungsmittels
DE102020102189A1 (de) 2020-01-29 2021-07-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Anzeigen einer Verkehrsinformation in einem Display eines Fortbewegungsmittels und ein solches Fortbewegungsmittel
EP3892960A1 (de) * 2020-04-11 2021-10-13 Harman Becker Automotive Systems GmbH Systeme und verfahren für erweiterte realität in einem fahrzeug
DE102018009150B4 (de) 2017-11-24 2022-02-03 Mazda Motor Corporation Fahrassistenzvorrichtung, verfahren des assistierens und computerprogrammprodukt
DE102019005891B4 (de) 2018-11-10 2022-08-04 Günter Fendt Projektionsvorrichtung als projektierendes Anzeigesystem mit variabler Projektionstiefe, Verfahren und Kraftfahrzeug mit einer derartigen Projektionsvorrichtung
US20230236659A1 (en) * 2022-01-25 2023-07-27 Ford Global Technologies, Llc Systems and Methods For Providing A Delivery Assistance Service Having An Augmented-Reality Digital Companion
US11993145B2 (en) 2018-03-15 2024-05-28 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium with instructions for controlling a display of an augmented reality display device for a motor vehicle

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112015006458B4 (de) * 2015-04-17 2019-05-23 Mitsubishi Electric Corporation Anzeigesteuervorrichtung, Anzeigesystem, Anzeigesteuerverfahren und Anzeigesteuerprogramm
EP3353763A1 (de) * 2015-09-25 2018-08-01 Apple Inc. Anzeigesystem für erweiterte realität
US9971470B2 (en) * 2015-09-30 2018-05-15 Apple Inc. Navigation application with novel declutter mode
US20170096144A1 (en) * 2015-10-05 2017-04-06 Ford Global Technologies, Llc System and Method for Inspecting Road Surfaces
CN105730237A (zh) * 2016-02-04 2016-07-06 京东方科技集团股份有限公司 一种行车辅助装置及行车辅助方法
JP6551263B2 (ja) 2016-03-02 2019-07-31 株式会社デンソー ヘッドアップディスプレイ装置
CN109073403A (zh) * 2016-05-17 2018-12-21 三菱电机株式会社 图像显示装置、图像显示方法和图像显示程序
CN106199965B (zh) 2016-07-15 2018-11-06 京东方科技集团股份有限公司 一种异形显示装置和系统
WO2018056058A1 (ja) * 2016-09-26 2018-03-29 富士フイルム株式会社 投写型表示装置、投写表示方法、及び、投写表示プログラム
CN106769085B (zh) * 2016-12-14 2023-10-13 特路(北京)科技有限公司 自动驾驶车辆避让动态障碍物能力的测试方法及测试场
US10169973B2 (en) 2017-03-08 2019-01-01 International Business Machines Corporation Discontinuing display of virtual content and providing alerts based on hazardous physical obstructions
JP6528797B2 (ja) * 2017-03-30 2019-06-12 トヨタ自動車株式会社 車載ミリ波通信装置および通信方法
US9904287B1 (en) * 2017-05-04 2018-02-27 Toyota Research Institute, Inc. Systems and methods for mitigating vigilance decrement while maintaining readiness using augmented reality in a vehicle
JP7113259B2 (ja) * 2017-06-30 2022-08-05 パナソニックIpマネジメント株式会社 表示システム、表示システムを備える情報提示システム、表示システムの制御方法、プログラム、及び表示システムを備える移動体
CN107272690B (zh) * 2017-07-07 2023-08-22 中国计量大学 基于双目立体视觉的惯性导引车导航方法及惯性导引车
US10691945B2 (en) 2017-07-14 2020-06-23 International Business Machines Corporation Altering virtual content based on the presence of hazardous physical obstructions
JP7019239B2 (ja) * 2017-08-02 2022-02-15 日産自動車株式会社 車両用表示方法及び車両用表示装置
JP6834861B2 (ja) * 2017-09-07 2021-02-24 トヨタ自動車株式会社 ヘッドアップディスプレイシステム
JP6543313B2 (ja) * 2017-10-02 2019-07-10 株式会社エイチアイ 移動体用画像生成記録表示装置及びプログラム
DE102017217923A1 (de) * 2017-10-09 2019-04-11 Audi Ag Verfahren zum Betrieb einer Anzeigeeinrichtung in einem Kraftfahrzeug
CN107678162A (zh) * 2017-10-25 2018-02-09 京东方科技集团股份有限公司 一种显示控制组件及其控制方法、平视显示系统、车辆
DE102017221488A1 (de) * 2017-11-30 2019-06-06 Volkswagen Aktiengesellschaft Verfahren zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
WO2019127224A1 (zh) * 2017-12-28 2019-07-04 深圳市大疆创新科技有限公司 调焦方法、装置及抬头显示设备
CN109064755B (zh) * 2018-07-24 2021-06-15 河北德冠隆电子科技有限公司 基于四维实景交通仿真路况感知管理系统的路径识别方法
CN110322527B (zh) * 2019-05-21 2021-04-20 华为技术有限公司 一种图案生成方法及终端
CN110213730B (zh) * 2019-05-22 2022-07-15 未来(北京)黑科技有限公司 通话连接的建立方法及装置、存储介质、电子装置
CN112208539A (zh) * 2019-07-09 2021-01-12 奥迪股份公司 用于自动驾驶车辆的系统、车辆、方法和介质
JP7261121B2 (ja) * 2019-08-15 2023-04-19 Kddi株式会社 情報端末装置及びプログラム
DE102019123778A1 (de) * 2019-09-05 2021-03-11 Valeo Schalter Und Sensoren Gmbh Darstellen einer Fahrzeugumgebung zum Bewegen des Fahrzeugs zu einer Zielposition
CN111210490B (zh) * 2020-01-06 2023-09-19 北京百度网讯科技有限公司 电子地图构建方法、装置、设备和介质
JP2022041168A (ja) * 2020-08-31 2022-03-11 パナソニックIpマネジメント株式会社 表示装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222583B1 (en) * 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
DE102006008981A1 (de) * 2006-02-23 2007-08-30 Siemens Ag Assistenzsystem zur Unterstützung eines Fahrers
KR20100070973A (ko) * 2008-12-18 2010-06-28 박호철 헤드업 디스플레이 내비게이션 장치, 시스템 및 서비스 구현방법
KR101768101B1 (ko) * 2009-10-30 2017-08-30 엘지전자 주식회사 정보 표시 장치 및 그 방법
US8514101B2 (en) * 2011-12-02 2013-08-20 GM Global Technology Operations LLC Driving maneuver assist on full windshield head-up display

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015214192A1 (de) * 2015-07-27 2017-02-02 Volkswagen Aktiengesellschaft Sicherheitssystem für ein Kraftfahrzeug
CN109311423A (zh) * 2016-06-07 2019-02-05 爱信精机株式会社 驾驶辅助装置
DE112017002852B4 (de) 2016-06-07 2024-05-02 Aisin Corporation Fahrerassistenzeinrichtung
DE102016218006A1 (de) 2016-09-20 2018-03-22 Volkswagen Aktiengesellschaft Verfahren zur Darstellung eines Bildobjekts in einem Fahrzeug auf einer fahrzeugintern und einer fahrzeugextern wahrgenommenen Anzeige
DE102017210429A1 (de) 2017-06-21 2018-12-27 Bayerische Motoren Werke Aktiengesellschaft Verkehrsassistenzsystem mit sichtbarkeitsadaptiven und situationsabhängigen Eingriffsparametern
DE102017211521A1 (de) * 2017-07-06 2019-01-10 Bayerische Motoren Werke Aktiengesellschaft Steuerung von Fahrzeugfunktionen aus einer virtuellen Realität
DE102018009150B4 (de) 2017-11-24 2022-02-03 Mazda Motor Corporation Fahrassistenzvorrichtung, verfahren des assistierens und computerprogrammprodukt
WO2019166222A1 (de) * 2018-03-02 2019-09-06 Volkswagen Aktiengesellschaft Verfahren zur berechnung einer ar-einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
US11904688B2 (en) 2018-03-02 2024-02-20 Volkswagen Aktiengesellschaft Method for calculating an AR-overlay of additional information for a display on a display unit, device for carrying out the method, as well as motor vehicle and computer program
US11993145B2 (en) 2018-03-15 2024-05-28 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium with instructions for controlling a display of an augmented reality display device for a motor vehicle
DE102018208700A1 (de) * 2018-06-01 2019-12-05 Volkswagen Aktiengesellschaft Konzept für die Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes
DE102019005891B4 (de) 2018-11-10 2022-08-04 Günter Fendt Projektionsvorrichtung als projektierendes Anzeigesystem mit variabler Projektionstiefe, Verfahren und Kraftfahrzeug mit einer derartigen Projektionsvorrichtung
DE102019000401A1 (de) 2019-01-22 2020-07-23 Daimler Ag Verfahren zur Animation von Bewegungen in einem Fahrzeug
DE102019000901A1 (de) 2019-02-07 2019-07-25 Daimler Ag Verfahren zur Anzeige von Navigationshinweisen in einem Head-up-Display eines Krafftfahrzeugs sowie Computerprogrammprodukt
DE102019119056A1 (de) * 2019-07-15 2021-01-21 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Fortbewegungsmittel zum kontaktanalogen Darstellen eines virtuellen Insassen in einer Fahrgastzelle des Fortbewegungsmittels
DE102020102189A1 (de) 2020-01-29 2021-07-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Anzeigen einer Verkehrsinformation in einem Display eines Fortbewegungsmittels und ein solches Fortbewegungsmittel
EP3892960A1 (de) * 2020-04-11 2021-10-13 Harman Becker Automotive Systems GmbH Systeme und verfahren für erweiterte realität in einem fahrzeug
US11555711B2 (en) 2020-04-11 2023-01-17 Harman Becker Automotive Systems Gmbh Systems and methods for augmented reality in a vehicle
US20230236659A1 (en) * 2022-01-25 2023-07-27 Ford Global Technologies, Llc Systems and Methods For Providing A Delivery Assistance Service Having An Augmented-Reality Digital Companion

Also Published As

Publication number Publication date
JP2015068831A (ja) 2015-04-13
CN104515531A (zh) 2015-04-15
CN104515531B (zh) 2019-08-09

Similar Documents

Publication Publication Date Title
DE102014219575A1 (de) Verbesserte 3-Dimensionale (3-D) Navigation
DE102014219567A1 (de) Dreidimensionale (3-d) navigation
US10215583B2 (en) Multi-level navigation monitoring and control
US20140362195A1 (en) Enhanced 3-dimensional (3-d) navigation
US9400385B2 (en) Volumetric heads-up display with dynamic focal plane
EP1916154B1 (de) Verfahren zur Informationsdarstellung
DE102012216623B4 (de) Verfahren zur dynamischen Informationsdarstellung auf einer Headup-Anzeige
EP1916153B1 (de) Verfahren zur Informationsdarstellung
DE112015004431B4 (de) Fahrzeuganzeigevorrichtung
EP2562039B1 (de) Verfahren und Vorrichtung zum Ändern einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
DE102011081396B4 (de) Verfahren und Steuergerät zum Anpassen einer Abstrahlcharakteristik zumindest eines Scheinwerfers
US9482540B2 (en) Navigation display method and system
JP7113259B2 (ja) 表示システム、表示システムを備える情報提示システム、表示システムの制御方法、プログラム、及び表示システムを備える移動体
US20140354692A1 (en) Volumetric heads-up display with dynamic focal plane
DE112018003314B4 (de) Anzeigesystem, Informationsdarstellungssystem, Verfahren zum Steuern eines Anzeigesystems, Programm und Aufzeichnungsmedium für ein Anzeigesystem und mobiler Körper
DE112018000786T5 (de) EINE VORRICHTUNG UND EIN VERFAHREN ZUM STEUERN EINER HEAD-UP-vvANZEIGE EINES FAHRZEUGS
DE102011121847A1 (de) Strassenzustandswarnung auf einer headup-anzeige für die volle windschutzscheibe
DE112019006171T5 (de) Anzeigesteuervorrichtung, Anzeigesteuerprogramm und nicht-transitorisches greifbares computerlesbares Speichermedium
DE102013016251A1 (de) Verfahren und Vorrichtung zur augmentierten Darstellung
DE102009020300A1 (de) Verfahren zur Darstellung von zumindest teilweise automatisch erkannter Umgebung eines Fahrzeugs auf der Anzeige einer Anzeigevorrichtung
JP6504431B2 (ja) 画像表示装置、移動体、画像表示方法及びプログラム
Sharfi et al. Enhancement of road delineation can reduce safety
US20210268961A1 (en) Display method, display device, and display system
EP3978294A1 (de) Betreiben einer head-up-displayeinrichtung bei ausserhalb eines sichtfelds positionierten einblendbaren objekten
DE102022127434A1 (de) Einparkhilfe in einem augmented-reality-head-up-display-system

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R163 Identified publications notified
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final