DE102014219575A1 - Improved 3-dimensional (3-D) navigation - Google Patents

Improved 3-dimensional (3-D) navigation Download PDF

Info

Publication number
DE102014219575A1
DE102014219575A1 DE102014219575.6A DE102014219575A DE102014219575A1 DE 102014219575 A1 DE102014219575 A1 DE 102014219575A1 DE 102014219575 A DE102014219575 A DE 102014219575A DE 102014219575 A1 DE102014219575 A1 DE 102014219575A1
Authority
DE
Germany
Prior art keywords
vehicle
component
hud
navigation
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102014219575.6A
Other languages
German (de)
Inventor
c/o Honda Patents & Tech Ng-Thow-Hing Victor
c/o Honda Patents & Tech. Bark Karlin
c/o Honda Patents & Tech. Tran Cuong
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/041,614 external-priority patent/US20160054563A9/en
Priority claimed from US14/321,105 external-priority patent/US20140362195A1/en
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE102014219575A1 publication Critical patent/DE102014219575A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/3676Overview of the route on the road map
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Instrument Panels (AREA)
  • Navigation (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)

Abstract

Eine oder mehrere Ausführungsformen von Techniken oder Systemen für dreidimensionale(3-D)-Navigation werden hierin bereitgestellt. Eine Heads-Up-Display(HUD)-Komponente kann Grafikelemente auf Brennebenen um eine Umgebung herum projizieren, rendern, anzeigen oder präsentieren, die ein Fahrzeug umgibt. Die HUD-Komponente kann diese Grafikelemente dazu veranlassen, volumetrisch oder dreidimensional zu erscheinen, indem ein Abstand zwischen einer Brennebene und dem Fahrzeug bewegt oder angepasst wird. Objekte innerhalb der Umgebung werden verfolgt, identifiziert, und entsprechende Grafikelemente können auf, in die Nähe von oder um jeweilige Objekte herum projiziert werden. Beispielsweise kann die HUD-Komponente Grafikelemente oder Zeiger auf Fußgänger derart projizieren, dass die den Fahrer oder Bediener des Fahrzeugs über ihre Anwesenheit alarmiert. Diese Zeiger können an dem Fußgänger „kleben”, wenn er oder sie innerhalb der Umgebung läuft. Metadaten im Zusammenhang mit Objekten können präsentiert werden, wie beispielsweise Adress-Informationen, Bewertungen, Telefonnummern, Logos, etc.One or more embodiments of three-dimensional (3-D) navigation techniques or systems are provided herein. A heads-up display (HUD) component can project, render, display or present graphic elements on focal planes around an environment surrounding a vehicle. The HUD component may cause these graphics to appear volumetric or three-dimensional by moving or adjusting a distance between a focal plane and the vehicle. Objects within the environment are tracked, identified, and corresponding graphics elements can be projected onto, near, or around respective objects. For example, the HUD component may project graphic elements or pointers to pedestrians to alert the driver or operator of the vehicle of their presence. These hands can "stick" to the pedestrian as he or she walks around. Metadata related to objects may be presented, such as address information, ratings, phone numbers, logos, etc.

Description

QUERVERWEIS AUF VERWANDTE ANMELDUNGENCROSS-REFERENCE TO RELATED APPLICATIONS

Diese Anmeldung beruht auf einer „continuation-in-part (CIP)” der anhängigen US Non-Provisional-Patentanmeldung Nr. 14/041,614 (Attorney Docket Nr. 107745.54CIP1) mit dem Titel „3-Dimensionale (3-D) Navigation”, die am 30. September 2013 eingereicht worden ist, die eine „continuation-in-part (CIP)” der anhängigen US Non-Provisional-Patentanmeldung Nr. 13/832,918 (Attorney Docket Nr. HRA-36332.01) mit dem Titel „Volumetrisches Heads-Up Display mit dynamischer Brennebene”, die am 15. März 2013 eingereicht worden ist. Die Gesamtheit der genannten Anmeldung sei hierin durch Verweis aufgenommen.This application is based on a "continuation-in-part (CIP)" of pending US Non-Provisional Patent Application No. 14 / 041,614 (Attorney Docket No. 107745.54CIP1) entitled "3-Dimensional (3-D) Navigation" filed Sep. 30, 2013, which is a continuation-in-part (CIP) of pending US Non-Provisional Patent Application No. 13 / 832,918 (Attorney Docket No. HRA-36332.01) entitled "Volumetric Dynamic focal plane heads-up display "filed March 15, 2013. The entirety of said application is incorporated herein by reference.

HINTERGRUNDBACKGROUND

Um den Komfort des Fahrers zu verbessern, kann ein Fahrzeug mit einem Heads-Up-Display (HUD) ausgestattet sein, das dem Fahrer Informationen anzeigt. Die von dem HUD angezeigten Informationen können auf die Windschutzscheibe des Fahrzeugs projiziert werden, um die Informationen im Sichtfeld des Fahrers darzustellen, während der Fahrer fährt. Indem die Informationen im Sichtfeld des Fahrers angezeigt werden, muss der Fahrer während der Fahrt nicht von der Windschutzscheibe wegschauen (z. B. in Richtung einer Instrumententafel an einem zentralen Armaturenbrett), um die dargestellten Informationen sehen zu können.To enhance driver comfort, a vehicle may be equipped with a heads-up display (HUD) that displays information to the driver. The information displayed by the HUD may be projected onto the windshield of the vehicle to display the information in the driver's field of vision while the driver is driving. By displaying the information in the field of vision of the driver, the driver does not have to look away from the windshield (eg toward an instrument panel on a central dashboard) while driving to see the information presented.

Das HUD kann Fahrzeug-Informationen darstellen, die typischerweise in dem zentralen Armaturenbrett des Fahrzeugs angezeigt werden, wie beispielsweise Informationen bezüglich der Geschwindigkeit des Fahrzeugs, des Kraftstoffstands, der Motortemperatur etc. Zusätzlich kann das HUD dem Fahrer Karten-Informationen und Kommunikations-Ereignisse (z. B. Navigations-Anweisungen, Fahr-Anweisungen, Warnungen, Alarme etc.) präsentieren. Das Fahrzeug-HUD kann dem Fahrer die Informationen auf eine ähnliche Weise anzeigen, wie sie vom Fahrzeug-Armaturenbrett verwendet wird, wie beispielsweise indem Messinstrumente und Textfelder angezeigt werden, die auf der Windschutzscheibe als grafische Elemente erscheinen. Zusätzlich kann das Fahrzeug-HUD Erweiterte-Realität-Grafikelemente (Augmented Reality) präsentieren, die eine physikalisches Umfeld, das das Fahrzeug umgibt, um Echtzeit-Informationen erweitert.The HUD may represent vehicle information typically displayed in the vehicle's central dashboard, such as information regarding the speed of the vehicle, fuel level, engine temperature, etc. In addition, the HUD may provide the driver with map information and communication events (e.g. B. navigation instructions, driving instructions, warnings, alarms, etc.) present. The vehicle HUD may display the information to the driver in a similar manner as used by the vehicle dashboard, such as displaying gauges and text boxes that appear on the windshield as graphical elements. In addition, the vehicle HUD may present augmented reality (augmented reality) graphics elements that augment a physical environment surrounding the vehicle with real-time information.

Jedoch sind existierende HUD-Vorrichtungen, die in Fahrzeugen verwendet werden, nicht in der Lage, Augmented-Reality-Grafikelemente mit konsistenter Raumtiefe zu präsentieren. Dementsprechend können Augmented-Reality-Grafikelemente, die von existierenden Fahrzeug-HUDs präsentiert werden, nur als oberflächliche Überlagerungen (Overlays) präsentiert werden.However, existing HUD devices used in vehicles are incapable of presenting augmented reality graphics elements with consistent depth of space. Accordingly, augmented reality graphics presented by existing vehicle HUDs can only be presented as superficial overlays.

KURZBESCHREIBUNGSUMMARY

Diese Kurzbeschreibung ist dazu vorgesehen, eine Auswahl von Konzepten in einer vereinfachten Form einzuführen, die später in der detaillierten Beschreibung beschrieben werden. Diese Kurzbeschreibung ist nicht dazu vorgesehen, ein erschöpfender Überblick des beanspruchten Gegenstands zu sein, Schlüsselfaktoren oder wesentliche Merkmale des beanspruchten Gegenstands zu identifizieren, oder dazu verwendet zu werden, den Schutzbereich des beanspruchten Gegenstands einzuschränken.This brief description is intended to introduce a selection of concepts in a simplified form, which will be described later in the detailed description. This summary is not intended to be an exhaustive review of the claimed subject matter, to identify key factors or essential features of the claimed subject matter, or to be used to limit the scope of the claimed subject matter.

Gemäß einem Aspekt umfasst eine Fahrzeug-Heads-Up-Display-Vorrichtung zum Anzeigen von Grafikelementen in einem Sichtfeld eines Fahrers eines Fahrzeugs einen ersten Projektor und einen ersten Aktuator. Der erste Projektor kann dazu eingerichtet sein, ein erstes Grafikelement auf eine erste Brennebene im Sichtfeld des Fahrers zu projizieren. Die erste Brennebene kann im Wesentlichen senkrecht zu der Sichtlinie des Fahrers orientiert sein und einem Abstand entfernt von dem Fahrzeug. Der erste Projektor kann an dem ersten Aktuator montiert sein. Der erste Aktuator kann dazu eingerichtet sein, den ersten Projektor linear zu bewegen. Das lineare Bewegen des erste Projektors kann die erste Brennebene des ersten Grafikelements dazu veranlassen, sich in einer Richtung der Sichtlinie des Fahrers zu bewegen.In one aspect, a vehicle head-up display device for displaying graphic elements in a field of view of a driver of a vehicle includes a first projector and a first actuator. The first projector may be configured to project a first graphic element onto a first focal plane in the driver's field of view. The first focal plane may be oriented substantially perpendicular to the line of sight of the driver and a distance away from the vehicle. The first projector may be mounted on the first actuator. The first actuator may be configured to linearly move the first projector. The linear movement of the first projector may cause the first focal plane of the first graphic element to move in a direction of the line of sight of the driver.

Gemäß einem weiteren Aspekt umfasst ein Fahrzeug-Heads-Up- Display-System eine Fahrzeug-Heads-Up-Display-Vorrichtung und eine Steuer-/Regelvorrichtung. Die Fahrzeug-Heads-Up-Display-Vorrichtung zeigt Grafikelemente im Sichtfeld eines Fahrers eines Fahrzeugs an und umfasst einen ersten Projektor und einen zweiten Projektor. Der erste Projektor kann dazu eingerichtet sein, ein erstes Grafikelement auf eine erste Brennebene im Sichtfeld des Fahrers zu projizieren. Die erste Brennebene kann im Wesentlichen senkrecht zu einer Sichtlinie des Fahrers orientiert sein. Der erste Projektor kann dazu eingerichtet sein, die erste Brennebene in einer Richtung der Sichtlinie des Fahrers zu bewegen. Der zweite Projektor kann dazu eingerichtet sein, ein zweites Grafikelement auf eine zweite Brennebene im Sichtfeld des Fahrers zu projizieren. Die zweite Brennebene kann statisch und im Wesentlichen parallel zu einer Untergrundfläche orientiert sein. Die Steuer-/Regelvorrichtung kann dazu eingerichtet sein, mit einem oder mehreren zugeordneten Fahrzeug-Steuer-/Regelsystemen zu kommunizieren und die Fahrzeug-Heads-Up-Display-Vorrichtung dazu zu steuern/regeln, die ersten und zweiten Grafikelemente auf Grundlage der Kommunikation mit einem oder mehreren der zugeordneten Fahrzeug-Steuer-/Regelsysteme anzuzeigen.In another aspect, a vehicle heads-up display system includes a vehicle heads-up display device and a controller. The vehicle heads-up display device displays graphic elements in the field of view of a driver of a vehicle and includes a first projector and a second projector. The first projector may be configured to project a first graphic element onto a first focal plane in the driver's field of view. The first focal plane may be oriented substantially perpendicular to a line of sight of the driver. The first projector may be configured to move the first focal plane in a direction of the driver's line of sight. The second projector may be configured to project a second graphic element onto a second focal plane in the driver's field of view. The second focal plane may be oriented statically and substantially parallel to a background surface. The controller may be configured to communicate with one or more associated vehicle control systems and to control the vehicle heads-up display device therefor based on the first and second graphical elements Communicate with one or more of the associated vehicle control systems.

Gemäß noch einem weiteren Aspekt umfasst ein Verfahren zum Präsentieren von Augmented-Reality-Grafikelementen in einem Fahrzeug-Heads-Up-Display ein Projizieren eines ersten Grafikelements auf eine erste Brennebene im Sichtfeld eines Fahrers und eines zweiten Grafikelements auf eine zweite Brennebene im Sichtfeld eines Fahrers. Die erste Brennebene kann im Wesentlichen senkrecht zu einer Sichtlinie des Fahrers orientiert sein, und die zweite Brennebene kann statisch und im Wesentlichen parallel zu einer Untergrundfläche orientiert sein. Das Verfahren kann ein Bewegen oder Anpassen der ersten Brennebene in einer Richtung der Sichtlinie des Fahrers umfassen.In yet another aspect, a method of presenting augmented reality graphics in a vehicle heads-up display comprises projecting a first graphics element onto a first focal plane in the field of vision of a driver and a second graphical element onto a second focal plane in the field of view of a driver , The first focal plane may be oriented substantially perpendicular to a line of sight of the driver, and the second focal plane may be oriented statically and substantially parallel to a background surface. The method may include moving or adjusting the first focal plane in a direction of the driver's line of sight.

Eine oder mehrere Ausführungsformen von Techniken oder Systemen für dreidimensionale (3-D) Navigation werden hierin bereitgestellt. Beispielsweise kann ein System zur 3-D-Navigation ein Grafikelement oder einen Avatar projizieren, das/der sich im Sichtfeld eines Insassen eines Fahrzeugs zu bewegen scheint. In einer oder mehreren Ausführungsformen kann eine Heads-Up-Display-Komponente (HUD-Komponente) dazu eingerichtet sein, das Grafikelement oder den Avatar auf eine oder mehrere Brennebenen in einem Umfeld zu projizieren, das ein Fahrzeug umgibt. In anderen Worten kann die HUD-Komponente Grafikelemente oder Avatare in einstellbaren Abständen oder auf einstellbaren Brennebenen projizieren, um einem Insassen eines Fahrzeugs den Eindruck zu geben, dass ein Avatar oder Grafikelement sich bewegt, fliegt, animiert ist, etc.One or more embodiments of three-dimensional (3-D) navigation techniques or systems are provided herein. For example, a 3-D navigation system may project a graphic element or avatar that appears to be moving in the field of view of an occupant of a vehicle. In one or more embodiments, a heads-up display component (HUD component) may be configured to project the graphic element or avatar onto one or more focal planes in an environment surrounding a vehicle. In other words, the HUD component may project graphics elements or avatars at adjustable distances or at adjustable focal planes to give an occupant of a vehicle the impression that an avatar or graphic element is moving, flying, animating, etc.

Als ein Beispiel kann die HUD-Komponente dazu eingerichtet sein, eine Bewegung für einen Avatar zu „animieren” oder bereitzustellen, indem der Avatar sequentiell auf eine oder mehrere verschiedene Brennebenen projiziert wird. Die Projektion auf diese Brennebenen kann erreicht werden, indem ein Aktuator verwendet wird, um beispielsweise einen Projektor der HUD-Komponente zu bewegen. Als Ergebnis hiervon werden Raumtiefen-Werte wie die Akkomodation und die Vergenz, die einem Grafikelement oder einem Avatar zugeordnet sind, im Allgemeinen beibehalten. Wann eine Route von einer ersten Position zu einer zweiten Position erzeugt wird, kann die HUD-Komponente ein oder mehrere Grafikelemente für einen Fahrer oder einen Insassen eines Fahrzeugs erzeugen, dem/denen er „folgen” kann. Da die HUD-Komponente auf mehrere Brennebenen projizieren kann oder projizierte Grafikelemente von einer Brennebene zu einer anderen bewegen kann, können Grafikelemente oder projizierte Bilder viel „echter” erscheinen, ähnlich einem Bild, das in einem Spiegel gesehen wird.As an example, the HUD component may be configured to "animate" or provide motion for an avatar by sequentially projecting the avatar onto one or more different focal planes. The projection onto these focal planes can be accomplished by using an actuator to, for example, move a projector of the HUD component. As a result, space depth values such as accommodation and vergence associated with a graphic element or an avatar are generally retained. When a route is generated from a first position to a second position, the HUD component may generate one or more graphic elements for a driver or occupant of a vehicle to "follow". Because the HUD component can project on multiple focal planes or move projected graphics from one focal plane to another, graphic elements or projected images may appear much "more real", similar to an image seen in a mirror.

Wenn ein Insasse eines Fahrzeugs nach einer Navigations-Führung verlangt, kann ein Grafikelement, wie beispielsweise ein Avatar, bereitgestellt werden. Der Avatar kann vor dem Fahrzeug scheinbar sich bewegen, gleiten, fliegen, etc., ähnlich dem, was beispielsweise ein Insasse oder Fahrer sehen würde, wenn er dem Fahrzeug eines Freundes folgen würde. Zusätzlich könnte der Avatar scheinbar um Behinderungen, Hindernisse, Fußgänger, Schutt, Schlaglöcher etc. herum navigieren, wie es ein echtes Fahrzeug auch tun würde. In einer oder mehreren Ausführungsformen könnte der Avatar gemäß dem Verkehr in Echtzeit „fahren”, sich bewegen, sich scheinbar bewegen etc. Beispielsweise kann der Avatar an Zugschienen anhalten, wenn eine Straße einen Fahrer oder ein Fahrzeug über die Zugschienen führt, wenn ein Zug die Straße kreuzt. Als ein weiteres Beispiel kann der Avatar die Spur derart wechseln, dass der Avatar scheinbar ein anderes Fahrzeug nicht „trifft” oder anderweitig in den Verkehr eingreift.When an occupant of a vehicle requests navigation guidance, a graphic element such as an avatar may be provided. The avatar may appear to be moving, gliding, flying, etc. in front of the vehicle, similar to what an occupant or driver would, for example, see following a friend's vehicle. In addition, the avatar may seemingly navigate around obstructions, obstacles, pedestrians, debris, potholes, etc., as a real vehicle would. In one or more embodiments, the avatar could "drive", move, seemingly move in real time according to traffic, etc. For example, the avatar may stop at train tracks when a road guides a driver or vehicle over the train tracks when a train is driving Road crosses. As another example, the avatar may change the lane so that the avatar does not seem to "hit" another vehicle or otherwise intervene in the traffic.

In einer oder mehreren Ausführungsformen kann eine Sensorkomponente ein oder mehrere Objekte oder Informationen im Zusammenhang mit der Umgebung verfolgen oder detektieren, in der sich das Fahrzeug bewegt. Diese Informationen könne an die Fahrzeug-Steuer-/Regelkomponente weitergegeben werden. Die Fahrzeug-Steuer-/Regelkomponente kann Informationen über die Umgebung um das Fahrzeug herum aus verschiedenen Quellen ansammeln, sammeln oder empfangen. Eine Steuerungs-/Regelungskomponente kann diese Informationen verwenden, um Entscheidungen zu fällen, bezüglich ob oder ob nicht ein Grafikelement an einer Position oder einer Brennebene zu projizieren ist, und bezüglich Attributen oder Modellen, die zu verwenden sind, wenn das Grafikelement gerendert wird. Eine HUD-Komponente kann das Grafikelement auf Grundlage der Entscheidung der Steuerungs-/Regelungskomponente rendern oder projizieren.In one or more embodiments, a sensor component may track or detect one or more objects or information related to the environment in which the vehicle is moving. This information may be passed to the vehicle control component. The vehicle control component may accumulate, collect, or receive information about the environment around the vehicle from various sources. A control component may use this information to make decisions as to whether or not to project a graphic element at a position or focal plane, and attributes or models to be used when rendering the graphic element. A HUD component can render or project the graphic element based on the decision of the control component.

Beispielsweise kann, wenn eine Sensorkomponente einen Fußgänger auf einem Fußgängerüberweg über einen Straßenabschnitt detektiert, der sich auf einer Route befindet, die ein Einbiegen des Fahrzeugs in diesen Straßenabschnitt umfasst, die Steuerungs-/Regelungskomponente die HUD-Komponente anweisen oder ihr befehlen, ein Grafikelement auf oder um den Fußgänger herum zu projizieren, um einen Fahrer oder Passagier des Fahrzeugs auf die Anwesenheit des Fußgängers aufmerksam zu machen. Ferner kann die Sensorkomponente aktiv den Fußgänger derart verfolgen, dass die HUD-Komponente Grafikelemente, wie beispielsweise Zeiger, projizieren kann, die dem Fußgänger in Echtzeit folgen oder ihn verfolgen, wenn er den Fußgängerüberweg überquert. Zusätzlich kann die Steuerungs-/Regelungskomponente es identifizieren oder erkennen, wenn der Fußgänger das Überqueren abgeschlossen hat oder einen Gehweg betritt, und der HUD-Komponente mitteilen, dass sie aufhören soll, Grafikelemente für den Fußgänger zu projizieren.For example, when a sensor component detects a pedestrian on a pedestrian crossing over a road section located on a route including turning the vehicle into this road section, the control component instructing or commanding the HUD component may include a graphic element or to project around the pedestrian to alert a driver or passenger of the vehicle to the presence of the pedestrian. Further, the sensor component may actively track the pedestrian such that the HUD component can project graphic elements, such as pointers, that follow or track the pedestrian in real time as he traverses the pedestrian crossing. In addition, the control component may identify or recognize when the pedestrian crosses or walk on a sidewalk and tell the HUD component to stop projecting graphic elements for the pedestrian.

Ein System zur 3-D-Navigation kann eine Identifizierung oder eine Projektion von Frühwarnungs-Grafikelementen erlauben. Beispielsweise können, wenn eine Fahrt von einem ersten Straßenabschnitt in einen zweiten Straßenabschnitt abbiegt (beispielsweise ein Abbiegen nach links oder ein Abbiegen nach rechts von einer Straße in eine andere), von der Fahrzeug-Steuer-/Regelkomponente empfangene Informationen, wie beispielsweise Umgebungs-Informationen oder Verkehrszustand-Informationen von der Steuerungs-/Regelungskomponente verwendet werden, um eine Bestimmung durchzuführen, dass ein Frühwarnungs-Grafikelement für einen Insassen oder Fahrer des Fahrzeugs gerendert werden sollte. Anders ausgedrückt kann die Steuer-/Regelkomponente die HUD-Komponente anweisen oder ihr befehlen, ein Grafikelement zu rendern, das auf ein Objekt zeigt (z. B. eine Gefährdung, einen Straßenzustand etc.), das nicht notwendigerweise im Sichtfeld des Fahrers sein muss. Hierbei kann, wenn er durch die Windschutzscheibe des Fahrzeugs schaut, der Fahrer beispielsweise eine Gefährdung zu seiner Linken nicht sehen. Jedoch kann die HUD-Komponente ein Grafikelement projizieren, das die Aufmerksamkeit des Fahrers in Richtung nach links lenkt (z. B. außerhalb der Windschutzscheibe oder außerhalb des Sichtfelds des Fahrers). Auf dieses Weise kann die Sicherheit erhöht werden, indem Fahrern oder Insassen eines Fahrzeugs frühzeitig ein Hinweis auf Objekte innerhalb einer Umgebung bereitgestellt wird.A 3-D navigation system may allow identification or projection of early warning graphics. For example, when driving from a first road section to a second road section (for example, turning left or turning right from one road to another), information received from the vehicle control component, such as environmental information, may be received or traffic condition information from the control component may be used to make a determination that an early warning graphic element should be rendered to an occupant or driver of the vehicle. In other words, the control component may instruct or instruct the HUD component to render a graphic element that points to an object (eg, a hazard, a road condition, etc.) that need not necessarily be in the driver's field of view , Hereby, when looking through the windshield of the vehicle, the driver may not see a danger to his left, for example. However, the HUD component may project a graphic element that directs the driver's attention to the left (eg, outside the windshield or out of the driver's field of vision). In this way, security can be increased by providing drivers or occupants of a vehicle with an early indication of objects within an environment.

Zusätzlich kann die HUD-Komponente Details projizieren oder rendern, die Objekte innerhalb der Umgebung betreffen, wie beispielsweise einen Namen eines Geschäfts, Adressmarkierungen, Zielmarkierungen, Park-Grafikelemente, Bewertungen etc.In addition, the HUD component can project or render details related to objects within the environment, such as a business name, address markers, destination markers, park graphics, ratings, etc.

Die folgende Beschreibung und angehängten Zeichnungen stellen illustrative Aspekte und Implementierungen dar. Diese zeigen nur einige der zahlreichen Möglichkeiten an, wie eine oder mehrere Aspekte umgesetzt werden können. Andere Aspekte, Vorteile oder neuartige Merkmale der Offenbarung werden aus der folgenden detaillierten Beschreibung deutlich, wenn sie in Zusammenschau mit den angehängten Zeichnungen betrachtet wird.The following description and appended drawings illustrate illustrative aspects and implementations. These show just a few of the many ways in which one or more aspects can be implemented. Other aspects, advantages, or novel features of the disclosure will become apparent from the following detailed description when considered in conjunction with the appended drawings.

KURZBESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS

Aspekte der Offenbarung werden aus der folgenden detaillierten Beschreibung verstanden, wenn diese zusammen mit den beiliegenden Zeichnungen gelesen wird. Elemente, Strukturen, etc. der Zeichnungen sind nicht notwendigerweise maßstabsgetreu gezeichnet. Dementsprechend können die Abmessungen derselben beliebig vergrößert oder verkleinert sein, beispielsweise für die Klarheit der Diskussion.Aspects of the disclosure will be understood from the following detailed description when read in conjunction with the accompanying drawings. Elements, structures, etc. of the drawings are not necessarily drawn to scale. Accordingly, the dimensions thereof may be arbitrarily increased or decreased, for example, for clarity of discussion.

1 ist eine Illustration eines beispielhaften schematischen Diagramms eines Fahrzeug-Heads-Up-Display-Systems, gemäß einer oder mehrerer Ausführungsformen. 1 FIG. 10 is an illustration of an exemplary schematic diagram of a vehicle head-up display system, according to one or more embodiments.

2 ist eine Illustration eines beispielhaften schematischen Diagramms eines Fahrzeugs, in ein Fahrzeug-Heads-Up-Display-System bereitgestellt ist, gemäß einer oder mehrerer Ausführungsformen. 2 FIG. 10 is an illustration of an exemplary schematic diagram of a vehicle provided in a vehicle heads-up display system, according to one or more embodiments. FIG.

3 ist eine Illustration einer beispielhaften Seitenansicht eines Fahrzeugs und von vier Brennebenen, auf die Grafikelemente von einem Fahrzeug-Heads-Up-Display-System projiziert werden, gemäß einer oder mehrerer Ausführungsformen. 3 13 is an illustration of an exemplary side view of a vehicle and four focal planes onto which graphic elements are projected from a vehicle heads-up display system, according to one or more embodiments.

4 ist eine Illustration eines beispielhaften Sichtfelds eines Fahrers, während er ein Fahrzeug fährt, wobei er durch eine Windschutzscheibe des Fahrzeugs schaut, und von beispielhaften Grafikelementen, die von einem Fahrzeug-Heads-Up-Display-System projiziert werden, gemäß einem oder mehrerer Ausführungsformen. 4 FIG. 10 is an illustration of an exemplary field of view of a driver while driving a vehicle while looking through a windshield of the vehicle and exemplary graphics projected by a vehicle heads-up display system, according to one or more embodiments.

5 ist eine Illustration eines beispielhaften Komponenten-Diagramms eines Systems zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 5 FIG. 3 is an illustration of an example component diagram of a 3-D navigation system according to one or more embodiments. FIG.

6 ist eine Illustration eines beispielhaften Flussdiagramms eines Verfahrens zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 6 FIG. 10 is an illustration of an exemplary flowchart of a method for 3-D navigation, according to one or more embodiments.

7A ist eine Illustration eines beispielhaften Avatars zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 7A FIG. 10 is an illustration of an exemplary avatar for 3D navigation in accordance with one or more embodiments.

7B ist eine Illustration eines beispielhaften Avatars zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 7B FIG. 10 is an illustration of an exemplary avatar for 3D navigation in accordance with one or more embodiments.

8A ist eine Illustration eines beispielhaften Avatars zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 8A FIG. 10 is an illustration of an exemplary avatar for 3D navigation in accordance with one or more embodiments.

8B ist eine Illustration eines beispielhaften Avatars zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 8B FIG. 10 is an illustration of an exemplary avatar for 3D navigation in accordance with one or more embodiments.

9A ist eine Illustration eines beispielhaften Avatars zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 9A FIG. 10 is an illustration of an exemplary avatar for 3D navigation in accordance with one or more embodiments.

9B ist eine Illustration eines beispielhaften Avatars zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 9B FIG. 10 is an illustration of an exemplary avatar for 3D navigation in accordance with one or more embodiments.

10A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 10A FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

10B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 10B FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

11A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 11A FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

11B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 11B FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

12A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 12A FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

12B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 12B FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

13A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 13A FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

13B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 13B FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

14A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 14A FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

14B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 14B FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

15 ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 15 FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

16A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 16A FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

16B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 16B FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

17A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 17A FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

17B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 17B FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

18A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 18A FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

18B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 18B FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

19A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 19A FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

19B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 19B FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

20A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 20A FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

20B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 20B FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG.

21 ist eine Illustration eines beispielhaften Flussdiagramms eines Verfahrens zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 21 FIG. 10 is an illustration of an exemplary flowchart of a method for 3-D navigation, according to one or more embodiments.

22 ist eine Illustration eines beispielhaften Computer-lesbaren Mediums oder einer Computer-lesbaren Vorrichtung, umfassend Prozessor-ausführbare Anweisungen, welche dazu eingerichtet sind, eine oder mehrere der hierin vorgestellten Maßnahmen auszuführen, gemäß einer oder mehrerer Ausführungsformen. 22 13 is an illustration of an exemplary computer-readable medium or computer-readable device comprising processor-executable instructions configured to perform one or more of the measures presented herein, according to one or more embodiments.

23 ist eine Illustration einer beispielhaften Computer-Umgebung, in der eine oder mehrere der hierin vorgestellten Maßnahmen implementiert sind, gemäß einer oder mehrerer Ausführungsformen. 23 FIG. 10 is an illustration of an example computer environment in which one or more of the measures presented herein are implemented, according to one or more embodiments.

Ausführungsformen oder Beispiele, die in den Zeichnungen illustriert sind, werden im Folgenden unter Verwendung spezifischer Sprache erläutert. Es sei dennoch festgehalten, dass die Ausführungsformen oder Beispiele nicht als einschränkend zu verstehen sind. Sämtliche Änderungen oder Modifikationen in den offenbarten Ausführungsformen und sämtliche weitere Anwendungen der in diesem Dokument offenbarten Prinzipien sind so zu verstehen, wie sie ein Fachmann auf dem einschlägigen Gebiet verstehen würde.Embodiments or examples illustrated in the drawings will be explained below using specific language. It should be understood, however, that the embodiments or examples are not to be construed as limiting. Any changes or modifications in the disclosed embodiments, and any other applications of the principles disclosed herein, are to be understood to those of ordinary skill in the art.

Für eine oder mehrere der hier gezeigten Figuren sind eine oder mehrere Begrenzungslinien, wie beispielsweise die Begrenzungslinie 116 in 2 oder die Begrenzungslinie 1030 in 10B mit verschiedenen Höhen, Breiten, Umrissen, Seitenverhältnissen, Formen etc. relativ zueinander lediglich aus illustrativen Gründen gezeichnet, und sind nicht notwendigerweise maßstabsgetreu gezeichnet. Beispielsweise wären, da gestrichelte oder gepunktete Linien verwendet werden, um verschiedene Begrenzungslinien zu repräsentieren, wenn die gepunkteten und gestrichelten Linien übereinander gezeichnet werden, sie in den Figuren nicht unterscheidbar, und somit sind sie in einer oder mehreren der Figuren mit verschiedenen Maßen oder leicht voneinander versetzt gezeichnet, so dass sie voneinander unterscheidbar sind. Als ein weiteres Beispiel muss, wo eine Begrenzungslinie einer unregelmäßigen Form etc. zugehörig ist, die Begrenzungslinie, wie beispielsweise eine Box in einem oder mehreren Beispielen nicht notwendigerweise eine gesamte Komponente umschließen. Andererseits umschließt eine gezeichnete Box nicht notwendigerweise nur eine zugehörige Komponente, sondern kann in einem oder mehreren Beispielen ebenfalls einen Abschnitt von einer oder mehreren weiteren Komponenten umschließen. For one or more of the figures shown here are one or more boundary lines, such as the boundary line 116 in 2 or the boundary line 1030 in 10B are drawn with different heights, widths, outlines, aspect ratios, shapes, etc. relative to each other for illustrative purposes only, and are not necessarily drawn to scale. For example, because dashed or dotted lines are used to represent different boundary lines when the dotted and dashed lines are drawn on top of each other, they would not be distinguishable in the figures, and thus they would be in one or more of the figures with different dimensions or slightly different offset drawn so that they are distinguishable from each other. As another example, where a boundary line is associated with an irregular shape, etc., the boundary line such as a box in one or more examples does not necessarily encompass an entire component. On the other hand, a drawn box does not necessarily encompass only an associated component but, in one or more examples, may also enclose a portion of one or more other components.

Grafikelemente, die visuell auf Umgebungs-Elemente in dem direkten Sichtfeld eines Fahrers durch ein Fahrzeug-HUD platziert sind, werden oft kontakt-analoge oder konformale Augmented-Reality-Grafikelemente genannt. Dem Fahrer eines Fahrzeugs erfolgreich kontakt-analoge Augmented-Reality-Grafikelemente zu präsentieren, kann von der Fähigkeit der Fahrzeug-HUD-Vorrichtung abhängen, Raumtiefen-Werte korrekt zu reproduzieren. Diese Raumtiefen-Werte können eine Akkomodation und eine Vergenz umfassen. Die Akkomodation ist ein Raumtiefen-Wert, in dem das Auge aktiv die optische Brechkraft ändert, um den Brennpunkt in verschiedenen Abständen einzustellen. Die Vergenz ist das gleichzeitige oder zusammenfallende Nach-innen-Drehen der Augen in Richtung zueinander, um ein einzelnes binokulares Bild zu erhalten, wenn ein Objekt betrachtet wird.Graphic elements that are visually placed on environmental elements in the driver's direct field of view through a vehicle HUD are often called contact analog or conformal augmented reality graphics elements. Presenting contact-analog augmented reality graphics to the driver of a vehicle successfully may depend on the ability of the vehicle HUD device to correctly reproduce room depth values. These spatial depth values may include accommodation and vergence. The accommodation is a room depth value in which the eye actively changes the optical power in order to set the focal point at different distances. Vergence is the simultaneous or coincidental inward rotation of the eyes toward one another to obtain a single binocular image when viewing an object.

Wenngleich sich hierin beschriebene Beispiele auf einen Fahrer eines Fahrzeugs beziehen können, so können Grafikelemente in dem Sichtfeld von einem oder mehreren Insassen eines Fahrzeugs, wie beispielsweise Passagieren etc. projiziert, bereitgestellt, gerendert etc. werden. Daher sind diese Beispiele nicht als einschränkend zu verstehen und sind lediglich offenbart, um einen oder mehrere beispielhafte Aspekte der vorliegenden Anmeldung zu illustrieren.While examples described herein may refer to a driver of a vehicle, graphic elements in the field of view may be projected, deployed, rendered, etc., by one or more occupants of a vehicle, such as passengers, etc. Therefore, these examples are not to be considered as limiting and are merely disclosed to illustrate one or more exemplary aspects of the present application.

Wenn eine HUD-Vorrichtung ein Grafikelement auf einer Windschutzscheibe eines Fahrzeugs anzeigt, kann die Akkomodation dazu führen, dass das menschliche Auge zwischen Umgebungs-Elementen und von der HUD-Vorrichtung angezeigten Elementen springt. Vergenz führt beim Auge dazu, dass Punkte hinter der Windschutzscheibe mit der Umgebung zusammenlaufen, was dazu führen kann, dass sich der Eindruck eines doppelten Bilds des auf der Windschutzscheibe angezeigten HUD-Grafikelements ergibt. Dementsprechend sollten, um kontakt-analoge Erweiterte-Realität-Grafikelemente mit korrekt reproduzierter Raumtiefe zu rendern, Grafikelemente in dem selben Raum wie die echte Umgebung gerendert werden (z. B. an entsprechenden Brennebenen), anstatt auf der Windschutzscheibe des Fahrzeugs.When an HUD device displays a graphic element on a windshield of a vehicle, the accommodation may cause the human eye to jump between environmental elements and elements displayed by the HUD device. Vergence causes the eye to cause points behind the windshield to converge with the environment, which can give the impression of a duplicate image of the HUD graphic element displayed on the windshield. Accordingly, to render contact analog augmented reality graphics elements with correctly reproduced depth of space, graphics elements should be rendered in the same space as the real environment (eg, at corresponding focal planes) rather than on the vehicle windshield.

Eine Heads-Up-Display-Vorrichtung für ein Fahrzeug zum Anzeigen von Grafikelementen im Sichtfeld eines Fahrers eines Fahrzeugs, während der Fahrer eine Umgebung durch eine Windschutzscheibe betrachtet, wird bereitgestellt. Die Heads-Up-Display-Vorrichtung kann einen oder mehrere Projektoren umfassen, die ein Grafikelement auf eine vordere Brennebene im Sichtfeld des Fahrers projizieren, während der Fahrer die Umgebung durch die Windschutzscheibe betrachtet, und einer oder mehrere Projektoren, die ein Grafikelement auf eine zum Untergrund parallele Brennebene im Sichtfeld des Fahrers projizieren, während der Fahrer die Umgebung durch die Windschutzscheibe betrachtet. Der Projektor, der das Grafikelement auf die vordere Brennebene projiziert, kann an einem Aktuator montiert sein, der den Projektor linear bewegt, um die vordere Brennebene dazu zu bringen, sich in einer Richtung einer Sichtlinie des Fahrers zu bewegen. Der Projektor, der die zum Untergrund parallele Brennebene projiziert, kann derart fest angeordnet sein, dass die zum Untergrund parallele Brennebene statisch ist.A head-up display device for a vehicle for displaying graphic elements in the field of view of a driver of a vehicle while the driver is looking at an environment through a windshield is provided. The heads-up display device may include one or more projectors projecting a graphic element onto a front focal plane in the field of view of the driver while the driver is viewing the environment through the windshield and one or more projectors placing a graphic element on the one Project the ground parallel focal plane in the field of view of the driver while the driver views the environment through the windshield. The projector that projects the graphic element to the front focal plane may be mounted on an actuator that linearly moves the projector to cause the front focal plane to move in a direction of a line of sight of the driver. The projector, which projects the focal plane parallel to the ground, can be arranged so firmly that the focal plane parallel to the ground is static.

Unter Bezugnahme auf 1 ist ein volumetrisches Heads-Up-Display-System 100 für ein Fahrzeug („HUD-System 100”) oder („HUD-Komponente 100”) illustriert, das in der Lage ist, volumetrische kontakt-analoge Augmented-Reality-Grafikelemente (z. B. 3-dimensionale oder „3-D”-Grafikelemente, die in den selben Raum gerendert werden wie die reale Umgebung) mit korrekt reproduzierten Raumtiefen-Werten zu rendern. Das HUD-System 100 umfasst eine Fahrzeug-Heads-Up-Display-Vorrichtung 102 („HUD-Vorrichtung 102”) und ein Steuer-/Regelelement 104 (oder „Steuer-/Regelkomponente 104”). Unter Bezugnahme auf 2 kann das HUD-System 100 in einem Fahrzeug 106 bereitgestellt sein, das einen Fahrersitz 108, ein Armaturenbrett-Gehäuse 110 und eine Windschutzscheibe 112 umfasst.With reference to 1 is a volumetric heads-up display system 100 for a vehicle ("HUD system 100 ") Or (" HUD component 100 "), Which is capable of correctly rendering volumetric contact-analogue augmented-reality graphics elements (eg, 3-dimensional or" 3-D "graphic elements rendered in the same space as the real environment) render reproduced room depth values. The HUD system 100 includes a vehicle heads-up display device 102 ( "HUD device 102 ") And a control element 104 (or "Control component 104 "). With reference to 2 can the HUD system 100 in a vehicle 106 be provided with a driver's seat 108 , a dashboard housing 110 and a windshield 112 includes.

Die Konfiguration des Fahrzeugs 106 bezüglich der relativen Positionierung beispielsweise des Fahrersitzes 108, des Armaturenbrett-Gehäuses 110 und der Windschutzscheibe 112 kann konventionell sein. Um das hierin beschriebene HUD-System 100 aufzunehmen, definiert das Armaturenbrett-Gehäuse 110 einen Gehäuseraum, in dem das HUD-System 100 beherbergt ist. Ferner weist das Armaturenbrett-Gehäuse 110 eine HUD-Ausgangsöffnung 114 auf, die durch eine obere Fläche davon definiert ist. Das HUD-System 100, das in dem Armaturenbrett-Gehäuse 110 beherbergt ist, projiziert Grafikelemente, wie beispielsweise kontakt-analoge Augmented-Reality-Grafikelemente durch die HUD-Ausgangsöffnung 114 auf die Windschutzscheibe 112, die als ein Anzeigebildschirm für das HUD-System 100 verwendet werden kann. Wie im Folgenden detailliert beschrieben, können die Augmented-Reality-Grafikelemente für den Fahrer so gerendert werden, als ob sie sich in dem selben Raum wie die reale Umgebung befänden.The configuration of the vehicle 106 regarding the relative positioning of, for example, the driver's seat 108 , the dashboard housing 110 and the windshield 112 can be conventional be. To the HUD system described herein 100 to record defines the dashboard housing 110 a housing space in which the HUD system 100 is housed. Furthermore, the dashboard housing 110 a HUD exit port 114 which is defined by an upper surface thereof. The HUD system 100 in the dashboard housing 110 graphic elements, such as contact analog augmented reality graphics, project through the HUD exit port 114 on the windshield 112 acting as a display screen for the HUD system 100 can be used. As described in detail below, the augmented reality graphic elements may be rendered to the driver as if they were in the same room as the real environment.

Ein Fahrer des Fahrzeugs 106 fährt das Fahrzeug 106, während er in dem Fahrersitz 108 sitzt. Dementsprechend kann der Fahrer von einer Position her auf eine Sitzposition in dem Fahrersitz 108 innerhalb des Fahrzeugs 106 eingeschränkt sein. Angesichts dieser Positions-Einschränkung kann das HUD-System 100 dazu ausgelegt sein, die Annahme zu verwenden, dass das Sichtfeld des Fahrers von einer Augenbox 116 innerhalb des Fahrzeugs ausgeht. Die Augenbox 116 kann derart angenommen werden, dass sie einen Bereich eines Innenraums des Fahrzeugs 106 umfasst, in dem sich die Augen des Fahrers befinden, während der Fahrer in dem Fahrersitz 108 sitzt.A driver of the vehicle 106 the vehicle drives 106 while in the driver's seat 108 sitting. Accordingly, the driver can move from one position to a sitting position in the driver's seat 108 inside the vehicle 106 to be disabled. Given this position constraint, the HUD system can 100 be adapted to use the assumption that the driver's field of vision of an eye box 116 inside the vehicle. The eye box 116 may be assumed to be a range of an interior of the vehicle 106 in which the driver's eyes are located while the driver is in the driver's seat 108 sitting.

Die Augenbox 116 kann eine derartige Größe aufweisen, dass sie alle möglichen Kopfpositionen des Fahrers ungeachtet einer Position und Stellung des Fahrersitzes 108 umschließt, oder das HUD-System 100 kann dazu eingerichtet sein, die Position und die Stellung des Fahrersitzes 108 zu detektieren und eine Position und Größe der Augenbox 116 auf Grundlage davon anzupassen. In einer oder mehreren Ausführungsformen kann das HUD-System 100 dazu ausgelegt sein, anzunehmen, dass die Augenbox 116 eine feste Größe aufweist und sich an einer festen Position befindet. Beispielsweise kann die Augenbox die folgenden Abmessungen aufweisen: 20 cm × 10 cm × 10 cm. In jedem Fall kann das HUD-System 100 dazu eingerichtet sein, die kontakt-analogen Augmented-Reality-Grafikelemente dem Fahrer zu präsentieren, wenn die Augen des Fahrers innerhalb der Augenbox 116 sind und der Fahrer in eine Richtung nach vorne durch die Windschutzscheibe 112 des Fahrzeugs 106 schaut/blickt. Wenngleich die Augenbox 116 in 2 für den Fahrerdes Fahrzeugs 106 illustriert ist, kann die Augenbox 116 so ausgeführt sein, dass sie einen oder mehrere weitere Insassen des Fahrzeugs umfasst. In einer oder mehreren Ausführungsformen können zusätzliche Augenboxen oder HUD-Vorrichtungen beispielsweise für Passagiere oder andere Insassen bereitgestellt sein.The eye box 116 may be sized to accommodate all possible head positions of the driver regardless of a position and position of the driver's seat 108 encloses, or the HUD system 100 may be adapted to the position and position of the driver's seat 108 to detect and a position and size of the eye box 116 to adjust based on it. In one or more embodiments, the HUD system 100 be designed to assume that the eye box 116 has a fixed size and is in a fixed position. For example, the eye box may have the following dimensions: 20 cm × 10 cm × 10 cm. In any case, the HUD system 100 be configured to present the contact-analog augmented reality graphics to the driver when the driver's eyes are within the eye box 116 are and the driver in a direction forward through the windshield 112 of the vehicle 106 looks / looks. Although the eye box 116 in 2 for the driver of the vehicle 106 illustrated, the eye box can 116 be designed so that it includes one or more other occupants of the vehicle. In one or more embodiments, additional eye boxes or HUD devices may be provided to passengers or other occupants, for example.

Die HUD-Vorrichtung 102 zeigt ein oder mehrere Grafikelemente in dem Sichtfeld des Fahrers des Fahrzeugs 106 an, während der Fahrer eine Umgebung durch die Windschutzscheibe 112 des Fahrzeugs 106 betrachtet. Jedes Grafik- oder Umgebungselement, das der Fahrer durch die Windschutzscheibe 112 sieht, während die Augen des Fahrers in der Augenbox 116 sind und der Fahrer in die Richtung nach vorne durch die Windschutzscheibe 112 blickt/schaut, kann als im Sichtfeld des Fahrers befindlich angesehen werden. So wie der Begriff hierin verwendet wird, ist vorgesehen, dass das Sichtfeld des Fahrers des Fahrzeugs 106, während der Fahrer eine Umgebung durch die Windschutzscheibe 112 des Fahrzeugs 106 betrachtet, einen Bereich einschließt, der durch die Windschutzscheibe 112 betrachtet wird, wobei Armaturenbrett-Anzeigen, die innerhalb des Fahrzeugs 106 liegen, ausgeschlossen sind. In anderen Worten präsentiert die HUD-Vorrichtung 102 die Grafikelemente derart, dass der Fahrer die Grafikelemente sehen kann, ohne dass er von der Straße wegblicken muss.The HUD device 102 shows one or more graphic elements in the field of vision of the driver of the vehicle 106 while the driver is driving through the windshield 112 of the vehicle 106 considered. Any graphic or environmental element that the driver through the windshield 112 looks while the driver's eyes in the eye box 116 are and the driver in the direction forward through the windshield 112 looks / looks, can be considered as being in the driver's field of vision. As the term is used herein, it is contemplated that the field of vision of the driver of the vehicle 106 while the driver has an environment through the windshield 112 of the vehicle 106 considered to include an area passing through the windshield 112 Considered being dashboard displays that are inside the vehicle 106 lie, are excluded. In other words, the HUD device presents 102 the graphic elements such that the driver can see the graphic elements without having to look away from the road.

Zurück unter Bezugnahme auf 1 umfasst die HUD-Vorrichtung 102 des HUD-Systems 100 einen ersten Projektor 118, einen zweiten Projektor 120, einen dritten Projektor 122 und einen vierten Projektor 124. Der erste Projektor 118 und der dritte Projektor 122 teilen sich einen ersten Strahlteiler 126 und eine erste Objektiv-Linse 128, während sich der zweite Projektor 120 und der vierte Projektor 124 einen zweiten Strahlteiler 130 und eine zweite Objektiv-Linse 132 teilen. Folglich können die Ausgabe des ersten Projektors 118 und des dritten Projektors 122 in dem ersten Strahlteiler 126 erhalten werden und zu einer einzelnen Ausgabe kombiniert werden, die auf (und durch) die erste Objektiv-Linse 128 gerichtet ist. Ähnlich können die Ausgabe des zweiten Projektors 120 und des vierten Projektors 124 in dem zweiten Strahlteiler 130 erhalten werden und zu einer einzelnen Ausgabe kombiniert werden, die auf (und durch) die zweite Objektiv-Linse 132 gerichtet ist.Back referring to 1 includes the HUD device 102 of the HUD system 100 a first projector 118 , a second projector 120 , a third projector 122 and a fourth projector 124 , The first projector 118 and the third projector 122 share a first beam splitter 126 and a first lens lens 128 while the second projector 120 and the fourth projector 124 a second beam splitter 130 and a second lens lens 132 share. Consequently, the output of the first projector 118 and the third projector 122 in the first beam splitter 126 can be obtained and combined into a single output on (and through) the first lens lens 128 is directed. Similarly, the output of the second projector 120 and the fourth projector 124 in the second beam splitter 130 can be obtained and combined into a single output on (and through) the second lens lens 132 is directed.

Die HUD-Vorrichtung 102 umfasst ferner einen dritten Strahlteiler 134, der stromabwärts von der ersten und der zweiten Objektiv-Linse 128, 132 angeordnet und dazu eingerichtet ist, die Ausgabe von der ersten und der zweiten Objektiv-Linse 128, 132 zu erhalten. Die Ausgaben der ersten und der zweiten Objektiv-Linse 128, 132 können bei dem dritten Strahlteiler 134 zu einer einzelnen Ausgabe kombiniert werden, die eine Kombination der Ausgabe von jedem aus dem ersten, zweiten, dritten und vierten Projektor 118, 120, 122, 124 sein kann und auf (und durch) eine dritte Objektiv-Linse 136 und eine Okular-Linse 138 gerichtet sein kann, bevor sie aus der HUD-Ausgangsöffnung 114 heraus auf die Windschutzscheibe 112 gerichtet wird, die als der Anzeigebildschirm für das HUD-System 100 verwendet werden kann.The HUD device 102 further comprises a third beam splitter 134 , which is downstream from the first and second lens lenses 128 . 132 is arranged and adapted to the output from the first and the second lens lens 128 . 132 to obtain. The outputs of the first and second lens lenses 128 . 132 can at the third beam splitter 134 combined into a single output, which is a combination of the output of each of the first, second, third and fourth projectors 118 . 120 . 122 . 124 can be and on (and through) a third lens lens 136 and an eyepiece lens 138 may be directed before leaving the HUD exit port 114 out on the windshield 112 which serves as the display screen for the HUD system 100 can be used.

Jeder aus dem ersten Projektor 118, dem zweiten Projektor 120, dem dritten Projektor 122 und dem vierten Projektor 124 umfasst eine Projektoreinheit 140, 142, 144, 146 und eine Diffusorscheibe 148, 150, 152, 154, die fest in einem bestimmten Abstand von der Projektoreinheit 140, 142, 144, 146 befestigt und relativ zu der Projektoreinheit 140, 142, 144, 146 derart angeordnet sind, dass das von der Projektoreinheit 140, 142, 144, 146 ausgestrahlte Licht durch die Diffusorscheibe 148, 150, 152, 154 läuft. Die Projektoreinheiten 140, 142, 144, 146 können lichtemittierende Einheiten sein, die ein Bild oder Grafikelement projizieren, das durch die zugeordnete Diffusorscheibe 148, 150, 152, 154 läuft. Die Diffusorscheiben 148, 150, 152, 154 dienen als leuchtende Bildquelle (oder Objekt) für den Rest des optischen Systems der HUD-Vorrichtung 102 und stellen sicher, dass ein großer Teil des Lichts, das die Diffusorscheiben 148, 150, 152, 154 verlässt, auf die den Diffusorscheiben 148, 150, 152, 154 folgenden optischen Elemente fällt (z. B. den ersten Strahlteiler 126, die erste Objektiv-Linse 128, den zweiten Strahlteiler 130, die zweite Objektiv-Linse 132, den dritten Strahlteiler 134, die dritte Objektiv-Linse 136 und die Okular-Linse 138), während das Licht derart ausgestreut wird, dass es letztlich die Augenbox 116 derart ausfüllt, dass eine Helligkeit des Bilds oder des Grafikelements beziehungsweise der Grafikelemente konstant bleibt, wenn sich der Kopf des Fahrers innerhalb der Augenbox 116 bewegt. Dementsprechend verhindert die Verwendung der Diffusorscheiben 148, 150, 152, 154 im Wesentlichen, dass verschiedene Teile des Bilds oder des Grafikelements beziehungsweise der Grafikelemente von verschiedenen Punkten innerhalb der Augenbox 116 sichtbar sind, und verhindert somit im Wesentlichen das Auftreten von verschiedenem visuellen Verhalten bei leichten Kopfbewegungen. Everyone from the first projector 118 , the second projector 120 , the third projector 122 and the fourth projector 124 includes a projector unit 140 . 142 . 144 . 146 and a diffuser disk 148 . 150 . 152 . 154 fixed at a certain distance from the projector unit 140 . 142 . 144 . 146 attached and relative to the projector unit 140 . 142 . 144 . 146 are arranged such that of the projector unit 140 . 142 . 144 . 146 emitted light through the diffuser disc 148 . 150 . 152 . 154 running. The projector units 140 . 142 . 144 . 146 may be light-emitting units that project an image or graphic element through the associated diffuser disk 148 . 150 . 152 . 154 running. The diffuser discs 148 . 150 . 152 . 154 serve as a luminous image source (or object) for the rest of the optical system of the HUD device 102 and make sure that a lot of the light that the diffuser discs 148 . 150 . 152 . 154 leaves on the diffuser discs 148 . 150 . 152 . 154 following optical elements (eg the first beam splitter 126 , the first lens lens 128 , the second beam splitter 130 , the second lens lens 132 , the third beam splitter 134 , the third lens lens 136 and the eyepiece lens 138 ), while the light is scattered in such a way that it is ultimately the eye box 116 fills so that a brightness of the image or of the graphic element or the graphic elements remains constant when the driver's head within the eye box 116 emotional. Accordingly, the use of the diffuser discs prevents 148 . 150 . 152 . 154 essentially, that different parts of the image or graphic element (s) from different points within the eye box 116 are visible, thus substantially preventing the appearance of various visual behaviors in light head movements.

Die Projektoreinheiten 140, 142, 144, 146 können die Form jeder für die hierin beschriebene Verwendung geeigneten lichtemittierenden Einheit annehmen. Die Projektoreinheiten 140, 142, 144, 146 können die Form jeder lichtemittierenden Einheit annehmen, die in der Lage ist, ein Bild oder Grafikelement gemäß der hierin beschriebenen Verwendung beziehungsweise den hierin beschriebenen Verwendungen zu projizieren. Ähnlich können die Diffusorscheiben 148, 150, 152, 154 die Form jeder lichtstreuenden Scheibe annehmen, die für die hierin beschriebene Verwendung beziehungsweise die hierin beschriebenen Verwendungen geeignet ist.The projector units 140 . 142 . 144 . 146 may take the form of any suitable light-emitting unit for the use described herein. The projector units 140 . 142 . 144 . 146 may take the form of any light-emitting unit capable of projecting an image or graphic element according to the use described herein or the uses described herein. Similarly, the diffuser discs 148 . 150 . 152 . 154 take the form of any light-diffusing disc suitable for the use described herein or the uses described herein.

Der erste Projektor 118 kann an einem ersten Aktuator 156 in der HUD-Vorrichtung 102 montiert sein. Der erste Aktuator 156 kann ein linearer Aktuator sein, der in der Lage ist, den ersten Projektor 118 in einer linearen Richtung auf den ersten Strahlteiler 126 zu und von ihm weg zu bewegen. Zusätzlich kann der dritte Projektor 122 an einem zweiten Aktuator 158 in der HUD-Vorrichtung 102 montiert sein. Der zweite Aktuator 158 kann ein linearer Aktuator sein, der in der Lage ist, den dritten Projektor 122 in einer linearen Richtung auf den ersten Strahlteiler 126 zu oder von ihm weg zu bewegen. Der erste und der zweite Aktuator 156, 158 können die Form von jedem linearen Aktuator annehmen, der für die hierin beschriebene Verwendung geeignet ist. Die Fähigkeit des ersten Projektors 118 und des dritten Projektors 122, sich linear zu bewegen, erlaubt es dem ersten Projektor 118 und dem dritten Projektor 122, grafische Elemente auf dynamische oder bewegbare Brennebenen zu projizieren. Im Gegensatz zu dem ersten und dem dritten Projektor 118, 122 können der zweite und der vierte Projektor 120, 124 fest in der HUD-Vorrichtung 102 angeordnet sein und somit Grafikelemente auf statische Brennebenen projizieren.The first projector 118 can be on a first actuator 156 in the HUD device 102 be mounted. The first actuator 156 may be a linear actuator that is capable of the first projector 118 in a linear direction to the first beam splitter 126 to move to and from him. In addition, the third projector 122 on a second actuator 158 in the HUD device 102 be mounted. The second actuator 158 may be a linear actuator capable of the third projector 122 in a linear direction to the first beam splitter 126 to move to or from him. The first and the second actuator 156 . 158 may take the form of any linear actuator suitable for the use described herein. The ability of the first projector 118 and the third projector 122 to move linearly allows the first projector 118 and the third projector 122 to project graphic elements onto dynamic or movable focal planes. Unlike the first and the third projector 118 . 122 can the second and the fourth projector 120 . 124 stuck in the HUD device 102 be arranged and thus project graphic elements on static focal planes.

Durch Verwendung des ersten, zweiten, dritten und vierten Projektors 118, 120, 122, 124 kann die HUD-Vorrichtung 102 Grafikelemente (kontakt-analoge Augmented-Reality-Grafikelemente oder ähnliches) in vier bestimmten Brennebenen in dem von dem Fahrer durch die Windschutzscheibe 112 betrachteten Umfeld rendern. In dieser Hinsicht kann der erste Projektor 118 dazu eingerichtet sein, ein erstes Grafikelement 160 in eine erste Brennebene 162 zu projizieren, der zweite Projektor 120 kann dazu eingerichtet sein, ein zweites Grafikelement 164 in eine zweite Brennebene 166 zu projizieren, der dritte Projektor 122 kann dazu eingerichtet sein, ein drittes Grafikelement 168 in eine dritte Brennebene 170 zu projizieren, und der vierte Projektor 124 kann dazu eingerichtet sein, ein viertes Grafikelement 172 in eine vierte Brennebene 174 zu projizieren (wie es unter Bezugnahme auf 3 und 4 beschrieben werden wird). Alle aus dem ersten, zweiten, dritten und vierten Grafikelement 160, 164, 168, 172 und ihre zugeordnete erste, zweite, dritte und vierte Brennebene 162, 166, 170, 174 können in der Umgebung im Sichtfeld des Fahrers gerendert werden, wenn der Fahrer das Fahrzeug 106 fährt und die Augen des Fahrers in der Augenbox 116 sind, während der Fahrer in eine Richtung nach vorne durch die Windschutzscheibe 112 schaut.By using the first, second, third and fourth projectors 118 . 120 . 122 . 124 can the HUD device 102 Graphic elements (contact-analog augmented reality graphics or the like) in four specific focal planes in the driver's by the windshield 112 render the environment in question. In this regard, the first projector 118 be set up to a first graphic element 160 in a first focal plane 162 to project the second projector 120 can be set up a second graphic element 164 in a second focal plane 166 to project the third projector 122 can be set up a third graphic element 168 in a third focal plane 170 to project, and the fourth projector 124 can be set up a fourth graphic element 172 in a fourth focal plane 174 to project (as with reference to 3 and 4 will be described). All of the first, second, third and fourth graphic elements 160 . 164 . 168 . 172 and its associated first, second, third and fourth focal planes 162 . 166 . 170 . 174 can be rendered in the environment in the driver's field of vision when the driver is driving the vehicle 106 drives and the eyes of the driver in the eye box 116 are while the driver is in a forward direction through the windshield 112 looks.

Unter Bezugnahme auf 3 und 4 werden die Projektion des ersten, zweiten, dritten und vierten Grafikelements 160, 164, 168, 172 auf die erste, zweite, dritte und vierte Brennebene 162, 166, 170, 174 unter Bezugnahme auf eine Untergrundfläche 176 und eine Sichtlinie 178 des Fahrers beschrieben. In dieser Hinsicht ist die Untergrundfläche 176 eine Oberfläche einer Straße vor dem Fahrzeug 106. Zum Zweck der vorliegenden Beschreibung wird davon ausgegangen, dass die Untergrundfläche 176 eine im Wesentlichen ebene Fläche ist. Die Sichtlinie 178 des Fahrers ist eine Linie, die sich im Wesentlichen parallel zu der Untergrundfläche 176 von der Augenbox 116 in die Vorwärts-Richtung erstreckt. Wie der Begriff hierin verwendet wird, ist eine Richtung der Sichtlinie 178 eine Richtung, die sich in Richtung des Fahrers und des Fahrzeugs 106 und von ihnen weg entlang der Sichtlinie 178 erstreckt.With reference to 3 and 4 become the projection of the first, second, third and fourth graphic elements 160 . 164 . 168 . 172 on the first, second, third and fourth focal plane 162 . 166 . 170 . 174 with reference to a background surface 176 and a line of sight 178 described by the driver. In this regard, the underground area 176 a surface of a road in front of the vehicle 106 , For the purposes of the present description it is assumed that the background surface 176 is a substantially flat surface. The line of sight 178 The driver's line is essentially parallel to the ground surface 176 from the eye box 116 extends in the forward direction. As the term is used herein, a direction is the line of sight 178 a direction that is towards the driver and the vehicle 106 and away from them along the line of sight 178 extends.

Die erste Brennebene 162 ist eine frontale Brennebene, die im Wesentlichen senkrecht zu der Sichtlinie 178 des Fahrers orientiert sein kann. Die dritte Brennebene 170 ist ebenfalls eine frontale Brennebene, die im Wesentlichen senkrecht zu der Sichtlinie 178 des Fahrers orientiert sein kann. Die erste und die dritte Brennebene 162, 170 können dynamische Brennebenen sein, die in der Richtung der Sichtlinie 178 bewegbar sind, sowohl in der Vorwärts-Richtung (weg von dem Fahrzeug 106) als auch in eine Rückwärts-Richtung (auf das Fahrzeug 106 zu). Die zweite Brennebene 166 ist eine zum Untergrund parallele Brennebene, die im Wesentlichen parallel zu der Untergrundfläche 176 orientiert sein kann, und sie kann derart auf der Untergrundfläche 176 angeordnet sein, dass die zweite Brennebene 166 eine Grund-Brennebene ist. Die vierte Brennebene 174 ist ebenfalls eine zum Untergrund parallele Brennebene, die im Wesentlichen parallel zu der Untergrundfläche 176 orientiert sein kann, und sie ist oberhalb der Untergrundfläche 176 angeordnet. Die vierte Brennebene 174 kann oberhalb der Untergrundfläche 176 und der Sichtlinie 178 des Fahrers angeordnet sein und eine Himmel- oder Decken-Brennebene sein. Folglich können die zweite und die vierte Brennebene 166, 174 statische Brennebenen sein.The first focal plane 162 is a frontal focal plane that is substantially perpendicular to the line of sight 178 the driver can be oriented. The third focal plane 170 is also a frontal focal plane that is substantially perpendicular to the line of sight 178 the driver can be oriented. The first and the third focal plane 162 . 170 can be dynamic focal planes that are in the direction of the line of sight 178 are movable, both in the forward direction (away from the vehicle 106 ) as well as in a reverse direction (on the vehicle 106 to). The second focal plane 166 is a focal plane parallel to the ground, which is substantially parallel to the ground surface 176 can be oriented, and she can do so on the underground surface 176 be arranged that the second focal plane 166 a basic focal plane is. The fourth focal plane 174 is also a focal plane parallel to the ground, which is substantially parallel to the ground surface 176 can be oriented, and it is above the ground surface 176 arranged. The fourth focal plane 174 can be above the background surface 176 and the line of sight 178 be arranged by the driver and be a sky or ceiling focal plane. Consequently, the second and fourth focal planes can 166 . 174 be static focal planes.

Unter Bezugnahme auf 4 können das erste, zweite, dritte und vierte Grafikelement 160, 164, 168, 172 dazu verwendet werden, dem Fahrer verschiedene Informationen zu präsentieren. Der exakte Typ der von dem ersten, zweiten, dritten und vierten Grafikelement 160, 164, 168, 172 angezeigten Information kann variieren. Beispielsweise können das erste Grafikelement 160 und das dritte Grafikelement 168 dem Fahrer eine Warnung präsentieren, die den Fahrer anweisen, auf eine Gefahr oder ein Hindernis zu reagieren, oder sie können Navigations-Anweisungen oder Fahr-Anweisungen, die mit den Regeln der Straße zusammenhängen (z. B. ein Stop-Schild, ein Vorfahrt-Schild etc.), präsentieren. Das zweite Grafikelement 164 und das vierte Grafikelement 172 können dem Fahrer Navigations-Anweisungen als eine Grafik-Überlagerung präsentieren, die auf der Untergrundfläche 176 präsentiert wird, oder können dem Fahrer eine Fahrzeug-umgebende Anzeige präsentieren. Das erste, zweite, dritte und vierte Grafikelement 160, 164, 168, 172 können dem Fahrer Informationen oder Grafikelemente präsentieren, die verschieden von den hierin beschriebenen sind, und eine Untergruppe aus dem ersten, zweiten, dritten und vierten Grafikelement 160, 164, 168, 172 kann präsentiert werden.With reference to 4 can be the first, second, third and fourth graphic element 160 . 164 . 168 . 172 used to present various information to the driver. The exact type of the first, second, third and fourth graphic elements 160 . 164 . 168 . 172 displayed information may vary. For example, the first graphic element 160 and the third graphic element 168 present a warning to the driver instructing the driver to react to a hazard or an obstacle, or they may provide navigation instructions or driving instructions related to the rules of the road (eg a stop sign, a right of way) Sign etc.), present. The second graphic element 164 and the fourth graphic element 172 can present navigation instructions to the driver as a graphics overlay on the background surface 176 or may present a vehicle surrounding display to the driver. The first, second, third and fourth graphic elements 160 . 164 . 168 . 172 may present to the driver information or graphic elements other than those described herein and a subset of the first, second, third, and fourth graphics elements 160 . 164 . 168 . 172 can be presented.

Zurück unter Bezugnahme auf 1 kann das Steuer-/Regelelement 104 einen oder mehrere Computer, (z. B. arithmetische) Prozessoren oder beliebige andere Vorrichtungen umfassen, die in der Lage sind, mit einem oder mehreren Fahrzeug-Steuer-/Regelsystemen 180 zu kommunizieren und die HUD-Vorrichtung 102 zu steuern/regeln. Eines oder mehrere der Fahrzeug-Steuer-/Regelsysteme 180 (im Folgenden „Fahrzeug-Steuer-/Regelsystem 180” oder „Fahrzeug-Steuer-/Regelkomponente 180”) können die Form eines beliebigen Fahrzeug-Steuer-/Regelsystem 180 annehmen, das dazu verwendet wird, aktiv oder passiv die Steuerung/Regelung des Fahrzeugs 106 zu erleichtern. Das Fahrzeug-Steuer-/Regelsystem 180 kann einen oder mehrere (nicht gezeigte) Sensoren umfassen oder mit ihnen kommunizieren, die Fahr- und Umgebungs-Bedingungen im Zusammenhang mit dem Betrieb des Fahrzeugs 106 detektieren.Back referring to 1 can the control element 104 include one or more computers, (eg, arithmetic) processors, or any other devices capable of having one or more vehicle control systems 180 to communicate and the HUD device 102 to control. One or more of the vehicle control systems 180 (hereinafter "vehicle control system 180 "Or" vehicle control component 180 ") Can take the form of any vehicle control system 180 which is used to actively or passively control the vehicle 106 to facilitate. The vehicle control system 180 may include or communicate with one or more sensors (not shown), driving and environmental conditions associated with the operation of the vehicle 106 detect.

Unter allgemeiner Bezugnahme auf den Betrieb des HUD-Systems 100 kommuniziert das Steuer-/Regelelement 104 mit dem Fahrzeug-Steuer-/Regelsystem 180 und auf Grundlage der Kommunikation mit dem Fahrzeug-Steuer-/Regelsystem 180 bestimmt es den Typ und die Position von Grafikelementen, die dem Fahrer des Fahrzeugs 106 präsentiert werden sollen. Das Steuer-/Regelelement 104 bestimmt den Typ des Grafikelements, das als erstes, zweites, drittes und viertes Grafikelement 160, 164, 168, 172 von dem ersten, zweiten, dritten und vierten Projektor 118, 120, 122, 124 präsentiert werden soll und steuert/regelt den ersten, zweiten, dritten und vierten Projektor 118, 120, 122, 124, um das erste, zweite, dritte und vierte Grafikelement 160, 164, 168, 172 als das bestimmte Grafikelement zu projizieren. Das Steuer-/Regelelement 104 kann eine Sollposition des ersten Grafikelements und eine Sollposition des dritten Grafikelements als Sollpositionen bestimmen, an denen das erste und das dritte Grafikelement 160, 168 in der Umgebung für den Fahrer gerendert werden sollen. Das Steuer-/Regelelement 104 steuert/regelt dann den ersten und den zweiten Aktuator 156, 158, um den ersten und den dritten Projektor 118, 122 derart linear zu bewegen, dass die erste und die dritte Brennebene 162, 170 jeweils zu der Sollposition des ersten und des dritten Grafikelements bewegt werden.With general reference to the operation of the HUD system 100 communicates the control element 104 with the vehicle control system 180 and based on the communication with the vehicle control system 180 It determines the type and position of graphic elements that the driver of the vehicle 106 should be presented. The control element 104 determines the type of graphic element used as the first, second, third, and fourth graphics element 160 . 164 . 168 . 172 from the first, second, third and fourth projectors 118 . 120 . 122 . 124 is presented and controls / regulates the first, second, third and fourth projector 118 . 120 . 122 . 124 to the first, second, third and fourth graphic element 160 . 164 . 168 . 172 to project as the particular graphic element. The control element 104 may determine a target position of the first graphic element and a target position of the third graphic element as target positions at which the first and third graphic elements 160 . 168 in the environment for the driver to be rendered. The control element 104 then controls / regulates the first and second actuators 156 . 158 to the first and the third projector 118 . 122 to move linearly such that the first and the third focal plane 162 . 170 are each moved to the desired position of the first and the third graphic element.

Dementsprechend projiziert der erste Projektor 118 das erste Grafikelement 160 auf die erste Brennebene 162, die im Wesentlichen senkrecht zu der Sichtlinie des Fahrers orientiert sein kann und zu dem Fahrzeug 106 hin und von ihm weg in der Richtung der Sichtlinie 178 des Fahrers durch eine lineare Bewegung des ersten Projektors 118 durch den ersten Aktuator 156 bewegbar sein kann. Der zweite Projektor 120 projiziert das zweite Grafikelement 164 auf die zweite Brennebene 166, die statisch und parallel zu der Untergrundfläche 176 orientiert und auf der Untergrundfläche 176 angeordnet ist. Der dritte Projektor 122 projiziert das dritte Grafikelement 168 an der dritten Brennebene 170, die im Wesentlichen senkrecht zu der Sichtlinie des Fahrers orientiert sein kann und auf das Fahrzeug 106 zu oder von ihm weg in der Richtung der Sichtlinie 178 des Fahrers durch eine lineare Bewegung des dritten Projektor 122 durch den zweiten Aktuator 158 bewegbar oder einstellbar sein kann. Der vierte Projektor 124 projiziert das vierte Grafikelement 172 an der vierten Brennebene 174, die statisch parallel zu der Untergrundfläche 176 orientiert ist und oberhalb der Sichtlinie 178 des Fahrers angeordnet sein kann. Das Steuer-/Regelelement 104 steuert/regelt den ersten und den zweiten Aktuator 156, 158, um den ersten und den dritten Projektor 118, 122 zu bewegen, um die erste und die dritte Brennebene 162, 170 zu bewegen.Accordingly, the first projector projects 118 the first graphic element 160 on the first focal plane 162 that may be oriented substantially perpendicular to the line of sight of the driver and to the vehicle 106 towards and away from him in the direction of the line of sight 178 of the driver by a linear movement of the first projector 118 through the first actuator 156 can be movable. The second projector 120 projects the second graphic element 164 on the second focal plane 166 that are static and parallel to the ground surface 176 oriented and on the underground surface 176 is arranged. The third projector 122 projects the third graphic element 168 at the third focal plane 170 that may be oriented substantially perpendicular to the line of sight of the driver and to the vehicle 106 to or away from it in the direction of the line of sight 178 of the driver by a linear movement of the third projector 122 through the second actuator 158 can be movable or adjustable. The fourth projector 124 projects the fourth graphic element 172 at the fourth focal plane 174 that are static parallel to the ground surface 176 is oriented and above the line of sight 178 the driver can be arranged. The control element 104 controls / regulates the first and second actuators 156 . 158 to the first and the third projector 118 . 122 to move to the first and third focal plane 162 . 170 to move.

Indem der erste und der dritte Projektor 118, 122 das erste und das zweite Grafikelement 160, 168 auf die bewegbare erste und dritte Brennebene 162, 170 projizieren, die im Wesentlichen senkrecht zu der Sichtlinie 178 des Fahrers orientiert sind, kann der Fokus von Objekten in verschiedenen Abständen von dem Fahrzeug 106 angepasst werden. Das kann das Vorsehen von korrekten Raumtiefen-Werten für den Fahrer für das erste und das dritte Grafikelement 160, 168 vereinfachen, insbesondere wenn das HUD-System 100 eine Fahrzeug-Anwendung ist, wobei das Fahrzeug 106 als fahrende Plattform dient.By the first and the third projector 118 . 122 the first and the second graphic element 160 . 168 on the movable first and third focal plane 162 . 170 project that is substantially perpendicular to the line of sight 178 The driver's focus may be on objects at different distances from the vehicle 106 be adjusted. This may include providing the driver with correct depth of field values for the first and third graphics elements 160 . 168 simplify, especially if the HUD system 100 a vehicle application is where the vehicle 106 serves as a moving platform.

Während der zweite und vierte Projektor 120, 124 das zweite und vierte Grafikelement 164, 172 auf die statische zweite und vierte Brennebene 166, 174 projizieren, können die zweite und die vierte Brennebene 166, 174 kontinuierlich sein. Um die zweite und die vierte Brennebene 166, 174 parallel mit der Untergrundfläche 176 auszurichten, können die Diffusorscheiben 150, 154 des zweiten und des vierten Projektors 120, 124 gekippt sein. Da das optische System der HUD-Vorrichtung 102 eine sehr niedrige Verzerrung aufweist und nahezu telozentrisch für Bilder in einer zum Untergrund parallelen Brennebene ist, sind Lichtstrahlen nahezu parallel mit der optischen Achse, was es den projizierten zweiten und vierten Grafikelementen 164, 172 erlaubt, ohne Verzerrung oder Änderung der Vergrößerung projiziert oder gerendert zu werden, während die zweite und vierte Brennebene 166, 174 gekippt sind. Das resultierende zweite und vierte Grafikelement 164, 172 erscheinen daher in einer kontinuierlichen Brennebene (die zweite und die vierte Brennebene 166, 174) parallel zu der Untergrundfläche 176. In dieser Hinsicht können das zweite und das vierte Grafikelement 164, 172 mit einer tatsächlichen 3-dimensionalen (3-D) volumetrischen Form gerendert werden, anstatt als Liniensegmente, um monokulare Elemente hinzuzufügen, um den Tiefeneindruck zu verstärken.While the second and fourth projectors 120 . 124 the second and fourth graphic elements 164 . 172 on the static second and fourth focal plane 166 . 174 can project the second and the fourth focal plane 166 . 174 be continuous. Around the second and the fourth focal plane 166 . 174 parallel with the ground surface 176 Align the diffuser discs 150 . 154 of the second and fourth projectors 120 . 124 be tilted. As the optical system of the HUD device 102 has very low distortion and is nearly telecentric for images in a ground plane parallel to the ground, light rays are nearly parallel with the optical axis, which is the projected second and fourth graphics elements 164 . 172 allowed to be projected or rendered without distortion or change in magnification, while the second and fourth focal plane 166 . 174 are tilted. The resulting second and fourth graphics element 164 . 172 therefore appear in a continuous focal plane (the second and fourth focal planes 166 . 174 ) parallel to the background surface 176 , In this regard, the second and fourth graphic elements 164 . 172 are rendered with an actual 3-dimensional (3-D) volumetric shape rather than line segments to add monocular elements to enhance the depth impression.

Die kontinuierliche statische zweite und vierte Brennebene 166, 174 erleichtern eine Tiefen-Wahrnehmung des Fahrers bezüglich dem zweiten und vierten Grafikelement 164, 172. Die kontinuierliche statische zweite und vierte Brennebene 166, 174 erlauben eine korrekte Erzeugung von realen Bildern oder Grafikelementen durch die Vorwärts-Rückwärts-Richtung im 3-D-Raum (z. B. der Richtung der Sichtlinie 178 des Fahrers), was es erlaubt, richtige Bewegungs-Parallaxenwerte zu erzeugen. Dementsprechend erscheinen, wenn der Kopf des Fahrers sich von einer Seite zur anderen oder von oben nach unten bewegt, das zweite und das vierte Grafikelement 164, 172 dem Fahrer fest in ihrer Position in der Umgebung, anstatt dass sie sich herumbewegen. Folglich benötigt das HUD-System 100 keine Kopf-Verfolgungsfunktion, um Bewegungen des Kopfs des Fahrers auszugleichen.The continuous static second and fourth focal plane 166 . 174 facilitate a deep perception of the driver with respect to the second and fourth graphic elements 164 . 172 , The continuous static second and fourth focal plane 166 . 174 allow correct generation of real images or graphic elements through the forward-backward direction in 3-D space (eg, the direction of the line of sight 178 the driver), which allows to generate proper motion parallax values. Accordingly, when the driver's head is moving from side to side or from top to bottom, the second and fourth graphic elements appear 164 . 172 the driver firmly in their position in the environment rather than moving around. Consequently, the HUD system is needed 100 no head-tracking function to compensate for movements of the driver's head.

Bezüglich der zuvor aufgeführten Beispiele für Informationen, die dem Fahrer präsentiert werden können, kann das Fahrzeug-Steuer-/Regelsystem 180 ein Prozessieren oder Sensoren umfassen, die in der Lage sind, die folgenden Funktionen auszuführen: Gefahr- oder Hindernisdetektion; Navigation; Navigations-Anweisungen und Überwachung der Umgebung des Fahrzeugs (z. B. den toten Winkel). Das Fahrzeug-Steuer-/Regelsystem 180 kann ein Prozessieren und Sensoren umfassen, die in der Lage sind, andere Steuer-/Regelfunktionen des Fahrzeugs auszuführen (z. B. Autobahn-Einscherassistent etc.), die alternativ oder zusätzlich mit dem Fahrer unter Verwendung des HUD-Systems 100 präsentierten Informationen zusammenhängen. Ungeachtet der von dem Fahrzeug-Steuer-/Regelsystem 180 durchgeführten Funktionen kann die präzise Art und Weise des Betriebs des Fahrzeug-Steuer-/Regelsystems 180 bei Ausführung der Funktionen, einschließlich der zugehörigen Sensoren und Prozessierung, irrelevant für den Betrieb des HUD-Systems 100 sein.With respect to the previously listed examples of information that may be presented to the driver, the vehicle control system may 180 include processing or sensors capable of performing the following functions: hazard or obstacle detection; Navigation; Navigation instructions and monitoring of the environment of the vehicle (eg the blind spot). The vehicle control system 180 may include processing and sensors capable of performing other control functions of the vehicle (eg, highway lock-in assistant, etc.) that alternatively or additionally with the driver using the HUD system 100 related information. Regardless of the vehicle control system 180 performed functions can be the precise way of operating the vehicle control system 180 when performing the functions, including associated sensors and processing, irrelevant to the operation of the HUD system 100 be.

Das Steuer-/Regelelement 104 kommuniziert mit dem Fahrzeug-Steuer-/Regelsystem 180 und erhält davon Eingaben bezüglich des Betriebs des Fahrzeugs 106 und im Zusammenhang mit den oben aufgelisteten (und anderen) Funktionen. Das Steuer-/Regelelement 104 steuert/regelt dann die HUD-Vorrichtung 102 auf Grundlage der von dem Fahrzeug-Steuer-/Regelsystem 180 erhaltenen Eingaben. In dieser Hinsicht können einer oder beide aus dem Steuer-/Regelelement 104 und dem Fahrzeug-Steuer-/Regelsystem 180 bestimmen: den Typ des Grafikelements, das als das erste, zweite, dritte und vierte Grafikelement 160, 164, 168, 172 angezeigt werden soll; die Position des ersten, zweiten, dritten und vierten Grafikelements 160, 164, 168, 172; und welche aus dem ersten, zweiten, dritten und vierten Grafikelement 160, 164, 168, 172 angezeigt werden sollen. Diese Bestimmungen können auf einer oder mehreren Fahrzeug-Funktionen basieren, die von dem Fahrer benutzt werden, wie beispielsweise ob der Fahrer die Navigations-Funktion benutzt.The control element 104 communicates with the vehicle control system 180 and receives therefrom input regarding the operation of the vehicle 106 and in connection with the above listed (and other) functions. The control element 104 then controls / regulates the HUD device 102 based on the vehicle control system 180 received inputs. In this regard, one or both of the control element may 104 and the vehicle control system 180 determine: the type of graphic element that is the first, second, third, and fourth graphic element 160 . 164 . 168 . 172 to be displayed; the position of the first, second, third and fourth graphic elements 160 . 164 . 168 . 172 ; and which of the first, second, third and fourth graphic elements 160 . 164 . 168 . 172 to be displayed. These provisions may be on or based on multiple vehicle functions used by the driver, such as whether the driver is using the navigation function.

Ungeachtet dessen, ob das Steuer-/Regelelement 104 oder das Fahrzeug-Steuer-/Regelsystem 180 verwendet werden, um diese Bestimmungen durchzuführen, steuert/regelt das Steuer-/Regelelement 104 die HUD-Vorrichtung 102, um die angemessenen Grafikelemente an den angemessenen Positionen anzuzeigen. Dies kann ein Steuern/Regeln des ersten, zweiten, dritten und vierten Projektors 118, 120, 122, 124 zum Projizieren des angemessenen ersten, zweiten, dritten und vierten Grafikelements 160, 164, 168, 172 umfassen. Dies kann ein Steuern/Regeln des ersten und des zweiten Aktuators 156, 158 umfassen, um den ersten und den dritten Projektor 118, 122 linear zu bewegen, um die erste und die dritte Brennebene 162, 170 in die angemessenen Positionen (d. h. die Sollpositionen) zu bewegen. Beispielsweise können ein oder mehrere Aktuatoren, wie beispielsweise 156, 158 dazu eingerichtet sein, eine oder mehrere Brennebenen, wie beispielsweise 162, 170 zu bewegen. Beispielsweise kann unter Bezugnahme auf die dritte Brennebene 170 ein Abstand zwischen der dritten Brennebene 170 und einer Windschutzscheibe des Fahrzeugs 106 (z. B. bei 302) durch Anpassen des Abstands 170' angepasst werden. Ähnlich kann der Abstand 162' dazu angepasst werden, eine Sollposition für die Brennebene 162 anzupassen.Regardless of whether the control element 104 or the vehicle control system 180 used to perform these determinations controls the control element 104 the HUD device 102 To display the appropriate graphic elements at appropriate locations. This may be controlling the first, second, third and fourth projectors 118 . 120 . 122 . 124 for projecting the appropriate first, second, third and fourth graphic elements 160 . 164 . 168 . 172 include. This may be controlling the first and second actuators 156 . 158 include to the first and the third projector 118 . 122 move linearly to the first and third focal planes 162 . 170 to move into the appropriate positions (ie the target positions). For example, one or more actuators, such as 156 . 158 be configured to one or more focal planes, such as 162 . 170 to move. For example, with reference to the third focal plane 170 a distance between the third focal plane 170 and a windshield of the vehicle 106 (eg at 302 ) by adjusting the distance 170 ' be adjusted. Similarly, the distance 162 ' adapted to a nominal position for the focal plane 162 adapt.

Hinsichtlich der zuvor aufgeführten beispielhaften Informationen im Zusammenhang mit dem ersten, zweiten, dritte und vierten Grafikelement 160, 164, 168, 172 wird der Betrieb des HUD-Systems 100 unter Bezugnahme auf das Fahrzeug 106 beschrieben werden, das das Fahrzeug-Steuer-/Regelsystem 180 aufweist, das die folgenden Funktionen erlaubt: eine Gefahr- oder Hindernisdetektion und Warnfunktion; eine Navigations-Funktion; eine Navigations-Anweisungsfunktion und eine Überwachungs-Funktion für die Umgebung des Fahrzeugs (z. B. einen toten Winkel). Wiederum kann das Fahrzeug 106 eine Untergruppe dieser Funktionen oder zusätzliche Funktionen aufweisen, und das HUD-System 100 kann unter Bezugnahme auf die Untergruppe oder zusätzliche Funktionen eingesetzt werden. Die Beschreibung des HUD-Systems 100 unter Bezugnahme auf diese Funktionen ist lediglich exemplarisch und dazu vorgesehen, die Beschreibung des HUD-Systems 100 zu vereinfachen. Wenngleich einer oder beide aus dem Steuer-/Regelelement 104 und dem Fahrzeug-Steuer-/Regelsystem 180 Bestimmungen im Zusammenhang mit dem Betrieb des HUD-Systems 100 vornehmen können, wird das Steuer-/Regelelement 104 so beschrieben, dass es dazu eingerichtet ist, Bestimmungen auf Grundlage von von dem Fahrzeug-Steuer-/Regelsystem 180 erhaltenen Eingaben vorzunehmen.With regard to the above-given exemplary information in connection with the first, second, third and fourth graphic elements 160 . 164 . 168 . 172 becomes the operation of the HUD system 100 with reference to the vehicle 106 described the vehicle control system 180 which allows the following functions: a hazard or obstacle detection and warning function; a navigation function; a navigation instruction function and a monitoring function for the environment of the vehicle (eg, a blind spot). Again, the vehicle can 106 have a subset of these functions or additional functions, and the HUD system 100 can be used by reference to the subgroup or additional functions. The description of the HUD system 100 with reference to these functions is merely exemplary and intended to provide the description of the HUD system 100 to simplify. Although one or both of the control element 104 and the vehicle control system 180 Provisions related to the operation of the HUD system 100 is the control element 104 so described that it is set to provisions based on the vehicle control system 180 made inputs.

Informationen bezüglich der Hindernisdetektion und Warnfunktion können dem Fahrer als ein kontakt-analoges Augmented-Reality-Grafikelement präsentiert werden, das von dem ersten Projektor 118 der HUD-Vorrichtung 102 projiziert wird. In dieser Hinsicht kann das Fahrzeug-Steuer-/Regelsystem 180 verschiedene Hindernisse auf der Straße detektieren, auf der sich das Fahrzeug 106 bewegt. Beispielsweise können die Hindernisse Fußgänger, die die Straße überqueren, andere Fahrzeuge, Tiere, Unrat auf der Straße, Schlaglöcher etc. umfassen. Die Detektion dieser Hindernisse kann durch Prozessieren von Informationen aus der Umgebung vorgenommen werden, die von (nicht gezeigten) Sensoren erfasst wird, die in dem Fahrzeug 106 vorgesehen sind. Ferner kann eine Hindernisdetektion auch auf beliebige andere Weise durchgeführt werden.Information regarding obstacle detection and warning function may be presented to the driver as a contact-analog augmented reality graphic element from the first projector 118 the HUD device 102 is projected. In this regard, the vehicle control system 180 Various obstacles on the road detect the vehicle 106 emotional. For example, the obstacles may include pedestrians crossing the road, other vehicles, animals, street debris, potholes, etc. The detection of these obstacles can be done by processing information from the environment detected by sensors (not shown) in the vehicle 106 are provided. Furthermore, an obstacle detection can also be performed in any other way.

Wenn ein Hindernis detektiert wird, gibt das Fahrzeug-Steuer-/Regelsystem 180 die Hindernis-Informationen an das Steuer-/Regelelement 104 weiter. Das Steuer-/Regelelement 104 erhält die Hindernis-Informationen von dem Fahrzeug-Steuer-/Regelsystem 180 und bestimmt den Typ von Grafikelement, der als erstes Grafikelement 160 präsentiert werden soll, und die Sollposition des ersten Grafikelements auf Grundlage der erhaltenen Hindernis-Informationen. Während verschiedene Typen von Grafikelementen verwendet werden können, wie beispielsweise blinkende Symbole, andere Zeichen, etc., werden die Beispiele hierin unter Bezugnahme auf ein „YIELD”-Zeichen (Vorfahrt-Zeichen) beschrieben, das präsentiert wird, wenn ein Hindernis detektiert wird.When an obstacle is detected, the vehicle control system issues 180 the obstacle information to the control element 104 further. The control element 104 gets the obstacle information from the vehicle control system 180 and determines the type of graphic element that is the first graphic element 160 should be presented, and the target position of the first graphic element based on the obtained obstacle information. While various types of graphic elements may be used, such as flashing symbols, other characters, etc., the examples will be described herein with reference to a "YIELD" character (right-of-way sign) that is presented when an obstacle is detected.

Unter Bezugnahme auf 4 kann das von dem Fahrzeug-Steuer-/Regelsystem 180 detektierte Hindernis ein Fußgänger 182 sein, der die Straße überquert, auf der das Fahrzeug 106 fährt. In dem exemplarischen Sichtfeld das Fahrers in 4 bewegt sich das Fahrzeug 106 auf einer Straße, die von dem Fußgänger 182 überquert wird. Dementsprechend kann das Fahrzeug-Steuer-/Regelsystem 180 Hindernis-Informationen im Zusammenhang mit dem Fußgänger 182 an das Steuer-/Regelelement 104 senden. Auf Grundlage der Hindernis-Informationen kann das Steuer-/Regelelement 104 den Typ von Grafikelement bestimmen, der als das erste Grafikelement 160 angezeigt werden soll; in diesem Fall kann beispielsweise das Grafikelement ein „YIELD”-Zeichen sein, wenngleich andere Grafiken verwendet werden können. Das Steuer-/Regelelement 104 kann die Sollposition des ersten Grafikelements derart bestimmen, dass das erste Grafikelement 160 derart projiziert und gerendert wird, dass es von dem Fahrer wahrgenommen wird, als ob es sich bei der selben Tiefe (z. B. Brennebene) befindet wie der Fußgänger 182. Ferner kann das Steuer-/Regelelement 104 dazu eingerichtet sein, die Sollposition des ersten Grafikelements derart anzupassen, dass das erste Grafikelement 160 den Fußgänger „trackt” oder ihm „folgt”, beispielsweise wenn der Fußgänger 182 läuft.With reference to 4 This can be done by the vehicle control system 180 detected obstacle a pedestrian 182 be who crosses the street on which the vehicle 106 moves. In the exemplary field of vision of the driver in 4 the vehicle is moving 106 on a street leading from the pedestrian 182 is crossed. Accordingly, the vehicle control system 180 Obstacle information related to the pedestrian 182 to the control element 104 send. Based on the obstacle information, the control element may 104 determine the type of graphic element that is considered the first graphic element 160 to be displayed; in this case, for example, the graphic element may be a "YIELD" character, although other graphics may be used. The control element 104 can determine the desired position of the first graphic element such that the first graphic element 160 is projected and rendered such that it is perceived by the driver as if it is at the same depth (eg, focal plane) as the pedestrian 182 , Furthermore, the control element 104 be adapted to adjust the target position of the first graphic element such that the first graphic element 160 the pedestrian "tracks" or "follows" him, for example when the pedestrian 182 running.

Dann steuert/regelt das Steuer-/Regelelement 104 den ersten Projektor 118 so, dass dieser das „YIELD”-Zeichen als das erste Grafikelement 160 projiziert, und steuert/regelt den ersten Aktuator 156 so, dass der erste Projektor 118 linear derart bewegt wird, dass das erste Grafikelement 160 so projiziert und gerendert werden kann, dass es von dem Fahrer (z. B. während die Augen des Fahrers in der Augenbox 116 sind und der Fahrer in die Vorwärts-Richtung durch die Windschutzscheibe 112 schaut) so wahrgenommen wird, als ob es in der selben Tiefe wie der Fußgänger 182 ist. Der erste Aktuator 156 kann derart gesteuert/geregelt werden, dass das erste Grafikelement 160 auf die erste Brennebene 162 projiziert werden kann, die an der Sollposition des ersten Grafikelements positioniert werden kann und im Wesentlichen senkrecht zu der Sichtlinie 178 orientiert sein kann.Then controls the control 104 the first projector 118 so that this the "YIELD" character as the first graphic element 160 projects and controls the first actuator 156 so that the first projector 118 is moved linearly such that the first graphic element 160 so it can be projected and rendered by the driver (eg while the driver's eyes in the eye box 116 and the driver in the forward direction through the windshield 112 looks) is perceived as if it is in the same depth as the pedestrian 182 is. The first actuator 156 can be controlled / regulated so that the first graphic element 160 on the first focal plane 162 can be projected, which can be positioned at the desired position of the first graphic element and substantially perpendicular to the line of sight 178 can be oriented.

Da das Fahrzeug 106 und der Fußgänger 182 sich auf der Straße bewegen, wird sich der relative Abstand zwischen den beiden ändern. Diese Änderung des Abstands kann an das Steuer-/Regelelement 104 von dem Fahrzeug-Steuer-/Regelelement 180 weitergegeben werden, die Sollposition des ersten Grafikelements kann entsprechend geändert werden, und der erste Aktuator 156 kann von dem Steuer-/Regelelement 104 so gesteuert/geregelt werden, dass die erste Brennebene 162 bei der (z. B. geänderten/sich ändernden) Sollposition des ersten Grafikelements verbleibt. Dementsprechend kann, indem das erste Grafikelement 160 auf die erste Brennebene 162 projiziert wird, die in der Richtung der Sichtlinie 178 des Fahrers bewegbar sein kann, die dem ersten Grafikelement 160 zugeordnete Raumtiefe korrekt reproduziert werden, so dass der Fahrer akkurat die Position des ersten Grafikelements 160 (z. B. des detektierten Hindernisses) einschätzen kann.Because the vehicle 106 and the pedestrian 182 moving on the street, the relative distance between the two will change. This change in distance may be to the controller 104 from the vehicle control element 180 can be changed, the target position of the first graphic element can be changed accordingly, and the first actuator 156 can be from the control 104 be controlled / regulated so that the first focal plane 162 at the (eg changed / changing) target position of the first graphic element remains. Accordingly, by adding the first graphic element 160 on the first focal plane 162 is projected in the direction of the line of sight 178 The driver may be movable to the first graphic element 160 assigned depth of space can be correctly reproduced so that the driver accurately the position of the first graphic element 160 (eg the detected obstacle) can estimate.

Zusätzlich können dem Fahrer Informationen im Zusammenhang mit der Navigations-Funktion als ein kontakt-analoges Augmented-Reality-Grafikelement präsentiert werden, das von dem zweiten Projektor 120 der HUD-Vorrichtung 102 projiziert wird. In dieser Hinsicht kann das Fahrzeug-Steuer-/Regelsystem 180, auf ein Erhalten einer Navigations-Anweisung von dem Fahrer hin (z. B. der Eingabe eines gewünschten Orts), eine Navigations-Route für den Fahrer erzeugen, der dieser folgen kann, um zu dem gewünschten Ort zu gelangen. Die Navigations-Route umfasst eine Reihe von Fahr-Anweisungen, die den Fahrer befolgen soll, einschließlich Anweisungen, auf der Route zu dem gewünschten Ort in Straßen einzubiegen. Die Navigations-Funktion kann auf jede beliebige Weise ausgeführt werden. Wenn die Navigations-Funktion aktiviert ist, kann das Fahrzeug-Steuer-/Regelsystem 180 die Fahr-Anweisungen im Zusammenhang mit der Navigations-Funktion an das Steuer-/Regelelement 104 weitergeben.In addition, information related to the navigation function may be presented to the driver as a contact-analog augmented reality graphic element provided by the second projector 120 the HUD device 102 is projected. In this regard, the vehicle control system 180 upon receiving a navigation instruction from the driver (eg, entering a desired location), generate a navigation route for the driver to follow to arrive at the desired location. The navigation route includes a series of driving instructions to be followed by the driver, including instructions to turn on the route to the desired location in streets. The navigation function can be executed in any way. When the navigation function is activated, the vehicle control system can 180 the driving instructions related to the navigation function to the control element 104 pass on.

Das Steuer-/Regelelement 104 kann die Fahr-Anweisungen von dem Fahrzeug-Steuer-/Regelsystem 180 erhalten und den Typ von Grafikelement bestimmen, der als das zweite Grafikelement 164 präsentiert werden soll.The control element 104 can the driving instructions from the vehicle control system 180 and determine the type of graphic element that is considered the second graphic element 164 should be presented.

Die der Navigations-Funktion zugeordneten Typen von Grafikelementen können Grafikelemente umfassen, die den Fahrer anweisen, auf der momentanen Straße weiterzufahren (z. B. eine gerade Linie oder ein gerader Pfeil), an der nächsten Kreuzung nach links oder rechts abzubiegen (z. B. ein Pfeil nach links/rechts oder eine Linie, die in die entsprechende Richtung verläuft), auf eine Autobahn aufzufahren, einzuscheren oder sie zu verlassen (z. B. eine Linie oder einen Pfeil, die/der den entsprechenden Weg anzeigt), etc. Das Steuer-/Regelelement 104 wählt das angemessene Grafikelement aus, um es als zweites Grafikelement 164 auf Grundlage der von dem Fahrzeug-Steuer-/Regelsystem 180 weitergegebenen Fahr-Richtung zu präsentieren.The types of graphic elements associated with the navigation function may include graphic elements instructing the driver to continue on the current road (eg, a straight line or a straight arrow), turning left or right at the next intersection (e.g. an arrow to the left / right or a line running in the appropriate direction), to drive on a freeway, to board or leave (eg a line or an arrow indicating the corresponding route), etc The control element 104 selects the appropriate graphic element to make it the second graphic element 164 based on the vehicle control system 180 present passed driving direction.

Unter Bezugnahme auf das exemplarische Sichtfeld des Fahrers in 4 umfasst die Fahr-Richtung für die von der Navigations-Funktion des Fahrzeug-Steuer-/Regelsystems 180 bestimmte Fahr-Route ein Abbiegen nach links auf eine näher kommende Straße. Dementsprechend steuert/regelt das Steuer-/Regelelement 104 den zweiten Projektor 120, um ein Links-Abbiegen-Grafikelement als das zweite Grafikelement 164 zu erzeugen und an der zweiten Brennebene 166 zu projizieren. Wie in 4 gezeigt, kann die zweite Brennebene 166 parallel zu der Untergrundfläche 176 sein und an der Untergrundfläche 176 angeordnet sein. Wie oben angesprochen, kann der zweite Projektor 120 fest in der HUD-Vorrichtung 102 angeordnet sein, so dass die zweite Brennebene 166 statisch ist. Wie oben angesprochen kann die zweite Brennebene 166 kontinuierlich sein, so dass das zweite Grafikelement 164 für den Fahrer mit geeigneter Raumtiefe als ein 3-D-Bild gerendert werden kann.With reference to the exemplary field of view of the driver in FIG 4 includes the driving direction for that of the navigation function of the vehicle control system 180 certain driving route turn left onto a nearer road. Accordingly, the control element controls 104 the second projector 120 to make a left turn graphic element as the second graphic element 164 and at the second focal plane 166 to project. As in 4 shown, the second focal plane 166 parallel to the underground surface 176 be and on the underground surface 176 be arranged. As mentioned above, the second projector 120 stuck in the HUD device 102 be arranged so that the second focal plane 166 is static. As mentioned above, the second focal plane 166 be continuous, making the second graphic element 164 for the driver with suitable room depth can be rendered as a 3-D image.

Ähnlich können Informationen im Zusammenhang mit der Navigations-Anweisungsfunktion dem Fahrer als ein kontakt-analoges Augmented-Reality-Grafikelement präsentiert werden, das von dem dritten Projektor 122 der HUD-Vorrichtung 102 projiziert wird. In dieser Hinsicht kann das Fahrzeug-Steuer-/Regelsystem 180 Sensoren oder in einer Datenbank gespeicherte und einer Karte zugeordnete Informationen verwenden, um die Straße zu überwachen, auf der das Fahrzeug 106 fährt, und um bevorstehende Navigations-Anweisungen zu bestimmen, die mit der Fahrt auf dieser Straße zusammenhängen. Beispielsweise kann das Fahrzeug-Steuer-/Regelsystem 180 ein bevorstehendes notwendiges Anhalten, ein „Vorfahrt gewähren” oder einen sonstigen Zustand (im Folgenden insgesamt als „Straßen-Zustand” bezeichnet) auf der Straße detektieren, auf der das Fahrzeug 106 fährt. Das Fahrzeug-Steuer-/Regelsystem 180 kann eine Navigations-Anweisung im Zusammenhang mit dem detektierten Straßen-Zustand (z. B. eine Stop-Anweisung im Zusammenhang mit einem Stop-Straßen-Zustand etc.) bestimmen. Die Navigations-Anweisungsfunktion kann auf beliebige Weise ausgeführt werden, deren Besonderheiten für den Betrieb des HUD-Systems 100 nicht relevant sind. Zusätzlich können die Straßen-Zustände unter anderem den Verkehr auf einem Straßenabschnitt, Sperrungen, Hindernisse, Wetterbedingungen, eine Oberflächenbeschaffenheit eines Straßenabschnitts, Geschwindigkeitsbegrenzungen im Zusammenhang mit einem Teil einer Straße oder einem Straßenabschnitt etc. umfassen. Anders gesagt können Straßen-Zustände im Allgemeinen Gründe zum Beschleunigen, Abbremsen, Wenden, Anhalten, vorsichtig sein etc. beispielsweise während des Fahrens umfassen.Similarly, information associated with the navigation instruction function may be presented to the driver as a contact-analog augmented reality graphic element that is from the third projector 122 the HUD device 102 is projected. In this regard, the vehicle control system 180 Use sensors or information stored in a database and associated with a map to monitor the road on which the vehicle is parked 106 drives and to identify upcoming navigation instructions related to driving on this road. For example, the vehicle control / control system 180 imminent necessary stop, grant a "give way" or other condition (hereinafter collectively referred to as "road condition") on the road on which the vehicle is traveling 106 moves. The vehicle control system 180 may determine a navigation instruction associated with the detected road condition (eg, a stop instruction associated with a stop road condition, etc.). The navigation instruction function can be executed in any manner, the specifics of which for the operation of the HUD system 100 are not relevant. In addition, the road conditions may include, but are not limited to, traffic on a road section, closures, obstacles, weather conditions, a road surface finish, speed limits associated with a portion of a road or a roadway, and so on. In other words, road conditions may generally include reasons for accelerating, decelerating, turning, stopping, being cautious, etc., during driving, for example.

Das Fahrzeug-Steuer-/Regelsystem 180 gibt den Straßen-Zustand oder die Navigations-Anweisungen im Zusammenhang mit dem Straßen-Zustand, sowie Informationen im Zusammenhang mit einer Position des Straßen-Zustands an die Steuer-/Regeleinheit 104 weiter. Die Steuer-/Regeleinheit 104 kann den dritten Projektor 122 steuern/regeln, so dass dieser das dritte Grafikelement 168 projiziert, um dem Fahrer Informationen im Zusammenhang mit dem Straßen-Zustand oder zugehörige Navigations-Anweisungen entsprechend weiterzugeben. Das Steuer-/Regelelement 104 kann den Straßen-Zustand oder Navigations-Anweisungsinformationen sowie die Positions-Informationen von dem Fahrzeug-Steuer-/Regelsystem 180 erhalten, und den Typ von Grafikelement bestimmen, der als das dritte Grafikelement 168 präsentiert werden soll, sowie eine Sollposition des dritten Grafikelements.The vehicle control system 180 indicates the road condition or the navigation instructions related to the road condition, as well as information related to a position of the road condition to the control unit 104 further. The control unit 104 can the third projector 122 control, making this the third graphic element 168 projected to pass on information related to the road condition or related navigation instructions to the driver. The control element 104 may indicate the road condition or navigation instruction information as well as the position information from the vehicle control system 180 and determine the type of graphic element that is considered the third graphic element 168 should be presented, as well as a target position of the third graphic element.

Verschiedene Typen von Grafikelementen können in Verbindung mit Navigations-Anweisungsfunktionen verwendet werden, beispielsweise: ein STOP-Schild, ein YIELD-Schild (Vorfahrt-Gewähren-Schild), ein „ONE WAY”-Schild (Einbahnstraße-Schild), ein „NO TURN ON RED”-Schild („bei Rotlicht nicht rechts Abbiegen”-Schild) etc. Der Typ von Grafikelement kann ausgewählt werden, um die Navigations-Anweisung im Zusammenhang mit dem Straßen-Zustand zu kommunizieren. Unabhängig davon, welchen Typ von Grafikelement das Steuer-/Regelelement 104 als das zu verwendende dritte Grafikelement 168 bestimmt, kann dieses Grafikelement projiziert werden, um an der Position des Fahr-Zustands zu erscheinen. Diesbezüglich kann die Sollposition des dritten Grafikelements als eine Position bestimmt werden, an der das dritte Grafikelement 168 im Sichtfeld des Fahrers gerendert werden soll, auf Grundlage der Position des detektierten Straßen-Zustands relativ zu dem Fahrzeug 106.Various types of graphic elements may be used in conjunction with navigation instruction functions, for example: a STOP sign, a YIELD sign, a "ONE WAY" sign, a "NO TURN ON RED "sign (" red light not turn right "sign) etc. The type of graphic element can be selected to communicate the navigation instruction related to the road condition. Regardless of which type of graphic element the control element 104 as the third graphic element to be used 168 determined, this graphic element can be projected to appear at the position of the driving state. In this regard, the desired position of the third graphic element may be determined as a position at which the third graphic element 168 is to be rendered in the driver's field of vision based on the position of the detected road condition relative to the vehicle 106 ,

Das Steuer-/Regelelement 104 kann dazu eingerichtet sein, den dritten Projektor 122 so zu steuern/regeln, dass er das geeignete Grafikelement als das dritte Grafikelement 168 projiziert. Das Steuer-/Regelelement kann den zweiten Aktuator 158 so steuern/regeln, dass er den dritten Projektor 122 derart linear bewegt, dass das dritte Grafikelement 168 so projiziert und gerendert wird, dass es der Fahrer (z. B. während die Augen das Fahrers in der Augenbox 116 sind und der Fahrer in Richtung nach vorne durch die Windschutzscheibe 112 blickt) so wahrnimmt, als ob es sich bei der selben Tiefe befindet (z. B. die selbe Brennebene aufweist) wie der Straßen-Zustand. Der zweite Aktuator 158 kann derart gesteuert/geregelt werden, dass das dritte Grafikelement 168 auf die dritte Brennebene 170 projiziert wird, die an der Sollposition des dritten Grafikelements positioniert und im Wesentlichen senkrecht zu der Sichtlinie 178 orientiert sein kann. Das Steuer-/Regelelement 104 kann den zweiten Aktuator 158 so steuern/regeln, dass er den dritten Projektor 122 linear bewegt, so dass sich die dritte Brennebene 170 bewegt, wenn sich ein Abstand zwischen dem Fahrzeug 106 und dem detektierten Straßen-Zustand (z. B. der Sollposition des dritten Grafikelements) ändert (wie es von dem Fahrzeug-Steuer-/Regelsystem 180 detektiert und an das Steuer-/Regelelement 104 weitergeleitet wird), beispielsweise infolgedessen, dass das Fahrzeug 106 auf den detektierten Straßen-Zustand zu fährt.The control element 104 can be set up the third projector 122 so to control that he has the appropriate graphic element as the third graphic element 168 projected. The control element may be the second actuator 158 so control that he has the third projector 122 moved linearly such that the third graphic element 168 is projected and rendered so that it is the driver (eg, while the driver's eyes in the eye box 116 and the driver is heading forwards through the windshield 112 gazing) as if it is at the same depth (eg, having the same focal plane) as the road state. The second actuator 158 can be controlled / regulated so that the third graphic element 168 on the third focal plane 170 which is positioned at the target position of the third graphic element and substantially perpendicular to the line of sight 178 can be oriented. The control element 104 can be the second actuator 158 so control that he has the third projector 122 moved linearly, so that the third focal plane 170 moves when there is a gap between the vehicle 106 and the detected road condition (eg, the target position of the third graphic element) changes (as is the case of the vehicle control system) 180 detected and to the control element 104 passed), for example, as a result, that the vehicle 106 to the detected road condition moves to.

In der exemplarischen Ansicht aus der Perspektive des Fahrers in 4 nähert sich das Fahrzeug 106 einer Vier-Straßen-Kreuzung, an der das Fahrzeug 106 anhalten sollte. Dementsprechend detektiert das Fahrzeug-Steuer-/Regelsystem 180 den Stop-Straßen-Zustand an einer Position einer Einfahrt der Kreuzung und bestimmt, dass die Navigations-Anweisung im Zusammenhang mit dem Stop-Straßen-Zustand eine Stop-Anweisung ist. Der Stop-Straßen-Zustand oder die Stop-Anweisung sowie die Position des Stop-Straßen-Zustands können an das Steuer-/Regelelement 104 weitergegeben werden, das bestimmt, dass ein Stop-Schild als das dritte Grafikelement 168 präsentiert werden soll. Das Steuer-/Regelelement 104 kann bestimmen, dass das dritte Grafikelement 168 (z. B. das STOP-Schild) an der Position der Einfahrt der Vier-Straßen-Kreuzung erscheinen soll. Die Position der Einfahrt der Kreuzung kann somit als die Sollposition des dritten Grafikelements bestimmt werden.In the exemplary view from the perspective of the driver in 4 the vehicle is approaching 106 a four-road intersection where the vehicle is 106 should stop. Accordingly, the vehicle control system detects 180 the stop-road state at a position of entrance of the intersection, and determines that the navigation instruction related to the stop-road state is a stop instruction. The stop-road state or the stop-instruction as well as the position of the stop-road state may be sent to the control element 104 to be passed, which determines that a stop sign as the third element of the graphic 168 should be presented. The control element 104 can determine that the third graphic element 168 (eg the STOP sign) should appear at the position of the entrance of the four-road intersection. The position of the entrance of the intersection can thus be determined as the desired position of the third graphic element.

Das Steuer-/Regelelement 104 kann den dritten Projektor 122 so steuern/regeln, dass er das STOP-Schild als das dritte Grafikelement 168 projiziert, und den zweiten Aktuator 158 so steuern/regeln, dass der dritte Projektor 122 so bewegt wird, dass des dritte Grafikelement 168 so projiziert und gerendert wird (z. B. während die Augen des Fahrers in der Augenbox 116 sind und der Fahrer in Richtung nach vorne durch die Windschutzscheibe 112 blickt), dass es in der selben Tiefe wie die Einfahrt der Vier-Straßen-Kreuzung ist. Der zweite Aktuator 158 kann derart gesteuert/geregelt werden, dass das dritte Grafikelement 168 auf die dritte Brennebene 170 projiziert wird, die an der Sollposition des dritten Grafikelements positioniert und im Wesentlichen senkrecht zu der Sichtlinie 178 orientiert ist. Wenn das Fahrzeug 106 auf der Straße fährt, wird sich der relative Abstand zwischen dem Fahrzeug 106 und der Einfahrt der Vier-Straßen-Kreuzung ändern. Diese Änderung des Abstands kann von dem Fahrzeug-Steuer-/Regelsystem 180 an das Steuer-/Regelelement 104 weitergegeben werden, die Sollposition des dritten Grafikelements kann entsprechend geändert werden und der zweite Aktuator 158 kann von dem Steuer-/Regelelement 104 so gesteuert/geregelt werden, dass er die dritte Brennebene 170 so bewegt, dass sie an der (z. B. geänderten/sich ändernden) Sollposition des dritten Grafikelements verbleibt. Dementsprechend können, indem das dritte Grafikelement 168 auf die dritte Brennebene 170 projiziert wird, die in der Richtung der Sichtlinie 178 des Fahrers bewegbar sein kann, die dem dritten Grafikelement 168 zugeordneten Raumtiefen-Werte somit korrekt reproduziert werden, so dass der Fahrer akkurat die Position des dritten Grafikelements 168 (z. B. den detektierten Straßen-Zustand) einschätzen kann.The control element 104 can the third projector 122 So control that he uses the STOP sign as the third graphic element 168 projected, and the second actuator 158 so control / fix that third projector 122 is moved so that the third graphic element 168 projected and rendered (eg while the driver's eyes are in the eye box 116 and the driver is heading forwards through the windshield 112 looks) that it is in the same depth as the entrance of the four-road intersection. The second actuator 158 can be controlled / regulated so that the third graphic element 168 on the third focal plane 170 which is positioned at the target position of the third graphic element and substantially perpendicular to the line of sight 178 is oriented. If the vehicle 106 Driving on the road will increase the relative distance between the vehicle 106 and change the driveway of the four-road intersection. This change in distance may be from the vehicle control system 180 to the control element 104 can be passed, the target position of the third graphic element can be changed accordingly and the second actuator 158 can be from the control 104 be controlled / regulated so that it is the third focal plane 170 moved so that it remains at the (eg changed / changing) target position of the third graphic element. Accordingly, by the third graphic element 168 on the third focal plane 170 is projected in the direction of the line of sight 178 The driver may be movable to the third graphic element 168 assigned depth of space values are thus correctly reproduced, so that the driver accurately the position of the third graphic element 168 (eg the detected road condition).

Informationen im Zusammenhang mit der Überwachungs-Funktion für die Umgebung des Fahrzeugs (z. B. einen toten Winkel) können dem Fahrer von dem vierten Projektor 124 der HUD-Vorrichtung 102 präsentiert werden. In dieser Hinsicht kann das Fahrzeug-Steuer-/Regelsystem 180 die Anwesenheit von anderen Fahrzeugen in einem Bereich unmittelbar um das Fahrzeug 106 herum oder um das Fahrzeug 106 herum detektieren. Die Detektion der anderen Fahrzeuge unmittelbar um das Fahrzeug 106 herum kann durch ein Prozessieren von Informationen betreffend die Umgebung des Fahrzeugs 106 durchgeführt werden, die von an dem Fahrzeug 106 bereitgestellten (nicht gezeigten) Sensoren erfasst werden. Die Bestimmung der Umgebung des Fahrzeugs kann auf beliebige Weise durchgeführt werden.Information related to the monitoring function for the environment of the vehicle (eg, a blind spot) may be given to the driver by the fourth projector 124 the HUD device 102 to get presented. In this regard, the vehicle control system 180 the presence of other vehicles in an area immediately around the vehicle 106 around or around the vehicle 106 detect around. The detection of the other vehicles immediately around the vehicle 106 can be around by processing information regarding the environment of the vehicle 106 carried out on the vehicle 106 provided sensors (not shown) are detected. The determination of the environment of the vehicle can be carried out in any way.

Die Informationen betreffend die Umgebung des Fahrzeugs können von dem Fahrzeug-Steuer-/Regelsystem 180 bestimmt werden und an das Steuer-/Regelelement 104 weitergegeben werden. Das Steuer-/Regelelement 104 erhält die Informationen betreffend die Umgebung des Fahrzeugs von dem Fahrzeug-Steuer-/Regelsystem 180 und bestimmt wie, falls überhaupt, das auf die vierte Brennebene 174 projizierte vierte Grafikelement 172 modifiziert werden soll. In dieser Hinsicht kann das Grafikelement, das als das vierte Grafikelement 172 verwendet wird, um die Überwachungs-Funktion der Umgebung des Fahrzeugs (z. B. einen toten Winkel) zu erleichtern, ein Fahrzeugumgebungs-Anzeiger sein, wie er in 4 gezeigt ist.The information regarding the surroundings of the vehicle may be provided by the vehicle control system 180 be determined and to the control element 104 be passed on. The control element 104 receives the information regarding the surroundings of the vehicle from the vehicle control system 180 and determines how, if any, on the fourth focal plane 174 projected fourth graphic element 172 should be modified. In this regard, the graphic element may be considered the fourth graphic element 172 In order to facilitate the monitoring function of the environment of the vehicle (eg, a blind spot), it may be a vehicle environment indicator as shown in FIG 4 is shown.

Der Fahrzeugumgebungs-Anzeiger umfasst eine zentrale Markierung, die das Fahrzeug 106 repräsentiert und acht Umgebungs-Markierungen, die Positionen unmittelbar um das Fahrzeug 106 herum repräsentieren. Das Fahrzeug-Steuer-/Regelsystem 180 gibt Informationen über die Positionen von Fahrzeugen in der unmittelbaren Umgebung des Fahrzeugs 106 weiter, und das Steuer-/Regelelement 104 steuert/regelt den vierten Projektor 124 so, dass das vierte Grafikelement 172 derart geändert wird, dass eine oder mehrere der acht zugeordneten Umgebungs-Markierungen betont werden. Das Betonen der acht Umgebungs-Markierungen zeigt dem Fahrer die Position anderer Fahrzeuge in der unmittelbaren Umgebung des Fahrzeugs 106 an.The vehicle environment indicator includes a central mark that the vehicle 106 represents and eight environmental markers, the positions immediately around the vehicle 106 represent around. The vehicle control system 180 gives information about the positions of vehicles in the immediate vicinity of the vehicle 106 Next, and the control element 104 controls / regulates the fourth projector 124 so that the fourth graphic element 172 is changed so that one or more of the eight associated environment markers are emphasized. Emphasizing the eight environmental markers shows the driver the position of other vehicles in the immediate vicinity of the vehicle 106 at.

In 4 kann das vierte Grafikelement 172 auf die vierte Brennebene 174 projiziert werden, die parallel zu der Untergrundfläche 176 orientiert und oberhalb der Untergrundfläche 176 und der Sichtlinie 178 angeordnet sein kann. Wie oben angesprochen, kann der vierte Projektor 124 fest in der HUD-Vorrichtung 102 angeordnet sein, so dass die vierte Brennebene 174 statisch ist. Wie oben angesprochen kann die vierte Brennebene 174 kontinuierlich sein, so dass das vierte Grafikelement 172 für den Fahrer mit geeigneten Raumtiefen-Werten als ein 3-D-Bild gerendert werden kann.In 4 can be the fourth graphic element 172 on the fourth focal plane 174 be projected parallel to the background surface 176 oriented and above the ground surface 176 and the line of sight 178 can be arranged. As mentioned above, the fourth projector 124 stuck in the HUD device 102 be arranged so that the fourth focal plane 174 is static. As mentioned above, the fourth focal plane 174 be continuous, making the fourth graphic element 172 can be rendered to the driver with appropriate depth of space values as a 3-D image.

Das vierte Grafikelement 172 kann in einer von der Fahrzeug-Umgebungs-Markierung aus 4 verschiedenen Form präsentiert werden. Jedenfalls kann das vierte Grafikelement 172 auf die vierte Brennebene 174 projiziert werden, die parallel zu der Untergrundfläche 176 orientiert sein kann und es kann oberhalb der Untergrundfläche 176 und der Sichtlinie 178 des Fahrers angeordnet sein. Dementsprechend kann das vierte Grafikelement 172 an einer Himmel-Brennebene bereitgestellt werden, was angemessen sein kann, da die von dem vierten Grafikelement 172 wiedergegebenen Informationen nicht mit der Umgebung zusammenwirken müssen.The fourth graphic element 172 may be in one of the vehicle's environment markings 4 different form will be presented. Anyway, the fourth graphic element 172 on the fourth focal plane 174 be projected parallel to the background surface 176 It can be oriented and it can be above the ground surface 176 and the line of sight 178 be arranged by the driver. Accordingly, the fourth graphic element 172 provided at a sky focal plane, which may be appropriate since that of the fourth graphic element 172 not interact with the environment.

Das oben beschriebene HUD-System 100 kann Grafikelemente projizieren, einige von ihnen als kontakt-analoge Augmented-Reality-Grafikelemente, bei sich kontinuierlich ändernden Brennabständen, sowie in zum Untergrund parallelen Brennebenen mit sich kontinuierlich änderndem Fokus von hinten nach vorne in der Richtung der Sichtlinie 178 des Fahrers. Dementsprechend können Tiefenwahrnehmungs-Werte verbessert werden, um das Fokussieren zu erleichtern und die Aufmerksamkeit zu erhöhen, die der Fahrer gleichzeitig oder nebenbei (oder nahezu gleichzeitig) der Umgebung schenkt. Dies erlaubt es dem Fahrer, Informationen, die mittels der Grafikelemente präsentiert werden, sowie die Umgebung zu beobachten. In dieser Hinsicht haben die Erfinder durch Experimentieren bestimmt, dass die räumliche Wahrnehmung stark von Fokus-Werten beeinflusst sein kann, und dass die Brennebenen-Anpassungsfähigkeit sowie die Fähigkeit des hierin beschriebenen HUD-Systems 100, Grafikelemente auf kontinuierlichen, statischen, zum Untergrund parallelen Brennebenen zu zeigen, die räumliche Wahrnehmung verbessert. Daher wird eine größere Verbesserung der räumlichen Wahrnehmung beobachtet, wenn die Fokus-Werte wie hierin beschrieben angepasst werden, als beobachtet werden kann, wenn eine Größe eines Grafikelements angepasst wird.The HUD system described above 100 can project graphic elements, some of them as contact-analog augmented-reality graphics elements, with continuously varying focal distances, and in background-parallel focal planes with continuously changing focus from back to front in the direction of the line of sight 178 the driver. Accordingly, depth perception values can be improved to facilitate focusing and attention increase, which the driver at the same time or incidentally (or almost simultaneously) gives the environment. This allows the driver to observe information presented by the graphic elements as well as the surroundings. In this regard, the inventors have determined through experimentation that spatial perception may be strongly influenced by focus values, and that the focal plane adaptability as well as the capability of the HUD system described herein 100 To show graphic elements on continuous, static, to the ground parallel focal planes, which improves spatial perception. Therefore, a greater enhancement of spatial perception is observed when adjusting the focus values as described herein than can be observed when adjusting a size of a graphic element.

Die Konfiguration der HUD-Vorrichtung 102, einschließlich der Verwendung der Strahlteiler 126, 130, 134 und Linsen 128, 132, 136, 138 erlaubt es, dass die HUD-Vorrichtung 102 eine relativ kompakte Größe aufweist. Ferner erlauben es die Linsen 128, 132, 136, 138, dass sich ein Tiefenbereich von wenigen Metern vor dem Fahrzeug bis zum Unendlichen innerhalb des für die Optiken der HUD-Vorrichtung 102 vorgesehenen physikalischen Raums erstreckt. Ferner können die Strahlteiler 126, 130, 134 als optische Kombinatoren verwendet werden, um alle getrennten Mengen von projizierten Strahlen von dem ersten, zweiten, dritte und vierten Projektor 118, 1120, 122, 124 durch die Linsen 128, 132, 136, 138 zusammenzuführen, um getrennte Bilder von dem ersten, zweiten, dritten und vierten Projektor 118, 120, 122, 124 in ein vereinigtes Bild (oder z. B. ein Grafikelement) zu kombinieren, das im Sichtfeld des Fahrers projiziert wird.The configuration of the HUD device 102 including the use of the beam splitter 126 . 130 . 134 and lenses 128 . 132 . 136 . 138 allows the HUD device 102 has a relatively compact size. Furthermore, the lenses allow it 128 . 132 . 136 . 138 in that a depth range of a few meters in front of the vehicle to infinity within that for the optics of the HUD device 102 extending physical space extends. Furthermore, the beam splitters 126 . 130 . 134 are used as optical combiners to detect all separate amounts of projected beams from the first, second, third and fourth projectors 118 . 1120 . 122 . 124 through the lenses 128 . 132 . 136 . 138 to combine separate images of the first, second, third and fourth projectors 118 . 120 . 122 . 124 to combine into a unified image (or, for example, a graphic element) that is projected in the driver's field of view.

In einer oder mehreren Ausführungsformen können einige der oben offenbarten sowie weitere Merkmale und Funktionen oder Alternativen oder Abwandlungen davon, bevorzugt zu vielen anderen verschiedenen Systemen oder Anwendungen kombiniert werden. Zusätzlich können verschiedene momentan nicht vorgesehene oder nicht betrachtete Alternativen, Modifikationen oder Verbesserungen daran nachträglich von Fachleuten durchgeführt werden, wobei beabsichtigt ist, dass dies ebenfalls von den folgenden Ansprüchen umfasst wird.In one or more embodiments, some of the above-disclosed and other features and functions or alternatives or modifications thereof, preferably to many other various systems or applications may be combined. In addition, various alternatives, modifications or improvements not heretofore contemplated or contemplated may be subsequently made by those skilled in the art, and it is intended that the same be covered by the following claims.

Beispielsweise können in dem HUD-System 100 weniger oder mehr Projektoren verwendet werden, um weniger oder mehr Grafikelemente zu projizieren. Ferner kann, wenngleich das HUD-System 100 so beschrieben worden ist, dass es zwei Projektoren aufweist, die Grafikelemente auf frontale Brennebenen projizieren und zwei Projektoren aufweist, die Grafikelement auf Brennebene projizieren, die parallel zum Untergrund sind, das Verhältnis von frontalen zu zum Untergrund parallelen Brennebenen geändert werden. Die oben beschriebenen Fahrzeug-Funktionen im Zusammenhang mit dem HUD-System sind exemplarisch und können geändert oder modifiziert werden.For example, in the HUD system 100 fewer or more projectors are used to project fewer or more graphics elements. Furthermore, although the HUD system 100 has been described as having two projectors projecting graphic elements on frontal focal planes and having two projectors projecting focal plane graphic elements parallel to the ground, the ratio of frontal to ground parallel focal planes are changed. The vehicle functions described above in connection with the HUD system are exemplary and can be changed or modified.

Ferner kann der Mechanismus, durch den die vorderen Brennebenen bewegt werden, gegenüber dem oben beschriebenen modifiziert werden. Beispielsweise können, anstatt den gesamten Projektor zu bewegen (z. B. den ersten und dritten Projektor 118, 122 unter Verwendung des ersten und zweiten Aktuators 156, 158) nur die Diffusorscheiben (z. B. die Diffusorscheiben 148, 152 des ersten und dritten Projektors 118, 122) relativ zu den jeweiligen Projektor-Einheiten (z. B. den Projektor-Einheiten 140, 144) bewegt werden.Further, the mechanism by which the front focal planes are moved may be modified from that described above. For example, instead of moving the entire projector (for example, the first and third projectors 118 . 122 using the first and second actuators 156 . 158 ) only the diffuser discs (eg the diffuser discs 148 . 152 of the first and third projectors 118 . 122 ) relative to the respective projector units (eg the projector units 140 . 144 ) are moved.

Zusätzlich kann, wenngleich das HUD-System 100 unter Bezugnahme auf das Fahrzeug 106 beschrieben worden ist, das ein vierrädriges Automobil für die Verwendung unter freiem Himmel sein kann, das HUD-System 100 in verschiedenen Fahrzeugtypen eingesetzt werden. Beispielsweise kann das HUD-System in einem Wasserfahrzeug (z. B. einem Boot), einem Luftfahrzeug (z. B. einem Flugzeug oder Düsenflugzeug) oder einem Fahrzeug verwendet werden, das zum Einsatz in überdachten Räumen vorgesehen ist (z. B. ein Transportwagen, ein Fahrzeug, das zum Bewegen von Gegenständen vorgesehen ist, wie beispielsweise ein Gabelstapler etc.).In addition, although the HUD system 100 with reference to the vehicle 106 which may be a four-wheel automobile for outdoor use, the HUD system 100 be used in different vehicle types. For example, the HUD system may be used in a watercraft (eg, a boat), an aircraft (eg, an airplane or jet), or a vehicle intended for use in indoor spaces (e.g. Dolly, a vehicle intended for moving objects, such as a forklift, etc.).

5 ist eine Illustration eines beispielhaften Komponenten-Diagramms eines Systems 500 für eine 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Das System 500 kann eine HUD-Komponente 100, eine Fahrzeug-Steuer-/Regelkomponente 180, eine Steuer-/Regelkomponente 104, eine Navigations-Komponente 540, eine Tiefenkarte-Komponente 550, eine Tiefenpuffer-Komponente 560, eine oder mehrere Sensor-Komponenten 570 und ein oder mehrere Steuer-/Regelbereich-Netzwerke (CANs – Controller Area Network) 580 umfassen. Die HUD-Komponente 100 kann ein Fahrzeug-HUD-System, wie beispielsweise das HUD-System aus 1 sein und oben beschriebene Komponenten umfassen. In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 unter anderem ein 3-D-HUD, ein Variabler-Abstand-HUD, ein Augmented-Reality-HUD (AR-HUD) etc. sein. 5 is an illustration of an example component diagram of a system 500 for 3-D navigation according to one or more embodiments. The system 500 can be a HUD component 100 , a vehicle control component 180 , a control component 104 , a navigation component 540 , a depth map component 550 , a depth buffer component 560 , one or more sensor components 570 and one or more control area networks (CANs - Controller Area Network) 580 include. The HUD component 100 may be a vehicle HUD system, such as the HUD system 1 and components described above include. In one or more embodiments, the HUD component 100 among others, a 3-D HUD, a variable-distance HUD, an augmented-reality HUD (AR-HUD), etc.

Die Navigations-Komponente 540 kann dazu eingerichtet sein, eine Ausgangsposition zu erhalten oder zu identifizieren (z. B. Punkt A) und eine oder mehrere Zielpositionen (z. B. Punkt B). Die Navigations-Komponente 540 kann dazu eingerichtet sein, beispielsweise eine oder mehrere Routen von Punkt A zu Punkt B zu bestimmen. Im Allgemeinen ist die Navigations-Komponente 540 einem Fahrzeug zugeordnet. Beispielsweise kann die Navigations-Komponente 540 in dem Fahrzeug montiert, in einem oder mehreren Systemen oder einer oder mehreren Komponenten des Fahrzeugs integriert sein, innerhalb des Fahrzeugs beherbergt sein, mit einer oder mehreren Komponenten des Fahrzeugs verbunden oder kommunikativ gekoppelt sein, oder innerhalb des Fahrzeugs angeordnet sein etc. Jedenfalls kann die Navigations-Komponente 540 die Ausgangsposition und die Zielposition erhalten oder identifizieren. In einer oder mehreren Ausführungsformen kann die Navigations-Komponente 540 eine (nicht gezeigte) Telematik-Komponente umfassen, die dazu eingerichtet sein kann, einen momentanen Ort oder einer eine momentane Position des Fahrzeugs zu bestimmen.The navigation component 540 may be configured to obtain or identify a home position (eg, point A) and one or more target locations (eg, point B). The navigation component 540 may be arranged to determine, for example, one or more routes from point A to point B. In general, the navigation component 540 assigned to a vehicle. For example, the navigation component 540 mounted in the vehicle, in one integrated with one or more systems or one or more components of the vehicle, be housed within the vehicle, be connected to one or more components of the vehicle or communicatively coupled, or be disposed within the vehicle, etc. In any case, the navigation component 540 get or identify the starting position and the target position. In one or more embodiments, the navigation component 540 comprise a telematics component (not shown) that may be configured to determine a current location or position of the vehicle.

Zusätzlich kann die Navigations-Komponente 540 dazu eingerichtet sein, eine oder mehrere Routen von der Ausgangsposition zu einer oder mehreren der Zielpositionen zu erzeugen. In einer oder mehreren Ausführungsformen kann die Navigations-Komponente 540 dazu eingerichtet sein, eine oder mehrere der Routen von einem momentanen Ort oder einer momentanen Position des Fahrzeugs zu einer oder mehreren der Zielpositionen zu erzeugen. Eine Route der einen oder mehreren Routen kann einen oder mehrere Abschnitte oder einen oder mehrere Routenabschnitte umfassen. Beispielsweise können einer oder mehrere Abschnitte der Route eine oder mehrere Navigations-Anweisungen oder -Manöver im Zusammenhang mit einem oder mehreren Straßenabschnitten oder einer oder mehreren Kreuzungen von Straßenabschnitten umfassen. Anders gesagt können einer oder mehrere Abschnitt der Route einen oder mehrere Richtungswechsel, Navigations-Manöver, Straßenabschnitte, Kreuzungen, Wegmarken oder andere Elemente entlang der Route umfassen. Die Navigations-Komponente 540 kann dazu eingerichtet sein, einen oder mehrere dieser Richtungswechsel, Navigations-Manöver, Wegmarken etc. zu identifizieren und einen oder mehrere Navigations-Anweisungen oder eine oder mehrere Navigations-Instruktionen entsprechend ausgeben, beispielsweise an einen Fahrer des Fahrzeugs.Additionally, the navigation component 540 be configured to generate one or more routes from the home position to one or more of the destination locations. In one or more embodiments, the navigation component 540 be configured to generate one or more of the routes from a current location or a current location of the vehicle to one or more of the destination locations. A route of the one or more routes may include one or more sections or one or more route sections. For example, one or more portions of the route may include one or more navigation instructions or maneuvers associated with one or more road sections or one or more intersections of road sections. In other words, one or more portions of the route may include one or more direction changes, navigation maneuvers, road sections, intersections, landmarks, or other elements along the route. The navigation component 540 may be configured to identify one or more of these direction changes, navigation maneuvers, landmarks, etc., and output one or more navigation instructions or one or more navigation instructions, for example, to a driver of the vehicle.

Die Navigations-Komponente 540 kann eine oder mehrere der Navigations-Anweisungen oder Navigations-Instruktionen mittels einer Audio-Ausgabe, visuellen Ausgabe, taktilen Ausgabe etc. ausgeben. Beispielsweise kann die Navigations-Komponente 540 mit einer oder mehreren (nicht gezeigten) Peripherie-Komponenten zusammenarbeiten, indem eine oder mehrere Ausgaben über ein oder mehrere Steuer-/Regelbereich-Netzwerke (CANs) 580 übertragen werden. Die Navigations-Komponente 540 kann eine hörbare Anweisung abspielen, wie beispielsweise „An der Hauptstraße links abbiegen” oder ein Licht an dem linken Abschnitt einer Anzeige aufblinken lassen, das Lenkrad vibrieren lassen etc., um dem Fahrer anzuzeigen, dass eine Fahr-Handlung ausgeführt werden soll. Die Navigations-Komponente 540 kann mit einer oder mehreren anderen Komponenten zusammenarbeiten, um eine Übertragung oder ein Liefern von einer oder mehreren Fahr-Anweisungen zu erleichtern.The navigation component 540 may issue one or more of the navigation instructions or navigation instructions by means of audio output, visual output, tactile output, etc. For example, the navigation component 540 cooperate with one or more peripheral components (not shown) by communicating one or more outputs over one or more Control Area Networks (CANs). 580 be transmitted. The navigation component 540 may play an audible instruction, such as "turn left on the main street" or flash a light on the left portion of a display, vibrate the steering wheel, etc., to indicate to the driver that a drive action is to be performed. The navigation component 540 may cooperate with one or more other components to facilitate transmission or delivery of one or more driving instructions.

Beispielsweise kann die HUD-Komponente 100 dazu eingerichtet sein, eine oder mehrere Navigations-Anweisungen oder ein oder mehrere Navigations-Manöver als ein oder mehrere Grafikelemente oder Avatare im Sichtfeld eines Insassen oder Fahrers des Fahrzeugs zu projizieren. Diese Navigations-Anweisungen können von der Navigations-Komponente 540 (z. B. direkt oder indirekt) erhalten werden. Die HUD-Komponente 100 kann dazu eingerichtet sein, einen Avatar auf aufeinander folgende Brennebenen derart zu projizieren, dass der Avatar sich für einen Insassen, wie beispielsweise einen Fahrer, der aus der Augenbox aus 2 herausblickt, zu bewegen scheint. Auf diese Weise kann die HUD-Komponente 100 es einem Fahrer erlauben, ein volumetrisches Bild im Sichtfeld des Fahrers wahrzunehmen, wobei das volumetrische Bild als ein „virtuelles” Führungsfahrzeug für den Fahrer des Fahrzeugs dienen kann, dem er folgen kann. Anders gesagt kann es dem Fahrer des Fahrzeugs so vorkommen, dass er oder sie lediglich einem Führungsfahrzeug beispielsweise zu einer Zielposition folgen muss. Zusätzlich können eine oder mehrere Navigations-Anweisungen oder Navigations-Instruktionen als ein/e volumetrische/r Platzhalter, Markierung oder Fahnenmast projiziert werden, wie hierin beschrieben werden wird.For example, the HUD component 100 be configured to project one or more navigation instructions or one or more navigation maneuvers as one or more graphic elements or avatars in the field of view of an occupant or driver of the vehicle. These navigation instructions may be from the navigation component 540 (eg directly or indirectly). The HUD component 100 may be configured to project an avatar on successive focal planes such that the avatar emerges from the eye box for an occupant, such as a driver 2 looks out, seems to move. That way, the HUD component can 100 allow a driver to perceive a volumetric image in the driver's field of vision, which volumetric image may serve as a "virtual" guidance vehicle for the driver of the vehicle to follow. In other words, the driver of the vehicle may feel that he or she only has to follow a leader vehicle to a target position, for example. Additionally, one or more navigation instructions or navigation instructions may be projected as a volumetric wildcard, marker or flagpole, as will be described herein.

Die HUD-Komponente 100 kann dazu eingerichtet sein, ein oder mehrere Grafikelemente zu projizieren, die kontakt-analoge Augmented-Reality-Grafikelemente, konformale Augmented-Reality-Grafikelemente, Avatare, Zeichen etc. sein können. Diese Grafikelemente können von der HUD-Komponente 100 volumetrisch projiziert werden. Folglich können ein oder mehrere visuelle Werte oder ein oder mehrere Raumtiefen-Werte im Zusammenhang mit den Grafikelementen im Wesentlichen beibehalten werden. Das Beibehalten von einem oder mehreren dieser visuellen Werte oder Raumtiefen-Werte kann erreicht werden, indem Grafikelemente auf eine dynamische Brennebene oder eine bewegbare Brennebene projiziert werden. Das heißt, dass die HUD-Komponente 100 dazu eingerichtet sein kann, ein oder mehrere Grafikelemente auf eine bewegbare oder anpassbare Brennebene zu projizieren oder zu rendern. Eine dynamische Brennebene oder eine bewegbare Brennebene können entlang eines Pfads oder einer Linie, wie beispielsweise einer Sichtlinie eines Insassen eines Fahrzeugs bewegt oder angepasst werden, wie beispielsweise unter Bezugnahme auf 1 und 3 diskutiert worden ist. Anders gesagt kann die dynamische Brennebene in Richtung eines Fahrzeugs oder einer Windschutzscheibe eines Fahrzeugs oder davon weg bewegbar sein.The HUD component 100 may be configured to project one or more graphics elements, which may be augmented reality analogue graphics, conformal augmented reality graphics, avatars, characters, etc. These graphic elements can be from the HUD component 100 be projected volumetrically. As a result, one or more visual values or one or more spatial depth values associated with the graphics elements may be substantially maintained. Maintaining one or more of these visual values or depths of space may be accomplished by projecting graphics elements onto a dynamic focal plane or a movable focal plane. That is, the HUD component 100 be configured to project or render one or more graphics elements on a movable or customizable focal plane. A dynamic focal plane or a movable focal plane may be moved or adjusted along a path or line, such as a line of sight of an occupant of a vehicle, such as with reference to FIG 1 and 3 has been discussed. In other words, the dynamic focal plane may be movable toward or away from a vehicle or windshield of a vehicle.

In einer oder mehreren Ausführungsformen kann eine Brennebene als Folge einer Bewegung von Projektoren oder Schirmen der HUD-Komponente 100 dynamisch sein, wie beispielsweise durch die Verwendung von Aktuatoren. Das heißt, dass ein oder mehrere Projektoren der HUD-Komponente 100 dazu eingerichtet sein können, sich linear zu bewegen, wodurch es den jeweiligen Projektoren ermöglicht wird, ein oder mehrere Grafikelemente auf eine dynamische, bewegbare oder anpassbare Brennebene zu projizieren, die sich bewegen, wenn sich die Projektoren bewegen. In anderen Ausführungsformen können ein oder mehrere andere Mittel oder alternative Mittel für die Anpassungen verwendet werden. In one or more embodiments, a focal plane may be due to movement of projectors or screens of the HUD component 100 be dynamic, such as through the use of actuators. That is, one or more projectors of the HUD component 100 may be configured to move linearly, thereby allowing the respective projectors to project one or more graphics elements onto a dynamic, movable or adaptable focal plane that will move as the projectors move. In other embodiments, one or more other means or alternative means may be used for the adjustments.

Anders ausgedrückt kann, wenn ein Grafikelement auf eine dynamische, bewegbare oder anpassbare Brennebene projiziert wird, das Grafikelement auf eine Brennebene projiziert werden, wobei ein Abstand (z. B. Abstand 162' oder Abstand 170' aus 3) zwischen der Brennebene und dem Fahrzeug angepasst wird. Da Projektoren einer HUD-Komponente 100 Grafikelemente auf bewegbare Brennebenen projizieren oder rendern können, kann der Fokus von in verschiedenen Abständen von dem Fahrzeug projizierten Grafikelementen angepasst werden. Wie angesprochen können eine oder mehrere der Brennebenen im Wesentlichen senkrecht oder im Wesentlichen parallel zu einer Sichtlinie eines Insassen des Fahrzeugs orientiert sein. Anders ausgedrückt kann eine Brennebene parallel zum Untergrund oder senkrecht zum Untergrund sein. Zusätzlich können eine oder mehrere der Brennebenen bewegbar oder statisch bezüglich der Sichtlinie des Insassen oder dem Untergrund sein. Dies erlaubt es, dass Raumtiefen-Werte im Zusammenhang mit den Grafikelementen korrekt für Insassen des Fahrzeugs, wie beispielsweise dem Fahrer präsentiert werden, wenn sich das Fahrzeug bewegt oder fährt (z. B. wenn es somit als eine sich bewegende Plattform dient).In other words, when a graphic element is projected onto a dynamic, movable or adaptable focal plane, the graphic element can be projected onto a focal plane, with a distance (eg, distance 162 ' or distance 170 ' out 3 ) is adjusted between the focal plane and the vehicle. Because projectors of a HUD component 100 Projecting or rendering graphical elements on movable focal planes allows the focus to be adjusted by graphical elements projected at various distances from the vehicle. As mentioned, one or more of the focal planes may be oriented substantially perpendicular or substantially parallel to a line of sight of an occupant of the vehicle. In other words, a focal plane may be parallel to the ground or perpendicular to the ground. Additionally, one or more of the focal planes may be movable or static with respect to the line of sight of the occupant or the ground. This allows room depth values associated with the graphics elements to be correctly presented to occupants of the vehicle, such as the driver, as the vehicle moves or travels (eg, when it serves as a moving platform).

Die HUD-Komponente 100 aus 5 kann dazu eingerichtet sein, volumetrische kontakt-analoge Augmented-Reality-Grafikelemente zu projizieren oder zu rendern. Das bedeutet, dass diese Grafikelement so projiziert werden können, dass sie in verschiedenen Abständen erscheinen. Anders gesagt kann die HUD-Komponente 100 Grafikelemente auf verschiedenen Brennebenen oder auf eine anpassbare Weise projizieren. Noch anders ausgedrückt können Brennebenen von Grafikelementen, die von der HUD-Komponente 100 projiziert werden, an Abstände angepasst werden, die sich über die Windschutzscheibe hinaus erstrecken, beispielsweise bis in die Nähe eines Fußgängers auf dem Gehweg, wodurch es einem Insassen ermöglicht wird, sich auf die Betriebs-Umgebung oder Fahr-Umgebung zu konzentrieren, anstatt den Fokus ihrer Augen zwischen der Windschutzscheibe oder dem Armaturenbrett des Fahrzeugs und der Fahr-Umgebung verstellen zu müssen. Auf diese Weise kann die Fahrsicherheit durch das System 500 für eine 3-D-Navigation verbessert werden.The HUD component 100 out 5 may be configured to project or render volumetric contact analog augmented reality graphics. This means that these graphic elements can be projected to appear at different intervals. In other words, the HUD component 100 Project graphic elements on different focal planes or in a customizable way. Stated another way, focal planes of graphic elements derived from the HUD component 100 be projected at distances that extend beyond the windshield, for example, to the vicinity of a pedestrian on the sidewalk, thereby allowing an occupant to focus on the operating environment or driving environment rather than the focus their eyes between the windshield or the dashboard of the vehicle and the driving environment to adjust. In this way, driving safety through the system 500 be improved for a 3-D navigation.

Dementsprechend können Grafikelemente in eine Umgebung im direkten Sichtfeld eines Insassen projiziert oder visuell platziert werden (z. B. durch die HUD-Komponente 100). Das bedeutet, dass Grafikelemente in den selben Raum wie die echte Umgebung gerendert werden können, anstatt auf die Windschutzscheibe, was es Raumtiefen-Werten im Zusammenhang mit den Grafikelementen erlaubt, auf eine akkurate oder korrekte Weise reproduziert zu werden. Folglich können Grafikelemente auf die selben Brennebenen projiziert werden wie Objekte aus der realen Welt (z. B. die Straße), so dass beispielsweise ein Insasse des Fahrzeugs die Grafikelemente betrachten kann, ohne von der Straße wegzuschauen.Accordingly, graphics elements may be projected or visually placed in an immediate field of view of an occupant (eg, by the HUD component 100 ). This means that graphic elements can be rendered in the same room as the real environment rather than being reproduced in an accurate or correct manner on the windshield, which allows depth of space values associated with the graphics elements. As a result, graphic elements can be projected onto the same focal planes as objects from the real world (eg, the road) so that, for example, an occupant of the vehicle can view the graphic elements without looking away from the road.

Diese mehreren Brennebenen oder anpassbaren Brennebenen können erreicht werden, da wenn Projektoren der HUD-Komponente 100 bewegt werden, Lichtstrahlen derart umgeformt oder verändert werden können, dass ein projiziertes Grafikelement oder virtuelles Objekt weiter entfernt als die Windschutzscheibe erscheinen kann oder eine Brennebene aufweisen kann, die nicht auf der Windschutzscheibe ist. Das heißt, dass beispielsweise das projizierte Grafikelement oder virtuelle Objekt ähnliche Brenneigenschaften wie ein reales Objekt (z. B. ein Fußgänger, ein Fahrzeug, ein Schild etc.) haben kann, das weit entfernt ist (z. B. zehn Meter). Wenn Lichtstrahlen von dem Glas der Windschutzscheibe weg reflektiert werden, zerstreuen sich ausgehende Lichtstrahlen, wodurch ein „reflektiertes” Bild oder ein reales Bild erzeugt wird, das als ein Grafikelement projiziert werden kann.These multiple focal planes or customizable focal planes can be achieved as if projectors of the HUD component 100 can be transformed or changed so that a projected graphic element or virtual object may appear farther than the windshield or may have a focal plane that is not on the windshield. That is, for example, the projected graphic element or virtual object may have similar firing properties as a real object (eg, a pedestrian, a vehicle, a sign, etc.) that is far away (eg, ten meters). As light rays are reflected away from the glass of the windshield, outgoing light rays dissipate, creating a "reflected" image or image that can be projected as a graphic element.

Da die Lichtstrahlen von der Windschutzscheibe weg reflektiert werden, anstatt von der Windschutzscheibe emittiert zu werden oder auf ihr erscheinen (z. B. wie durch spezielle Beschichtungen), ist ein erneutes Rendern eines Grafikelements nicht notwendig, wenn ein Insasse seinen Kopf bewegt. Beispielsweise erlauben die kontinuierlichen, statischen Brennebenen aus 3, dass durch die Vorwärts-Rückwärts-Richtung im 3-dimensionalen Raum (z. B. der Richtung der Sichtlinie eines Insassen) optisch „korrekte” oder reale Bilder erzeugt werden, wodurch es ermöglicht wird, geeignete Bewegungs-Parallaxenwerte zu erzeugen. Dementsprechend können, wenn sich der Kopf des Insassen bewegt, Grafikelemente im Zusammenhang mit dieser Brennebene so erscheinen, als ob ihre Position in der Umgebung fest wäre, anstatt sich herumzubewegen. Wie angesprochen bedeutet das, dass die HUD-Komponente 100 keine Verfolgungsfunktionalität für den Kopf benötigt, um die Bewegung des Kopfs eines Insassen zu kompensieren.Because the light rays are reflected away from the windshield rather than being emitted from or appearing on the windshield (eg, as by special coatings), rendering of a graphic element is not necessary when an occupant moves his head. For example, the continuous, static focal planes allow 3 in that the forward-backward direction in 3-dimensional space (e.g., the direction of an occupant's line of sight) produces optically "correct" or real images, thereby making it possible to generate appropriate motion parallax values. Accordingly, as the occupant's head moves, graphic elements associated with that focal plane may appear as if their position in the environment were fixed instead of moving around. As mentioned this means that the HUD component 100 no tracking functionality for the head needed to compensate for the movement of the head of an occupant.

Die HUD-Komponente 100 kann Raster-basiert sein, anstatt Vektor-basiert zu sein. Das bedeutet, dass von der HUD-Komponente 100 projizierte Grafikelemente ein Bitmap sein können, eine Matrix-Punktstruktur aufweisen können, oder ein rechteckiges Pixelgitter sein können. Zusätzlich kann die HUD-Komponente 100 dazu eingerichtet sein, einen oder mehrere Abschnitte von einem oder mehreren Grafikelementen mit verschiedenen Schattierungen, Transparenz-Niveaus, Farben, Helligkeiten etc. zu projizieren.The HUD component 100 can be raster-based rather than vector-based. That means that from the HUD component 100 projected graphic elements may be a bitmap, may have a matrix dot structure, or may be a rectangular pixel grid. Additionally, the HUD component 100 be configured to project one or more sections of one or more graphic elements having different shades, transparency levels, colors, brightnesses, etc.

Somit kann die HUD-Komponente dazu eingerichtet sein, Grafikelemente oder Avatare mit verschiedenen Freiheitsgraden zu rendern oder zu projizieren. Das heißt, dass die Akkomodation beibehalten werden kann, so dass die Augen eines Insassen aktiv eine optische Brechkraft ändern können, um sich auf ein Grafikelement zu konzentrieren, das auf eine Brennebene projiziert wird. Ähnlich kann eine Vergenz beibehalten werden so dass der Insasse eine gleichzeitige Drehung eines Grafikelements nach innen haben kann, wenn das Grafikelement so projiziert wird, dass es „näher kommt” (z. B. durch Projizieren auf aufeinander folgende Brennebenen).Thus, the HUD component may be configured to render or project graphic elements or avatars having different degrees of freedom. That is, the accommodation can be maintained so that the eyes of an occupant can actively change an optical power to focus on a graphic element projected onto a focal plane. Similarly, vergence may be maintained so that the occupant may have a simultaneous inward rotation of a graphic element as the graphic element is projected to "come closer" (eg, by projecting onto successive focal planes).

In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 ein Grafikelement als einen Avatar oder einen sich bewegenden Avatar für einen Fahrer oder Insassen eines Fahrzeugs projizieren, denen er als eine Navigations-Anweisung, Manöver oder Befehl folgen kann. Beispielsweise kann die HUD-Komponente 100 dazu eingerichtet sein, eines oder mehrere der Grafikelemente als einen sich bewegenden Avatar, einen Platzhalter, eine Identifizierung, einen Fahnenmast, eine Markierung etc. zu projizieren oder zu rendern. Diese Grafikelemente können auf eine oder mehrere Brennebenen um eine Umgebung herum projiziert werden, die das Fahrzeug umgibt, und sie können im Sichtfeld eines Insassen des Fahrzeugs projiziert werden. Ein Avatar oder Grafikelement, das von der HUD-Komponente 100 projiziert wird, kann einen Fahrer eines Fahrzeugs durch einen oder mehrere Abschnitte einer Route führen und Kollisionen mit Hindernissen, Sperrungen oder Straßen-Zuständen vermeiden, indem zum Ausweichen, Navigieren, Bewegen oder Fahren um diese Hindernisse herum projiziert wird. Eine Sensor-Komponente 570 kann dazu eingerichtet sein, ein oder mehrere Hindernisse oder Straßen-Zustände zu detektieren, und eine Steuer-/Regelkomponente 104 kann die HUD-Komponente 100 dazu anleiten, das Grafikelement derart zu projizieren, dass das Grafikelement um den Straßen-Zustand herum fährt oder ihn umgeht, beispielsweise durch einen Spurwechsel oder das Vermeiden einer Engstelle für den Verkehr.In one or more embodiments, the HUD component 100 Project a graphic element as an avatar or moving avatar for a driver or occupant of a vehicle, which he or she may follow as a navigation instruction, maneuver, or command. For example, the HUD component 100 be configured to project or render one or more of the graphic elements as a moving avatar, a wildcard, an identifier, a flagpole, a marker, etc. These graphics elements may be projected onto one or more focal planes around an environment surrounding the vehicle and may be projected in the field of view of an occupant of the vehicle. An avatar or graphic element created by the HUD component 100 can project a driver of a vehicle through one or more sections of a route and avoid collisions with obstacles, blockages, or road conditions by projecting to dodge, navigate, move, or drive around those obstacles. A sensor component 570 may be configured to detect one or more obstacles or road conditions, and a control component 104 can be the HUD component 100 to direct the graphic element to project such that the graphic element travels around or bypasses the road state, for example by changing lanes or avoiding bottlenecks for traffic.

In einer oder mehreren Ausführungsformen kann die Sensor-Komponente 570 dazu eingerichtet sein, einen oder mehrere Straßen-Zustände in einer Umgebung um das Fahrzeug herum oder das Fahrzeug umgebend zu sensieren, identifizieren oder detektieren. Die Sensor-Komponente 570 kann Straßenabschnitte, Gehwege, Objekte, Fußgänger, andere Fahrzeuge, Sperrungen, Hindernisse, Unrat, Schlaglöcher, Straßenoberfläche-Zustände (z. B. Eis, Regen, Sand, Kies etc.), Verkehrsbedingungen, Verkehrsschilder (z. B. rote Ampeln, Geschwindigkeitsbegrenzung-Schilder, Stop-Schilder, Bahnübergänge, Züge etc.) detektieren oder identifizieren. Diese Straßen-Zustände können an die Steuer-/Regelkomponente 104 oder die Fahrzeug-Steuer-/Regelkomponente 180 übertragen werden. Beispielsweise können eine oder mehrere der CANs 580 dazu verwendet werden, die Kommunikation zwischen der Sensor-Komponente 570 und der Steuer-/Regelkomponente 104 oder der Fahrzeug-Steuer-/Regelkomponente 180 zu erleichtern. In einer oder mehreren Ausführungsformen kann die Sensor-Komponente 570 eine oder mehrere Bildaufnahme-Vorrichtungen, ein Mikrofon, einen Toter-Winkel-Monitor, einen Parksensor, eine Annäherungssensor, einen Anwesenheitssensor, einen Infrarot-Sensor, einen Bewegungssensor etc. umfassen.In one or more embodiments, the sensor component 570 be configured to identify or detect one or more road conditions in an environment around the vehicle or surrounding the vehicle. The sensor component 570 may include road sections, walkways, objects, pedestrians, other vehicles, closures, obstacles, debris, potholes, road surface conditions (eg, ice, rain, sand, gravel, etc.), traffic conditions, traffic signs (eg, red lights, Detect or identify speed limit signs, stop signs, level crossings, trains, etc.). These road states may be sent to the control component 104 or the vehicle control component 180 be transmitted. For example, one or more of the CANs 580 used to communicate between the sensor component 570 and the control component 104 or the vehicle control component 180 to facilitate. In one or more embodiments, the sensor component 570 include one or more image capture devices, a microphone, a blind spot monitor, a parking sensor, a proximity sensor, a presence sensor, an infrared sensor, a motion sensor, etc.

So wie der Begriff hierin verwendet wird, kann ein Verkehrs-Zustand eine Kreuzung, ein Fahrzeug, wie beispielsweise ein Fahrzeug, das sich eine Straße mit einem Fahrzeug teilt, das mit einem 3-D-Navigationssystem ausgestattet ist, eine Straßenkreuzung, eine rote Ampel, einen Straßenabschnitt, einen Gehweg, ein Stop-Schild, ein Vorfahrt-Gewähren-Schild, ein Verkehrsschild, einen Zug etc. umfassen. So wie der Begriff hierin verwendet wird, kann ein Straßen-Zustand Unrat, Kies, Schlaglöcher, einen Straßenoberfläche-Zustand, Sand, umgestürzte Bäume, ausgelaufene Flüssigkeiten, Ölpfützen, Wetterbedingungen, wie beispielsweise Eis oder Regen, etc. umfassen. Ferner kann ein „Objekt” im Wesentlichen jeden Verkehrs-Zustand, jeden Straßen-Zustand, jede Wetterbedingung etc. umfassen. Beispiele von Objekten können andere Fahrzeuge, Geschäfte, Gebäude, Wegmarken, Hindernisse auf einer Straße, Straßen-Abschnitte, Kreuzungen, Fußgänger etc. umfassen, sind jedoch nicht darauf beschränkt. Objekte können in Zusammenhang mit einem Pfad, einem oder mehreren Straßen-Abschnitten etc. entlang einer Route gefunden, detektiert oder zugeordnet werden, auf dem/der/denen das Fahrzeug fährt oder voraussichtlich entlang fahren wird.As the term is used herein, a traffic condition may include an intersection, a vehicle such as a vehicle sharing a road with a vehicle equipped with a 3-D navigation system, a road junction, a red traffic light include a stretch of road, walkway, stop sign, right of way sign, road sign, train, etc. As the term is used herein, a road condition may include debris, gravel, potholes, a road surface condition, sand, fallen trees, spills, oil puddles, weather conditions such as ice or rain, etc. Further, an "object" may include substantially any traffic condition, road condition, weather condition, etc. Examples of objects may include, but are not limited to, other vehicles, shops, buildings, landmarks, obstacles on a road, road sections, intersections, pedestrians, etc. Objects may be found, detected or assigned in connection with a path, one or more road sections, etc., along a route on which the vehicle is traveling or is expected to travel along.

Detaillierter gesagt kann die Sensor-Komponente 570 Informationen (z. B. Objekte, Verkehrs-Zustände, Straßen-Zustände, Wetterbedingungen etc.) aus einer Umgebung erhalten, erfassen oder detektieren, wie beispielsweise einer Fahr-Umgebung, einer Betriebs-Umgebung oder einer Umgebung, die ein Fahrzeug umgibt. Von der Sensor-Komponente 570 gesammelte Informationen können durch das Steuer-/Regelbereich-Netzwerk 580 weitergegeben werden und von der Steuer-/Regelkomponente 104 analysiert werden, oder über einen von der Navigations-Komponente 540 bereitgestellten Telematik-Kanal weitergegeben und von einem (nicht gezeigten) entfernten Server analysiert werden. In jedem Fall können von der Sensor-Komponente 570 erhaltene oder gesammelte Informationen einen Grund, Vorsicht walten zu lassen, einen Grund, abzubremsen (z. B. aufgrund einer Geschwindigkeitsbegrenzungs-Anzeige oder eines Geschwindigkeitsbegrenzungs-Schilds), einen Grund zu beschleunigen, einen Grund anzuhalten, einen Grund zu wenden, etc. für einen Fahrer anzeigen. Anders ausgedrückt können die von der Sensor-Komponente 570 gesammelten Informationen von der Steuer-/Regelkomponente 104 oder einem entfernten Server analysiert und in eine oder mehrere vorgeschlagene Fahr-Aktionen für einen Fahrer übersetzt werden. Diese vorgeschlagenen Fahr-Aktionen können von der HUD-Komponente 100 als visuelle Objekte oder grafische Elemente auf Grundlage von von der Fahrzeug-Steuer-/Regelkomponente 180 gesammelten Informationen und von der Steuer-/Regelkomponente 104 gemachten Bestimmungen projiziert werden.In more detail, the sensor component 570 Receive, detect, or detect information (eg, objects, traffic conditions, road conditions, weather conditions, etc.) from an environment such as a driving environment, an operating environment, or an environment surround a vehicle. From the sensor component 570 Information collected by the control panel network 580 and from the tax component 104 be analyzed, or via one of the navigation component 540 provided telematics channel and analyzed by a (not shown) remote server. In any case, from the sensor component 570 information obtained or collected has cause to exercise caution, a cause to decelerate (for example, due to a speed limit indication or a speed limit sign), speed up a reason, stop a ground, turn a reason, etc. for to show a driver. In other words, those of the sensor component 570 collected information from the control component 104 or a remote server and translated into one or more suggested driving actions for a driver. These proposed driving actions can be done by the HUD component 100 as visual objects or graphical elements based on the vehicle control component 180 collected information and from the control component 104 be projected.

In einer oder mehreren Ausführungsformen kann die Sensor-Komponente 570 ein oder mehrere Objekte, einen oder mehrere Verkehrs-Zustände, einen oder mehrere Straßen-Zustände, eine oder mehrere Wetterbedingungen etc. erfassen oder detektieren. Beispielsweise kann ein Annäherungssensor (z. B. eine der Sensor-Komponenten 570) an einem Fahrzeug einen Fußgänger detektieren, der einen Fußgängerüberweg überquert. Zusätzlich können andere Komponenten Informationen im Zusammenhang mit der Umgebung, Fahr-Umgebung oder Betriebs-Umgebung erhalten. Beispielsweise kann die Fahrzeug-Steuer-/Regelkomponente 180 ähnliche Informationen (z. B. mittels eines von der Navigations-Komponente 540 bereitgestellten Telematik-Kanals oder von der Sensor-Komponente 570 über das Steuer-/Regelbereich-Netzwerk 580) erhalten. Auf diese Weise kann die Fahrzeug-Steuer-/Regelkomponente 180 Informationen aus einer oder mehreren Quellen ansammeln. Anders ausgedrückt kann die Fahrzeug-Steuer-/Regelkomponente 180 Informationen, Verkehrs-Zustandinformationen, Straßen-Zustandinformationen, Wetterbedingungs-Informationen etc. erhalten.In one or more embodiments, the sensor component 570 detect or detect one or more objects, one or more traffic conditions, one or more road conditions, one or more weather conditions, etc. For example, a proximity sensor (eg, one of the sensor components 570 ) on a vehicle detect a pedestrian crossing a pedestrian crossing. In addition, other components may receive information related to the environment, driving environment or operating environment. For example, the vehicle control component 180 similar information (eg using one of the navigation component 540 provided telematics channel or from the sensor component 570 via the control area network 580 ) receive. In this way, the vehicle control component can 180 Collect information from one or more sources. In other words, the vehicle control component 180 Get information, traffic condition information, road condition information, weather condition information, etc.

Die Sensor-Komponente 570 kann Informationen direkt aus der Umgebung sammeln, während die Fahrzeug-Steuer-/Regelkomponente 180 Informationen aus verschiedenen Quellen ansammeln kann, die nicht unbedingt in dem Fahrzeug lokalisiert sein müssen. Beispielsweise kann die Fahrzeug-Steuer-/Regelkomponente 180 Verkehrs-Informationen entlang einer voraussichtlichen Route für das Fahrzeug aus einer Verkehrs-Datenbank oder einer Nachrichten-Quelle erhalten. In jedem Fall kann die Fahrzeug-Steuer-/Regelkomponente 180 Informationen über die Umgebung ansammeln, wie beispielsweise die Umgebung um ein Fahrzeug herum oder Umgebungs-Informationen im Zusammenhang mit einer voraussichtlichen Route für das Fahrzeug (z. B. Umgebungs-Informationen an einem Ort, den ein Fahrzeug voraussichtlich passieren wird, während es entlang einer vorbestimmten Route fährt).The sensor component 570 can collect information directly from the environment while the vehicle control component 180 Collect information from various sources that may not necessarily be located in the vehicle. For example, the vehicle control component 180 Traffic information along an estimated route for the vehicle obtained from a traffic database or a news source. In any case, the vehicle control component 180 Accumulate information about the environment, such as the environment around a vehicle, or environmental information associated with a prospective route for the vehicle (eg, environmental information at a location that a vehicle is likely to pass while traveling along a vehicle predetermined route goes).

Ungeachtet dessen kann die Fahrzeug-Steuer-/Regelkomponente 180 dazu eingerichtet sein, Daten im Zusammenhang mit einem oder mehreren der Straßen-Zustände oder Daten im Zusammenhang mit einer Umgebung, die das Fahrzeug umgibt (z. B. eine Betriebs-Umgebung, eine Fahr-Umgebung, die umgebende Umgebung, etc.) zu erhalten. In einer oder mehreren Ausführungsformen kann die Fahrzeug-Steuer-/Regelkomponente 180 einen oder mehrere der Straßen-Zustände von der Sensor-Komponente 570 erhalten. Zusätzlich kann die Fahrzeug-Steuer-/Regelkomponente 180 einen oder mehrere Straßen-Zustände von einer oder mehreren anderen Quellen, wie beispielsweise einem (nicht gezeigten) Server oder einer (nicht gezeigten) Datenbank erhalten. Die Fahrzeug-Steuer-/Regelkomponente 180 kann kommunikativ mit dem Server, einem Drittanbieter, einer Datenbank oder anderen Einrichtungen mittels eines Telematik-Kanals gekoppelt sein, der mittels einer (nicht gezeigten) Telematik-Komponente initialisiert wird. Auf diese Weise kann die Fahrzeug-Steuer-/Regelkomponente 180 Informationen im Zusammenhang mit einem oder mehreren Abschnitten einer Route von einer Ausgangsposition zu einer Zielposition sammeln.Regardless, the vehicle control component may 180 be configured to access data associated with one or more of the road conditions or data associated with an environment surrounding the vehicle (eg, an operating environment, a driving environment, the surrounding environment, etc.) receive. In one or more embodiments, the vehicle control component may 180 one or more of the road conditions from the sensor component 570 receive. In addition, the vehicle control component 180 receive one or more road states from one or more other sources, such as a server (not shown) or a database (not shown). The vehicle control component 180 may be communicatively coupled to the server, a third party vendor, a database, or other device via a telematics channel initialized by a telematics component (not shown). In this way, the vehicle control component can 180 Collecting information related to one or more portions of a route from a home position to a destination location.

Beispielsweise kann die Fahrzeug-Steuer-/Regelkomponente 180 Straßen-Zustandinformationen erhalten, die Verkehrs-Informationen eines Straßenabschnitts (z. B. ob sich der Verkehr staut, ob es auf der Straßen einen Unfall gab, etc.) umfassen. Zusätzlich kann die Fahrzeug-Steuer-/Regelkomponente 180 Geschwindigkeitsbegrenzung-Informationen im Zusammenhang mit einem oder mehreren Straßenabschnitten einer Route erhalten. Diese Information kann verwendet werden, um zu bestimmen, wie ein oder mehrere Grafikelemente für einen Fahrer oder Insassen eines Fahrzeugs projiziert werden sollen. Das heißt, wenn ein Straßenabschnitt eine Geschwindigkeitsbegrenzung von 65 Meilen pro Stunde hat, und eine momentane (z. B. von der Sensor-Komponente 570 detektierte) Geschwindigkeit des Fahrzeugs 25 Meilen pro Stunde ist, kann die Fahrzeug-Steuer-/Regelkomponente 180 die HUD-Komponente 100 anweisen, einen Avatar derart zu projizieren, dass sich der Avatar beim Einfahren auf den Straßenabschnitt zu beschleunigen scheint.For example, the vehicle control component 180 Obtain road condition information that includes traffic information of a road section (eg, whether the traffic is jamming, if there was an accident on the road, etc.). In addition, the vehicle control component 180 Speed limit information obtained in connection with one or more road sections of a route. This information can be used to determine how to project one or more graphic elements for a driver or occupant of a vehicle. That is, when a road section has a speed limit of 65 miles per hour and a momentary (eg, from the sensor component 570 detected) speed of the vehicle is 25 miles per hour, the vehicle control component 180 the HUD component 100 instruct to project an avatar so that the avatar appears to accelerate as it enters the stretch of road.

Als ein weiteres Beispiel kann die Fahrzeug-Steuer-/Regelkomponente 180, wenn die Sensor-Komponente 570 eine Verkehrsbehinderung auf einer Spur detektiert, auf der das Fahrzeug momentan fährt, diese Information erhalten und bestimmen, dass eine Navigations-Anweisung zum Wechseln der momentanen Spur von der HUD-Komponente 100 angezeigt werden soll. Diese Anweisung kann über einen oder mehrere CANs 580 zu der HUD-Komponente 100 übertragen werden, die einen Avatar oder ein Grafikelement, das die Spur wechselt oder eine Position ändert, als Reaktion auf die detektierte Verkehrsbehinderung projizieren, rendern oder animieren kann. Anders gesagt kann die HUD-Komponente 100 einen Avatar oder ein Symbol projizieren, das der Verkehrsbehinderung auszuweichen oder um sie herum zu navigieren scheint, wobei der Avatar oder das Symbol vor dem Fahrzeug in der Betriebs-Umgebung um das Fahrzeug herum positioniert ist. Ebenso kann die Fahrzeug-Steuer-/Regelkomponente 180 dazu eingerichtet sein, die HUD-Komponente 100 dazu zu veranlassen, ein Blink-Signal auf dem Avatar zu projizieren, da ein reales Fahrzeug blinken würde, wenn es die Spur wechselt. Ferner kann die Fahrzeug-Steuer-/Regelkomponente 180 eine wahrgenommene Geschwindigkeit für den Avatar anpassen, wenn der Avatar sich der Verkehrsbehinderung nähert. Dies kann erreicht werden, indem der Avatar oder das Grafikelement auf zunehmend näheren Brennebenen projiziert wird, oder indem eine dynamische Brennebene des Grafikelements angepasst wird, so dass der Abstand zwischen der dynamischen Brennebene und dem Fahrzeug oder der Windschutzscheibe des Fahrzeugs verringert wird. (Im Gegensatz hierzu kann, wenn es gewünscht ist, dass der Avatar so projiziert wird, als ob er beschleunigt, die dynamische Brennebene so angepasst werden, dass sich der Abstand zwischen der dynamischen Brennebene und dem Fahrzeug oder der Windschutzscheibe davon erhöht). As another example, the vehicle control component 180 if the sensor component 570 detects a traffic obstruction on a lane on which the vehicle is currently running, obtains this information, and determines that a navigation instruction for changing the current lane from the HUD component 100 should be displayed. This instruction can be over one or more CANs 580 to the HUD component 100 which may project, render or animate an avatar or graphic element that changes lane or changes position in response to the detected traffic obstruction. In other words, the HUD component 100 projecting an avatar or symbol that appears to evade or navigate around the traffic obstruction, with the avatar or symbol positioned in front of the vehicle in the operating environment around the vehicle. Likewise, the vehicle control component 180 be set up to the HUD component 100 cause a flashing signal to be projected on the avatar since a real vehicle would flash when it changes lane. Furthermore, the vehicle control component 180 Adjust a perceived speed for the avatar when the avatar approaches the traffic obstruction. This can be achieved by projecting the avatar or graphic element on increasingly near focal planes, or by adjusting a dynamic focal plane of the graphic element so as to reduce the distance between the dynamic focal plane and the vehicle or windshield of the vehicle. (In contrast, if it is desired that the avatar be projected as if accelerating, the dynamic focal plane may be adjusted to increase the distance between the dynamic focal plane and the vehicle or windshield therefrom).

Anders gesagt kann die Fahrzeug-Steuer-/Regelkomponente 180 dazu eingerichtet sein, einen oder mehrere Straßen-Zustände zu erhalten, wobei ein Straßen-Zustand von dem einen oder mehreren Straßen-Zuständen Verkehrs-Informationen von einem oder mehreren der Straßenabschnitte oder Geschwindigkeitsbegrenzung-Informationen im Zusammenhang mit einem oder mehreren der Straßenabschnitte umfasst. Ferner kann die Fahrzeug-Steuer-/Regelkomponente 180 dazu eingerichtet sein, die HUD-Komponente 100 dazu zu betreiben, ein oder mehrere Grafikelemente auf Grundlage einer oder mehrerer der Straßen-Zustände, wie beispielsweise einer Geschwindigkeitsbegrenzung eines Straßenabschnitts und einer momentanen Geschwindigkeit des Fahrzeugs, zu projizieren. Auf diese Weise kann das Fahrzeug-Steuer-/Regelsystem 180 eine oder mehrere geeignete Handlungen (z. B. Anhalten, Beschleunigen, Spurwechsel, Abbremsen etc.) oder Navigations-Anweisungen bestimmen, die von der HUD-Komponente 100 projiziert werden sollen.In other words, the vehicle control component 180 be configured to obtain one or more road conditions, wherein a road state of the one or more road states comprises traffic information of one or more of the road sections or speed limit information associated with one or more of the road sections. Furthermore, the vehicle control component 180 be set up to the HUD component 100 to project one or more graphics elements based on one or more of the road conditions, such as a speed limit of a road section and a current speed of the vehicle. In this way, the vehicle control system can 180 One or more appropriate actions (such as stopping, accelerating, lane change, deceleration, etc.) or navigation instructions determined by the HUD component 100 to be projected.

In einer oder mehreren Ausführungsformen kann das System 500 eine (nicht gezeigte) Sichtfeld-Verwaltungskomponente umfassen, die einen oder mehrere Aspekte des einen oder der mehreren von der HUD-Komponente 100 projizierten Grafikelemente verwaltet. In einer oder mehrere Ausführungsformen kann die Steuer-/Regelkomponente 104 dazu eingerichtet sein, einen oder mehrere dieser Aspekte oder Funktionalitäten im Zusammenhang mit der Fahrzeug-Steuer-/Regelkomponente 180 zu verwalten. Beispielsweise kann die Steuer-/Regelkomponente 104 dazu eingerichtet sein, einen oder mehrere Straßen-Zustände zu erhalten.In one or more embodiments, the system may 500 A visual field management component (not shown) comprising one or more aspects of the one or more of the HUD component 100 manages projected graphic elements. In one or more embodiments, the control component 104 be adapted to one or more of these aspects or functionalities related to the vehicle control component 180 manage. For example, the control component 104 be adapted to receive one or more road conditions.

Die Steuer-/Regelkomponente 104 kann dazu eingerichtet sein, einen Typ von Grafikelement zu bestimmen, der von der HUD-Komponente 100 angezeigt, projiziert, animiert, gerendert etc. werden soll. Als ein Beispiel kann die Steuer-/Regelkomponente 104, wenn ein Fahrzeug entlang einem oder mehreren Abschnitten einer Route fährt, die relativ gerade Straßenabschnitte umfasst, ein Grafikelement als Avatar projizieren. Der Avatar kann als ein Fahrzeug oder ein Führungsfahrzeug erscheinen oder projiziert werden. In einem Szenario, in dem ein Fahrzeug entlang einem oder mehreren Abschnitten einer Route fährt, die einen oder mehrere Abbiege-Vorgänge oder andere Navigations-Manöver umfasst, kann die Steuer-/Regelkomponente 104 die HUD-Komponente 100 anweisen, ein Grafikelement als eine Markierung an einer Position im Zusammenhang mit einem oder mehreren der Abbiege-Vorgänge zu projizieren. Beispielsweise kann, wenn eine Route ein Abbiegen nach rechts von einer ersten Straßen in eine zweite Straße umfasst, die Steuer-/Regelkomponente 104 die HUD-Komponente 100 anweisen, eine Markierung oder Identifizierung zu, an, um etc. die Kreuzung der ersten Straße und der zweiten Straße zu projizieren. Auf diese Weise kann die Steuer-/Regelkomponente 104 dazu eingerichtet sein, einen oder mehrere Typen (z. B. Markierungen, Identifizierungen, Fahnenmasten, Führungsavatare, etc.) von anzuzeigenden Grafikelementen zu bestimmen.The control component 104 may be configured to determine a type of graphic element that is from the HUD component 100 displayed, projected, animated, rendered, etc. As an example, the control component 104 when a vehicle travels along one or more portions of a route that includes relatively straight road sections, projecting a graphic element as an avatar. The avatar may appear or be projected as a vehicle or a lead vehicle. In a scenario in which a vehicle travels along one or more portions of a route that includes one or more turnarounds or other navigational maneuvers, the control component may 104 the HUD component 100 instructing to project a graphic element as a marker at a position associated with one or more of the turn operations. For example, when a route includes turning right from a first road to a second road, the control component may be 104 the HUD component 100 instruct a marker or identifier to, to, etc. project the intersection of the first street and the second street. In this way, the control component can 104 be adapted to determine one or more types (eg, markers, identifications, flagpoles, guide avatars, etc.) of graphics to be displayed.

Zusätzlich kann die Steuer-/Regelkomponente 104 dazu eingerichtet sein, eine oder mehrere Positionen zu bestimmen, an denen ein Grafikelement projiziert werden wird. Anders gesagt kann die Steuer-/Regelkomponente 104 entscheiden, wann und wo ein Grafikelement projiziert werden wird oder wie das Grafikelement angezeigt werden wird. Eine Position eines Grafikelements kann beispielsweise eine Brennebene, einen Abstand der Brennebene von dem Fahrzeug oder der Windschutzscheibe davon, x-Koordinaten, y-Koordinaten, z-Koordinaten etc. entlang einer x-, y- oder z-Achse umfassen. Diese Position kann als Zielposition für eines oder mehrere der Grafikelemente bezeichnet werden. In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente 104 dazu eingerichtet sein, einen Abstand zwischen einer oder mehreren der Brennebenen von einem oder mehreren der Grafikelemente und dem Fahrzeug (oder z. B. der Windschutzscheibe des Fahrzeugs) auf Grundlage von einem oder mehreren Straßen-Zuständen im Zusammenhang mit einem oder mehreren Abschnitten der Route, einer momentanen Position des Fahrzeugs, einer momentanen Geschwindigkeit des Fahrzeugs etc. anzupassen.In addition, the control component 104 be adapted to determine one or more positions at which a graphic element will be projected. In other words, the control component 104 Decide when and where a graphic element will be projected or how the graphic element will be displayed. For example, a position of a graphics element may include a focal plane, a focal plane distance from the vehicle or windshield thereof, x coordinates, y coordinates, z coordinates, etc. along an x, y, or z axis. This position can be used as the target position for one or several of the graphic elements are called. In one or more embodiments, the control component 104 be configured to adjust a distance between one or more of the focal planes of one or more of the graphical elements and the vehicle (or eg the windshield of the vehicle) based on one or more road conditions associated with one or more portions of the route , a current position of the vehicle, a current speed of the vehicle, etc. adapt.

Das heißt, dass wenn auf einem Straßen-Abschnitt (z. B. ein Abschnitt einer Straße, auf dem sich ein Fahrzeug befindet oder positioniert ist) eine Geschwindigkeitsbegrenzung von 65 Meilen pro Stunde gilt (z. B. ein Straßen-Zustand), und eine momentane Geschwindigkeit (z. B. von der Sensor-Komponente 570 detektiert) des Fahrzeugs 25 Meilen pro Stunde ist (z. B. die momentane Geschwindigkeit des Fahrzeugs), die Steuer-/Regelkomponente 104 dazu eingerichtet sein kann, die HUD-Komponente 100 anzuweisen, einen Avatar oder ein Grafikelement zu projizieren, das mit einer Geschwindigkeit von etwa 65 Meilen pro Stunde zu fahren scheint. In einer oder mehreren Ausführungsformen kann der Avatar auf eine Weise projiziert werden, die eine graduelle Beschleunigung von 25 Meilen pro Stunde auf 65 Meilen pro Stunde demonstriert. Das bedeutet, dass ein Abstand zwischen der Brennebene des Avatars und dem Fahrzeug entsprechend angepasst werden kann. Beispielsweise kann in einem Szenario, in dem das Fahrzeug mit etwa derselben Rate beschleunigt, der Abstand zwischen der Brennebene und dem Fahrzeug in etwa gleich bleiben. Wenn das Fahrzeug mit einer langsameren Rate als der Avatar beschleunigt, kann dieser Abstand zwischen der Brennebene und dem Fahrzeug so von der Steuer-/Regelkomponente 104 angepasst werden, dass er zunimmt. In jedem Fall kann diese Anpassung auf Grundlage einer momentanen Position des Fahrzeugs oder einer momentanen Geschwindigkeit des Fahrzeugs geschehen, sowie Straßen-Zuständen der zugeordneten Route.That is, when there is a speed limit of 65 miles per hour (eg, a road condition) on a road section (eg, a section of a road on which a vehicle is located or positioned), and a current speed (eg from the sensor component 570 detected) of the vehicle is 25 miles per hour (eg, the instantaneous speed of the vehicle), the control component 104 may be configured to the HUD component 100 To instruct to project an avatar or graphic element that seems to be traveling at a speed of about 65 miles per hour. In one or more embodiments, the avatar may be projected in a manner that demonstrates a gradual acceleration from 25 miles per hour to 65 miles per hour. This means that a distance between the focal plane of the avatar and the vehicle can be adjusted accordingly. For example, in a scenario where the vehicle is accelerating at about the same rate, the distance between the focal plane and the vehicle may remain approximately the same. As the vehicle accelerates at a slower rate than the avatar, this distance between the focal plane and the vehicle may be so from the control component 104 be adjusted so that it increases. In either case, this adjustment may be based on a current position of the vehicle or a current speed of the vehicle, as well as road conditions of the associated route.

Zusätzlich kann die Steuer-/Regelkomponente 104 dazu eingerichtet sein, eine Größe eines Grafikelements gemäß oder auf Grundlage eines Abstands der Brennebene des Grafikelements von dem Fahrzeug mit der HUD-Komponente 100 zu bestimmen. Das heißt, dass die Steuer-/Regelkomponente 104 eine Höhe, Größe, Breite, Tiefe etc. eines Grafikelements, Führungssymbols oder Avatars auf Grundlage einer gewünschten Wahrnehmung anpassen kann. Beispielsweise kann die Steuer-/Regelkomponente 104, um den Avatar beschleunigend erscheinen zu lassen, die Größe des Avatars so anpassen, dass sie schrumpft oder reduziert wird, während der Avatar auf zunehmend weiter entfernte Brennebenen projiziert wird oder eine dynamische Brennebene so angepasst wird, dass sie weiter und weiter von dem Fahrzeug entfernt ist.In addition, the control component 104 be configured to a size of a graphic element according to or based on a distance of the focal plane of the graphic element of the vehicle with the HUD component 100 to determine. That is, the control component 104 can adjust a height, size, width, depth, etc. of a graphic element, guide, or avatar based on a desired perception. For example, the control component 104 to make the avatar accelerate, adjust the size of the avatar to shrink or reduce as the avatar is projected onto increasingly distant focal planes or a dynamic focal plane is adjusted to move further and further away from the vehicle is.

In einer oder mehreren Ausführungsformen kann die Größe des Grafikelements als ein Indikator für ein Wichtigkeits-Niveau einer Navigations-Anweisung oder Nachricht verwendet werden. Anders gesagt wird, je wichtiger die Nachricht oder Navigations-Anweisung ist, der Avatar, das Symbol oder das Grafikelement umso größer projiziert.In one or more embodiments, the size of the graphic element may be used as an indicator of an importance level of a navigation instruction or message. In other words, the more important the message or navigation instruction is, the larger the avatar, icon, or graphic element is projected.

Die Steuer-/Regelkomponente 104 kann dazu eingerichtet sein, eine oder mehrere Aktionen für eines oder mehrere der von der HUD-Komponente 100 zu projizierenden Grafikelemente zu bestimmen. Beispielsweise kann die Steuer-/Regelkomponente 104 die HUD-Komponente 100 dazu anweisen, den Avatar so zu projizieren, dass er beschleunigt, abbremst, anhält, die Spur wechselt, ein Blink-Signal vor einem Spurwechsel aktiviert, leuchtet, blinkt, eine Orientierung oder einen Winkel eines Avatars ändert, eine Farbe eine Avatars ändert, etc. Ferner kann die Steuer-/Regelkomponente 104 Zielpositionen für eines oder mehrere der Grafikelemente auf Grundlage von Straßen-Zuständen, einer momentanen Position des Fahrzeugs, einer momentanen Geschwindigkeit des Fahrzeugs oder anderen Attributen, Charakteristiken oder Messungen anpassen. In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente 104 mit der Navigations-Komponente 540 über einen oder mehrere CANs 580 wechselwirken oder kommunizieren.The control component 104 may be set up to perform one or more actions on one or more of the HUD component 100 to determine the graphic elements to be projected. For example, the control component 104 the HUD component 100 instruct to project the avatar to accelerate, decelerate, stop, change lane, activate a flashing signal before a lane change, illuminate, flash, change an avatar's orientation or angle, change an avatar's color, etc Furthermore, the control component 104 Adjust target positions for one or more of the graphical elements based on road conditions, a current position of the vehicle, a current speed of the vehicle, or other attributes, characteristics, or measurements. In one or more embodiments, the control component 104 with the navigation component 540 via one or more CANs 580 interact or communicate.

Die Steuer-/Regelkomponente 104 kann dazu eingerichtet sein, Behinderungen, Ablenkungen oder andere Aspekte abzuschwächen, die einen Fahrer oder Insassen eines Fahrzeugs beeinträchtigen könnten. In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente 104 dazu eingerichtet sein, eine Position des Horizonts beispielsweise von einer Sensor-Komponente 570 zu erhalten und Grafikelement oberhalb des Horizonts oder einer Himmelebene etc. zu projizieren. Die Steuer-/Regelkomponente kann dazu eingerichtet sein, eine Farbe, Transparenz oder Schattierung von einem oder mehreren Grafikelementen auf Grundlage einer Tageszeit, Verkehrsaufkommen im Zusammenhang mit der Route, einer Kenntnis des Fahrers der Route, etc. zu bestimmen.The control component 104 may be configured to mitigate disability, distractions, or other aspects that could affect a driver or occupant of a vehicle. In one or more embodiments, the control component 104 be adapted to a position of the horizon, for example, from a sensor component 570 and to project graphic element above the horizon or a sky plane, etc. The control component may be configured to determine color, transparency, or shade of one or more graphics elements based on a time of day, traffic associated with the route, knowledge of the driver of the route, etc.

Die Tiefenkarte-Komponente 550 kann dazu eingerichtet sein, eine Tiefenkarte einer Umgebung um das Fahrzeug herum oder das Fahrzeug umgebend zu erstellen oder zu erhalten. Die HUD-Komponente 100 kann die Tiefenkarte verwenden, um eine oder mehrere Grafikelemente dementsprechend zu projizieren. Das bedeutet, dass wenn ein Avatar abbiegt und „hinter” einem Gebäude ist (z. B. dass ein Gebäude zwischen der Sichtlinie eines Insassen des Fahrzeugs und einer wahrgenommenen Position oder Zielposition des Grafikelements oder Avatars ist), die HUD-Komponente 100 eine Projektion von einem oder mehreren Abschnitten des Avatars oder Grafikelements entsprechend dem, was gesehen werden soll, aktiviert oder deaktiviert.The depth map component 550 may be configured to create or maintain a depth map of an environment around the vehicle or surrounding the vehicle. The HUD component 100 can use the depth map to project one or more graphic elements accordingly. This means that when an avatar turns and is "behind" a building (eg, a building is between the line of sight of an occupant of the vehicle and a perceived position or target position of the graphic element or avatar), the HUD component 100 a projection of one or more sections of the avatar or graphic element according to what is to be seen, activated or deactivated.

Die Tiefenkarte-Komponente 550 kann dazu eingerichtet sein, eine Tiefenkarte von einem Server oder einem Drittanbieter-Server zu erhalten. Beispielsweise kann die Tiefenkarte-Komponente 550 eine Tiefenkarte über einen Telematik-Kanal herunterladen, der mittels einer (nicht gezeigten) Telematik-Komponente initialisiert wird. In anderen Ausführungsformen kann die Sensor-Komponente 570 dazu eingerichtet sein, Tiefen-Informationen zu detektieren, die verwendet werden können, um die Tiefenkarte mittels der Tiefenkarte-Komponente 550 zu erstellen. Das heißt, dass die Tiefenkarte-Komponente 550 mit einem oder mehreren Sensoren wechselwirken oder kommunizieren kann, um die Tiefenkarte zu erstellen oder eine vor-erstellte Tiefenkarte aus einer Datenbank zu erhalten. In jedem Fall kann die Tiefenkarte-Komponente 550 eine Tiefenkarte auf Grundlage von Tiefen-Informationen erstellen oder erhalten. Die Tiefenkarte kann Abstände von einer oder mehreren Oberflächen, Objekten, Hindernissen, Geometrien etc. in der Umgebung oder dem Bereich um das Fahrzeug herum anzeigen.The depth map component 550 may be configured to receive a depth map from a server or a third-party server. For example, the depth map component 550 Download a depth map via a telematics channel that is initialized using a telematics component (not shown). In other embodiments, the sensor component 570 be adapted to detect depth information that can be used to the depth map using the depth map component 550 to create. That is, the depth map component 550 interact or interact with one or more sensors to create the depth map or obtain a pre-created depth map from a database. In any case, the depth map component 550 create or get a depth map based on depth information. The depth map may indicate distances from one or more surfaces, objects, obstacles, geometries, etc. in the environment or area around the vehicle.

Die Tiefenkarte kann an die Steuer-/Regelkomponente 104 weitergegeben oder übertragen werden, welche die HUD-Komponente 100 anweisen kann, eines oder mehrere der Grafikelemente entsprechend zu rendern. Beispielsweise kann die HUD-Komponente 100 Grafikelemente auf Grundlage einer Höhe einer Augenbox im Zusammenhang mit einem Insassen eines Fahrzeugs, einer Position des Fahrzeugs und einer Tiefenkarte des Bereichs projizieren oder rendern, die aktiv erfasst oder von einer Datenbank erhalten werden können. Die HUD-Komponente 100 kann somit eines oder mehrere der Grafikelemente auf Grundlage der Tiefenkarte projizieren, um eine Perspektive von einem oder mehreren Insassen des Fahrzeugs zu berücksichtigen.The depth map can be sent to the control component 104 passed on or transmitted to the HUD component 100 instruct you to render one or more of the graphic elements accordingly. For example, the HUD component 100 Project or render graphical elements based on a height of an eyebox in association with an occupant of a vehicle, a position of the vehicle, and a depth map of the area that can be actively detected or obtained from a database. The HUD component 100 may thus project one or more of the graphics elements based on the depth map to account for a perspective of one or more occupants of the vehicle.

Die Tiefenpuffer-Komponente 560 kann dazu eingerichtet sein, eine Perspektiven-Verwaltung für einen oder mehrere Insassen des Fahrzeugs unter Verwendung der von der Tiefenkarte-Komponente 550 erzeugten oder erhaltenen Tiefenkarte zu vereinfachen. Das heißt, dass die Tiefenpuffer-Komponente dazu eingerichtet sein kann, ein Rendern von Grafikelementen derart zu vereinfachen, dass die Grafikelemente einem Insassen visuell „korrekt” erscheinen. Beispielsweise kann, wenn ein Grafikelement hinter ein Objekt der realen Welt projiziert werden soll, die Tiefenpuffer-Komponente 560 einen Abschnitt des Grafikelements vor einem Insassen „verstecken”, indem dieser Abschnitt des Grafikelements nicht projiziert oder gerendert wird. Anders gesagt kann die Tiefenpuffer-Komponente 560 verwalten, welche Abschnitte (z. B. Pixel) eines Grafikelements gezeichnet, projiziert oder gerendert werden und welche Abschnitt nicht. Auf diese Weise kann die Tiefenpuffer-Komponente 560 dazu eingerichtet sein, ein Rendern von einem oder mehreren Abschnitten von einem oder mehreren Grafikelementen auf Grundlage der Tiefenkarte ein- oder auszuschalten.The depth buffer component 560 may be configured to provide perspective management for one or more occupants of the vehicle using the depth map component 550 simplified or obtained depth map. That is, the depth buffering component may be configured to facilitate rendering of graphic elements such that the graphic elements appear visually "correct" to an occupant. For example, if a graphic element is to be projected behind a real-world object, the depth buffer component 560 to "hide" a portion of the graphic element from an occupant by not projecting or rendering that portion of the graphic element. In other words, the depth buffer component 560 manage which sections (eg, pixels) of a graphic element are drawn, projected or rendered, and which sections are not. This allows the depth buffer component 560 be configured to turn on or off rendering of one or more portions of one or more graphics based on the depth map.

Zusätzlich kann die Tiefenpuffer-Komponente 560 dazu eingerichtet sein, Objekte der realen Welt zu verdecken, wodurch beeinflusst wird, was ein Insasse eines Fahrzeugs sehen kann. Beispielsweise kann die Tiefenpuffer-Komponente 560 die HUD-Komponente 100 dazu anweisen, ein weißes Grafikelement derart zu projizieren, dass das Grafikelement ein Objekt der realen Welt, wie beispielsweise eine Werbetafel (z. B. detektiert von der Sensor-Komponente 570) verdeckt. Folglich kann ein Insasse die Werbetafel nicht sehen oder er hat eine verdeckte Sicht auf die Werbetafel. Auf diese Weise kann die Tiefenpuffer-Komponente dazu eingerichtet sein, Ablenkungen für einen Fahrer oder Insassen eines Fahrzeugs zu verhindern, indem Grafikelemente bereitgestellt werden, die eine verminderte Realität erleichtern.In addition, the depth buffer component 560 be designed to obscure objects of the real world, thereby influencing what an occupant of a vehicle can see. For example, the depth buffer component 560 the HUD component 100 to direct a white graphic element such that the graphic element is a real-world object, such as a billboard (eg, detected by the sensor component 570 ) obscured. Consequently, an occupant can not see the billboard or he has a blind view of the billboard. In this way, the depth buffering component may be configured to prevent distractions to a driver or occupant of a vehicle by providing graphic elements that facilitate diminished reality.

Beispiele für Navigations-Anweisungen, die von der HUD-Komponente 100 projiziert werden können umfassen: einem Führungsfahrzeug zu folgen, zu beschleunigen (z. B. die dynamische Brennebene zu verändern, um einen vergrößerten Abstand von der Brennebene zu dem Fahrzeug zu haben, wodurch eine Nah-Fern-Wahrnehmung eines Fahrers oder Insassen angepasst wird, die er von dem Grafikelement haben könnte), abzubremsen (z. B. den Abstand zwischen einer Brennebene so anzupassen, dass er verringert wird), eine Fahrspur zu wechseln (z. B. Anpassen einer Sollposition für ein Grafikelement), um Hindernisse herum zu navigieren, zu wenden, das Ziel zu erreichen, eine Position zu markieren etc. Beispielsweise kann die Steuer-/Regelkomponente 104 die HUD-Komponente 100 anweisen, einen Avatar zum „abbremsen” zu projizieren, wenn ein Fußgänger auf den Straßenabschnitt, die Straße, einen Zebrastreifen etc. tritt. Als weiteres Beispiel kann das Steuer-/Regelelement 104 die HUD-Komponente 100 anweisen, ein Bremsen auf Grundlage eines Kurvenwinkels, einer Geschwindigkeitsbegrenzung im Zusammenhang mit einem Straßenabschnitt, Straßen-Zuständen wie beispielsweise Eis etc. zu projizieren. Das heißt, dass wenn sich Eis auf der Straßen-Oberfläche befindet, kann das Steuer-/Regelelement 104 die HUD-Komponente 100 anweisen, einen Avatar zu projizieren, der sich langsamer bewegt, als wenn sich kein Eis auf der Straßen-Oberfläche befände.Examples of navigation instructions provided by the HUD component 100 projecting may include: following a leading vehicle, accelerating (eg, changing the dynamic focal plane to have an increased distance from the focal plane to the vehicle, thereby adapting a near-far perception of a driver or occupant, which it could have from the graphic element), to decelerate (eg, adjust the distance between a focal plane to reduce it), to change a lane (eg, adjust a target position for a graphic element) around obstacles navigate, turn around, reach the destination, mark a position, etc. For example, the control component 104 the HUD component 100 instruct to project an avatar to "decelerate" when a pedestrian steps on the road section, road, crosswalk, etc. As another example, the control element 104 the HUD component 100 instructing to project braking based on a turning angle, a speed limit associated with a road section, road conditions such as ice, etc. This means that if there is ice on the road surface, the control element can 104 the HUD component 100 instruct to project an avatar that moves slower than if there were no ice on the road surface.

In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente 100 eine bevorstehende Kurve oder Kreuzung mit einer Markierung, einem Fahnenmast, einer Fahnenstange, einer Identifizierung etc. markieren. Beispielsweise kann die HUD-Komponente 100 einen Platzhalter oder eine Markierung gemäß der Perspektive des Insassen des Fahrzeugs rendern oder projizieren. Die Tiefenkarte-Komponente 550 kann dazu eingerichtet sein, eine Tiefenkarte derart bereitzustellen, dass Objekte der realen Welt, wie beispielsweise Gebäude, Bäume etc. als Sichtlinie-Blockierungen für einen oder mehrere Abschnitte des Platzhalters wirken. Beispielsweise kann, wenn ein Platzhalter eine wahrgenommene Höhe von 100 Fuß aufweist und ein 50 Fuß hohes Gebäude sich vor dem Platzhalter befindet, die Tiefenpuffer-Komponente 560 kompensieren, dass die Sichtlinie blockiert ist, indem ein unterer Abschnitt des Platzhalter-Grafikelements nicht gerendert oder projiziert wird, wodurch der Platzhalter gemäß der Perspektive des Fahrers oder Insassen projiziert wird. In one or more embodiments, the control component 100 mark an upcoming curve or intersection with a marker, a flagpole, a flagpole, an identification, etc. For example, the HUD component 100 render or project a placeholder or mark according to the perspective of the occupant of the vehicle. The depth map component 550 may be configured to provide a depth map such that real-world objects such as buildings, trees, etc. act as line-of-sight blocks for one or more portions of the wildcard. For example, if a placeholder has a perceived height of 100 feet and a 50 foot tall building is in front of the placeholder, the depth buffer component may 560 compensate for the line of sight being blocked by not rendering or projecting a lower portion of the placeholder graphic element, thereby projecting the placeholder according to the perspective of the driver or occupant.

In einer oder mehreren Ausführungsformen werden ein oder mehrere Grafikelemente im Sichtfeld eines Insassen des Fahrzeugs auf Grundlage der Route (z. B. einem „Folge einem Führungsfahrzeug-Modus”) projiziert. In einer oder mehreren Ausführungsformen kann das Grafikelement als ein Avatar oder ein anderes Führungssymbol projiziert werden. Der Avatar kann so erscheinen, als ob er fliegt und gegen eine Umgebung aus der realen Welt um das Fahrzeug herum projiziert werden. Der Avatar kann sich im 3-D-Raum oder in drei Dimensionen bewegen, fahren oder „fliegen”. Daher kann der Avatar oder das Grafikelement so erscheinen, als ob er sich in 3-D bewegt, wodurch eine intuitiveres Gefühl oder sicheres Gefühl für einen Insassen oder Fahrer entsteht, der dem Avatar folgt. Beispielsweise kann ein Avatar, ein Grafikelement oder ein Führungssymbol derart projiziert werden, dass es sich in Höhe oder Größe auf Grundlage eines wahrgenommenen Abstands von einem Insassen des Fahrzeugs zu ändern scheint. Der Avatar kann animiert werden, indem der sich bewegende Avatar sequentiell auf eine oder mehrere verschiedene Brennebenen projiziert wird. Zusätzlich könnte der Avatar erscheinen, als ob er um Sperrungen, Hindernisse, Fußgänger, Unrat, Schlaglöcher etc. herum navigiert, so wie es ein Fahrzeug der realen Welt tun würde. In einer oder mehreren Ausführungsformen könnte der Avatar gemäß dem Echtzeit-Verkehr „fahren”, sich bewegen, erscheinen, als ob er sich bewegt etc. Der Avatar kann derart die Fahrspur wechseln, dass der Avatar andere Fahrzeuge nicht zu „treffen” oder anderweitig mit dem Verkehr einzugreifen scheint. Als weiteres Beispiel kann, wenn eine Route einen Fahrer oder ein Fahrzeug über Zugschienen führt, der Avatar an den Zugschienen anhalten, wenn ein Zug die Straße kreuzt. In anderen Ausführungsformen kann die HUD-Komponente 100 dazu eingerichtet sein, den Avatar oder das Grafikelement so zu projizieren, dass er/es an Stop-Schildern, roten Ampeln oder um Verkehrsregeln zu befolgen anhält. Auf eine Ankunft an einer Zielposition hin kann die HUD-Komponente 100 dazu eingerichtet sein, einen Avatar beispielsweise in einer Ruhepose zu rendern oder zu projizieren.In one or more embodiments, one or more graphics elements are projected in the field of view of an occupant of the vehicle based on the route (eg, a "follow a leader vehicle mode"). In one or more embodiments, the graphic element may be projected as an avatar or other guide symbol. The avatar may appear to be flying and being projected around the vehicle around a real-world environment. The avatar can move, drive or "fly" in 3-D space or in three dimensions. Therefore, the avatar or the graphic element may appear to move in 3-D, giving rise to a more intuitive feeling or feeling for an occupant or driver following the avatar. For example, an avatar, a graphic element, or a guidance icon may be projected to appear to change in height or size based on a perceived distance from an occupant of the vehicle. The avatar can be animated by projecting the moving avatar sequentially onto one or more different focal planes. In addition, the avatar may appear as navigating around barriers, obstacles, pedestrians, rubbish, potholes, etc., as a real-world vehicle would. In one or more embodiments, the avatar may "drive", move, appear as if moving according to real-time traffic, etc. The avatar may change the lane so that the avatar does not "hit" or otherwise join other vehicles seems to interfere with traffic. As another example, when a route guides a driver or a vehicle over train rails, the avatar may stop at the train rails when a train crosses the road. In other embodiments, the HUD component 100 be configured to project the avatar or graphic element to stop at stop signs, red lights, or traffic rules. Upon arrival at a destination position, the HUD component may 100 be configured to render or project an avatar, for example, in a rest pose.

Auf diese Weise kann das System 500 für 3-D-Navigation eine intuitive Nachricht, Anweisung oder einen Befehl für einen Insassen eines Fahrzeugs, wie beispielsweise einen Fahrer, erzeugen. Die Anweisung kann auf einem oder mehreren Aspekten bezüglich einer Perspektive basieren, wie sie von der Fähigkeit der HUD-Komponente bereitgestellt wird, volumetrische 3-D-Grafikelemente entlang einer oder mehrerer Brennebenen zu projizieren oder zu rendern. Beispielsweise kann der 3-D-Effekt auf Grundlage eines Abstands, einer Perspektive, eines wahrgenommenen Abstands, Straßen-Zuständen etc. bestimmt werden.That way the system can 500 For 3-D navigation, generate an intuitive message, instruction or command for an occupant of a vehicle, such as a driver. The instruction may be based on one or more aspects relating to a perspective as provided by the ability of the HUD component to project or render volumetric 3-D graphics along one or more focal planes. For example, the 3-D effect may be determined based on a distance, a perspective, a perceived distance, road conditions, etc.

6 ist eine Illustration eines beispielhaften Flussdiagramms eines Verfahrens 600 zur 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Bei 602 kann eine Route von einer Ausgangsposition zu einer Zielposition erzeugt werden. In einer oder mehreren Ausführungsformen kann die Ausgangsposition oder die Zielposition mittels eines Telematik-Kanals, wie beispielsweise von einer Global Positioning System(GPS)-Einheit, erhalten werden. Bei 604 können ein oder mehrere Grafikelemente auf eine oder mehrere Brennebenen im Sichtfeld eines Insassen eines Fahrzeugs projiziert werden. Hier können Grafikelemente als Avatare, Bilder, Symbole, Identifizierungen, Markierungen etc. angezeigt werden. Zusätzlich können diese Grafikelemente auf einem oder mehreren Abschnitten der Route basieren. Das bedeutet, dass diese Grafikelemente in verschiedenen Abständen abhängig von dem Abschnitt der Route projiziert werden können, an denen sich ein Fahrzeug befinden kann (z. B. einer momentanen Position des Fahrzeugs). 6 is an illustration of an exemplary flowchart of a method 600 for 3-D navigation according to one or more embodiments. at 602 a route can be generated from a starting position to a destination position. In one or more embodiments, the home position or the target position may be obtained via a telematics channel, such as from a Global Positioning System (GPS) unit. at 604 For example, one or more graphics elements may be projected onto one or more focal planes in the field of view of an occupant of a vehicle. Here graphic elements can be displayed as avatars, pictures, symbols, identifications, markers etc. In addition, these graphic elements may be based on one or more sections of the route. That is, these graphical elements may be projected at different distances depending on the portion of the route a vehicle may be located on (eg, a current position of the vehicle).

Bei 606 kann ein Abstand zwischen einer Brennebene und dem Fahrzeug auf Grundlage von Straßen-Zuständen im Zusammenhang mit einem oder mehreren Abschnitten der Route angepasst werden. Ferner kann der Abstand ebenfalls auf Grundlage einer momentanen Geschwindigkeit des Fahrzeugs angepasst werden. Beispielsweise kann, wenn ein Fahrzeug entlang einem Abschnitt einer Route im Zusammenhang mit einer „65 Meilen pro Stunde(mph)”-Geschwindigkeitsbegrenzung fährt, und die momentane Geschwindigkeit des Fahrzeugs 25 mph ist, der Abstand zwischen der Brennebene eines projizierten Grafikelements oder Avatars erhöht werden (z. B. um dem Fahrer oder einem Insassen anzuzeigen, dass er beschleunigen soll). Anders gesagt kann das Grafikelement so projiziert werden, dass es erscheint, als ob es etwa 65 mph schnell fährt, wodurch der Insasse oder Fahrer dazu veranlasst werden soll, zu beschleunigen und den Avatar „einzuholen” (z. B. ähnlich oder simuliert einem Führungsfahrzeug zu folgen).at 606 For example, a distance between a focal plane and the vehicle may be adjusted based on road conditions associated with one or more portions of the route. Further, the distance may also be adjusted based on a current speed of the vehicle. For example, when a vehicle travels along a portion of a route associated with a "65 mph speed limit and the current speed of the vehicle is 25 mph, the distance between the focal plane of a projected graphics element or avatar may be increased (eg to indicate to the driver or an occupant that he should accelerate). In other words, the graphic element can be projected to be appears as if it is driving about 65 mph fast, causing the occupant or driver to accelerate and "catch up" the avatar (eg, similar or simulated to following a leader vehicle).

7A ist eine Illustration eines beispielhaften Avatars 700 für eine 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Der Avatar 700 aus 7A kann vor einem Fahrzeug erscheinen und um Elemente, Hindernisse, Verkehr, Straßen-Zustände etc. herum fliegen, gleiten, sich bewegen, manövrieren etc. 7B ist eine Illustration eines beispielhaften Avatars 710 für 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Der Avatar oder die Avatare 710 aus 7B sind aus einer erhöhten Ansicht gezeigt, wie beispielsweise einer Vogelperspektive knapp hinter dem Avatar oder den Avataren 710. Es kann erkannt werden, dass einer oder mehrere der Avatare 710 auf eine oder mehrere verschiedene Brennebenen oder Sollpositionen projiziert sind, wodurch die Wahrnehmung erzeugt wird, dass ein Fahrer oder Insasse einem realen Fahrzeug folgt. 7A is an illustration of an exemplary avatar 700 for 3-D navigation according to one or more embodiments. The avatar 700 out 7A can appear in front of a vehicle and fly around, glide, move, maneuver, etc. around elements, obstacles, traffic, road conditions, etc. 7B is an illustration of an exemplary avatar 710 for 3-D navigation according to one or more embodiments. The avatar or the avatars 710 out 7B are shown from an elevated view, such as a bird's-eye view just behind the avatar or avatars 710 , It can be recognized that one or more of the avatars 710 are projected onto one or more different focal planes or target positions, thereby creating the perception that a driver or occupant is following a real vehicle.

8A ist eine Illustration eines beispielhaften Avatars 800 für 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Der Avatar 800 aus 8A ist gegen den Uhrzeigersinn gedreht, um ein Abbiegen nach links anzuzeigen. 8B ist eine Illustration eines beispielhaften Avatars 810 für 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. In einer oder mehreren Ausführungsformen kann der Avatar 810 aus 8B ein Abbiegen nach links durch ein Blinken, Aufblinken, einen Farbwechsel etc. anzeigen. Beispielsweise kann der linke Flügel des Papierflugzeug-Avatars 810 leuchten oder eine Intensität ändern, um das bevorstehende Abbiegen nach links anzuzeigen. In einer oder mehreren Ausführungsformen kann ein Avatar auf Brennebenen projiziert werden, die näher an dem Fahrzeug sind, so dass es erscheint, als ob der Avatar „abbremst”, bevor er abbiegt. 8A is an illustration of an exemplary avatar 800 for 3-D navigation according to one or more embodiments. The avatar 800 out 8A is turned counterclockwise to indicate a turn to the left. 8B is an illustration of an exemplary avatar 810 for 3-D navigation according to one or more embodiments. In one or more embodiments, the avatar may be 810 out 8B indicate a turn to the left by a flashing, flashing, a color change, etc. For example, the left wing of the paper airplane avatar 810 light up or change an intensity to indicate the upcoming turn to the left. In one or more embodiments, an avatar may be projected onto focal planes that are closer to the vehicle such that it appears as if the avatar is "decelerating" before turning.

9A ist eine Illustration eines beispielhaften Avatars 900 für 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. 9B ist eine Illustration eines beispielhaften Avatars 910 für 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Der Avatar 900 aus 9A kann als eine Navigations-Anweisung für einen Fahrer eines Fahrzeugs beispielsweise zum Abbremsen projiziert werden. In 9B wird der Avatar 910 oberhalb des Horizonts oder einer Himmel-Ebene projiziert, so dass der Avatar 910 nicht den Fahrer oder Insassen davon abhält, einen oder mehrere Abschnitt der Umgebung um das Fahrzeug herum zu betrachten. 9A is an illustration of an exemplary avatar 900 for 3-D navigation according to one or more embodiments. 9B is an illustration of an exemplary avatar 910 for 3-D navigation according to one or more embodiments. The avatar 900 out 9A may be projected as a navigation instruction for a driver of a vehicle for braking, for example. In 9B becomes the avatar 910 projected above the horizon or a sky-plane, leaving the avatar 910 does not prevent the driver or occupant from viewing one or more portions of the environment around the vehicle.

1020 werden unter Bezugnahme auf eine oder mehrere der vorherigen Figuren beschrieben, wie beispielsweise auf das System 500 zur 3-D-Navigation aus 5 oder die Seitenansicht 300 oder Brennebenen aus 3. 10 - 20 will be described with reference to one or more of the previous figures, such as the system 500 for 3-D navigation 5 or the side view 300 or focal planes 3 ,

10A ist eine Illustration eines beispielhaften Szenarios 1000 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. In 10A kann ein Insasse, Fahrer, Passagier, Bediener etc. eines Fahrzeugs eine Anweisung an eine oder mehrere Komponenten des Fahrzeugs eingeben, wie beispielsweise die Sensor-Komponente 570 aus 5. In einer oder mehreren Ausführungsformen kann die Sensor-Komponente 570 eine oder mehrere Peripherie-Komponenten, ein oder mehrere Peripheriegeräte, eine oder mehrere Schnittstellen, einen oder mehrere Schnittstellen-Komponenten, wie beispielsweise einen Touchscreen, eine Tastatur, einen oder mehrere Knöpfe, eine Schnittstelle, ein Mikrofon, eine oder mehrere Bilderfassungs-Vorrichtungen, eine Gesten-Erkennungsvorrichtung, etc. umfassen. Beispielsweise kann ein Fahrzeug mit einer Touchscreen-Schnittstelle bereitgestellt sein oder Knöpfe an einer Armatur können als Schnittstelle mit einem Menü verwendet werden. In jedem Fall können eine oder mehrere Komponenten oder die Sensor-Komponente 570 Anweisungen erfassen oder erhalten, die von einem Insassen eines Fahrzeugs gegeben oder eingegeben werden. 10A is an illustration of an exemplary scenario 1000 in the context of 3-D navigation according to one or more embodiments. In 10A For example, an occupant, driver, passenger, operator, etc. of a vehicle may enter an instruction to one or more components of the vehicle, such as the sensor component 570 out 5 , In one or more embodiments, the sensor component 570 one or more peripheral components, one or more peripheral devices, one or more interfaces, one or more interface components, such as a touch screen, a keyboard, one or more buttons, an interface, a microphone, one or more image capture devices, a gesture recognition device, etc. For example, a vehicle may be provided with a touch screen interface, or buttons on a faucet may be used as an interface with a menu. In any case, one or more components or the sensor component 570 Capture or receive instructions given or input by an occupant of a vehicle.

Beispielsweise kann ein Fahrer Navigations-Anweisungen an das Fahrzeug aussprechen, wie beispielsweise „Wie komme ich in die Innenstadt von Sunnyvale?”. In diesem Beispiel umfasst die Sensor-Komponente 570 ein Mikrofon, das die verbale oder gesprochene Anweisung von dem Insassen oder Fahrer erhält und die Anweisung durch ein Steuer-/Regelbereichnetzwerk 580 an eine Steuer-/Regelkomponente 104 oder eine Navigations-Komponente 540 weitergibt. In anderen Ausführungsformen kann, wenn eine mobile Vorrichtung kommunikativ mit einem Fahrzeug gekoppelt ist, ein Insasse ein Mikrofon der mobilen Vorrichtung, einen Touchscreen der mobilen Vorrichtung, eine Tastatur oder ein Keypad der mobilen Vorrichtung etc. als Schnittstelle zu dem System 500 zur 3-D-Navigation verwenden. Die Steuer-/Regelkomponente 104 kann Spracherkennung der Anweisung durch Verwenden eines An-Bord-Spracherkennungsmoduls durchführen, um die Anweisung von Sprache in Text umzuwandeln (STT – speech to text). Als weitere Möglichkeit kann die Navigations-Komponente 540 einen Telematik-Kanal verwenden, um mit einem entfernten Server zu kommunizieren, wo die STT-Verarbeitung durchgeführt werden kann.For example, a driver may provide navigation instructions to the vehicle, such as "How do I get to downtown Sunnyvale?". In this example, the sensor component includes 570 a microphone that receives the verbal or spoken instruction from the occupant or driver and the instruction through a control area network 580 to a control component 104 or a navigation component 540 passes. In other embodiments, when a mobile device is communicatively coupled to a vehicle, an occupant may include a microphone of the mobile device, a touch screen of the mobile device, a keyboard or keypad of the mobile device, etc. as an interface to the system 500 use for 3-D navigation. The control component 104 can perform speech recognition of the instruction by using an on-board voice recognition module to convert the voice-to-text (STT) instruction. Another option is the navigation component 540 Use a telematics channel to communicate with a remote server where STT processing can be performed.

In einer oder mehreren Ausführungsformen kann die HUD-Komponente, wie beispielsweise die HUD-Komponente oder das System 100 aus 1 oder die HUD-Komponente 100 aus 5 eine Bestätigung einer Anweisung oder eines Befehls projizieren, präsentieren, rendern oder darstellen. Anders ausgedrückt kann die HUD-Komponente 100 als eine Anzeige-Komponente dienen oder andere Anzeige-Komponenten eines Fahrzeugs ergänzen. Um mit dem „Wie komme ich in die Innenstadt von Sunnyvale?”-Beispiel aus 10A fortzufahren, kann, wenn eine Anweisung oder ein Befehl von der Steuer-/Regelkomponente 104 erhalten wird, die Steuer-/Regelkomponente 104 auf Grundlage von Umgebungsinformationen bestimmen, ob oder ob nicht eine Bestätigung der Anweisung projiziert wird, die von der Sensor-Komponente 570 bereitgestellt oder detektiert worden ist. Hierbei kann, da die Sensor-Komponente 570 nicht Fahrzeuge, Fußgänger oder andere Hindernisse detektiert, die Steuer-/Regelkomponente 104 eine Bestimmung durchführen, dass eine Bestätigung der Anweisung von der HUD-Komponente 100 projiziert werden sollte. Zusätzlich kann die Steuer-/Regelkomponente 104 eine Größe, eine Form, ein Modell, eine Transparenz, ein Farbschema, eine Höhe, eine Breite, eine Tiefe, eine Zielposition, eine Brennebene etc. für ein entsprechendes Grafikelement bestimmen. Somit kann eine Bestätigung der Anweisung von der HUD-Komponente 100 in einer Textbox projiziert werden, wie bei 1004 zu sehen ist.In one or more embodiments, the HUD component, such as the HUD component or system 100 out 1 or the HUD component 100 out 5 a Project, present, render or display the acknowledgment of a statement or command. In other words, the HUD component 100 serve as a display component or supplement other display components of a vehicle. To sample the "How to get to downtown Sunnyvale?" 10A can continue if a statement or command from the control component 104 is received, the control component 104 Based on environmental information, determine whether or not confirmation of the instruction is projected by the sensor component 570 has been provided or detected. This may be because the sensor component 570 does not detect vehicles, pedestrians or other obstacles, the control component 104 Make a determination that confirms the instruction from the HUD component 100 should be projected. In addition, the control component 104 determine a size, a shape, a model, a transparency, a color scheme, a height, a width, a depth, a target position, a focal plane, etc. for a corresponding graphic element. Thus, an acknowledgment of the instruction from the HUD component 100 be projected in a text box, as in 1004 you can see.

In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente 104 die HUD-Komponente anweisen, ein Grafikelement als einen Avatar 1002 zu projizieren, der als ein Führungssymbol erscheinen kann. In 10A kann das Grafikelement als ein Avatar 1002 mit einer Form oder Erscheinung eines Flugzeugs projiziert werden, das entlang einer Route leicht vor einem Fahrer oder Insassen des Fahrzeugs gleitet. Um die Aufmerksamkeit zu verbessern, kann die Steuer-/Regelkomponente 104 die HUD-Komponente 100 dazu veranlassen, den Avatar 1002 derart zu animieren, das der Avatar 1002 schwebt oder konstant in Bewegung ist. Anders ausgedrückt kann, damit der Avatar 1002 leichter sichtbar ist, die Steuer-/Regelkomponente 104 die HUD-Komponente 100 dazu veranlassen, dem Avatar 1002 periodisch eine Bewegung zuzuordnen. Beispielsweise kann die HUD-Komponente 100 den Avatar 1002 so projizieren, dass es erscheint, als ob er in Wasser treibt, wippt, schwebt, etc. Auf diese Weise kann die Aufmerksamkeit des Fahrers erhöht werden.In one or more embodiments, the control component 104 instruct the HUD component to have a graphic element as an avatar 1002 to project, which may appear as a guide symbol. In 10A can the graphic element as an avatar 1002 be projected with a shape or appearance of an aircraft, which slides easily along a route in front of a driver or occupant of the vehicle. To enhance attention, the tax component can 104 the HUD component 100 induce the avatar 1002 to animate that, the avatar 1002 floats or is constantly in motion. In other words, this allows the avatar 1002 easier to see is the control component 104 the HUD component 100 to induce the avatar 1002 periodically assign a movement. For example, the HUD component 100 the avatar 1002 project so that it appears as if it floats in water, teeters, hovers, etc. In this way, the driver's attention can be increased.

10B ist eine Illustration eines beispielhaften Szenarios 1010, das einer 3-D-Navigation zugeordnet ist, gemäß einer oder mehrerer Ausführungsformen. Wenn eine Anweisung oder ein Befehl, wie beispielsweise ein Navigations-Befehl, von der Steuer-/Regelkomponente 104 erhalten wird, kann die Steuer-/Regelkomponente 104 die Anweisung oder den Befehl an die geeignete Komponente oder das geeignete Modul weiterleiten. In diesem Beispiel kann die Steuer-/Regelkomponente 104 die Anweisung oder den Befehl als einen Navigations-Befehl identifizieren und den Navigations-Befehl an die Navigations-Komponente 540 weitergeben. Dementsprechend kann die Navigations-Komponente 540 eine Ausgangsposition für das Fahrzeug (z. B. eine momentane Position) und die Zielposition bestimmen und eine Route von der Ausgangsposition zu der Zielposition berechnen. Wie oben diskutiert, kann die Route einen oder mehrere Routenabschnitte entlang einem einem oder mehrerer Straßenabschnitte oder/und eine oder mehrere Navigations-Aktionen oder -Manöver umfassen. 10B is an illustration of an exemplary scenario 1010 associated with 3-D navigation, according to one or more embodiments. When a statement or command, such as a navigation command, from the control component 104 can receive the control component 104 forward the instruction or command to the appropriate component or module. In this example, the control component 104 identify the statement or command as a navigation command and the navigation command to the navigation component 540 pass on. Accordingly, the navigation component 540 determine an initial position for the vehicle (eg, a current position) and the target position, and calculate a route from the home position to the target position. As discussed above, the route may include one or more route sections along one or more road sections and / or one or more navigation actions or maneuvers.

Die Navigations-Komponente 540 kann die Route, Routen-Abschnitte oder Routen-Informationen der Steuer-/Regelkomponente 104 bereitstellen, die bestimmen kann, ob oder ob nicht oder/und wie die Routen-Informationen gerendert werden sollen. Beispielsweise kann, da das Fahrzeug in 10B nicht in Bewegung ist (z. B. beim Parken) oder sich mit einer geringen Geschwindigkeit bewegt (z. B. unterhalb eines über das Steuer-/Regelbereich-Netzwerk 580 detektierten oder bereitgestellten Schwellenwerts), die Steuer-/Regelkomponente 104 bestimmen, dass eine Draufsicht 1030 der Route für die HUD-Komponente zum Projizieren geeignet sein kann. Dementsprechend kann die Steuer-/Regelkomponente 104 die HUD-Komponente dazu veranlassen, die Draufsicht 1030 derart zu projizieren, dass die Draufsicht 1030 einen größeren Bereich innerhalb der Umgebung einnimmt. Anders ausgedrückt kann die Steuerung/Regelung eine Größe für ein Grafikelement oder ob das Grafikelement projiziert werden soll oder nicht auf Grundlage einer Geschwindigkeit des Fahrzeugs bestimmen. Im Gegensatz hierzu kann, wenn das Fahrzeug in Bewegung ist oder sich oberhalb einer Schwellenwert-Geschwindigkeit bewegt, die Steuer-/Regelkomponente 104 eine Bestimmung durchführen, dass eine kleinere Version projiziert werden soll, oder dass die HUD-Komponente 100 die Draufsicht 1030 zu dieser Zeit nicht projiziert.The navigation component 540 can be the route, route sections or route information of the control component 104 which can determine whether or not or / and how the route information should be rendered. For example, since the vehicle is in 10B is not in motion (eg when parking) or moving at a low speed (eg below one via the control area network) 580 detected or provided threshold), the control component 104 determine that a top view 1030 the route for the HUD component may be suitable for projecting. Accordingly, the control component 104 cause the HUD component to be the top view 1030 to project such that the top view 1030 occupy a larger area within the environment. In other words, the control may be a size for a graphic element or whether the graphic element should be projected or not based on a speed of the vehicle. In contrast, when the vehicle is in motion or moving above a threshold speed, the control component may be 104 make a determination that a smaller version should be projected or that the HUD component 100 the top view 1030 not projected at this time.

In 10B kann die HUD-Komponente eine Draufsicht 1030 einer Karte projizieren, die eine Route 1032 von einer Ausgangsposition zu einer Zielposition entlang eines oder mehrerer Straßenabschnitte umfasst. Die HUD-Komponente 100 kann einen Kompass 1034, Straßenabschnitt-Kennungen 1036, Verkehrs-Informationen, geschätzte Ankunftszeiten, geschätzte Fahrzeiten, eine momentane Position des Fahrzeugs, etc. projizieren. In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 verschiedene Aspekte der Draufsicht 1030 unter Verwendung von einem oder mehreren Farbschemata projizieren. Beispielsweise kann die HUD-Komponente 100 die Route derart projizieren, dass die Route 1032 unter Verwendung einer ersten Farbe gerendert wird, und andere Straßenabschnitte, wie beispielsweise der mit 1036 bezeichnete Straßenabschnitt, unter Verwendung einer zweiten Farbe gerendert werden.In 10B The HUD component can be a top view 1030 project a map that has a route 1032 from a starting position to a target position along one or more road sections. The HUD component 100 can a compass 1034 , Road section identifiers 1036 , Traffic information, estimated arrival times, estimated driving times, a current position of the vehicle, etc. project. In one or more embodiments, the HUD component 100 different aspects of the top view 1030 project using one or more color schemes. For example, the HUD component 100 project the route in such a way that the route 1032 is rendered using a first color, and other road sections, such as the one with 1036 Marked Road section, rendered using a second color.

In einer oder mehreren Ausführungsformen kann die Sensor-Komponente 570 Bilderfassungs-Vorrichtungen oder andere Sensoren umfassen, die bei einer Bestimmung einer Farbpalette oder eines Farbschemas zum Anzeigen oder Projizieren von grafischen Elementen helfen. Beispielsweise ist in 10B zu sehen, dass sich im Hintergrund oder der Umgebung einer oder mehrere Bäume befinden, die dafür sorgen, dass ein Grün schwieriger zu sehen oder zu visualisieren ist.In one or more embodiments, the sensor component 570 Include image capture devices or other sensors that help determine a color palette or color scheme for displaying or projecting graphic elements. For example, in 10B to see that there are one or more trees in the background or the environment that make a green harder to see or visualize.

Dementsprechend kann die Steuer-/Regelkomponente 104 ein Farbschema zum Projizieren von einem oder mehreren Grafikelementen auswählen, das Farben verwendet, die einen Kontrast zu Grün bilden, wie beispielsweise Gelb. Als weiteres Beispiel kann beispielsweise tagsüber von der Sensor-Komponente 570 erfasst werden, dass der Himmel blau ist, während in der Nacht der Himmel schwarz erscheinen kann. Anders ausgedrückt kann die Sensor-Komponente 570 Farbinformationen erhalten, aufnehmen, erfassen oder detektieren, die mit der Umgebung zusammenhängen, was für einen Kontrast von Grafikelementen verwendet werden kann. Die Steuer-/Regelkomponente 104 kann diese Informationen verwenden, um Farben zu bestimmen, für die die HUD-Komponente 100 ein oder mehrere Grafikelemente projizieren kann. Hierbei kann die Steuer-/Regelkomponente 104 bestimmen, dass Rot tagsüber eine Option ist, während nachts Blau eine Option ist. Auf diese Weise kann die Steuer-/Regelkomponente Farbschemata oder eine Farbe für ein Grafikelement oder einen Avatar auf Grundlage einer Tageszeit oder Farbinformationen im Zusammenhang mit der Umgebung bestimmen (z. B. erhalten oder detektiert von der Sensor-Komponente 570).Accordingly, the control component 104 Choose a color scheme to project one or more graphic elements that use colors that contrast with green, such as yellow. As another example, for example, during the daytime of the sensor component 570 it can be detected that the sky is blue, while at night the sky can appear black. In other words, the sensor component 570 Obtain, acquire, capture, or detect color information related to the environment that can be used to contrast graphic elements. The control component 104 can use this information to determine colors for which the HUD component 100 can project one or more graphic elements. This can be the control component 104 determine that red is an option during the day while blue is an option at night. In this way, the control component may determine color schemes or a color for a graphic element or avatar based on a time of day or color information associated with the environment (eg, received or detected by the sensor component) 570 ).

In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 einen oder mehrere Aspekte der Draufsicht 1030 animieren. Beispielsweise kann die HUD-Komponente 100 die Route 1032 entlang einem oder mehreren Straßenabschnitten derart animieren, dass oder als ob die Route 1032 von der Ausgangsposition zu der Zielposition mit einem durchgehenden Federstrich gezeichnet wäre. Anders ausgedrückt kann die HUD-Komponente 100 eine Animation, die ein Fahren entlang der Route repräsentiert, schlangenartig von der Ausgangsposition zu der Zielposition rendern.In one or more embodiments, the HUD component 100 one or more aspects of the plan view 1030 animate. For example, the HUD component 100 the route 1032 Animate along one or more road sections such that or as if the route 1032 would be drawn from the starting position to the target position with a continuous stroke of the pen. In other words, the HUD component 100 an animation that represents driving along the route, serpentine from the starting position to the destination position render.

Die HUD-Komponente 100 kann Grafikelemente oder Avatare, wie beispielsweise den Avatar 1002 aus 10A, unter Verwendung verschiedener Kamerawinkel, Kameraperspektiven oder verschiedener Ansichten projizieren. Ferner kann die HUD-Komponente 100 zwischen diesen Ansichten in animierter oder gradueller Weise übergehen. Beispielsweise kann die HUD-Komponente 100 die Kameraperspektive oder den Kamerawinkel von einer Vogelperspektive, wie beispielsweise der Draufsicht 1030 aus 10B in eine Erste-Person-Ansicht oder eine Dritte-Person-Ansicht überführen, wie in 10A gezeigt. Anders erklärt kann die HUD-Komponente 100 graduell die Kameraperspektive so anpassen, dass sie von einer Vogelperspektive, Layout-Ansicht, Überkopf-Ansicht, herausgezoomten Ansicht oder Dritte-Person-Ansicht zu einer hereingezoomten Ansicht, Erste-Person-Ansicht, Straßenniveau-Ansicht etc. übergeht.The HUD component 100 can be graphic elements or avatars, such as the avatar 1002 out 10A Project using different camera angles, camera angles or different views. Furthermore, the HUD component 100 move between these views in an animated or gradual way. For example, the HUD component 100 the camera angle or the camera angle from a bird's eye view, such as the top view 1030 out 10B into a first-person view or a third-person view, as in 10A shown. The HUD component can be explained differently 100 Gradually adjust the camera angle to transition from bird's-eye view, layout view, overhead view, zoomed out view, or third person view to zoomed in view, first person view, street level view, and so on.

Beispielsweise kann die HUD-Komponente 100 eine Kameraperspektive oder einen Kamerawinkel verwenden, der ein Zoomen oder einen Übergang in eine Straßenniveau-Ansicht zu beenden scheint, die mit der Ansicht der realen Welt oder der selben Ansicht der Umgebung zusammenfällt, die ein Insasse oder Fahrer haben würde, der in seinem Fahrzeug sitzt und durch die Windschutzscheibe in die reale Welt nach draußen schaut. Anders ausgedrückt kann die Straßenniveau-Ansicht eine Ansicht sein, die ein Insasse hat, während er sich innerhalb einer Augenbox befindet und in eine Vorwärts-Richtung durch eine Windschutzscheibe des Fahrzeugs schaut/blickt. Anders erklärt kann die Zoom-Animation oder der Übergang zu einem Rendern lediglich eines Avatars oder Grafikelements im Sichtfeld des Fahrers führen, wie beispielsweise des Avatars 1002 aus 10A. 11A ist eine Illustration eines beispielhaften Szenarios 1100 im Zusammenhang mit einer 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Es ist zu sehen, dass die Ansicht des Avatars 1002, der in diesem beispielhaften Szenario 1100 bereitgestellt ist, eine Übergangs-Ansicht ist, die zwischen einer Vogelperspektive oder einer Draufsicht 1030 aus 10B und der Dritte-Person-Ansicht aus 10A erreicht wird.For example, the HUD component 100 use a camera angle or a camera angle that seems to stop zooming or transitioning to a street level view that coincides with the view of the real world or the same view of the environment that an occupant or driver would have sitting in his vehicle and looking outside through the windshield into the real world. In other words, the street level view may be a view that an occupant has while inside an eye box and looking in a forward direction through a windshield of the vehicle. In other words, the zoom animation or the transition to rendering only an avatar or graphic element may result in the driver's field of vision, such as the avatar 1002 out 10A , 11A is an illustration of an exemplary scenario 1100 in the context of 3-D navigation in accordance with one or more embodiments. It can be seen that the view of the avatar 1002 that in this exemplary scenario 1100 is a transitional view that is between a bird's-eye view or a top view 1030 out 10B and the third-person view 10A is reached.

In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 eine Zoom-Animation in umgekehrter Reihenfolge (d. h. von einer Dritte-Person-Ansicht zu einer Vogelperspektive) bereitstellen, wenn ein Insasse eine Ansicht einer Karte verlangt, oder wenn der Insasse eine Kartenansicht-Anweisung auslöst. In diesem Szenario kann die HUD-Komponente 100 eine Dritte-Person-Ansicht eines Avatars (z. B. 1002 aus 10A projizieren und herauszoomen oder weg in eine Vogelperspektive (z. B. die Draufsicht 1030 aus 10B) fliegen. Ferner kann die HUD-Komponente 100 eine Orientierung der Route, Karte oder Ansicht auf Grundlage einer Richtung oder Ausrichtung des Fahrzeugs anpassen. Anders ausgedrückt kann die HUD-Komponente 100 die Karte oder Ansicht derart orientieren, dass die Richtung der Bewegung entlang eines momentanen Straßen-Abschnitts beispielsweise nach oben oder nach vorne zu verlaufen scheint.In one or more embodiments, the HUD component 100 provide a zoom animation in reverse order (ie, from a third-person view to a bird's-eye view) when an occupant requests a view of a map or when the occupant initiates a map view statement. In this scenario, the HUD component may be 100 a third person view of an avatar (eg 1002 out 10A project and zoom out or away in a bird's eye view (eg the top view 1030 out 10B ) fly. Furthermore, the HUD component 100 adjust an orientation of the route, map or view based on a direction or orientation of the vehicle. In other words, the HUD component 100 orient the map or view such that the direction of movement along a current road section appears to be up or forward, for example.

11B ist eine Illustration eines beispielhaften Szenarios 1110 im Zusammenhang mit einer 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 einem Fahrer eines Fahrzeugs Navigations-Anweisungen oder vorgeschlagene Navigations-Manöver bereitstellen. Beispielsweise kann die Navigations-Komponente 540 eine Liste von Navigations-Anweisungen für eine Route von einer Ausgangsposition zu einer Zielposition erzeugen. Die Steuer-/Regelkomponente 104 kann die HUD-Komponente 100 dazu veranlassen, jeweilige Navigations-Anweisungen in die Umgebung, wie beispielsweise bei 1130, zu projizieren. Navigations-Anweisungen können Richtungen für einen Fahrer, wie beispielsweise rechts abbiegen, links abbiegen, rechts einordnen, links einordnen, Vorfahrt gewähren, anhalten, abbremsen, Geschwindigkeit erhöhen, beschleunigen etc. Ferner müssen Navigations-Anweisungen nicht notwendigerweise einen Fahrer dazu anleiten, eine Handlung auszuführen. Beispielsweise können Navigations-Anweisungen einen Fahrer eines Fahrzeugs alarmieren, dass kein Abbiegen bei Rotlicht erlaubt ist. 11B is an illustration of an exemplary scenario 1110 in the context of 3-D navigation in accordance with one or more embodiments. In one or more embodiments, the HUD component 100 provide navigation instructions or suggested navigation maneuvers to a driver of a vehicle. For example, the navigation component 540 generate a list of navigation instructions for a route from a home position to a destination location. The control component 104 can be the HUD component 100 to initiate respective navigation instructions into the environment, such as 1130 to project. Navigation instructions can be directions for a driver such as turning right, turning left, right lane, left lane, grant right of way, stop, slow down, increase speed, speed, etc. Further, navigation instructions do not necessarily require a driver to direct an action perform. For example, navigation instructions may alert a driver of a vehicle that no red light turn is allowed.

In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente 104 ein Farbschema verwenden oder die HUD-Komponente 100 dazu veranlassen, eines oder mehrere der Grafikelemente oder der Avatare unter Verwendung verschiedener Farben zu projizieren, um eine oder mehrere Navigations-Aktionen zu repräsentieren. Beispielsweise kann, wenn die HUD-Komponente 100 einen Avatar, wie beispielsweise den Avatar 1002A, 1002B oder 1002C aus 11B grün projiziert, dies anzeigen, dass keine Objekte, Hindernisse oder entgegenkommender Verkehr von der Sensor-Komponente 570 detektiert werden. Als weiteres Beispiels kann die HUD-Komponente 100 einen oder mehrere der Avatare 1002A, 1002B oder 1002C rot projizieren, um dem Fahrer anzuzeigen, dass es noch nicht sicher ist, abzubiegen. Hierbei kann die HUD-Komponente 100 beispielsweise ein „Vorfahrt gewähren”-Schild als eine Navigations-Anweisung anstatt eines „rechts abbiegen” projizieren.In one or more embodiments, the control component 104 Use a color scheme or the HUD component 100 cause one or more of the graphic elements or avatars to be projected using different colors to represent one or more navigation actions. For example, if the HUD component 100 an avatar, such as the avatar 1002A . 1002B or 1002C out 11B Green projected, indicating that there are no objects, obstacles or oncoming traffic from the sensor component 570 be detected. As another example, the HUD component 100 one or more of the avatars 1002A . 1002B or 1002C Project red to indicate to the driver that it is not yet safe to turn off. Here, the HUD component 100 For example, projecting a "grant right of way" sign as a navigation instruction rather than a "right turn" project.

Wie in 11B zu sehen ist, kann die HUD-Komponente 100 mehrere Avatare 1002A, 1002B und 1002C projizieren. In diesem Beispiel kann der Avatar 1002A auf eine erste Brennebene projiziert werden, der Avatar 1002B kann auf eine zweite Brennebene projiziert werden und der Avatar 1002C kann auf eine dritte Brennebene projiziert werden, wobei die erste Brennebene dem Fahrzeug am nächsten ist, gefolgt von der zweiten Brennebene, dann die dritte Brennebene, wodurch der Anschein erweckt wird, dass der Avatar 1002C am weitesten von dem Fahrzeug entfernt ist. Da die HUD-Komponente 100 in der Lage ist, mehrere Avatare 1002A, 1002B und 1002C auf verschiedene Brennebenen zu projizieren, gestattet dies dem System 500 für 3-D-Navigation, eine projizierte Route, Pfad oder eine vorbestimmte Route für einen Fahrer bereitzustellen, der bzw. dem dieser folgen kann.As in 11B can be seen, the HUD component 100 several avatars 1002A . 1002B and 1002C project. In this example, the avatar 1002A projected onto a first focal plane, the avatar 1002B can be projected onto a second focal plane and the avatar 1002C may be projected to a third focal plane with the first focal plane closest to the vehicle, followed by the second focal plane, then the third focal plane, thereby creating the appearance of the avatar 1002C farthest from the vehicle. Because the HUD component 100 is capable of multiple avatars 1002A . 1002B and 1002C Projecting to different focal planes allows the system to do this 500 for 3-D navigation, providing a projected route, path or predetermined route for a driver to follow.

In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 einen oder mehrere der Avatare 1002A, 1002B oder 1002C derart projizieren, dass jeweilige Avatare Brennebenen beibehalten, die statisch bezüglich der momentanen Position des Fahrzeugs sind. Anders ausgedrückt kann die HUD-Komponente 100 Avatare oder Grafikelemente derart projizieren, dass der Abstand zwischen dem Fahrzeug und Brennebenen für jeweilige Avatare abnimmt, wenn das Fahrzeug sich einem Avatar „nähert”. Anders ausgedrückt kann die HUD-Komponente 100 einen Avatar, wie beispielsweise einen aus 1002A, 1002B oder 1002C als ein Objekt projizieren, das stationär bezüglich des Fahrzeugs ist, wodurch es einem Fahrer oder Insassen erscheint, als ob ein Avatar vor dem Fahrzeug zu einer Zeit passiert wird oder darauf wartet, dass das Fahrzeug zu einer späteren Zeit „aufholt”. In diesen Ausführungsformen kann die HUD-Komponente 100 zusätzliche Avatare projizieren, wenn eine Route fortschreitet und eine Person oder ein Fahrer eines Fahrzeugs die stationären oder statischen Avatare „passiert”.In one or more embodiments, the HUD component 100 one or more of the avatars 1002A . 1002B or 1002C project such that respective avatars maintain focal planes that are static relative to the current position of the vehicle. In other words, the HUD component 100 Project avatars or graphic elements such that the distance between the vehicle and focal planes for respective avatars decreases as the vehicle "approaches" an avatar. In other words, the HUD component 100 an avatar, such as one 1002A . 1002B or 1002C projecting as an object stationary with respect to the vehicle, thereby making it appear to a driver or occupant, as if an avatar is passing in front of the vehicle at one time or waiting for the vehicle to "catch up" at a later time. In these embodiments, the HUD component 100 projecting additional avatars as a route progresses and a person or driver of a vehicle "passes" the stationary or static avatars.

In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 einen oder mehrere der Avatare 1002A, 1002B oder 1002C derart projizieren, dass jeweilige Avatare Brennebenen aufweisen, die dynamisch auf die momentane Position des Fahrzeugs angepasst werden, oder die einen konstanten oder festgelegten Abstand von dem Fahrzeug aufweisen. Anders ausgedrückt kann die HUD-Komponente Avatare oder Grafikelemente derart projizieren, dass der Abstand zwischen dem Fahrzeug und Brennebenen für jeweilige Avatare konstant bleibt, wenn das Fahrzeug sich bewegt. Noch einmal anders ausgedrückt kann die HUD-Komponente Avatare als stationäre Objekte projizieren, die sich zusammen mit dem Fahrzeug zu bewegen scheinen. In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 zwischen einem Projizieren von Avataren als Objekte, die bezüglich des Fahrzeugs stationär sind, und einem Projizieren von Avataren als Objekte, die sich mit dem Fahrzeug zu bewegen scheinen, übergehen.In one or more embodiments, the HUD component 100 one or more of the avatars 1002A . 1002B or 1002C such that respective avatars have focal planes that are dynamically adjusted to the current position of the vehicle, or that have a constant or fixed distance from the vehicle. In other words, the HUD component may project avatars or graphic elements such that the distance between the vehicle and focal planes for respective avatars remains constant as the vehicle is moving. In other words, the HUD component can project avatars as stationary objects that seem to move together with the vehicle. In one or more embodiments, the HUD component 100 between projecting avatars as objects stationary with respect to the vehicle and projecting avatars as objects that appear to be moving with the vehicle.

In jedem Fall kann die HUD-Komponente 100 ein beliebiges einer Mehrzahl von Grafikelementen oder Avataren als eine Animation projizieren, indem Brennebenen angepasst werden, auf denen eines oder mehrere der Grafikelemente oder Avatare zu projizieren sind. Beispielsweise können Positionierungen der Avatare 1002A, 1002B und 1002C erreicht werden, indem ein einzelner Avatar, wie beispielsweise der Avatar 1002 aus 11A oder 10A erweitert wird. Anders ausgedrückt können ein oder mehrere Avatare (oder Grafikelemente) von einem ersten Avatar aus erweitert werden, und jeweilige Avatare können in einen einzelnen Avatar zusammengefasst werden. Anders ausgedrückt können mehrere Avatare auseinander fliegen, sich trennen, fortschreiten oder vor einen ersten Avatar von der HUD-Komponente 100 projiziert werden, um beispielsweise ein Animieren einer Routen-Navigation oder Navigations-Anweisungen zu vereinfachen.In any case, the HUD component 100 project any one of a plurality of graphics or avatars as an animation by adjusting focal planes on which to project one or more of the graphic elements or avatars. For example, avatars can be positioned 1002A . 1002B and 1002C be achieved by a single avatar, such as the avatar 1002 out 11A or 10A is extended. In other words, one or more avatars (or graphic elements) may be extended from a first avatar, and respective avatars may be grouped into a single avatar. In other words, multiple avatars may fly apart, separate, advance, or in front of a first avatar from the HUD component 100 be projected, for example, to facilitate animate a route navigation or navigation instructions.

In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 ein oder mehrere Grafikelemente als Zeiger projizieren, die einen Fahrer oder Insassen eines Fahrzeugs über ein oder mehrere Objekte, Hindernisse, Straßen-Zustände, etc. alarmieren. Die Steuer-/Regelkomponente 104 kann einen Zeigertyp auf Grundlage einer Geschwindigkeit des Fahrzeugs und einer Geschwindigkeit eines Objekts auswählen. Beispielsweise kann, wenn das Fahrzeug stationär ist, entgegenkommender Verkehr (oder beispielsweise andere Objekte) durch Projizieren eines Grafikelements identifiziert werden, das auf eine Weise rotiert, die auf den Verkehr, die Gefahr, oder das sich bewegende Objekt zeigt, während sich das Objekt dem Fahrzeug nähert oder sich von dem Fahrzeug entfernt.In one or more embodiments, the HUD component 100 Projecting one or more graphic elements as hands that alert a driver or occupant of a vehicle about one or more objects, obstacles, road conditions, etc. The control component 104 may select a pointer type based on a speed of the vehicle and a speed of an object. For example, when the vehicle is stationary, oncoming traffic (or other objects, for example) may be identified by projecting a graphic element that rotates in a manner indicative of traffic, danger, or moving object while the object is navigating Vehicle is approaching or away from the vehicle.

12A ist eine Illustration eines beispielhaften Szenarios 1200 im Zusammenhang mit 3-D-Navigation gemäß einem oder mehrerer Ausführungsformen. Hierbei kann die Sensor-Komponente 570 vorbeifahrenden Verkehr oder ein weiteres Fahrzeug 1214 detektieren. Da die Trajektorie oder der Pfad des anderen Fahrzeugs 1214 auf einem Kollisionskurs mit der vorgeschlagenen, von dem Avatar 1002B angezeigten Navigations-Aktion ist, kann die Steuer-/Regelkomponente 104 die HUD-Komponente 100 dazu veranlassen, Navigations-Anweisungen zu projizieren, die den Fahrer darüber alarmieren, dass er bei 1130 die Vorfahrt gewähren sollte. Anders ausgedrückt kann die Sensor-Komponente 570 die Position des anderen Fahrzeugs 1214 verfolgen. Diese Information kann an die Steuer-/Regelkomponente 104 übertragen werden, die bestimmen kann, dass das Zeiger-Grafikelement von der HUD-Komponente 100 bei 1002A projiziert werden sollte. Die HUD-Komponente 100 kann somit das Zeiger-Grafikelement 1002A derart projizieren, dass es das andere Fahrzeug 1214 verfolgt oder es ihm folgt 1212A. 12A is an illustration of an exemplary scenario 1200 in the context of 3-D navigation according to one or more embodiments. Here, the sensor component 570 passing traffic or another vehicle 1214 detect. Because the trajectory or the path of the other vehicle 1214 on a collision course with the proposed, from the avatar 1002B navigation action displayed is the control component 104 the HUD component 100 to project navigation instructions that alert the driver that he is at 1130 should grant the right of way. In other words, the sensor component 570 the position of the other vehicle 1214 follow. This information can be sent to the control component 104 which can determine that the pointer graphic element is from the HUD component 100 at 1002A should be projected. The HUD component 100 thus can the pointer graphic element 1002A so project that it is the other vehicle 1214 followed or followed him 1212A ,

12B ist eine Illustration eines beispielhaften Szenarios 1210 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Fortfahrend mit dem Beispiel aus 12A ist zu sehen, dass das andere Fahrzeug 1214 das Fahrzeug passiert hat, das stationär war. Die HUD-Komponente 100 kann weiterhin die Vorfahrt-Gewähren-Anweisung 1130 projizieren, sowie die nächste Navigations-Anweisung oder -Aktion (z. B. rechts abbiegen) bei 1002B. Da die Sensor-Komponente 570 das andere Fahrzeug 1214 detektiert, kann die HUD-Komponente 100 den Avatar 1002B in einer entsprechenden Farbe, wie beispielsweise Rot, projizieren. Anders ausgedrückt kann die Steuer-/Regelkomponente 104 eine Farbe für ein Grafikelement auswählen, das von der HUD-Komponente 100 auf Grundlage von Objekt-Informationen oder Umgebungs-Informationen (z. B. von der Sensor-Komponente 570 gesammelt oder detektiert) zu projizieren ist. Der Zeiger 1002A aus 12B kann weiterhin auf das Fahrzeug 1214 zeigen oder es verfolgen, indem er entlang einer z-Achse auf eine Weise rotiert, die einem verfolgten Objekt entspricht. Anders ausgedrückt kann die Steuer-/Regelkomponente 104 ein Gieren des Zeiger-Grafikelements 1002A anpassen. 12B is an illustration of an exemplary scenario 1210 in the context of 3-D navigation according to one or more embodiments. Continuing with the example 12A you can see that the other vehicle 1214 passed the vehicle that was stationary. The HUD component 100 can continue the right of way grant instruction 1130 project, as well as the next navigation instruction or action (eg right turn) 1002B , Because the sensor component 570 the other vehicle 1214 detected, the HUD component 100 the avatar 1002B in a corresponding color, such as red, project. In other words, the control component 104 Select a color for a graphic element from the HUD component 100 based on object information or environmental information (eg from the sensor component 570 collected or detected) is to be projected. The pointer 1002A out 12B can continue on the vehicle 1214 show or track it by rotating along a z-axis in a manner corresponding to a tracked object. In other words, the control component 104 a yaw of the pointer graphic element 1002A to adjust.

13A ist eine Illustration eines beispielhaften Szenarios 1300 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Während eine Person oder ein Fahrer ein Fahrzeug fährt, kann die Navigations-Komponente 540 eine momentane Position eines Fahrzeugs oder/und entsprechende Koordinaten bestimmen. Unter Verwendung dieser Informationen kann die Navigations-Komponente 540 oder die Steuer-/Regelkomponente 104 einen Straßennamen bestimmen und die HUD-Komponente 100 dazu veranlassen, den Straßennamen auf eine Brennebene zu projizieren, der einer Oberfläche der Straße oder des Straßen-Abschnitts entspricht, wie in 1330 zu sehen ist. Wie hierin diskutiert, kann die Projektion des Grafikelements auf die Straßenoberfläche auf eine Weise durchgeführt werden, die bezüglich des Fahrzeugs stationär erscheint, oder auf eine Weise, die sich mit dem Fahrzeug zu bewegen scheint. In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 den Straßennamen 1330 als Reaktion auf eine Anfrage von einem Insassen des Fahrzeugs projizieren, beispielsweise „Auf welcher Straße befinde ich mich?”. Zusätzlich können andere Grafikelemente, Informationen oder Hervorhebungen auf Wegmarken, Objekte, etc. projiziert werden. 13A is an illustration of an exemplary scenario 1300 in the context of 3-D navigation according to one or more embodiments. While a person or a driver drives a vehicle, the navigation component may 540 determine a current position of a vehicle and / or corresponding coordinates. Using this information, the navigation component 540 or the control component 104 determine a street name and the HUD component 100 cause to project the street name on a focal plane corresponding to a surface of the road or the road section, as in 1330 you can see. As discussed herein, the projection of the graphics element onto the road surface may be performed in a manner that appears stationary with respect to the vehicle or in a manner that appears to be moving with the vehicle. In one or more embodiments, the HUD component 100 the street name 1330 in response to a request from an occupant of the vehicle, for example, "Which road am I on?". In addition, other graphic elements, information or highlighting can be projected onto landmarks, objects, etc.

In 13A werden verschiedene Grafikelemente oder Avatare von der HUD-Komponente projiziert und können animiert, zusammengefasst, erweitert, etc. werden, wie zuvor diskutiert worden ist. Auf diese Weise können die Avatare 1002A, 1002B und 1002C einem Fahrer eines Fahrzeugs oder anderen Insassen entlang einer Route zu einem Ziel bereitgestellt werden. 13B ist eine Illustration eines beispielhaften Szenarios 1310 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Hierbei ist zu sehen, dass die Avatare 1002A und 1002B mit variierenden Nickwinkeln, Rollwinkeln und Gierwinkeln projiziert werden. Die Steuer-/Regelkomponente kann einen Nick-, Roll oder Gierwinkel für einen Avatar oder ein Grafikelement auf Grundlage einer Trajektorie eines Pfads, eines Radius einer bevorstehenden Kurve, einer momentanen Geschwindigkeit eines Fahrzeugs, einer Geschwindigkeitsbegrenzung im Zusammenhang mit einer bevorstehenden Kurve, einer vorgeschlagenen Navigations-Aktion, Informationen von der Umgebung, einer Distanz bis zur nächsten Navigations-Anweisung oder -Aktion, etc. auswählen oder anpassen.In 13A For example, various graphic elements or avatars are projected from the HUD component and can be animated, summarized, expanded, etc., as previously discussed. That way the avatars can 1002A . 1002B and 1002C be provided to a driver of a vehicle or other occupant along a route to a destination. 13B is an illustration of an exemplary scenario 1310 in the context of 3-D navigation according to one or more embodiments. Here it can be seen that the avatars 1002A and 1002B be projected with varying pitch angles, roll angles and yaw angles. The control component may be a pitch, roll or yaw angle for an avatar or a graphic element based on a trajectory of a path, a Select or adjust the radius of an upcoming curve, a current speed of a vehicle, a speed limit associated with an upcoming turn, a proposed navigation action, information from the environment, a distance to the next navigation instruction or action, etc.

Hierbei kann in diesem Beispiel, da eine vorgeschlagene Route das Fahrzeug dazu veranlasst, eine bevorstehende Ausfahrt mit einer/einem kreisförmigen Straßenform oder Straßenabschnitt zu nehmen, die Steuer-/Regelkomponente 104 die HUD-Komponente dazu veranlassen, den Avatar 1002B mit einem größeren Roll- oder Gierwinkel als den Avatar 1002A zu projizieren, wodurch eine Wahrnehmung bereitgestellt wird, dass eine Kurve nach rechts folgt. Zusätzlich kann die Steuer-/Regelkomponente 104 einen kürzeren Abstand zwischen den Brennebenen für die Avatare 1002A und 1002B wählen, um anzuzeigen, wie eng eine Kurve sein kann. In anderen Ausführungsformen kann die Steuer-/Regelkomponente 104 eine Farbe, wie beispielsweise Geld oder Orange für einen oder mehrere der Avatare auswählen, um eine bevorstehende Kurve oder/und einen entsprechenden Grund für einen Fahrer, beispielsweise abzubremsen, anzuzeigen.Here, in this example, since a proposed route causes the vehicle to take an upcoming exit having a circular road shape or road section, the control component 104 the HUD component to induce the avatar 1002B with a greater roll or yaw angle than the avatar 1002A projecting, thereby providing a perception that a curve follows to the right. In addition, the control component 104 a shorter distance between the focal planes for the avatars 1002A and 1002B Select to see how tight a curve can be. In other embodiments, the control component 104 select a color, such as money or orange, for one or more of the avatars to indicate an upcoming turn and / or a corresponding reason for a driver to, for example, decelerate.

14A ist eine Illustration eines beispielhaften Szenarios 1400 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Ein Fahrer oder Insasse kann einem System 500 für 3-D-Navigation eine Anweisung oder einen Befehl bereitstellen, während es mit einer Navigation von einer Ausgangsposition zu einer Zielposition beschäftigt ist. Anders ausgedrückt kann die Navigations-Komponente 540 ein Hinzufügen von einem oder mehreren Wegpunkten zwischen der Ausgangsposition und der Zielposition unterstützen, so dass die Navigation zu der Zielposition nicht auf eine Weise unterbrochen wird, die ein erneutes Einstellen der Navigation zu der Zielposition erfordert. Anders ausgedrückt kann, wenn ein Wegpunkt eingefügt wird, die Navigations-Komponente 540 eine überarbeitete Route von der momentanen Position des Fahrzeugs zu dem Wegpunkt und von dem Wegpunkt zu der Zielposition (die zuvor bestimmt worden war) berechnen. In 14A ist eine Navigation von einer Ausgangsposition zu einer Zielposition im Gange, wie von dem Avatar 1002 angezeigt wird, die den Fahrer des Fahrzeugs anleitet, geradeaus über die momentane Kreuzung weiter zu fahren. Bei 1404 kann eine Bestätigung der Anweisung oder des Befehls in einer Textbox projiziert werden. In einer oder mehreren Ausführungsformen muss die Steuer-/Regelkomponente 104 nicht die HUD-Komponente 100 dazu veranlassen, die Textbox 1404 zu projizieren, beispielsweise wenn mehrere Hindernisse von der Sensor-Komponente 570 detektiert werden, das Fahrzeug sich oberhalb einer Schwellenwert-Geschwindigkeit bewegt, oder auf Grundlage von Vorlieben des Benutzers. 14A is an illustration of an exemplary scenario 1400 in the context of 3-D navigation according to one or more embodiments. A driver or occupant can use a system 500 for 3-D navigation, provide an instruction or command while navigating from a home position to a destination position. In other words, the navigation component 540 assisting in adding one or more waypoints between the home position and the target position such that navigation to the target position is not interrupted in a manner that requires retuning navigation to the target position. In other words, when a waypoint is inserted, the navigation component may be used 540 calculate a revised route from the current position of the vehicle to the waypoint and from the waypoint to the destination position (which was previously determined). In 14A is a navigation from a starting position to a target position in progress, as of the avatar 1002 is displayed, which instructs the driver of the vehicle to drive straight on the current intersection. at 1404 An acknowledgment of the instruction or command can be projected in a text box. In one or more embodiments, the control component must 104 not the HUD component 100 induce the textbox 1404 to project, for example, when there are multiple obstacles from the sensor component 570 detected, the vehicle is moving above a threshold speed, or based on preferences of the user.

In einer oder mehreren Ausführungsformen kann das System 500 eine Schnittstelle zu einer oder mehreren Komponenten, Servern, anderen Systemen, wie beispielsweise einer mobilen Vorrichtung oder entfernten Servern, zum Bestimmen von einem oder mehreren der Wegpunkte aufweisen. Beispielsweise kann ein Fahrer das System 500 dazu anweisen, ihn „zur nächsten Tankstelle zu führen”, „der billigsten Tankstelle in der Nähe” zu führen oder „einer Tankstelle auf dem Weg nach Hause”. Gemäß dieser Anweisungen kann die Steuer-/Regelkomponente 104 mit der Navigations-Komponente 540 zusammenarbeiten, um eine momentane Position für das Fahrzeug, eine Zielposition, eine Route zwischen der momentanen Position und der Zielposition zu bestimmen, oder mit einer Benzinpreis-Anwendung, wie beispielsweise einer Anwendung auf einer mobilen Vorrichtung etc. zum Bestimmen eines Preises, einer Position oder anderen Kriterien.In one or more embodiments, the system may 500 interfacing with one or more components, servers, other systems, such as a mobile device or remote servers, for determining one or more of the waypoints. For example, a driver can use the system 500 instruct him to "take him to the nearest gas station", "the cheapest gas station nearby" or "a gas station on the way home". According to these instructions, the control component 104 with the navigation component 540 work together to determine an instantaneous position for the vehicle, a target position, a route between the current position and the target position, or a gasoline price application, such as an application on a mobile device, etc., to determine a price, a position, or other criteria.

14B ist eine Illustration eines beispielhaften Szenarios 1410 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Die Steuer-/Regelkomponente 104 kann eine Position eines Wegpunkts bestimmen oder einen geeigneten Wegpunkt aus einem oder mehreren verfügbaren Wegpunkten in Zusammenarbeit mit der Navigations-Komponente 540 auswählen. Die Navigations-Komponente 540 kann eine neue Route berechnen oder erstellen, um das Fahrzeug zu dem Wegpunkt als momentane Zielposition zu führen und die momentane Zielposition als die nächste Zielposition festlegen. Die Navigations-Komponente 540 kann zusätzliche Reisezeit im Zusammenhang mit dem Wegpunkt berechnen. In diesem Zusammenhang kann die HUD-Komponente 100 diese Informationen (z. B. Umleitung, die zu etwa acht Minuten zusätzlicher Reisezeit führen wird) in einer Textbox 1430A projizieren. Wie hierin diskutiert, kann die HUD-Komponente 100 Navigations-Anweisung 1130 und einen Avatar 1002 an einer oder mehreren Brennebenen in der Umgebung bereitstellen oder projizieren. Ferner kann die Navigations-Komponente 540 einen Telematik-Kanal zum Erhalten oder Herunterladen von Metadaten oder Informationen im Zusammenhang mit einem Wegpunkt oder einem Ziel verwenden. Beispielsweise kann die Navigations-Komponente 540 ein Logo im Zusammenhang mit dem Wegpunkt erhalten, wie beispielsweise ein Logo für einen Laden oder eine Tankstelle etc. Die HUD-Komponente 100 kann dieses Logo oder andere verwandte Informationen bei 1430B projizieren. Ferner kann die HUD-Komponente 100 einen oder mehrere Aspekte, wie beispielsweise durch Falten des Logos 1430B in eine ebene Form oder anderweitiges Umformen des Logos 1430B in den Avatar 1002 oder ein anderes Grafikelement animieren. Die HUD-Komponente 100 kann im Wesentlichen jedes Grafikelement in im Wesentlichen jedes andere Grafikelement animieren, umformen, umwandeln, etc. 14B is an illustration of an exemplary scenario 1410 in the context of 3-D navigation according to one or more embodiments. The control component 104 may determine a position of a waypoint or a suitable waypoint from one or more available waypoints in cooperation with the navigation component 540 choose. The navigation component 540 may compute or create a new route to guide the vehicle to the waypoint as the current target position and set the current target position as the next target position. The navigation component 540 can calculate additional travel time in connection with the waypoint. In this context, the HUD component 100 this information (eg redirection, which will add about 8 minutes extra travel time) in a text box 1430A project. As discussed herein, the HUD component 100 Navigation Instructions 1130 and an avatar 1002 deploy or project at one or more focal planes in the environment. Furthermore, the navigation component 540 use a telematics channel to obtain or download metadata or information related to a waypoint or a destination. For example, the navigation component 540 get a logo related to the waypoint, such as a logo for a store or gas station, etc. The HUD component 100 May include this logo or other related information 1430b project. Furthermore, the HUD component 100 one or more aspects, such as folding the logo 1430b in a flat shape or otherwise reshaping the logo 1430b in the avatar 1002 or animate another graphic element. The HUD component 100 can essentially animate, reshape, transform, etc., virtually any graphic element into essentially any other graphic element.

15 ist eine Illustration eines beispielhaften Szenarios 1500 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Die HUD-Komponente 100 kann Navigations-Anweisungen in einer Textbox 1130 und einen oder mehrere Avatare 1002A, 1002B, 1002C, 1002D, 1002E, etc. projizieren. Zusätzlich kann die HUD-Komponente 100 eine Route oder einen Pfad hervorheben, der durch jeweilige Avatare 1002A, 1002B, 1002C, 1002D oder 1002E bereitgestellt ist, beispielsweise indem die Avatare aufeinander folgend aufblinken. Die HUD-Komponente 100 kann einen oder mehrere der Avatare 1002A, 1002B, 1002C, 1002D oder 1002E derart projizieren, dass sie um andere Objekte, die von der Sensor-Komponente 570 detektiert werden, wie beispielsweise Gefahren, Straßen-Zustände oder andere Fahrzeuge, herum zu navigieren, fahren oder sich zu bewegen scheinen. Das Logo 1430B aus 14B kann so animiert werden, dass es in ein Logo „L” von der Größe eines Zeichens zusammenschrumpft, wie in 15 gezeigt. Beispielsweise kann die Steuer-/Regelkomponente 104 eine Zeitperiode bestimmen, während der das Logo 1430B in einer ersten Größe oder einen vollen Größe angezeigt wird. Nach dem Ablauf dieser Zeitperiode kann die HUD-Komponente 100 das Logo „L” in einer kleineren Größe, einer Zeichen-Größe oder einer zweiten Größe projizieren. Die Steuer-/Regelkomponente 104 kann die Zeitperiode für das Logo auf Grundlage des Abstands zu dem jeweiligen Objekt bestimmen (beispielsweise ein Restaurant, Laden oder eine Wegmarke etc.). 15 is an illustration of an exemplary scenario 1500 in the context of 3-D navigation according to one or more embodiments. The HUD component 100 can navigation instructions in a textbox 1130 and one or more avatars 1002A . 1002B . 1002C . 1002D . 1002E project, etc. Additionally, the HUD component 100 highlight a route or path that passes through respective avatars 1002A . 1002B . 1002C . 1002D or 1002E is provided, for example, by the avatars flashing sequentially. The HUD component 100 Can one or more of the avatars 1002A . 1002B . 1002C . 1002D or 1002E so project them around other objects, by the sensor component 570 be detected, such as dangers, road conditions or other vehicles, to navigate, drive or seem to move around. The logo 1430b out 14B can be animated to shrink into a "L" logo the size of a character, as in 15 shown. For example, the control component 104 determine a period of time while the logo 1430b displayed in a first size or a full size. After the expiration of this time period, the HUD component 100 project the "L" logo in a smaller size, one character size, or one second size. The control component 104 may determine the time period for the logo based on the distance to the respective object (for example, a restaurant, shop or waymark, etc.).

In einer oder mehreren Ausführungsformen kann eine Frühwarn-Detektion für ein oder mehrere Hindernisse oder Objekte bereitgestellt sein, die noch nicht im Sichtfeld oder der Reichweite eines Insassen eines Fahrzeugs sind, wie beispielsweise wenn der Insasse nach vorne aus dem Fahrzeug durch die Windschutzscheibe schaut. 16A ist eine Illustration eines beispielhaften Szenarios 1600 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. In diesem Beispiel können Verkehrs-Zustandinformationen von der Fahrzeug-Steuer-/Regelkomponente 180 für einen oder mehrere Verkehrs-Zustände entlang einer Route empfangen werden, auf der sich ein Fahrzeug bewegt oder voraussichtlich bewegen wird. Hierbei kann die Fahrzeug-Steuer-/Regelkomponente 180 Verkehrs-Zustandinformationen erhalten, die Bauarbeiten entlang einem oder mehrerer Routenabschnitte vor dem Fahrzeug anzeigen. Anders ausgedrückt finden Bauarbeiten entlang eines Straßenabschnitts statt, den das Fahrzeug nehmen wird, wenn die Navigations-Anweisungen befolgt werden. Anders ausgedrückt kann ein Auftreten dieser Baustelle von der Fahrzeug-Steuer-/Regelkomponente 180 erhalten werden, bevor das Fahrzeug an der Baustelle eintrifft.In one or more embodiments, early warning detection may be provided for one or more obstacles or objects that are not yet in the field of view or range of an occupant of a vehicle, such as when the occupant is looking forward out of the vehicle through the windshield. 16A is an illustration of an exemplary scenario 1600 in the context of 3-D navigation according to one or more embodiments. In this example, traffic condition information may be from the vehicle control component 180 for one or more traffic conditions along a route on which a vehicle is moving or is expected to move. Here, the vehicle control component can 180 Receive traffic condition information indicating construction work along one or more route sections in front of the vehicle. In other words, construction works take place along a road section which the vehicle will take if the navigation instructions are followed. In other words, occurrence of this construction site may be by the vehicle control component 180 be received before the vehicle arrives at the construction site.

Die HUD-Komponente 100 kann Navigations-Anweisungen 1130 projizieren, die Text, Pfeile, blinkende Pfeile, etc. umfassen können. Avatare 1002A und 1002B können ebenfalls projiziert werden. In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente 104 einen Anhaltepunkt oder eine Anhaltelinie bestimmen, wo ein Fahrer das Fahrzeug anhalten sollte. Beispielsweise kann die Steuer-/Regelkomponente 104 den Anhaltepunkt auf Grundlage einer Position eines anderen Fahrzeugs, Hindernisses in der Umgebung, anderer Umgebung-Informationen, etc. bestimmen. Die Steuer-/Regelkomponente 104 kann die HUD-Komponente 100 dazu veranlassen, diese als eine horizontale Linie 1630 zu projizieren, um ein sicheres Fahren zu fördern. In anderen Ausführungsformen kann die HUD-Komponente 100 eine vertikale Linie oder ein anderes Grafikelement projizieren, die/das einen sicheren Folge-Abstand zwischen dem Fahrzeug des Fahrers und beispielsweise einem voraus fahrenden weiteren Fahrzeug anzeigt.The HUD component 100 can navigation instructions 1130 project, which may include text, arrows, flashing arrows, etc. Avatars 1002A and 1002B can also be projected. In one or more embodiments, the control component 104 determine a stopping point or stopping line where a driver should stop the vehicle. For example, the control component 104 determine the stopping point based on a position of another vehicle, an obstacle in the environment, other environment information, etc. The control component 104 can be the HUD component 100 induce this as a horizontal line 1630 project to promote safe driving. In other embodiments, the HUD component 100 projecting a vertical line or other graphic element that indicates a safe sequence distance between the driver's vehicle and, for example, another vehicle ahead.

Dementsprechend kann die Steuer-/Regelkomponente 104 dieses Hindernis (z. B. Objekt) oder diesen Verkehrs-Zustand identifizieren und die HUD-Komponente 100 dazu veranlassen, eine Benachrichtigung im Voraus oder ein Frühwarn-Grafikelement 1602 zu projizieren. Dies erlaubt es dem System 500, einen Fahrer oder Insassen eines Fahrzeugs über ein oder mehrere Objekte, Gefahren, Hindernisse, Verkehrs-Zustände, etc. zu alarmieren, selbst wenn. entsprechende Objekte nicht direkt sichtbar sind, wenn aus der Windschutzscheibe des Fahrzeugs geblickt oder geschaut wird. 16B ist eine Illustration eines beispielhaften Szenarios 1610 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Es ist in 16B zu sehen, dass der Verkehrs-Zustand oder die Behinderung im Zusammenhang mit 1602 in dem Abstand weit voraus liegt und einem Fahrer eines Fahrzeugs nicht ersichtlich sein muss. Dementsprechend kann die HUD-Komponente 100 die Gefahr, die Baustelle oder das Objekt identifizieren (z. B. erhalten von der Fahrzeug-Steuer-/Regelkomponente 180), indem ein Vorwarn-Grafikelement 1602 projiziert wird, das auf die Baustelle relativ zu dem Fahrzeug zeigt und sie identifiziert. Beispielsweise kann in 16A, da sich die Baustelle links des Fahrzeugs befindet, der Zeiger oder Schwanz im Zusammenhang mit dem Vorwarn-Grafikelement 1602 nach außerhalb des Windschutzscheiben-Sichfeldbereichs zeigen, wodurch ein Fahrer oder anderer Insasse des Fahrzeugs darüber alarmiert wird, dass eine Baustelle voraus liegt.Accordingly, the control component 104 identify this obstacle (eg object) or this traffic condition and the HUD component 100 cause a notification in advance or an early warning graphic element 1602 to project. This allows the system 500 to alert a driver or occupant of a vehicle about one or more objects, hazards, obstacles, traffic conditions, etc., even if. corresponding objects are not directly visible when looking or looking out of the windshield of the vehicle. 16B is an illustration of an exemplary scenario 1610 in the context of 3-D navigation according to one or more embodiments. It is in 16B to see that the traffic condition or disability related 1602 is far ahead in the distance and a driver of a vehicle does not have to be visible. Accordingly, the HUD component 100 identify the hazard, site, or object (eg, obtained from the vehicle control component) 180 ) by adding an alert element 1602 which points to the construction site relative to the vehicle and identifies it. For example, in 16A because the construction site is to the left of the vehicle, the pointer or tail associated with the pre-warning graphic element 1602 point outside the windshield privacy area, thereby alerting a driver or other occupant of the vehicle that a construction site is ahead.

Die Steuer-/Regelkomponente 104 kann eine oder mehrere Zielpositionen bestimmen, und eine Zielposition für ein oder mehrere Grafikelemente, die von der HUD-Komponente 100 projiziert werden aktualisieren oder anpassen. Beispielsweise kann die Steuer-/Regelkomponente 104 eine Zielposition für das Vorwarn-Grafikelement 1602 auf Grundlage eines Abstands des Fahrzeugs von dem Objekt auswählen bestimmen, das mit dem Vorwarn-Grafikelement 1602 in Zusammenhang steht oder auf das von ihm gezeigt wird. Hierbei kann die Steuer-/Regelkomponente 104 bestimmen, dass die Baustelle (z. B. das Objekt) im Zusammenhang mit dem Vorwarn-Grafikelement 1602 größer ist als ein Schwellenwert-Abstand weg von dem Fahrzeug (z. B. indem die Navigations-Komponente 540 dazu verwendet wird, eine momentane GPS-Position für das Fahrzeug zum Vergleich mit Koordinaten der Baustelle zu bestimmen, die von der Fahrzeug-Steuer-/Regelkomponente 180 bereitgestellt werden). Da bestimmt wird, dass die Baustelle sich weiter als der Schwellenwert-Abstand weg befindet, kann die HUD-Komponente 100 das Vorwarn-Grafikelement 1602 in den Himmel projizieren, wobei ein Zeiger mit einer Länge verwendet wird, die größer als eine Schwellenwert-Länge ist, anstatt ein Grafikelement in der Nähe von, in Überlappung mit oder benachbart zu der Baustelle zu projizieren.The control component 104 can determine one or more target positions, and a target position for one or more graphic elements that from the HUD component 100 be projected to update or customize. For example, the control component 104 a target position for the alert element 1602 on the basis of a distance of the vehicle from the object to select that with the pre-warning graphic element 1602 is related to or shown by him. This can be the control component 104 Determine that the job site (such as the object) associated with the alert element 1602 is greater than a threshold distance away from the vehicle (eg, by the navigation component 540 is used to determine a current GPS position for the vehicle for comparison with site coordinates, that of the vehicle control component 180 to be provided). Since it is determined that the jobsite is located farther away than the threshold distance, the HUD component may 100 the forewarning element 1602 projecting into the sky, using a pointer of a length greater than a threshold length, rather than projecting a graphic element near, in, or adjacent to the job site.

17A ist eine Illustration eines beispielhaften Szenarios 1700 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Wenn sich ein Fahrzeug einem Objekt nähert, wie beispielsweise der durch das Vorwarn-Grafikelement 1602 angezeigten Baustelle, kann die Steuer-/Regelkomponente 104 die Position oder Zielposition des jeweiligen Grafikelements (z. B. 1602) anpassen. Zusätzlich kann die Steuer-/Regelkomponente 104 den Typ des anzuzeigenden Grafikelements ändern. Beispielsweise schließt, wie in 17A gezeigt, das Vorwarn-Grafikelement 1602 nicht einen Zeiger ein, wie er zuvor in 16A oder 16B verwendet worden ist. Hierbei kann, da die Nähe zwischen dem Fahrzeug und dem Objekt (z. B. der Baustelle) kleiner ist als ein Schwellenwert-Abstand, die Steuer-/Regelkomponente 104 bestimmen, dass der Zeiger weggelassen wird. Hierbei kann die HUD-Komponente 100 den Avatar 1002, das Vorwarn-Grafikelement 1602 und ein Gefahr-Grafikelement 1704A projizieren. 17A is an illustration of an exemplary scenario 1700 in the context of 3-D navigation according to one or more embodiments. When a vehicle approaches an object, such as the one through the alert element 1602 displayed construction site, may be the control component 104 the position or target position of the respective graphic element (eg 1602 ) to adjust. In addition, the control component 104 Change the type of graphic element to display. For example, as in 17A shown the forewarning graphic element 1602 not a pointer, as he was previously in 16A or 16B has been used. Here, since the proximity between the vehicle and the object (eg, the construction site) is smaller than a threshold distance, the control component 104 determine that the pointer is omitted. Here, the HUD component 100 the avatar 1002 , the forewarning graphic element 1602 and a danger graphic element 1704A project.

Beispielsweise kann, wenn die Fahrzeug-Steuer-/Regelkomponente 180 oder die Sensor-Komponente 540 ein Objekt identifiziert, das eine Gefahr, Behinderung, ein Hindernis oder anderweitig unbefahrbar ist, wie beispielsweise ein Straßenabschnitt, auf dem gebaut wird, etc., die Steuer-/Regelkomponente 104 die HUD-Komponente 100 dazu veranlassen, ein Gefahr-Grafikelement zu projizieren, wie beispielsweise das Gefahr-Grafikelement 1704A auf eine Weise, die die Gefahr überlagert. Die Tiefenpuffer-Komponente 560 kann ein Ausblenden eines oder mehrerer Abschnitte der Gefahr in der realen Welt oder der Umgebung ermöglichen, so dass die Gefahr aus dem Sichtfeld eines Insassen, Bedieners oder Fahrers des Fahrzeugs verdeckt wird. Anders ausgedrückt kann die HUD-Komponente 100 Grafikelemente projizieren, die undurchsichtig sind oder verschiedene Transparenz-Grade aufweisen. Wenn die Steuer-/Regelkomponente 104 bestimmt, dass auf oder über einen Bereich, eine Gefahr oder ein Objekt nicht gefahren werden sollte, kann die HUD-Komponente 100 Gefahr-Grafikelemente so projizieren, dass sie dementsprechend solche Bereiche „auffüllen”.For example, if the vehicle control component 180 or the sensor component 540 identifies an object that is a hazard, obstruction, obstacle, or otherwise impassable, such as a road section being built on, etc., the control component 104 the HUD component 100 cause to project a hazard graphic element, such as the danger graphic element 1704A in a way that overshadows the danger. The depth buffer component 560 For example, hiding one or more portions of the danger may enable the real world or the environment to obscure the danger from the field of view of an occupant, operator or driver of the vehicle. In other words, the HUD component 100 Project graphic elements that are opaque or have different degrees of transparency. If the control component 104 determines that on or about an area, a hazard or an object should not be driven, the HUD component 100 Project danger graphic elements so that they "fill up" such areas accordingly.

17B ist eine Illustration eines beispielhaften Szenarios 1710 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. In 17B ist zu erkennen, dass sich das Fahrzeug der Gefahr oder Baustelle genähert hat, die in 17A gezeigt ist, und die HUD-Komponente 100 hat die Perspektive des Gefahr-Grafikelements 1704B entsprechend angepasst. Beispielsweise ist, da das Fahrzeug sich in einem näheren Abstand zu der Baustelle befindet, das Gefahr-Grafikelement 1704B aus 17B von seiner Fläche her größer als das Gefahr-Grafikelement 1704A aus 17A. Von der Sensor-Komponente 540 oder der Fahrzeug-Steuer-/Regelkomponente 180 erhaltene Informationen im Zusammenhang mit oder zugeordnet zu der Gefahr, Baustelle oder Objekten in der Umgebung können von der Steuer-/Regelkomponente 104 verwendet werden, um eine Größe, Form, ein Modell (z. B. Führungszeichen, Avatar, Abdeckung, Transparenz, Farbe), Höhe, Breite, Tiefe, Brennebene, Farbe, Zielposition für ein Grafikelement zu bestimmen, oder eine Überlappung zwischen Grafikelementen oder Tiefenkarten-Informationen zu identifizieren. Anders ausgedrückt können diese Attribute auf Objekt-Informationen oder Umgebung-Informationen basieren, die von der Fahrzeug-Steuer-/Regelkomponente 180 oder der Sensor-Komponente 570 erhalten werden. In einer oder mehreren Ausführungsformen kann die Steuerung/Regelung Farben von Grafikelementen auf Grundlage von entgegenkommendem Verkehr, Tageszeit, Farben von Objekten in der Umgebung, Verkehrsregeln, etc. auswählen oder ändern. 17B is an illustration of an exemplary scenario 1710 in the context of 3-D navigation according to one or more embodiments. In 17B It can be seen that the vehicle has approached the danger or construction site, which in 17A shown, and the HUD component 100 has the perspective of danger graphic element 1704B adjusted accordingly. For example, since the vehicle is located closer to the construction site, the danger graphic element is 1704B out 17B larger in size than the danger graphic element 1704A out 17A , From the sensor component 540 or the vehicle control component 180 Information obtained in relation to or associated with the hazard, site or objects in the environment may be obtained from the control component 104 used to determine a size, shape, a model (eg, leader, avatar, cover, transparency, color), height, width, depth, focal plane, color, target position for a graphic element, or an overlap between graphic elements or Identify depth map information. In other words, these attributes may be based on object information or environment information provided by the vehicle control component 180 or the sensor component 570 to be obtained. In one or more embodiments, the controller may select or change colors of graphics elements based on oncoming traffic, time of day, colors of surrounding objects, traffic rules, etc.

Die Tiefenkarte-Komponente 550 kann eine Tiefenkarte der Umgebung oder von Objekten in der Umgebung um ein Fahrzeug herum verwalten oder erstellen. Die Steuer-/Regelkomponente 104 kann die Tiefenkarte verwenden, um zu bestimmen, ob oder ob nicht ein Objekt sichtbar, transparent, undurchsichtig, etc. bezüglich eines Grafikelements sein sollte. Beispielsweise kann die Baustelle (unter Gefahr-Grafikelementen 1704A oder 1704B versteckt) Verkehrs-Tonnen, Verkehrs-Pylonen, Unrat, Schlaglöcher, Grabungen, nicht befahrbare Straßenoberflächen, etc. umfassen. Hierbei hat in diesem Beispiel die Steuer-/Regelkomponente 104 eine Bestimmung durchgeführt, dass diese Aspekte unter den Gefahr-Grafikelementen 1704A und 1704B versteckt werden sollen. Jedoch müssen andere Objekt in der Umgebung nicht notwendigerweise unter den Gefahr-Grafikelementen 1704A und 1704B versteckt oder geschichtet werden. Beispielsweise kann, wenn ein Fußgänger die Baustelle durchquert, die Steuer-/Regelkomponente 104 bestimmen, dass der Fußgänger ein Objekt ist, das nicht verdeckt werden soll, und die HUD-Komponente dazu veranlassen, das Gefahr-Grafikelement 1704B derart zu projizieren, dass das Gefahr-Grafikelement 1704B den Fußgänger nicht aus dem Sichtfeld des Fahrers ausblendet (z. B. wenn der Fußgänger „durch” das Gefahr-Grafikelement 1704B läuft). Anders ausgedrückt kann die Steuer-/Regelkomponente 104 eine Sichtbarkeit, Schichtung, ein Transparenz-(Niveau, Undurchsichtigkeits-Niveau, etc. eines Grafikelement auf Grundlage einer Bewegung eines Objekts innerhalb einer Umgebung oder anderer Daten bestimmen, die von der Sensor-Komponente 540 oder der Fahrzeug-Steuer-/Regelkomponente 180 erhalten werden, wie beispielsweise einer Identität eines Objekts, eines Objekttyps, einer Objektgröße, etc. Auf diese Weise können Tiefenkarten-Informationen von der Steuer-/Regelkomponente 104 oder der HUD-Komponente 100 verwendet werden, um einem Insassen, Bediener oder Fahrer eines Fahrzeugs eine realistische Wahrnehmung von einem oder mehreren Grafikelementen bezüglich der ihn umgebenden Umgebung oder der realen Welt bereitzustellen.The depth map component 550 can manage or create a depth map of the environment or surrounding objects around a vehicle. The control component 104 may use the depth map to determine whether or not an object should be visible, transparent, opaque, etc. with respect to a graphic element. For example, the construction site (under danger graphic elements 1704A or 1704B hidden) include traffic tons, traffic pylons, garbage, potholes, trenching, non-drivable road surfaces, etc. In this example, the control component has 104 a Determination carried out that these aspects under the danger graphic elements 1704A and 1704B should be hidden. However, other objects in the environment do not necessarily have to be under the hazard graphics elements 1704A and 1704B be hidden or layered. For example, when a pedestrian crosses the construction site, the control component may 104 Determine that the pedestrian is an object that should not be obscured and cause the HUD component to display the hazard graphic element 1704B to project in such a way that the danger graphic element 1704B does not hide the pedestrian from the driver's field of vision (eg, when the pedestrian "through" the hazard graphic element 1704B running). In other words, the control component 104 determine a visibility, layering, transparency (level, opacity level, etc.) of a graphic element based on movement of an object within an environment or other data, that of the sensor component 540 or the vehicle control component 180 can be obtained, such as an identity of an object, an object type, an object size, etc. In this way, depth map information can be obtained from the control component 104 or the HUD component 100 be used to provide a vehicle occupant, operator or driver with a realistic perception of one or more graphic elements relating to the surrounding environment or the real world.

18A ist eine Illustration eines beispielhaften Szenarios 1800 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Wenn detektiert wird (z. B. von der Sensor-Komponente 570), dass ein oder mehrere Objekte sich auf einem Pfad eines Fahrzeugs oder entlang einer vorgesehenen Route befinden (z. B. durch von der Fahrzeug-Steuer-/Regelvorrichtung 180 erhaltenen Umgebungs-Informationen), kann die Steuer-/Regelkomponente 100 jeweilige Objekte mit Grafikelementen oder/und Zeigern hervorheben oder verfolgen. Beispielsweise kann, wenn sich ein Fahrzeug einem Abbiegen nach rechts nähert, das durch Navigations-Anweisungen 1130 und die Avatare 1002A, 1002B und 1002C angezeigt wird, die Sensor-Komponente 570 einen Fußgänger 1832 nahe einem Straßenabschnitt detektieren, auf welchen das Fahrzeug einbiegen soll. Als Ergebnis davon kann die Steuer-/Regelkomponente 104 die HUD-Komponente 100 dazu anleiten, das Grafikelement 1834 auf den Fußgänger 1832 zu projizieren. In einer oder mehreren Ausführungsformen kann die HUD-Komponente 100 ein Grafikelement über den Fußgänger 1832 projizieren. Ferner kann die HUD-Komponente 100 ein Grafikelement 1804 projizieren, das ein Signal illustriert, dass ein Fußgänger die Straße überquert. 18A is an illustration of an exemplary scenario 1800 in the context of 3-D navigation according to one or more embodiments. When it is detected (eg from the sensor component 570 ) that one or more objects are on a path of a vehicle or along a designated route (eg, by the vehicle control device) 180 received environmental information) may be the control component 100 highlight or track respective objects with graphic elements and / or pointers. For example, when a vehicle is approaching a turn to the right, this may be due to navigation instructions 1130 and the avatars 1002A . 1002B and 1002C is displayed, the sensor component 570 a pedestrian 1832 Detect near a road section on which the vehicle is to turn. As a result, the control component 104 the HUD component 100 to guide the graphic element 1834 on the pedestrian 1832 to project. In one or more embodiments, the HUD component 100 a graphic element about the pedestrian 1832 project. Furthermore, the HUD component 100 a graphic element 1804 Projecting a signal that a pedestrian crosses the street.

Während das Fahrzeug und der Fußgänger 1832 sich entlang des Straßenabschnitts bewegen, kann sich der relative Abstand zwischen den beiden ändern (z. B. kann sich der Fußgänger 1832 bewegen, das Fahrzeug kann sich bewegen, oder sowohl der Fußgänger 1832 als auch das Fahrzeug können sich bewegen, etc.). Die Sensor-Komponente 570 kann diese Änderung des Abstands detektieren und die Änderung an die Steuer-/Regelkomponente 104 oder die Fahrzeug-Steuer-/Regelkomponente 180 übertragen oder sie aktualisieren. Die Steuer-/Regelkomponente 104 kann Positionen für eines oder mehrere der Grafikelemente (z. B. 1832 oder 1834) aktualisieren, ändern oder verfolgen. Anders ausgedrückt kann die Steuer-/Regelkomponente 104 eine oder mehrere Brennebenen für eines oder mehrere der Grafikelemente auf Grundlage von Objekt-Informationen oder Umgebungs-Informationen anpassen. Wie zuvor diskutiert, kann ein Aktuator im Zusammenhang mit einem Projizieren eines Grafikelements auf eine Brennebene von der Steuer-/Regelkomponente 104 dazu gesteuert/geregelt werden, die Brennebene zu bewegen, anzupassen oder zu ändern (z. B. die Brennebene entlang einer Richtung der Sichtlinie eines Fahrers oder Insassen zu bewegen, wie beispielsweise der Sichtlinie 178 aus 3).While the vehicle and the pedestrian 1832 moving along the road section, the relative distance between the two may change (eg, the pedestrian 1832 move, the vehicle can move, or both the pedestrian 1832 as well as the vehicle can move, etc.). The sensor component 570 can detect this change in the distance and the change to the control component 104 or the vehicle control component 180 transfer or update. The control component 104 can hold positions for one or more of the graphic elements (eg 1832 or 1834 ) update, change or track. In other words, the control component 104 customize one or more focal planes for one or more of the graphic elements based on object information or environment information. As previously discussed, an actuator may be associated with projecting a graphics element onto a focal plane from the control component 104 be controlled to move, adjust or change the focal plane (eg, to move the focal plane along a direction of the line of sight of a driver or occupant, such as the line of sight 178 out 3 ).

18B ist eine Illustration eines beispielhaften Szenarios 1810 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehreren Ausführungsformen. In 18 kann die HUD-Komponente 100 mehrere Grafikelemente 1834 und 1844 jeweils für mehrere Fußgänger 1832 und 1842 projizieren. Zusätzlich kann die HUD-Komponente 100 ein oder mehrere Grafikelemente als Anzeiger projizieren, wie beispielsweise bei 1802 oder 1804. 18B is an illustration of an exemplary scenario 1810 in the context of 3-D navigation according to one or more embodiments. In 18 can be the HUD component 100 several graphic elements 1834 and 1844 each for several pedestrians 1832 and 1842 project. Additionally, the HUD component 100 Project one or more graphic elements as an indicator, such as in 1802 or 1804 ,

19A ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. In einer oder mehreren Ausführungsformen kann das System für 3-D-Navigation 500 es einem Insassen eines Fahrzeugs ermöglichen, mit dem Fahrzeug bezüglich Objekten in der Umgebung zu interagieren. Anders ausgedrückt kann ein Insasse Fragen stellen („Was ist das?”, „Das sieht gut aus”) oder Kommentare abgeben (z. B. verbal oder mittels Texteingabe) und Grafikelement-Projektionen als Antworten erhalten. Beispielsweise kann die Sensor-Komponente 570 eine oder mehrere Abfragen, Anfragen oder Befehle von einem Benutzer, Insassen oder Fahrer eines Fahrzeugs akzeptieren. Hier hat ein Insasse des Fahrzeugs gefragt „Was ist das da rechts?”. Die HUD-Komponente 100 kann eine Bestätigung anzeigen oder die Abfrage wiederholen oder ein Verwenden eines Textbox-Grafikelements 1904 anfordern. In einer oder mehreren Ausführungsformen können Abfragen oder Anweisungen während einer Navigation aktiviert sein, wie durch den Avatar 1002 zu sehen. Eine oder mehrere andere Komponenten können verwendet werden, um das Erfüllen von einem oder mehreren der Anweisungen oder Befehle zu erleichtern. Beispielsweise kann, wenn eine mobile Vorrichtung kommunikativ mit dem System 500 gekoppelt ist, die Steuer-/Regelkomponente 104 die mobile Vorrichtung dazu veranlassen, eine Telefonnummer eines Geschäfts zu wählen, wenn angewiesen wird „Rufe das Restaurant da rechts an”. Als weiteres Beispiel kann die Steuer-/Regelkomponente 104 mit einer Restaurant-Reservierungsanwendung zusammenarbeiten, die auf der mobilen Vorrichtung oder in dem Fahrzeug installiert ist, als Reaktion auf „Reserviere in Restaurant X”. Andere Befehle oder Anweisungen können Audiosysteme des Fahrzeugs verwenden, wie beispielsweise „Lies mir die Speisekarte vor”. 19A FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG. In one or more embodiments, the system may be for 3-D navigation 500 allow an occupant of a vehicle to interact with the vehicle with respect to objects in the environment. In other words, an inmate can ask questions ("What's that?", "That looks good") or leave comments (eg, verbally or via text input) and get graphic element projections as answers. For example, the sensor component 570 accept one or more queries, requests or commands from a user, occupant or driver of a vehicle. Here, an occupant of the vehicle asked "What's that right there?". The HUD component 100 can display an acknowledgment or retry the query, or use a textbox graphic element 1904 Request. In one or more embodiments, queries or instructions may be activated during navigation, such as by the avatar 1002 to see. One or more other components can be used to facilitate the fulfillment of one or more of the instructions or commands. For example, if a mobile device communicates with the system 500 coupled, the control component 104 prompt the mobile device to dial a phone number of a store when instructed to "call the restaurant right there". As another example, the control component 104 collaborate with a restaurant reservation application installed on the mobile device or in the vehicle in response to "Reserve in Restaurant X". Other commands or instructions may use vehicle audio systems, such as "read the menu".

19B ist eine Illustration eines beispielhaften Szenarios im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Die Steuer-/Regelkomponente 104 kann die Anweisung verarbeiten oder die Anweisung im Zusammenhang mit 1904 an die Navigations-Komponente 540 weiterleiten, um Objekte nahe dem Fahrzeug zu bestimmen, wie beispielsweise Geschäfte, Restaurants, etc. Die Steuer-/Regelkomponente 104 kann Informationen im Zusammenhang mit einem Objekt, wie beispielsweise einem Restaurant aus einer Karten-Anwendung, einem entfernten Server, etc. erhalten. Diese Informationen können Metadaten im Zusammenhang mit dem Objekt umfassen, wie beispielsweise Öffnungszeiten, ein Logo, einen Status, Kritiken für das Geschäft, Kontakt-Informationen, eine Telefonnummer, eine Speisekarte, etc. Hierbei kann die HUD-Komponente 100 ein Logo-Grafikelement 1430B, Informationen 1930 (z. B. eine Telefonnummer, einen Status, Öffnungszeiten, etc.) und ein Hervorhebungs-Grafikelement 1932 projizieren, das Aufmerksamkeit auf die Position des Objekts (z. B. ein Restaurant oder Geschäft) ziehen kann. 19B FIG. 10 is an illustration of an example scenario associated with 3-D navigation in accordance with one or more embodiments. FIG. The control component 104 can process the statement or statement associated with it 1904 to the navigation component 540 route to objects near the vehicle, such as shops, restaurants, etc. The control component 104 may receive information related to an object such as a restaurant from a map application, a remote server, etc. This information may include metadata related to the object, such as opening hours, a logo, a status, reviews for the store, contact information, a telephone number, a menu, etc. This may be the HUD component 100 a logo graphic element 1430b , Information 1930 (eg, a telephone number, a status, opening hours, etc.) and a highlighting graphic element 1932 project that can draw attention to the position of the object (eg a restaurant or business).

20A ist eine Illustration eines beispielhaften Szenarios 2000 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. In einer oder mehreren Ausführungsformen kann die Navigations-Komponente 540 dem Fahrzeug-Steuer-/Regelsystem Metadaten im Zusammenhang mit einem oder mehreren Objekten in der Umgebung bereitstellen. Beispielsweise können ein oder mehrere Objekte in der Umgebung Gebäude oder Geschäfte sein. Die Navigations-Komponente 540 kann Adressen-Informationen für jeweilige Gebäude oder Geschäfte herunterladen, die als Grafikelemente von der HUD-Komponente 100 projiziert werden können. Beispielsweise können Adressen für die Gebäude 2002, 2004 und 2006 von der HUD-Komponente 100 präsentiert werden. In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente 104 ein Präsentieren von Adressen-Grafikelementen ermöglichen, beispielsweise wenn ein Fahrzeug sich innerhalb eines Schwellenwert-Abstands von einer Zielposition befindet, oder auf Anweisung eines Benutzers. In anderen Ausführungsformen können Adressen-Informationen während des Navigations-Modus projiziert werden, beispielsweise wenn Richtungen von der Navigations-Komponente 540 bereitgestellt werden, wie von dem Avatar 1002 angezeigt. 20A is an illustration of an exemplary scenario 2000 in the context of 3-D navigation according to one or more embodiments. In one or more embodiments, the navigation component 540 provide metadata to the vehicle control system associated with one or more objects in the environment. For example, one or more objects in the environment may be buildings or businesses. The navigation component 540 can download address information for each building or business as graphic elements from the HUD component 100 can be projected. For example, addresses for the buildings 2002 . 2004 and 2006 from the HUD component 100 to get presented. In one or more embodiments, the control component 104 enabling presentation of address graphic elements, for example when a vehicle is within a threshold distance from a target position, or at the direction of a user. In other embodiments, address information may be projected during the navigation mode, for example, when directions from the navigation component 540 be provided, as by the avatar 1002 displayed.

20B ist eine Illustration eines beispielhaften Szenarios 2010 im Zusammenhang mit 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Hierbei kann in diesem Beispiel die Sensor-Komponente 570 oder die Navigations-Komponente 540 einen oder mehrere Parkplätze identifizieren. Als Ergebnis kann die Steuer-/Regelkomponente 104 die HUD-Komponente 100 dazu veranlassen, ein Grafikelement 2030 zu projizieren, das einen Parkplatz im Sichtfeld eines Insassen des Fahrzeugs anzeigt. Das Grafikelement 2030 kann als ein Vorwarn-Grafikelement einschließlich eines Zeigers erscheinen, kann ein oder mehrere Transparenz-Attribute, eine Farbe, Form, Größe, etc. aufweisen oder Objekt-Metadaten (z. B. Parkkosten, Zeitgrenze für den Platz, etc.) wie hierin beschrieben umfassen. 20B is an illustration of an exemplary scenario 2010 in the context of 3-D navigation according to one or more embodiments. Here, in this example, the sensor component 570 or the navigation component 540 identify one or more parking spaces. As a result, the control component 104 the HUD component 100 to induce a graphic element 2030 to project a parking space in the field of view of an occupant of the vehicle. The graphic element 2030 may appear as an alert element including a pointer, may have one or more transparency attributes, color, shape, size, etc., or object metadata (eg, parking cost, time limit, etc.) as herein described.

21 ist eine Illustration eines beispielhaften Flussdiagramms eines Verfahrens 2100 für 3-D-Navigation gemäß einer oder mehrerer Ausführungsformen. Bei 2102 beginnt das Verfahren 2100. Bei 2104 können ein oder mehrere Objekte verfolgt werden, oder Metadaten im Zusammenhang mit jeweiligen Objekten können erhalten werden. Zusätzlich können Informationen im Zusammenhang mit einer Umgebung oder Route von einer Ausgangsposition zu einer Zielposition erhalten werden. Bei 2106 können eine oder mehrere Brennebenen oder aktualisierte Brennebenen für Grafikelemente berechnet werden, die im Zusammenhang mit einem oder mehreren der Objekte projiziert werden sollen. Bei 2108 können ein oder mehrere Grafikelemente an einer oder mehrere der Brennebenen oder einem oder mehreren jeweiligen Objekten gerendert oder projiziert werden. Bei 2110 kann eine Bestimmung durchgeführt werden, ob oder ob nicht das Verfolgen oder Projizieren der Grafikelemente in Zusammenhang mit einem oder mehreren der Objekte weitergeführt werden soll. Wenn bestimmt wird, dass zusätzliches Verfolgen gewünscht ist, kehrt das Verfahren zu 2104 zurück. Wenn kein zusätzliches Verfolgen gewünscht ist, kann das Verfahren bei 2112 enden. 21 is an illustration of an exemplary flowchart of a method 2100 for 3-D navigation according to one or more embodiments. at 2102 the procedure begins 2100 , at 2104 One or more objects may be tracked, or metadata associated with respective objects may be obtained. Additionally, information relating to an environment or route may be obtained from a home position to a destination location. at 2106 For example, one or more focal planes or updated focal planes may be calculated for graphical elements to be projected in association with one or more of the objects. at 2108 For example, one or more graphics may be rendered or projected on one or more of the focal planes or one or more respective objects. at 2110 For example, a determination may be made as to whether or not to continue to trace or project the graphic elements associated with one or more of the objects. If it is determined that additional tracking is desired, the method returns 2104 back. If no additional tracking is desired, the method can be used 2112 end up.

Eine weitere Ausführungsform umfasst ein Computer-lesbares Medium umfassend Prozessor-ausführbare Instruktionen, die dazu eingerichtet sind, eine oder mehrere Ausführungsformen der hierin präsentierten Techniken zu implementieren. Eine Ausführungsform eines Computer-lesbaren Mediums oder einer Computer-lesbaren Vorrichtung, das/die auf diese Weise konstruiert ist, ist in 22 illustriert, wobei eine Implementation 2200 ein Computer-lesbares Medium 2208, wie beispielsweise eine CD-R, DVD-R, ein Flash-Drive, eine Scheibe einer Festplatte etc. umfasst, auf dem kodiert Computer-lesbare Daten 2206 vorliegen. Diese Computer-lesbaren Daten 2206, wie beispielsweise Binärdaten, wie in 2206 gezeigt umfassend eine Mehrzahl von Nullen oder Einsen, umfassen wiederum eine Menge von Computer-Anweisungen 2204, die dazu eingerichtet sind, gemäß einem oder mehrerer der hierin vorgestellten Prinzipien zu arbeiten. In einer solchen Ausführungsform 2200 sind die Prozessor-ausführbaren Computer-Anweisungen 2204 dazu eingerichtet, ein Verfahren 2202, wie beispielsweise das Verfahren 600 aus 6 oder das Verfahren 2100 aus 21 auszuführen. In einer anderen Ausführungsform sind die Prozessor-ausführbaren Anweisungen 2204 dazu eingerichtet, ein System, wie beispielsweise das System 500 aus 5 zu implementieren. Viele solcher Computer-lesbaren Medien sind dem Fachmann bekannt, die dazu eingerichtet sind, gemäß der hierin präsentierten Techniken betrieben zu werden.Another embodiment includes a computer-readable medium comprising processor-executable instructions configured to implement one or more embodiments of the techniques presented herein. One embodiment of a computer-readable medium or computer-readable device constructed in this manner is shown in FIG 22 illustrated, an implementation 2200 a computer-readable medium 2208 , such as a CD-R, DVD-R, a flash drive, a disk of a hard disk, etc. encodes computer-readable data 2206 available. This computer-readable data 2206 , such as binary data, as in 2206 comprising a plurality of zeros or ones, in turn, comprise a set of computer instructions 2204 which are adapted to operate in accordance with one or more of the principles presented herein. In such an embodiment 2200 are the processor-executable computer instructions 2204 set up a procedure 2202 such as the method 600 out 6 or the procedure 2100 out 21 perform. In another embodiment, the processor executable instructions are 2204 set up a system, such as the system 500 out 5 to implement. Many such computer-readable media are known to those skilled in the art, who are adapted to operate in accordance with the techniques presented herein.

Wie sie in dieser Anmeldung verwendet werden, sind die Begriffe „Komponente”, „Modul”, „System”, „Schnittstelle” und ähnlichen im Allgemeinen dazu vorgesehen, sich auf eine Computer-bezogene Funktionseinheit zu beziehen, entweder Hardware, eine Kombination aus Hardware und Software, Software oder Software bei ihrer Ausführung. Beispielsweise kann eine Komponente ein Prozess, der auf einem Prozessor abläuft, ein Prozessor, ein Objekt, ein ausführbares Programm, ein Ausführungs-Thread, ein Programm oder ein Computer sein, ist aber nicht darauf beschränkt. Um das zu illustrieren können sowohl eine auf einem Steuer-/Regelelement laufende Anwendung und das Steuer-/Regelelement selbst eine Komponente sein. Eine oder mehrere Komponenten, die sich innerhalb eines Prozesses oder Ausführungs-Threads befinden, und auch eine Komponente können auf einem Computer befindlich oder zwischen zwei oder mehreren Computern verteilt sein.As used in this application, the terms "component", "module", "system", "interface" and the like are generally intended to refer to a computer-related functional unit, either hardware, a combination of hardware and software, software or software in their execution. For example, a component may be, but is not limited to, a process running on a processor, a processor, an object, an executable program, an execution thread, a program, or a computer. To illustrate this, both an application running on a controller and the controller itself may be a component. One or more components residing within a process or execution thread, and also a component, may reside on a computer or distributed between two or more computers.

Ferner ist der anspruchsgemäße Gegenstand als ein Verfahren, eine Vorrichtung oder ein Herstellungs-Erzeugnis unter Verwendung üblicher Programmier- oder Ingenieurs-Techniken zum Herstellen von Software, Firmware, Hardware oder einer beliebigen Kombination davon zum Steuern/Regeln eines Computers implementiert, um den offenbarten Gegenstand zu implementieren. Der Begriff „Herstellungs-Erzeugnis” wie er hierin verwendet wird, ist so vorgesehen, dass er ein Computerprogramm umfasst, das von jeglicher/jeglichem Computer-lesbarer Vorrichtung, Träger oder Medium zugänglich ist. Natürlich können an dieser Konfiguration vielerlei Modifikationen vorgenommen werden, ohne vom Umfang oder Geist des anspruchsgemäßen Gegenstands abzuweichen.Furthermore, the claimed subject matter is implemented as a method, apparatus, or manufacturing article using conventional programming or engineering techniques to fabricate software, firmware, hardware, or any combination thereof for controlling a computer to the disclosed subject matter to implement. The term "article of manufacture" as used herein is intended to encompass a computer program accessible from any computer readable device, carrier or medium. Of course, many modifications may be made to this configuration without departing from the scope or spirit of the claimed subject matter.

23 und die folgende Diskussion stellen eine Beschreibung einer geeigneten Computer-Umgebung bereit, um eine Ausführungsform von einer oder mehreren der hierin beschriebenen Einrichtungen zu implementieren. Die Betriebs-Umgebung aus 23 ist lediglich ein Beispiel einer geeigneten Betriebs-Umgebung und ist nicht dazu vorgesehen, eine Einschränkung des Umfangs der Verwendung oder Funktionalität der Betriebs-Umgebung vorzunehmen. Beispielhafte Computer-Vorrichtungen umfassen, sind allerdings nicht beschränkt auf, Personal-Computer, Server-Computer, Handheld- oder Laptop-Einheiten, mobile Geräte wie beispielsweise Mobiltelefone, Personal Digital Assistants (PDAs), Medienspieler und ähnliches, Mainframe-Computer, verteilte Computer-Umgebungen, die beliebige der oben genannten Systeme oder Vorrichtungen umfassen und ähnliches. 23 and the following discussion provide a description of a suitable computing environment to implement an embodiment of one or more of the devices described herein. The operating environment off 23 is merely an example of a suitable operating environment and is not intended to limit the scope of use or functionality of the operating environment. Exemplary computer devices include, but are not limited to, personal computers, server computers, handheld or laptop units, mobile devices such as cell phones, personal digital assistants (PDAs), media players and the like, mainframe computers, distributed computers Environments comprising any of the above systems or devices and the like.

Im Allgemeinen werden Ausführungsformen im allgemeinen Kontext von „Computer-lesbaren Anweisungen” von einer oder mehreren Computer-Vorrichtungen ausgeführt. Computer-lesbare Anweisungen werden mittels Computer-lesbarer Medien wie unten beschrieben verteilt. Computer-lesbare Anweisungen sind als Programm-Module, wie beispielsweise Funktionen, Objekte, Application Programming Interfaces (APIs), Datenstrukturen und ähnliches implementiert, die eine oder mehrere Aufgaben ausführen oder einen oder mehrere abstrakte Datentypen implementieren. Typischerweise werden die Funktionalität der Computer-lesbaren Anweisungen wie gewünscht in verschiedenen Umgebungen kombiniert oder verteilt.In general, embodiments are performed in the general context of "computer-readable instructions" from one or more computing devices. Computer readable instructions are distributed by computer readable media as described below. Computer-readable instructions are implemented as program modules, such as functions, objects, application programming interfaces (APIs), data structures, and the like, that perform one or more tasks or implement one or more abstract data types. Typically, the functionality of the computer-readable instructions are combined or distributed as desired in different environments.

23 illustriert ein System 2300, umfassend ein Computer-Vorrichtung 2312, die dazu eingerichtet ist, eine oder mehrere der hierin bereitgestellten Ausführungsformen zu implementieren. In einer Konfiguration umfasst die Computer-Vorrichtung 2312 eine oder mehrere Prozessierungs-Einheiten 2316 und Memory 2318. Abhängig von der exakten Konfiguration und dem Typ der Computer-Vorrichtung kann der Memory 2318 flüchtig, wie beispielsweise RAM, nicht-flüchtig, wie beispielsweise ROM, Flash-Speicher etc. oder eine Kombination der beiden sein. Diese Konfiguration ist in 23 durch eine gestrichelte Linie 2314 illustriert. 23 illustrates a system 2300 comprising a computer device 2312 adapted to implement one or more of the embodiments provided herein. In one configuration, the computing device includes 2312 one or more processing units 2316 and memory 2318 , Depending on the exact configuration and the type of computer device, the memory can 2318 be volatile, such as RAM, non-volatile, such as ROM, flash memory, etc., or a combination of the two. This configuration is in 23 by a dashed line 2314 illustrated.

In anderen Ausführungsformen umfasst die Vorrichtung 2312 zusätzliche Merkmale oder Funktionalitäten. Beispielsweise kann die Vorrichtung 2312 zusätzlichen Speicher, wie beispielsweise entfernbaren Speicher oder nicht-entfernbaren Speicher, einschließlich aber nicht beschränkt auf magnetischen Speicher, optischen Speicher und ähnliches umfassen. Solcher zusätzlicher Speicher ist in 23 durch Speicher 2320 illustriert. In einer oder mehreren Ausführungsformen befinden sich die Computer-lesbaren Anweisungen zum Implementieren von einem oder mehreren hierin bereitgestellten Ausführungsformen in dem Speicher 2320. Der Speicher 2320 kann andere Computer-lesbare Anweisungen zum Implementieren eines Betriebssystems, eines Anwendungsprogramms und ähnlichem speichern. Computer-lesbare Anweisungen werden in den Memory 2318 geladen, um beispielsweise von der Prozessierungs-Einheit 2316 ausgeführt zu werden.In other embodiments, the device comprises 2312 additional features or functionalities. For example, the device 2312 additional storage, such as removable storage or non-removable storage, including but not limited to magnetic storage, optical storage, and the like. Such additional memory is in 23 through memory 2320 illustrated. In one or more embodiments, the computer-readable instructions are for implementing one or more embodiments provided herein in the memory 2320 , The memory 2320 may store other computer-readable instructions for implementing an operating system, application program, and the like. Computer-readable instructions are stored in the memory 2318 loaded, for example, by the processing unit 2316 to be executed.

Der Begriff „Computer-lesbares Medium” wie er hierin verwendet wird, umfasst Computer-Speichermedien. Computer-Speichermedien umfassen flüchtige und nicht-flüchtige, entfernbare und nicht-entfernbare Medien, die in jedem Verfahren oder jeder Technologie zum Speichern von Informationen, wie beispielsweise als Computer-lesbare Anweisungen oder andere Daten implementiert sind. Memory 2318 und Speicher 2320 sind Beispiele für Computer-Speichermedien. Computer-Speichermedien umfassen, sind allerdings nicht beschränkt auf, RAM, ROM, EEPROM, Flash-Speicher oder andere Speicher-Technologien, CD-ROM, Digital Versatile Disks (DVDs) oder anderen optischen Speicher, Magnetkasetten, Magnetbänder, Magnetische Diskspeicher oder andere magnetische Speicher-Vorrichtungen oder jedes andere Medium, das verwendet werden kann, um die gewünschten Informationen zu speichern und auf das von der Vorrichtung 2312 zugegriffen werden kann. Jedes dieser Computer-Speichermedien kann Teil der Vorrichtung 2312 sein.The term "computer-readable medium" as used herein includes computer storage media. Computer storage media include volatile and nonvolatile, removable and non-removable media that are implemented in any method or technology for storing information, such as computer-readable instructions or other data. Memory 2318 and memory 2320 are examples of computer storage media. Computer storage media include, but are not limited to, RAM, ROM, EEPROM, flash memory or other storage technologies, CD-ROMs, Digital Versatile Disks (DVDs) or other optical storage, magnetic cassettes, magnetic tapes, magnetic disk storage, or other magnetic storage Storage devices or any other medium that can be used to store the desired information and that of the device 2312 can be accessed. Each of these computer storage media may be part of the device 2312 be.

Der Begriff „Computer-lesbares Medium” umfasst Kommunikations-Medien. Kommunikations-Medien verkörpern typischerweise Computerlesbare Anweisungen oder andere Daten in einem „modulierten Datensignal”, wie beispielsweise einer Trägerwelle oder anderen Transport-Mechanismen und umfassen sämtliche Informations-Liefermedien. Der Begriff „moduliertes Datensignal” umfasst ein Signal, das eine oder mehrere seiner Charakteristiken derart gesetzt oder geändert hat, dass Informationen in dem Signal kodiert sind.The term "computer-readable medium" includes communication media. Communication media typically embodies computer readable instructions or other data in a "modulated data signal", such as a carrier wave or other transport mechanisms, and includes all information delivery media. The term "modulated data signal" includes a signal that has one or more of its characteristics set or changed such that information in the signal is encoded.

Die Vorrichtung 2312 umfasst eine Eingabevorrichtung oder Eingabevorrichtungen 2324 wie eine Tastatur, Maus, Stift, Spracheingabe-Vorrichtung, Berührungs-Eingabevorrichtung, Infrarot-Kameras, Video-Eingabevorrichtungen oder beliebige andere Eingabevorrichtungen. Die Ausgabevorrichtung oder Ausgabevorrichtungen 2322 wie beispielsweise eine oder mehrere Anzeigen, Lautsprecher, Drucker oder beliebige andere Ausgabevorrichtungen können in der Vorrichtung 2312 vorgesehen sein. Die Eingabevorrichtung(en) 2324 und Ausgabevorrichtung(en) 2322 sind mit der Vorrichtung 2312 mittels einer kabelgebundenen Verbindung, kabellosen Verbindung oder einer beliebigen Kombination davon verbunden. In einer oder mehreren Ausführungsformen werden eine Eingabevorrichtung oder eine Ausgabevorrichtung von einer anderen Computer-Vorrichtung als Eingabevorrichtung(en) 2324 oder Ausgabevorrichtung(en) 2322 für die Computer-Vorrichtung 2312 verwendet. Die Vorrichtung 2312 kann eine Kommunikations-Verbindung oder Kommunikations-Verbindungen 2326 umfassen, um eine Kommunikation mit einer oder mehreren anderen Vorrichtungen zu erleichtern.The device 2312 includes an input device or input devices 2324 such as a keyboard, mouse, pen, voice input device, touch input device, infrared cameras, video input devices or any other input device. The dispenser or dispensers 2322 such as one or more displays, speakers, printers or any other output devices may be present in the device 2312 be provided. The input device (s) 2324 and output device (s) 2322 are with the device 2312 by means of a wired connection, wireless connection or any combination thereof. In one or more embodiments, an input device or output device is used by another computing device as input device (s). 2324 or output device (s) 2322 for the computer device 2312 used. The device 2312 can be a communication connection or communication connections 2326 to facilitate communication with one or more other devices.

Gemäß einem oder mehreren Aspekten ist ein System für 3-dimensionale (3-D) Navigation bereitgestellt, umfassend eine Navigations-Komponente, die dazu eingerichtet ist, eine Ausgangsposition und eine Zielposition zu erhalten. Die Navigations-Komponente kann einem Fahrzeug zugeordnet sein und dazu eingerichtet sein, eine Route von der Ausgangsposition zu der Zielposition zu erzeugen. Ein oder mehrere Abschnitte der Route können eine oder mehrere Navigations-Anweisungen im Zusammenhang mit einem oder mehreren Straßenabschnitten oder einer oder mehreren Kreuzungen der Straßenabschnitte umfassen. Das System kann eine Heads-Up-Display(HUD)-Komponente umfassen, die dazu eingerichtet ist, ein oder mehrere Grafikelemente auf eine oder mehrere Brennebenen um eine das Fahrzeug umgebende Umgebung herum zu projizieren. Die HUD-Komponente kann dazu eingerichtet sein, eines oder mehrere der Grafikelemente in ein Sichtfeld eines Insassen des Fahrzeugs auf Grundlage der Route zu projizieren. Das System kann eine Steuer-/Regelkomponente umfassen, die dazu eingerichtet ist, einen Abstand zwischen einer oder mehrerer der Brennebenen von einem oder mehreren der Grafikelemente und dem Fahrzeug auf Grundlage von einem oder mehreren Straßen-Zuständen im Zusammenhang mit einem oder mehreren Abschnitten der Straße und einer momentanen Position des Fahrzeugs anzupassen.In one or more aspects, a system for 3-dimensional (3-D) navigation is provided, comprising a navigation component configured to obtain a home position and a destination location. The navigation component may be associated with a vehicle and configured to generate a route from the home position to the destination location. One or more portions of the route may include one or more navigation instructions associated with one or more road sections or one or more intersections of the road sections. The system may include a heads-up display (HUD) component configured to project one or more graphics elements onto one or more focal planes about an environment surrounding the vehicle. The HUD component may be configured to project one or more of the graphic elements into a field of view of an occupant of the vehicle based on the route. The system may include a control component configured to adjust a distance between one or more of the focal planes of one or more of the graphical elements and the vehicle based on one or more road conditions associated with one or more portions of the road and to adapt to a current position of the vehicle.

In einer oder mehreren Ausführungsformen kann die Steuer-/Regelkomponente dazu eingerichtet sein, eine Sollposition für eines oder mehrere der Grafikelemente auf Grundlage von einem oder mehreren der Straßen-Zustände und der momentanen Position des Fahrzeugs anzupassen. Das System kann eine Fahrzeug-Steuer-/Regelkomponente umfassen, die dazu eingerichtet ist, einen oder mehrere der Straßen-Zustände zu erhalten. Zusätzlich kann das System eine Sensor-Komponente umfassen, die dazu eingerichtet ist, einen oder mehrere der Straßen-Zustände zu detektieren. Ein Straßen-Zustand des einen oder der mehreren Straßen-Zustände kann Verkehrs-Informationen über einen oder mehrere der Straßenabschnitte oder Geschwindigkeitsbegrenzungs-Informationen im Zusammenhang mit einem oder mehreren der Straßenabschnitte umfassen. Zusätzlich können Straßen-Zustände beispielsweise eine Sperrung, ein Hindernis, einen Fußgänger, Unrat oder ein Schlagloch umfassen.In one or more embodiments, the control component may be configured to adjust a desired position for one or more of the graphical elements based on one or more of the road conditions and the current position of the vehicle. The system may include a vehicle control component configured to receive one or more of the road conditions. In addition, the system may include a sensor component configured to detect one or more of the road conditions. A road state of the one or more road conditions may include traffic information about one or more of the road sections or speed limit information associated with one or more of the road sections. In addition, road conditions may include, for example, a blockage, an obstacle, a pedestrian, debris, or a pothole.

Das System kann eine Tiefenkarte-Komponente umfassen, die dazu eingerichtet ist, eine Tiefenkarte der das Fahrzeug umgebenden Umgebung zu erzeugen. Die HUD-Komponente kann dazu eingerichtet sein, eines oder mehrere der Grafikelemente auf Grundlage der Tiefenkarte der Umgebung zu projizieren. Die Tiefenkarte-Komponente kann dazu eingerichtet sein, die Tiefenkarte auf Grundlage von Tiefen-Informationen zu erzeugen. In einer oder mehreren Ausführungsformen kann das System eine Sensor-Komponente umfassen, die dazu eingerichtet ist, Tiefen-Informationen von der das Fahrzeug umgebenden Umgebung zu detektieren. Die Tiefenkarte-Komponente kann dazu eingerichtet sein, die Tiefenkarte auf Grundlage eines Telematik-Kanals zu erhalten. Das System kann eine Tiefenpuffer-Komponente umfassen, die dazu eingerichtet ist, ein Rendern von einem oder mehreren Abschnitten von einem oder mehreren der Grafikelemente auf Grundlage der Tiefenkarte zu aktivieren oder zu deaktivieren. The system may include a depth map component configured to generate a depth map of the environment surrounding the vehicle. The HUD component may be configured to project one or more of the graphic elements based on the depth map of the environment. The depth map component may be configured to generate the depth map based on depth information. In one or more embodiments, the system may include a sensor component configured to detect depth information from the environment surrounding the vehicle. The depth map component may be configured to receive the depth map based on a telematics channel. The system may include a depth buffering component configured to enable or disable rendering of one or more portions of one or more of the graphics elements based on the depth map.

Die HUD-Komponente kann dazu eingerichtet sein, ein oder mehrere Grafikelemente als einen sich bewegenden Avatar oder als einen Platzhalter, wie beispielsweise einen Fahnenmast, eine Markierung, eine Identifizierung etc. zu projizieren.The HUD component may be configured to project one or more graphic elements as a moving avatar or as a wildcard, such as a flagpole, a marker, an identifier, etc.

Gemäß einem oder mehreren Aspekten ist ein Verfahren für 3-dimensionale (3-D) Navigation bereitgestellt, einschließlich eines Erzeugens einer Route von einer Ausgangsposition zu einer Zielposition für ein Fahrzeug. Ein oder mehrere Abschnitte der Route können eine oder mehrere Navigations-Anweisungen im Zusammenhang mit einem oder mehreren Straßenabschnitten oder einer oder mehreren Kreuzungen der Straßenabschnitte umfassen. Das Verfahren kann ein Projizieren von einem oder mehreren Grafikelementen auf eine oder mehrere Brennebenen um eine das Fahrzeug umgebende Umgebung umfassen. Eines oder mehrere der Grafikelemente können in einem Sichtfeld eines Insassen des Fahrzeugs auf Grundlage der Route projiziert werden. Das Verfahren kann ein Anpassen eines Abstands zwischen einer oder mehreren der Brennebenen von einem oder mehreren der Grafikelemente und dem Fahrzeug auf Grundlage von einem oder mehreren Straßen-Zuständen im Zusammenhang mit einem oder mehreren Abschnitten der Route und einer momentanen Position des Fahrzeugs umfassen. Ein oder mehrere Abschnitte des Verfahrens können mittels einer Prozessierungs-Einheit implementiert werden.In one or more aspects, a method for 3-dimensional (3-D) navigation is provided including generating a route from a home position to a destination location for a vehicle. One or more portions of the route may include one or more navigation instructions associated with one or more road sections or one or more intersections of the road sections. The method may include projecting one or more graphics elements onto one or more focal planes around an environment surrounding the vehicle. One or more of the graphic elements may be projected in a field of view of an occupant of the vehicle based on the route. The method may include adjusting a distance between one or more of the focal planes of one or more of the graphical elements and the vehicle based on one or more road conditions associated with one or more portions of the route and a current position of the vehicle. One or more portions of the method may be implemented by a processing unit.

Das Verfahren kann ein Anpassen einer Sollposition für eines oder mehrere der Grafikelemente auf Grundlage von einem oder mehreren der Straßen-Zustände und der momentanen Position des Fahrzeugs umfassen. Das Verfahren kann ein Erhalten oder Detektieren von einem oder mehreren Straßen-Zuständen umfassen. Ein Straßen-Zustand des einen oder der mehreren Straßen-Zustände kann Verkehrs-Informationen über einen oder mehrere der Straßenabschnitte, Geschwindigkeitsbegrenzungs-Informationen im Zusammenhang mit einem oder mehreren der Straßenabschnitte, eine Sperrung, ein Hindernis, einen Fußgänger, Unrat oder ein Schlagloch umfassen.The method may include adjusting a desired position for one or more of the graphical elements based on one or more of the road conditions and the current position of the vehicle. The method may include obtaining or detecting one or more road conditions. A road condition of the one or more road conditions may include traffic information about one or more of the road sections, speed limit information associated with one or more of the road sections, a lock, an obstacle, a pedestrian, debris, or a pothole.

Das Verfahren kann unter anderem ein Erzeugen einer Tiefenkarte der das Fahrzeug umgebenden Umgebung, ein Projizieren von einem oder mehreren der Grafikelemente auf Grundlage der Tiefenkarte der Umgebung, ein Detektieren von Tiefen-Informationen von der das Fahrzeug umgebenden Umgebung, ein Erzeugen der Tiefenkarte auf Grundlage der detektierten Tiefen-Informationen, ein Aktivieren oder Deaktivieren eines Renderns von einem oder mehreren Abschnitten von einem oder mehreren der Grafikelemente auf Grundlage der Tiefenkarte umfassen.The method may include generating a depth map of the environment surrounding the vehicle, projecting one or more of the graphical elements based on the depth map of the environment, detecting depth information from the environment surrounding the vehicle, generating the depth map based on the detected depth information, activating or deactivating a rendering of one or more portions of one or more of the graphic elements based on the depth map.

Gemäß einem oder mehreren Aspekten führt ein Computer-lesbares Speichermedium, umfassend Computer-ausführbare Anweisungen, die, wenn sie von einer Prozessierungs-Einheit ausgeführt werden, Tätigkeiten durch, einschließlich eines Erzeugens einer Route von einer Ausgangsposition zu einer Zielposition für ein Fahrzeug, wobei ein oder mehrere Abschnitte der Route eine oder mehrere Navigations-Anweisungen im Zusammenhang mit einem oder mehreren Straßenabschnitten oder einer oder mehreren Kreuzungen der Straßenabschnitte umfassen, einem Projizieren von einem oder mehreren Grafikelementen auf eine oder mehrere Brennebenen um eine das Fahrzeug umgebende Umgebung herum, wobei ein oder mehrere der Grafikelemente in ein Sichtfeld eines Insassen des Fahrzeugs auf Grundlage der Route projiziert werden, oder ein Abstand zwischen einer oder mehrerer der Brennebenen von einem oder mehreren der Grafikelemente und dem Fahrzeug auf Grundlage von einem oder mehreren Straßen-Zuständen im Zusammenhang mit einem oder mehreren Abschnitten der Route und einer momentanen Position des Fahrzeugs angepasst wird.In one or more aspects, a computer-readable storage medium comprising computer-executable instructions which, when executed by a processing unit, performs actions including generating a route from a home position to a destination position for a vehicle or multiple sections of the route include one or more navigation instructions associated with one or more road sections or one or more intersections of the road sections, projecting one or more graphics elements onto one or more focal planes around an environment surrounding the vehicle, wherein one or more of the directions a plurality of the graphic elements are projected into a field of view of an occupant of the vehicle based on the route, or a distance between one or more of the focal planes of one or more of the graphic elements and the vehicle based on one or more road conditions in combination adapted with one or more sections of the route and a current position of the vehicle.

In einer oder mehreren Ausführungsformen werden beim Projizieren von einem oder mehreren der Grafikelemente Raster-basierte Grafiken verwendet. Zusätzlich können eine oder mehrere der Ausführungsformen ein Bereitstellen von einer oder mehreren Navigations-Anweisungen durch ein Projizieren eines oder mehrerer der Grafikelemente als ein sich bewegender Avatar oder durch ein Animieren des sich bewegenden Avatars durch sequentielles Projizieren des sich bewegenden Avatars auf eine oder mehrere verschiedene Brennebenen umfassen.In one or more embodiments, raster-based graphics are used in projecting one or more of the graphic elements. In addition, one or more of the embodiments may provide one or more navigational instructions by projecting one or more of the graphic elements as a moving avatar or animating the moving avatar by sequentially projecting the moving avatar onto one or more different focal planes include.

Gemäß einem oder mehreren Aspekten ist ein System für dreidimensionale(3-D)-Navigation bereitgestellt, umfassend eine Sensor-Komponente, eine Heads-Up-Display(HUD)-Komponente und eine Steuer-/Regelkomponente. Die Sensor-Komponente kann ein oder mehrere Objekte in einer Umgebung, die das Fahrzeug umgibt und einen oder mehrere entsprechende Koordinaten für entsprechende Objekte relativ zu dem Fahrzeug verfolgen. Die HUD-Komponente kann ein oder mehrere Grafikelemente auf eine oder mehrere Brennebenen entsprechend einem oder mehrerer der Objekte projizieren, rendern, präsentieren oder anzeigen, wobei eines oder mehrere der Grafikelemente in einem Sichtfeld eines Insassen des Fahrzeugs projiziert werden. Die Steuer-/Regelkomponente kann eine oder mehrere aktualisierte Brennebenen für eines oder mehrere der Grafikelemente auf Grundlage von einer oder mehrerer der Koordinaten für jeweilige Objekte berechnen.In one or more aspects, a system for three-dimensional (3-D) navigation is provided, comprising a sensor component, a heads-up display (HUD) component and a control component. The sensor component may track one or more objects in an environment surrounding the vehicle and tracking one or more corresponding coordinates for corresponding objects relative to the vehicle. The HUD component may project, render, present, or display one or more graphics elements on one or more focal planes corresponding to one or more of the objects, wherein one or more of the graphic elements are projected in a field of view of an occupant of the vehicle. The control component may calculate one or more updated focal planes for one or more of the graphical elements based on one or more of the coordinates for respective objects.

In einer oder mehreren Ausführungsformen kann die HUD-Komponente eines oder mehrere der Grafikelemente auf eine oder mehrere der aktualisierten Brennebenen für eines oder mehrere der Objekte projizieren. Zusätzlich kann die HUD-Komponente ein Projizieren von einem oder mehreren der Grafikelement auf einer oder mehreren der Brennebenen auf ein Projizieren auf einer oder mehrerer der aktualisierten Brennebenen hin beenden. Eines oder mehrere der Grafikelemente können einen Zeiger umfassen, welcher Informationen im Zusammenhang mit einem oder mehreren der Objekte aufweist, auf die eines oder mehrere der Grafikelemente projiziert werden. Eines oder mehrere der Objekte können eine Sperrung, ein Hindernis, ein Fußgänger, eine Baustelle, eine Wegmarke, ein Gebäude, ein Geschäft oder ein Parkplatz sein.In one or more embodiments, the HUD component may project one or more of the graphics elements onto one or more of the updated focal planes for one or more of the objects. In addition, the HUD component may terminate projecting one or more of the graphics elements on one or more of the focal planes toward projecting on one or more of the updated focal planes. One or more of the graphic elements may include a pointer having information associated with one or more of the objects onto which one or more of the graphic elements are projected. One or more of the objects may be a blockage, an obstacle, a pedestrian, a construction site, a landmark, a building, a shop, or a parking lot.

Das System kann eine Fahrzeug-Steuer-/Regelkomponente umfassen, die eine Größe, eine Form, ein Modell, eine Farbe oder ein oder mehrere Attribute für eines oder mehrere der Grafikelemente bestimmt. Die Fahrzeug-Steuer-/Regelkomponente kann eine Überlappung zwischen einem oder mehreren der Grafikelemente verwalten. Das System kann eine Navigations-Komponente umfassen, die eine Route von einer Ausgangsposition zu einer Zielposition erzeugt, und eine Fahrzeug-Steuer-/Regelkomponente, die Informationen im Zusammenhang mit einem oder mehreren der Objekte entlang der Route erhält, wobei eines oder mehrere der Objekte Geschäfte sind. Die HUD-Komponente kann eines oder mehrere der Grafikelemente als ein Logo im Zusammenhang mit einem oder mehreren der Geschäfte projizieren. In einer oder mehreren Ausführungsformen kann die Sensor-Komponente eine Navigations-Komponente umfassen oder Telematik verwenden.The system may include a vehicle control component that determines a size, a shape, a model, a color, or one or more attributes for one or more of the graphic elements. The vehicle control component may manage an overlap between one or more of the graphic elements. The system may include a navigation component that generates a route from a home position to a destination location and a vehicle control component that receives information associated with one or more of the objects along the route, wherein one or more of the objects Shops are. The HUD component may project one or more of the graphic elements as a logo associated with one or more of the stores. In one or more embodiments, the sensor component may include a navigation component or use telematics.

Gemäß einem oder mehreren Aspekten ist ein System für dreidimensionale (3-D) Navigation bereitgestellt, umfassend eine Navigations-Komponente, eine Steuer-/Regelkomponente und eine Heads-Up-Display(HUD)-Komponente. Die Navigations-Komponente kann Metadaten im Zusammenhang mit einem oder mehreren Objekten in einer Umgebung, die ein Fahrzeug umgibt, ein Layout für jeweilige Objekte innerhalb der Umgebung und eine momentane Position des Fahrzeugs relativ zu dem Layout erhalten. Die Steuer-/Regelkomponente kann eine oder mehrere Brennebenen für ein oder mehrere Grafikelemente auf Grundlage des Layouts von einem oder mehreren der Objekte und der momentanen Position des Fahrzeugs berechnen. Die HUD-Komponente kann eines oder mehrere der Grafikelemente auf einer oder mehreren der Brennebenen entsprechend einem oder mehreren der Objekte projizieren, rendern, präsentieren oder anzeigen, wobei eines oder mehrere der Grafikelemente in einem Sichtfeld eines Insassen des Fahrzeugs projiziert werden.In one or more aspects, a system for three-dimensional (3-D) navigation is provided, comprising a navigation component, a control component, and a heads-up display (HUD) component. The navigation component may receive metadata associated with one or more objects in an environment surrounding a vehicle, a layout for respective objects within the environment, and an instantaneous position of the vehicle relative to the layout. The control component may calculate one or more focal planes for one or more graphics elements based on the layout of one or more of the objects and the current position of the vehicle. The HUD component may project, render, present, or display one or more of the graphic elements on one or more of the focal planes corresponding to one or more of the objects, wherein one or more of the graphic elements are projected in a field of view of an occupant of the vehicle.

Eines oder mehrere der Grafikelemente kann einen Zeiger umfassen, der wenigstens einen Teil der Metadaten im Zusammenhang mit einem oder mehreren der Objekte präsentiert, auf das bzw. die eines oder mehrere der Grafikelemente projiziert wird bzw. werden. Die Metadaten können eine Telefonnummer, eine Adresse, eine Bewertung, einen Namen eines Geschäfts, Öffnungszeiten oder einen Status im Zusammenhang mit einem Objekt umfassen. Die HUD-Komponente kann eines oder mehrere der Grafikelemente auf Grundlage des Layouts von einem oder mehreren der Objekte und der momentanen Position des Fahrzeugs projizieren. Zusätzlich kann die HUD-Komponente von einem Projizieren eines Layout-Ansicht oder einer Vogelperspektiven-Ansicht zu einem Projizieren einer Erste-Person-Ansicht oder einer Dritte-Person-Ansicht übergehen.One or more of the graphical elements may include a pointer presenting at least a portion of the metadata associated with one or more of the objects onto which one or more of the graphic elements is projected. The metadata may include a telephone number, an address, a rating, a name of a business, opening hours, or a status associated with an object. The HUD component may project one or more of the graphical elements based on the layout of one or more of the objects and the current position of the vehicle. Additionally, the HUD component may transition from projecting a layout view or a bird's-eye view to projecting a first-person view or a third-person view.

Das System kann eine Sensor-Komponente umfassen, die eine Abfrage von dem Insassen im Zusammenhang mit einem oder mehreren der Objekte erhält, wobei die HUD-Komponente einen oder mehrere Abschnitte von entsprechenden Metadaten für eines oder mehrere der Objekte im Zusammenhang mit der Abfrage als Reaktion auf die Abfrage projiziert. Die Navigations-Komponente kann eine Route von einer Ausgangsposition zu einer Zielposition erzeugen, wobei die HUD-Komponente eines oder mehrere der Grafikelemente als einen Avatar rendert, der den Insassen entlang der Route führt. Die Steuer-/Regelkomponente kann einen Nickwinkel, Rollwinkel, Gierwinkel oder eine Geschwindigkeit für den Avatar (oder andere Grafikelemente) berechnen. Die HUD-Komponente kann eines oder mehrere der Grafikelemente als einen Straßennamen auf Grundlage der Metadaten und der momentanen Position des Fahrzeugs präsentieren, anzeigen oder rendern.The system may include a sensor component that receives a query from the occupant associated with one or more of the objects, wherein the HUD component reacts one or more portions of corresponding metadata for one or more of the objects associated with the query projected onto the query. The navigation component may generate a route from a home position to a destination location, wherein the HUD component renders one or more of the graphic elements as an avatar that guides the occupants along the route. The control component may calculate a pitch angle, roll angle, yaw angle, or speed for the avatar (or other graphic elements). The HUD component may present, display or render one or more of the graphic elements as a street name based on the metadata and the current location of the vehicle.

Gemäß einem oder mehreren Aspekten ist ein Verfahren für dreidimensionale(3-D)-Navigation bereitgestellt, umfassend ein Verfolgen von einem oder mehreren Objekten in einer Umgebung, die ein Fahrzeug umgebt, und ein Bestimmen von einer oder mehreren entsprechender Koordinaten für jeweilige Objekte relativ zu dem Fahrzeug, ein Berechnen von einer oder mehreren Brennebenen für ein oder mehrere Grafikelemente auf Grundlage von einer oder mehrerer der Koordinaten für jeweilige Objekte, und ein Rendern von einem oder mehreren der Grafikelemente auf einer oder mehreren der Brennebenen entsprechend einem oder mehreren der Objekte, wobei eines oder mehrere der Grafikelemente in einem Sichtfeld eines Insassen des Fahrzeugs projiziert werden. Das Verfolgen, das Berechnen oder das Rendern können mittels einer Prozessierungs-Einheit implementiert sein.In one or more aspects, a method for three-dimensional (3-D) navigation is provided, comprising tracking one or more objects in an environment surrounding a vehicle, and determining one or more corresponding coordinates for respective objects relative to the vehicle, calculating one or more focal planes for one or more graphic elements based on one or more of the coordinates for respective objects, and rendering one or more of the graphic elements on one or more of the focal planes corresponding to one or more of the objects one or more of the graphic elements are projected in a field of view of an occupant of the vehicle. The tracking, computing or rendering may be implemented by a processing unit.

Wenngleich der Gegenstand in einer Sprache beschrieben worden ist, die spezifisch ist für strukturelle Merkmale oder methodische Vorgänge, sollte verstanden werden, dass der Gegenstand der beiliegenden Ansprüche nicht notwendigerweise auf die oben beschriebenen spezifischen Merkmale oder Vorgänge beschränkt ist. Vielmehr sind die spezifischen Merkmale und Vorgänge als beispielhafte Ausführungsformen beschrieben worden.Although the subject matter has been described in language specific to structural features or methodological acts, it should be understood that the subject matter of the appended claims is not necessarily limited to the specific features or acts described above. Rather, the specific features and operations have been described as exemplary embodiments.

Verschiedene Betriebsformen von Ausführungsformen werden hierin bereitgestellt. Die Reihenfolge, in der eine oder mehrere oder alle der Betriebsformen beschrieben sind, sollte nicht so verstanden werden, dass diese Betriebsformen notwendigerweise Reihenfolge-abhängig sind. Alternative Anordnungen werden auf Grundlage dieser Beschreibung verstanden. Ferner müssen nicht notwendigerweise alle Betriebsformen in jeder hierin bereitgestellten Ausführungsform vorliegen.Various modes of operation of embodiments are provided herein. The order in which one or more or all of the operating forms are described should not be construed as necessarily being order-dependent. Alternative arrangements will be understood based on this description. Further, not necessarily all modes of operation are present in each embodiment provided herein.

Wie es in dieser Anmeldung verwendet wird, ist „oder” dazu vorgesehen, ein inklusives „oder” zu bezeichnen anstatt ein exklusives „oder”. Zusätzlich sind „ein” und „eine”, wie sie in dieser Anmeldung verwendet werden, grundsätzlich so gedacht, dass die „eine(s) oder mehrere” bezeichnen, es sei denn, dass sie anders lautend oder aus dem Kontext klar ersichtlich auf die Singularform gerichtet sind. Zusätzlich bedeutet wenigstens eines aus A und B oder/und ähnliches im Allgemeinen A oder B oder sowohl A als auch B. Ferner werde „einschließen”, „aufweisen”, „weist auf”, „mit” oder Variationen davon in der Beschreibung und den Ansprüchen derart verwendet, dass solche Begriffe in einer ähnlichen Weise wie der Begriff „umfassend” inklusive zu verstehen sind.As used in this application, "or" is intended to refer to an inclusive "or" rather than an exclusive "or". In addition, "a" and "an" as used in this application are generally intended to refer to "one or more" unless they are otherwise stated or clearly understood from the context of the present invention Singular form are addressed. In addition, at least one of A and B and / or the like generally means A or B or both A and B. Further, "include", "have", "have", "with" or variations thereof in the specification and the specification Claims used such that such terms are to be understood in a similar manner as the term "comprising" inclusive.

Ferner sind, sofern nicht anders dargestellt, „erstes”, „zweites” oder ähnliches nicht dazu gedacht, einen zeitlichen Aspekt, einen räumlichen Aspekt, eine Reihenfolge etc. zu bezeichnen. Vielmehr werden solche Begriffe lediglich als Identifikationen, Namen, etc. für Merkmale, Elemente, Gegenstände, etc. verwendet. Beispielsweise entsprechen ein erster Kanal und ein zweiter Kanal im Allgemeinen einem Kanal A und einem Kanal B oder zwei verschiedenen oder zwei identischen Kanälen oder dem selben Kanal.Further, unless otherwise indicated, "first," "second," or the like is not intended to refer to a temporal aspect, a spatial aspect, an order, etc. Rather, such terms are used only as identifications, names, etc. for features, elements, objects, etc. For example, a first channel and a second channel generally correspond to one channel A and one channel B or two different or two identical channels or the same channel.

Wenngleich diese Offenbarung bezüglich einer oder mehrerer Implementationen gezeigt und beschrieben worden ist, so werden äquivalente Änderungen und Modifikationen auf Grundlage eines Lesens und Verständnisses dieser Beschreibung und der beiliegenden Ansprüche auftreten. Die Offenbarung umfasst alle solche Modifikationen und Änderungen und ist nur durch den Umfang der folgenden Ansprüche eingeschränkt.While this disclosure has been shown and described with respect to one or more implementations, equivalent changes and modifications will occur based on a reading and understanding of this specification and the appended claims. The disclosure includes all such modifications and changes, and is limited only by the scope of the following claims.

Eine oder mehrere Ausführungsformen von Techniken oder Systemen für dreidimensionale(3-D)-Navigation werden hierin bereitgestellt. Eine Heads-Up-Display(HUD)-Komponente kann Grafikelemente auf Brennebenen um eine Umgebung herum projizieren, rendern, anzeigen oder präsentieren, die ein Fahrzeug umgibt. Die HUD-Komponente kann diese Grafikelemente dazu veranlassen, volumetrisch oder dreidimensional zu erscheinen, indem ein Abstand zwischen einer Brennebene und dem Fahrzeug bewegt oder angepasst wird. Objekte innerhalb der Umgebung werden verfolgt, identifiziert, und entsprechende Grafikelemente können auf, in die Nähe von oder um jeweilige Objekte herum projiziert werden. Beispielsweise kann die HUD-Komponente Grafikelemente oder Zeiger auf Fußgänger derart projizieren, dass die den Fahrer oder Bediener des Fahrzeugs über ihre Anwesenheit alarmiert. Diese Zeiger können an dem Fußgänger „kleben”, wenn er oder sie innerhalb der Umgebung läuft. Metadaten im Zusammenhang mit Objekten können präsentiert werden, wie beispielsweise Adress-Informationen, Bewertungen, Telefonnummern, Logos, etc.One or more embodiments of three-dimensional (3-D) navigation techniques or systems are provided herein. A heads-up display (HUD) component can project, render, display or present graphic elements on focal planes around an environment surrounding a vehicle. The HUD component may cause these graphics to appear volumetric or three-dimensional by moving or adjusting a distance between a focal plane and the vehicle. Objects within the environment are tracked, identified, and corresponding graphics elements can be projected onto, near, or around respective objects. For example, the HUD component may project graphic elements or pointers to pedestrians to alert the driver or operator of the vehicle of their presence. These hands can "stick" to the pedestrian as he or she walks around. Metadata related to objects may be presented, such as address information, ratings, phone numbers, logos, etc.

Claims (20)

System für dreidimensionale (3-D) Navigation, umfassend: eine Sensor-Komponente, welche ein oder mehrere Objekte in einer Umgebung, welche ein Fahrzeug umgibt, und eine oder mehrere entsprechende Koordinaten für jeweilige Objekte relativ zu dem Fahrzeug verfolgt; eine Heads-Up-Display(HUD)-Komponente, welche ein oder mehrere Grafikelemente auf eine oder mehrere Brennebenen entsprechend einem oder mehreren der Objekte projiziert, wobei eines oder mehrere der Grafikelemente im Sichtfeld eines Insassen des Fahrzeugs projiziert werden; und eine Steuer-/Regelkomponente, welche eine oder mehrere aktualisierte Brennebenen für eines oder mehrere der Grafikelemente auf Grundlage von einer oder mehrerer der Koordinaten für jeweilige Objekte berechnet.System for three-dimensional (3-D) navigation, comprising: a sensor component tracking one or more objects in an environment surrounding a vehicle and one or more corresponding coordinates for respective objects relative to the vehicle; a heads-up display (HUD) component that projects one or more graphics elements onto one or more focal planes corresponding to one or more of the objects, wherein one or more of the graphic elements are projected in the field of view of an occupant of the vehicle; and a control component that calculates one or more updated focal planes for one or more of the graphical elements based on one or more of the coordinates for respective objects. System nach Anspruch 1, wobei die HUD-Komponente eines oder mehrere der Grafikelemente auf eine oder mehrere der aktualisierten Brennebenen für eines oder mehrere der Objekte projiziert.The system of claim 1, wherein the HUD component comprises one or more of the graphic elements project one or more of the updated focal planes for one or more of the objects. System nach Anspruch 2, wobei die HUD-Komponente das Projizieren von einem oder mehreren der Grafikelemente auf eine oder mehrere der Brennebenen auf ein Projizieren auf eine oder mehrere der aktualisierten Brennebenen hin beendet.The system of claim 2, wherein the HUD component finishes projecting one or more of the graphics elements onto one or more of the focal planes upon projecting onto one or more of the updated focal planes. System nach Anspruch 1, wobei eines oder mehrere der Grafikelemente einen Zeiger umfasst, welcher Informationen im Zusammenhang mit einem oder mehreren der Objekte aufweist, auf welches bzw. welche eines oder mehrere der Grafikelemente projiziert wird bzw. werden.The system of claim 1, wherein one or more of the graphic elements comprises a pointer having information associated with one or more of the objects onto which one or more of the graphic elements is projected. System nach Anspruch 1, wobei eines oder mehrere der Objekte eine Sperrung, ein Hindernis, ein Fußgänger, eine Baustelle, eine Wegmarke, ein Gebäude, ein Geschäft oder ein Parkplatz ist.The system of claim 1, wherein one or more of the objects is a lock, an obstacle, a pedestrian, a construction site, a landmark, a building, a shop, or a parking lot. System nach Anspruch 1, umfassend eine Fahrzeug-Steuer-/Regelkomponente, welche eine Größe, eine Form, ein Modell, eine Farbe oder ein oder mehrere Attribute für eines oder mehrere der Grafikelemente bestimmt.The system of claim 1, comprising a vehicle control component that determines a size, a shape, a model, a color, or one or more attributes for one or more of the graphic elements. System nach Anspruch 1, umfassend eine Fahrzeug-Steuer-/Regelkomponente, welche eine Überlappung zwischen zwei oder mehr der Grafikelemente verwaltet.The system of claim 1, comprising a vehicle control component that manages an overlap between two or more of the graphic elements. System nach Anspruch 1, umfassend eine Navigations-Komponente, welche eine Route von einer Ausgangsposition zu einer Zielposition erzeugt.The system of claim 1, comprising a navigation component that generates a route from a home position to a destination location. System nach Anspruch 8, umfassend eine Fahrzeug-Steuer-/Regelkomponente, welche Informationen im Zusammenhang mit einem oder mehreren der Objekte entlang der Route erhält, wobei eines oder mehrere der Objekte Geschäfte sind.The system of claim 8, comprising a vehicle control component receiving information associated with one or more of the objects along the route, wherein one or more of the objects are shops. System nach Anspruch 9, wobei die HUD-Komponente eines oder mehrere der Grafikelemente als ein Logo im Zusammenhang mit einem oder mehreren der Geschäfte projiziert.The system of claim 9, wherein the HUD component projects one or more of the graphic elements as a logo associated with one or more of the stores. System für dreidimensionale (3-D) Navigation, umfassend: eine Navigations-Komponente, welche Metadaten im Zusammenhang mit einem oder mehreren Objekten in einer Umgebung, welche ein Fahrzeug umgibt, ein Layout für jeweilige Objekte innerhalb der Umgebung, und eine momentane Position des Fahrzeugs relativ zu dem Layout erhält; eine Steuer-/Regelkomponente, welche eine oder mehrere Brennebenen für ein oder mehrere Grafikelemente auf Grundlage des Layouts von einem oder mehreren der Objekte und der momentanen Position des Fahrzeugs berechnet; und eine Heads-Up-Display(HUD)-Komponente, welche eines oder mehrere der Grafikelemente auf eine oder mehrere der Brennebenen entsprechend einem oder mehreren der Objekte projiziert, wobei eines oder mehrere der Grafikelemente in einem Sichtfeld eines Insassen des Fahrzeugs projiziert werden.System for three-dimensional (3-D) navigation, comprising: a navigation component that receives metadata related to one or more objects in an environment surrounding a vehicle, a layout for respective objects within the environment, and an instantaneous position of the vehicle relative to the layout; a control component that calculates one or more focal planes for one or more graphics elements based on the layout of one or more of the objects and the current position of the vehicle; and a heads-up display (HUD) component that projects one or more of the graphic elements onto one or more of the focal planes corresponding to one or more of the objects, wherein one or more of the graphic elements are projected in a field of view of an occupant of the vehicle. System nach Anspruch 11, wobei eines oder mehrere der Grafikelemente einen Zeiger umfasst, welcher wenigstens einen Teil der Metadaten im Zusammenhang mit einem oder mehreren der Objekte projiziert, auf welche eines oder mehrere der Grafikelemente projiziert werden.The system of claim 11, wherein one or more of the graphical elements includes a pointer that projects at least a portion of the metadata associated with one or more of the objects onto which one or more of the graphic elements are projected. System nach Anspruch 11, wobei die Metadaten eine Telefonnummer, eine Adresse, eine Bewertung, einen Namen eines Geschäfts, Öffnungszeiten oder einen Status im Zusammenhang mit einem Objekt umfassen.The system of claim 11, wherein the metadata includes a telephone number, an address, a rating, a name of a store, opening hours, or a status associated with an object. System nach Anspruch 11, wobei die HUD-Komponente eines oder mehrere der Grafikelemente auf Grundlage des Layouts von einem oder mehreren der Objekte und der momentanen Position des Fahrzeugs projiziert.The system of claim 11, wherein the HUD component projects one or more of the graphical elements based on the layout of one or more of the objects and the current position of the vehicle. System nach Anspruch 14, wobei die HUD-Komponente von einem Projizieren einer Layout-Ansicht zu einem Projizieren einer Erste-Person-Ansicht oder einer Dritte-Person-Ansicht übergeht.The system of claim 14, wherein the HUD component transitions from projecting a layout view to projecting a first-person view or a third-person view. System nach Anspruch 11, umfassend eine Sensor-Komponente, welche eine Abfrage von dem Insassen des Fahrzeugs im Zusammenhang mit einem oder mehreren der Objekte erhält, wobei die HUD-Komponente einen oder mehrere Teile von entsprechenden Metadaten für eines oder mehrere der Objekte im Zusammenhang mit der Abfrage als Antwort auf die Abfrage projiziert.The system of claim 11, comprising a sensor component receiving a query from the occupant of the vehicle associated with one or more of the objects, wherein the HUD component includes one or more portions of corresponding metadata for one or more of the objects associated with the query is projected in response to the query. System nach Anspruch 11, wobei die Navigations-Komponente eine Route von einer Ausgangsposition zu einer Zielposition erzeugt, wobei die HUD-Komponente eines oder mehrere der Grafikelemente als einen Avatar rendert, der den Insassen entlang der Route führt.The system of claim 11, wherein the navigation component generates a route from a home position to a destination location, wherein the HUD component renders one or more of the graphic elements as an avatar that guides the occupants along the route. System nach Anspruch 17, wobei die Steuer-/Regelkomponente einen Nickwinkel, Rollwinkel, Gierwinkel oder eine Geschwindigkeit für den Avatar berechnet.The system of claim 17, wherein the control component calculates a pitch angle, roll angle, yaw angle or velocity for the avatar. System nach Anspruch 11, wobei die HUD-Komponente eines oder mehrere der Grafikelemente als einen Straßennamen auf Grundlage der Metadaten und der momentanen Position des Fahrzeugs rendert.The system of claim 11, wherein the HUD component renders one or more of the graphic elements as a street name based on the metadata and the current position of the vehicle. Verfahren für dreidimensionale (3-D) Navigation, umfassend: Verfolgen von einem oder mehreren Objekten in einer Umgebung, welche ein Fahrzeug umgibt, und Bestimmen von einer oder mehreren entsprechenden Koordinaten für jeweilige Objekte relativ zu dem Fahrzeug; Berechnen von einer oder mehreren Brennebenen für ein oder mehrere Grafikelemente auf Grundlage von einer oder mehreren der Koordinaten für jeweilige Objekte; und Rendern von einem oder mehreren der Grafikelemente auf eine oder mehrere der Brennebenen entsprechend einem oder mehreren der Objekte, wobei eines oder mehrere der Grafikelemente in einem Sichtfeld eines Insassen des Fahrzeugs projiziert werden, wobei das Verfolgen, das Berechnen oder das Rendern mittels einer Prozessierungs-Einheit implementiert wird.Method for three-dimensional (3-D) navigation, comprising: Tracking one or more objects in an environment surrounding a vehicle and determining one or more corresponding coordinates for respective objects relative to the vehicle; Calculating one or more focal planes for one or more graphics based on one or more of the coordinates for respective objects; and rendering one or more of the graphic elements onto one or more of the focal planes corresponding to one or more of the objects, wherein one or more of the graphic elements are projected in a field of view of an occupant of the vehicle, wherein the tracking, computing, or rendering is performed by means of a processing engine. Unit is implemented.
DE102014219575.6A 2013-09-30 2014-09-26 Improved 3-dimensional (3-D) navigation Ceased DE102014219575A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US14/041,614 2013-09-30
US14/041,614 US20160054563A9 (en) 2013-03-14 2013-09-30 3-dimensional (3-d) navigation
US14/321,105 US20140362195A1 (en) 2013-03-15 2014-07-01 Enhanced 3-dimensional (3-d) navigation
US14/321,105 2014-07-01

Publications (1)

Publication Number Publication Date
DE102014219575A1 true DE102014219575A1 (en) 2015-07-23

Family

ID=52791193

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014219575.6A Ceased DE102014219575A1 (en) 2013-09-30 2014-09-26 Improved 3-dimensional (3-D) navigation

Country Status (3)

Country Link
JP (1) JP2015068831A (en)
CN (1) CN104515531B (en)
DE (1) DE102014219575A1 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015214192A1 (en) * 2015-07-27 2017-02-02 Volkswagen Aktiengesellschaft Safety system for a motor vehicle
DE102016218006A1 (en) 2016-09-20 2018-03-22 Volkswagen Aktiengesellschaft A method of displaying an image object in a vehicle on an in-vehicle and on-vehicle perceived display
DE102017210429A1 (en) 2017-06-21 2018-12-27 Bayerische Motoren Werke Aktiengesellschaft Traffic assistance system with visibility-adaptive and situation-dependent intervention parameters
DE102017211521A1 (en) * 2017-07-06 2019-01-10 Bayerische Motoren Werke Aktiengesellschaft Control of vehicle functions from a virtual reality
CN109311423A (en) * 2016-06-07 2019-02-05 爱信精机株式会社 Drive assistance device
DE102019000901A1 (en) 2019-02-07 2019-07-25 Daimler Ag Method for displaying navigation instructions in a head-up display of a Krafftfahrzeugs and computer program product
WO2019166222A1 (en) * 2018-03-02 2019-09-06 Volkswagen Aktiengesellschaft Method for calculating an ar-overlay of additional information for a display on a display unit, device for carrying out the method, as well as motor vehicle and computer program
DE102018208700A1 (en) * 2018-06-01 2019-12-05 Volkswagen Aktiengesellschaft Concept for controlling a display of a mobile augmented reality device
DE102019000401A1 (en) 2019-01-22 2020-07-23 Daimler Ag Process for animating movements in a vehicle
DE102019119056A1 (en) * 2019-07-15 2021-01-21 Bayerische Motoren Werke Aktiengesellschaft Device and means of locomotion for the contact-analog representation of a virtual occupant in a passenger compartment of the means of locomotion
DE102020102189A1 (en) 2020-01-29 2021-07-29 Bayerische Motoren Werke Aktiengesellschaft Method and device for displaying traffic information in a display of a means of locomotion and such a means of locomotion
EP3892960A1 (en) * 2020-04-11 2021-10-13 Harman Becker Automotive Systems GmbH Systems and methods for augmented reality in a vehicle
DE102018009150B4 (en) 2017-11-24 2022-02-03 Mazda Motor Corporation DRIVING ASSISTANCE DEVICE, METHOD OF ASSISTING AND COMPUTER PROGRAM PRODUCT
DE102019005891B4 (en) 2018-11-10 2022-08-04 Günter Fendt Projection device as projecting display system with variable projection depth, method and motor vehicle with such a projection device
US20230236659A1 (en) * 2022-01-25 2023-07-27 Ford Global Technologies, Llc Systems and Methods For Providing A Delivery Assistance Service Having An Augmented-Reality Digital Companion
US11993145B2 (en) 2018-03-15 2024-05-28 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium with instructions for controlling a display of an augmented reality display device for a motor vehicle

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107710751B (en) * 2015-04-17 2020-01-10 三菱电机株式会社 Display control device, display system, and display control method
EP4246094A3 (en) * 2015-09-25 2023-12-27 Apple Inc. Augmented reality display system
US9971470B2 (en) 2015-09-30 2018-05-15 Apple Inc. Navigation application with novel declutter mode
US20170096144A1 (en) * 2015-10-05 2017-04-06 Ford Global Technologies, Llc System and Method for Inspecting Road Surfaces
CN105730237A (en) * 2016-02-04 2016-07-06 京东方科技集团股份有限公司 Traveling auxiliary device and method
JP6551263B2 (en) * 2016-03-02 2019-07-31 株式会社デンソー Head-up display device
WO2017199347A1 (en) * 2016-05-17 2017-11-23 三菱電機株式会社 Image display device, image display method, and image display program
CN106199965B (en) 2016-07-15 2018-11-06 京东方科技集团股份有限公司 A kind of abnormity display device and system
WO2018056058A1 (en) * 2016-09-26 2018-03-29 富士フイルム株式会社 Projection-type display device, projection display method, and projection display program
CN106769085B (en) * 2016-12-14 2023-10-13 特路(北京)科技有限公司 Method and field for testing capability of automatic driving vehicle for avoiding dynamic obstacle
US10169973B2 (en) 2017-03-08 2019-01-01 International Business Machines Corporation Discontinuing display of virtual content and providing alerts based on hazardous physical obstructions
JP6528797B2 (en) * 2017-03-30 2019-06-12 トヨタ自動車株式会社 Vehicle-mounted millimeter wave communication apparatus and communication method
US9904287B1 (en) * 2017-05-04 2018-02-27 Toyota Research Institute, Inc. Systems and methods for mitigating vigilance decrement while maintaining readiness using augmented reality in a vehicle
JP7113259B2 (en) * 2017-06-30 2022-08-05 パナソニックIpマネジメント株式会社 Display system, information presentation system including display system, display system control method, program, and mobile object including display system
CN107272690B (en) * 2017-07-07 2023-08-22 中国计量大学 Inertial guided vehicle navigation method based on binocular stereoscopic vision and inertial guided vehicle
US10691945B2 (en) 2017-07-14 2020-06-23 International Business Machines Corporation Altering virtual content based on the presence of hazardous physical obstructions
JP7019239B2 (en) * 2017-08-02 2022-02-15 日産自動車株式会社 Vehicle display method and vehicle display device
JP6834861B2 (en) * 2017-09-07 2021-02-24 トヨタ自動車株式会社 Head-up display system
JP6543313B2 (en) * 2017-10-02 2019-07-10 株式会社エイチアイ Image generation record display device and program for mobile object
DE102017217923A1 (en) * 2017-10-09 2019-04-11 Audi Ag Method for operating a display device in a motor vehicle
CN107678162A (en) * 2017-10-25 2018-02-09 京东方科技集团股份有限公司 A kind of display control component and its control method, head-up display system, vehicle
DE102017221488A1 (en) * 2017-11-30 2019-06-06 Volkswagen Aktiengesellschaft Method for displaying the course of a trajectory in front of a vehicle or an object with a display unit, device for carrying out the method and motor vehicle and computer program
WO2019127224A1 (en) * 2017-12-28 2019-07-04 深圳市大疆创新科技有限公司 Focusing method and apparatus, and head-up display device
CN109064755B (en) * 2018-07-24 2021-06-15 河北德冠隆电子科技有限公司 Path identification method based on four-dimensional real-scene traffic simulation road condition perception management system
CN110322527B (en) * 2019-05-21 2021-04-20 华为技术有限公司 Pattern generation method and terminal
CN110213730B (en) * 2019-05-22 2022-07-15 未来(北京)黑科技有限公司 Method and device for establishing call connection, storage medium and electronic device
CN112208539A (en) * 2019-07-09 2021-01-12 奥迪股份公司 System, vehicle, method, and medium for autonomous driving of a vehicle
JP7261121B2 (en) * 2019-08-15 2023-04-19 Kddi株式会社 Information terminal device and program
DE102019123778A1 (en) * 2019-09-05 2021-03-11 Valeo Schalter Und Sensoren Gmbh Representing a vehicle environment for moving the vehicle to a target position
CN111210490B (en) * 2020-01-06 2023-09-19 北京百度网讯科技有限公司 Electronic map construction method, device, equipment and medium
JP2022041168A (en) * 2020-08-31 2022-03-11 パナソニックIpマネジメント株式会社 Display device
KR20220160279A (en) 2021-05-27 2022-12-06 현대자동차주식회사 Mobile device and Vehicle

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222583B1 (en) * 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
DE102006008981A1 (en) * 2006-02-23 2007-08-30 Siemens Ag Driver assistance system for motor vehicle, has determination unit that combines data with signals from channels during detection of objects/situation by sensors and video sources with respect to control/influence of interface module
KR20100070973A (en) * 2008-12-18 2010-06-28 박호철 Head-up display navigation apparatus, system and service implementation method thereof
KR101768101B1 (en) * 2009-10-30 2017-08-30 엘지전자 주식회사 Information displaying apparatus and method thereof
US8514101B2 (en) * 2011-12-02 2013-08-20 GM Global Technology Operations LLC Driving maneuver assist on full windshield head-up display

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015214192A1 (en) * 2015-07-27 2017-02-02 Volkswagen Aktiengesellschaft Safety system for a motor vehicle
CN109311423A (en) * 2016-06-07 2019-02-05 爱信精机株式会社 Drive assistance device
DE112017002852B4 (en) 2016-06-07 2024-05-02 Aisin Corporation Driver assistance system
DE102016218006A1 (en) 2016-09-20 2018-03-22 Volkswagen Aktiengesellschaft A method of displaying an image object in a vehicle on an in-vehicle and on-vehicle perceived display
DE102017210429A1 (en) 2017-06-21 2018-12-27 Bayerische Motoren Werke Aktiengesellschaft Traffic assistance system with visibility-adaptive and situation-dependent intervention parameters
DE102017211521A1 (en) * 2017-07-06 2019-01-10 Bayerische Motoren Werke Aktiengesellschaft Control of vehicle functions from a virtual reality
DE102018009150B4 (en) 2017-11-24 2022-02-03 Mazda Motor Corporation DRIVING ASSISTANCE DEVICE, METHOD OF ASSISTING AND COMPUTER PROGRAM PRODUCT
WO2019166222A1 (en) * 2018-03-02 2019-09-06 Volkswagen Aktiengesellschaft Method for calculating an ar-overlay of additional information for a display on a display unit, device for carrying out the method, as well as motor vehicle and computer program
US11904688B2 (en) 2018-03-02 2024-02-20 Volkswagen Aktiengesellschaft Method for calculating an AR-overlay of additional information for a display on a display unit, device for carrying out the method, as well as motor vehicle and computer program
US11993145B2 (en) 2018-03-15 2024-05-28 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium with instructions for controlling a display of an augmented reality display device for a motor vehicle
DE102018208700A1 (en) * 2018-06-01 2019-12-05 Volkswagen Aktiengesellschaft Concept for controlling a display of a mobile augmented reality device
US12025460B2 (en) 2018-06-01 2024-07-02 Volkswagen Aktiengesellschaft Concept for the control of a display of a mobile augmented reality device
DE102019005891B4 (en) 2018-11-10 2022-08-04 Günter Fendt Projection device as projecting display system with variable projection depth, method and motor vehicle with such a projection device
DE102019000401A1 (en) 2019-01-22 2020-07-23 Daimler Ag Process for animating movements in a vehicle
DE102019000901A1 (en) 2019-02-07 2019-07-25 Daimler Ag Method for displaying navigation instructions in a head-up display of a Krafftfahrzeugs and computer program product
DE102019119056A1 (en) * 2019-07-15 2021-01-21 Bayerische Motoren Werke Aktiengesellschaft Device and means of locomotion for the contact-analog representation of a virtual occupant in a passenger compartment of the means of locomotion
DE102020102189A1 (en) 2020-01-29 2021-07-29 Bayerische Motoren Werke Aktiengesellschaft Method and device for displaying traffic information in a display of a means of locomotion and such a means of locomotion
US11555711B2 (en) 2020-04-11 2023-01-17 Harman Becker Automotive Systems Gmbh Systems and methods for augmented reality in a vehicle
EP3892960A1 (en) * 2020-04-11 2021-10-13 Harman Becker Automotive Systems GmbH Systems and methods for augmented reality in a vehicle
US20230236659A1 (en) * 2022-01-25 2023-07-27 Ford Global Technologies, Llc Systems and Methods For Providing A Delivery Assistance Service Having An Augmented-Reality Digital Companion

Also Published As

Publication number Publication date
JP2015068831A (en) 2015-04-13
CN104515531B (en) 2019-08-09
CN104515531A (en) 2015-04-15

Similar Documents

Publication Publication Date Title
DE102014219575A1 (en) Improved 3-dimensional (3-D) navigation
DE102014219567A1 (en) THREE-DIMENSIONAL (3-D) NAVIGATION
US10215583B2 (en) Multi-level navigation monitoring and control
US20140362195A1 (en) Enhanced 3-dimensional (3-d) navigation
US9400385B2 (en) Volumetric heads-up display with dynamic focal plane
EP1916154B1 (en) Method for displaying information
DE102012216623B4 (en) Method for dynamic information display on a head-up display
EP1916153B1 (en) Method for displaying information
DE112015004431B4 (en) Vehicle display device
EP2562039B1 (en) Method and advice for adjusting a light output of at least one headlamp of a vehicle
DE102011081396B4 (en) Method and control device for adapting a radiation characteristic of at least one headlight
JP7113259B2 (en) Display system, information presentation system including display system, display system control method, program, and mobile object including display system
US9482540B2 (en) Navigation display method and system
US20140354692A1 (en) Volumetric heads-up display with dynamic focal plane
DE112018003314B4 (en) Display system, information display system, method for controlling a display system, program and recording medium for a display system and mobile body
DE112018004561T5 (en) VEHICLE DRIVING SUPPORT SYSTEM, VEHICLE DRIVING SUPPORT PROCEDURE AND VEHICLE DRIVING SUPPORT PROGRAM
DE112018000786T5 (en) A DEVICE AND METHOD FOR CONTROLLING A HEAD-UP VV DISPLAY OF A VEHICLE
DE102013016251A1 (en) Method for augmented representation of additional information in image in e.g. vehicle environment, involves changing additional information in dependence on current driving and surrounding situation
JP6504431B2 (en) IMAGE DISPLAY DEVICE, MOBILE OBJECT, IMAGE DISPLAY METHOD, AND PROGRAM
DE102009020300A1 (en) Method for displaying partially automatically determined surrounding of vehicle for user of vehicle from outlook of passenger, involves detecting automatically surrounding of vehicle with one or multiple object recognition devices
DE102008028374A1 (en) Method for combined output of an image and local information, and motor vehicle therefor
EP3978294A1 (en) Operation of a head-up display device with displayable objects positioned outside a field of view
Sharfi et al. Enhancement of road delineation can reduce safety
US20210268961A1 (en) Display method, display device, and display system
DE102022127434A1 (en) PARKING ASSISTANCE IN AN AUGMENTED REALITY HEAD-UP DISPLAY SYSTEM

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R163 Identified publications notified
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final