WO2020249367A1 - Steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug - Google Patents

Steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug Download PDF

Info

Publication number
WO2020249367A1
WO2020249367A1 PCT/EP2020/063871 EP2020063871W WO2020249367A1 WO 2020249367 A1 WO2020249367 A1 WO 2020249367A1 EP 2020063871 W EP2020063871 W EP 2020063871W WO 2020249367 A1 WO2020249367 A1 WO 2020249367A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
augmented reality
reality head
displayed
content
Prior art date
Application number
PCT/EP2020/063871
Other languages
English (en)
French (fr)
Inventor
Vitalij SADOVITCH
Onur Aras
Adrian HAAR
Original Assignee
Volkswagen Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen Aktiengesellschaft filed Critical Volkswagen Aktiengesellschaft
Priority to CN202080041285.7A priority Critical patent/CN113924518A/zh
Priority to US17/618,386 priority patent/US20220348080A1/en
Publication of WO2020249367A1 publication Critical patent/WO2020249367A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/186Displaying information according to relevancy
    • B60K2360/1868Displaying information according to relevancy according to driving situations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/188Displaying information using colour changes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • the present invention relates to a method, a computer program with instructions and a device for controlling a display of an augmented reality head-up display for a motor vehicle.
  • the invention further relates to a motor vehicle in which a method according to the invention or a device according to the invention is used.
  • Augmented Reality is about the enrichment of the real world with virtual elements that are correctly registered in three-dimensional space and allow real-time interaction. Since the term “augmented reality” has prevailed over the term “augmented reality” in the German-speaking world, the former is used in the following. The term “mixed reality” is also used synonymously.
  • the head-up display offers a possible technical implementation to enrich the driver's workstation accordingly with perspective correct virtual extensions.
  • the light beams from a display installed in the dashboard are folded over several mirrors and lenses and reflected into the driver's eye via a projection surface, so that the driver perceives a virtual image outside the vehicle.
  • the front screen is often used as a projection surface, the curved shape of which must be taken into account in the display.
  • an additional pane made of glass or plastic is sometimes used, which is arranged between the driver and the windshield on the dashboard.
  • the visual overlay of the display and driving scene means that fewer head and eye movements are required to read the information.
  • the adaptation effort for the eyes is reduced since, depending on the virtual distance of the display, there is less or no need to accommodate.
  • Augmented Reality offers a wide range of possible uses to support the driver through contact-analog marking of lanes and objects.
  • the display area of a head-up display in which the display of virtual content in the windshield is possible, is described by the field of view (FOV).
  • the area from which the ad is visible is called the eyebox.
  • the field of view indicates the extent of the virtual image in the horizontal and vertical directions in degrees of angle and is essentially limited by the available installation space in the vehicle. With conventional technology, a field of view of around 10 ° C 4 ° can be achieved. The limited size of the field of view leads to essential
  • a first approach to solving this problem is to increase the size of the field of view, e.g. alternative display technologies can be used.
  • alternative display technologies can be used.
  • a larger field of view can be achieved with the same or even reduced structural volume.
  • US 2012/0224062 A1 describes a head-up display for a motor vehicle.
  • the head-up display uses a laser-based imaging system for a virtual image.
  • the imaging system includes at least one laser light source coupled to imaging optics to provide a beam of light that
  • Exit pupil is optically coupled to the laser-based virtual imaging system in order to receive the light beam and to enlarge an eyebox of the head-up display for viewing the virtual images.
  • Another approach is to adapt the position of the eyebox to the driver's head position so that the driver's eyes are in the center of the eyebox and the largest possible field of vision is effectively available.
  • DE 10 2015 010 373 A1 describes a method for adapting a position of a virtual image of a head-up display of a motor vehicle to a field of vision of a user.
  • the head-up display has a housing with a Adjustment option, which is brought into a desired position in response to an operator action by the user, in which the virtual image is in the user's field of vision.
  • an individual and even automatic setting of the eyebox can be implemented depending on the driver's head position. Dynamic movements of the driver can also be compensated for by continuously adjusting the eyebox.
  • a method for controlling a display of an augmented reality head-up display for a motor vehicle comprises the steps:
  • a computer program contains instructions which, when executed by a computer, cause the computer to carry out the following steps for controlling a display of an augmented reality head-up display for a motor vehicle:
  • Control devices and other processor-based data processing devices can, for example, be provided for electronic retrieval or be stored on a computer-readable storage medium.
  • a device for controlling a display of an augmented reality head-up display for a motor vehicle has:
  • an analysis module for analyzing content to be presented by the augmented reality head-up display
  • a control module for adjusting a position of an eyebox of the augmented reality head-up display as a function of the content to be displayed.
  • the virtual image can only be seen when the viewer's eyes are in a defined eyebox.
  • the disadvantages resulting from the limited size of the field of view are alleviated by the fact that the position of the eyebox is adjusted as a function of the virtual content. No technology is therefore required to enlarge the virtual image; instead, an optimized use of the limited image area takes place.
  • the solution according to the invention can thus be implemented cost-effectively and does not require any adaptation of the installation space required for the head-up display.
  • the eyebox of the augmented reality head-up display is shifted vertically as a function of the content to be displayed.
  • the virtual image that is rendered for display in the head-up display should always be one buffer larger than the image that the head-up display can display. If you take e.g. a heads-up display with a vertical field of view of 4 ° and a buffer of 0.5 ° above and below the image borders, an image should be rendered for a field of view of 5 °. By shifting the vertical position, the field of view is now dynamically expanded to include the area of the buffer. Of course, alternatively or additionally, the eyebox can also be shifted horizontally if a buffer is provided to the right and left of the image borders.
  • the position of the eyebox is adjusted by adjusting an optical component of the augmented reality head-up display.
  • Many head-up displays already provide for the eyebox in the vertical
  • Alignment can be shifted by adjusting the mirror in the optics of the head-up display. This serves to bring the position of the eyebox to the head position of the viewer adapt. This setting option can now also be used to adjust the position of the eyebox depending on the content to be displayed. No additional adjustment options are therefore required.
  • an image rendered for the display is evaluated.
  • color values of the image can be evaluated.
  • a dynamic evaluation of the rendered image can be carried out for the situation-dependent adjustment of the eyebox.
  • an image is generally rendered with a black background, because black appears as transparent in the head-up display.
  • the buffer areas can therefore be automatically checked for the occurrence of pixels whose RGB color value does not correspond to (0,0,0). If this check is positive, the eyebox is shifted.
  • the eyebox is adjusted upwards if content is to be displayed in the upper buffer area and downwards if content is to be displayed in the lower buffer area.
  • Such a color evaluation can of course also be implemented for other color spaces.
  • the augmented reality head-up display when analyzing the content to be displayed by the augmented reality head-up display, input data for rendering an image are evaluated for the display. Since the adjustment of the eyebox is usually done mechanically and is therefore associated with a high latency, it makes sense to carry out the check of the content to be displayed predictively. Instead of the already rendered image
  • the evaluation takes place before rendering on the basis of the input data.
  • the content to be displayed is prioritized. It is preferably ensured that the adjustment of the eyebox and the with it
  • the associated display area of the head-up display does not mean that other content to be displayed cannot be displayed. Therefore, it makes sense to check not only the buffer areas with regard to the content to be displayed, but also the display area.
  • the eyebox should only be adjusted so that other content of the rendered image does not fall out of the display area. If all the content to be displayed does not fit in the display area, the content to be displayed is prioritized. In this way it can be determined which content to be displayed is cut off.
  • the prioritization is dependent on a driving situation or can be influenced by a user of the augmented reality head-up display.
  • a user of the augmented reality head-up display For example, it can be provided that, when traveling on the motorway, navigation instructions have a lower priority than information about people, while when driving in a city, navigation instructions are given greater priority than information about people. It makes sense to differentiate between people at the edge of the road and people on the road, ie important warnings for dangerous situations should always be given the highest priority.
  • the user of the head-up display can preferably specify which virtual content should be prioritized in order to be able to adapt the behavior of the head-up display to his own preferences.
  • a method according to the invention or a device according to the invention is particularly advantageously used in a vehicle, in particular a motor vehicle.
  • Fig. 1 shows an approach to an intersection from the driver's perspective at large
  • FIG. 3 shows schematically a method for controlling a display of an augmented reality head-up display for a motor vehicle
  • FIG. 4 shows a first embodiment of a device for controlling a display of an augmented reality head-up display for a motor vehicle
  • Fig. 5 shows a second embodiment of a device for controlling a
  • Fig. 6 shows schematically a motor vehicle in which a solution according to the invention is implemented
  • FIG. 7 schematically shows a general structure of an augmented reality head-up display for a motor vehicle; 8 shows a display area of a head-up display and adjoining tolerance areas for different positions of the eyebox;
  • FIG. 10 shows an augmented reality representation of a navigation marker without
  • FIG. 11 shows an augmented reality representation of the navigation marking with the eyebox shifted according to the situation.
  • the augmented reality head-up display shows on the one hand a contact-analog navigation marking 60, here in the form of a carpet, and on the other hand a contact-analog object marking 61, here in the form of a frame around a person. Also shown are two different fields of view 62, 62 ', a large field of view 62' corresponding to an angular range of 20 ° C 10 ° and a small field of view 62 corresponding to an angular range of 10 ° C 4 °. At this distance, the virtual content can be displayed without problems for both sizes of the fields of view 62, 62 '.
  • Fig. 2 shows the approach to the intersection from the driver's perspective at a short distance from the intersection. At this distance, the representations are both contact-analogous
  • the navigation marking 60 and the contact-analog object marking 61 are severely cropped by the small field of view 62.
  • the navigation marking 60 can hardly be recognized as such. This effect reduces the added value and the user experience of an augmented reality head-up display.
  • the augmented reality head-up display analyzes the content to be displayed. For example, an image rendered for the display can be evaluated, in particular its color values. Alternatively, input data for rendering an image can also be evaluated for the display.
  • the content to be displayed can also be prioritized 11. This prioritization can be dependent on a driving situation or can be influenced by a user.
  • a position of an eyebox of the augmented reality head-up display is then adjusted as a function of the content to be displayed 12.
  • the eyebox is preferably displaced at least vertically. The position of the eyebox can, for example, be adjusted by adjusting an optical component of the augmented reality head-up display 12.
  • FIG. 4 shows a simplified schematic illustration of a first embodiment of a device 20 for controlling a display of an augmented reality head-up display for a motor vehicle.
  • the device 20 has an input 21 via which, for example, image data from a camera 43, data from a sensor system 44 or data from a
  • Navigation system 45 can be received.
  • the sensor system 44 can be received.
  • the device 20 also has an analysis unit 22 which can analyze the content to be displayed by the augmented reality head-up display, in particular with regard to its displayability in one
  • the analysis unit 22 can be set up to evaluate an image rendered for the display, in particular its color values. Alternatively, input data for rendering an image can also be evaluated for the display. The analysis unit 22 can also prioritize the content to be displayed. This prioritization can be dependent on a driving situation or can be influenced by a user.
  • a control module 23 finally adjusts a position of an eyebox of the augmented reality head-up display as a function of the content to be displayed. At least one vertical displacement of the eyebox preferably takes place. The position of the eyebox can be adjusted, for example, by adjusting an optical component of the augmented reality head-up display. Control signals from the control module 23 can be output via an output 26 of the device 20, e.g. to a control unit 42 of the augmented reality head-up display.
  • the analysis unit 22 and the control module 23 can be controlled by a control unit 24. Settings of the analysis unit 22, the control module 23 or the control unit 24 can optionally be changed via a user interface 27 will.
  • the data occurring in the device 20 can, if necessary, be stored in a memory
  • the analysis unit 22, the control module 23 and the control unit 24 can be implemented as dedicated hardware, for example as integrated circuits. Of course, they can also be partially or fully combined or implemented as software that runs on a
  • the device 20 can be implemented as separate interfaces or as a combined bidirectional interface.
  • the device 20 is an independent component. However, it can also be integrated in the control unit 42 of the augmented reality head-up display device.
  • FIG. 5 shows a simplified schematic illustration of a second embodiment of a device 30 for controlling a display of an augmented reality head-up display for a motor vehicle.
  • the device 30 has a processor 32 and a memory 31.
  • the device 30 is a computer or a
  • Control unit Instructions are stored in memory 31 which device 30 at
  • the instructions stored in the memory 31 thus embody a program which can be executed by the processor 32 and which implements the method according to the invention.
  • the device 30 has an input 33 for receiving information, for example navigation data or data on the surroundings of the motor vehicle. Data generated by the processor 32 are provided via an output 34. In addition, they can be stored in memory 31.
  • the input 33 and the output 34 can become a bidirectional interface
  • the processor 32 may include one or more processing units, such as microprocessors, digital signal processors, or combinations thereof.
  • the memories 25, 31 of the described embodiments can have both volatile and non-volatile storage areas and a wide variety of storage devices and
  • Storage media include, for example, hard drives, optical storage media or semiconductor memories.
  • FIG. 6 schematically shows a motor vehicle 40 in which a solution according to the invention is implemented.
  • the motor vehicle 40 has an augmented reality head-up display 41 an associated control unit 42. Furthermore, the motor vehicle 40 has a
  • Device 20 for controlling a display of the augmented reality head-up display 41.
  • the device 20 can of course also be integrated in the augmented reality head-up display 41 or in the control device 42 of the augmented reality head-up display 41.
  • Further components of the motor vehicle 40 are a camera 43 and a sensor system 44 for detecting objects, a navigation system 45, a data transmission unit 46 and a number of assistance systems 47, one of which is shown as an example.
  • a connection to service providers can be established by means of the data transmission unit 46, for example for calling up map data.
  • a memory 48 is provided for storing data. The data exchange between the various components of the motor vehicle 40 takes place via a network 49.
  • FIG. 7 schematically shows an augmented reality head-up display 41 for a motor vehicle 40, with the aid of which content can be displayed on a projection surface 53 of the motor vehicle 40, for example on the windscreen or on an additional pane made of glass or plastic those between the driver and the windshield on the
  • Dashboard is arranged.
  • the displayed contents are generated by an imaging unit 50 and projected onto the projection surface 53 with the aid of an optical module 51.
  • the projection typically takes place in an area of the windshield above the steering wheel.
  • the position of an eyebox of the augmented reality head-up display 41 can be adjusted by means of an optical component 52 of the optical module 51.
  • the imaging unit 50 can be an LCD-TFT display, for example.
  • the augmented reality head-up display 41 is usually installed in a dashboard of the motor vehicle 40.
  • FIG. 8 shows a field of view 62 of a head-up display and adjoining it
  • Tolerance ranges 63 for different positions of the eyebox Fig. 8a) illustrates a middle position of the eyebox, Fig. 8b) a high position and Fig. 8c) a low position. Due to the optical design of head-up displays, the virtual image can only be seen when the viewer's eyes are inside the eyebox. By adjusting the optics of the head-up display, for example by adjusting the mirror, this eyebox can be shifted in the vertical orientation. The available adjustment range is indicated by the vertical double arrow and the rectangle shown with dotted lines.
  • the vertical position of the field of view 62 is thus determined via the adjustment in the optics defined, ie the look-down angle (viewing angle downwards, ie angle of the visual axis relative to the street) based on the center of the eyebox. If the eyebox is set too high or too low for the driver, the image of the display is cut off at the upper or lower edge of the field of view 62. If the setting is correct, however, the driver can fully recognize the image. In addition, tolerance areas 63 result above and below the field of view 62. In these areas, the virtual image would also be recognizable if the field of view 62 extends vertically.
  • FIG. 9 shows a turning situation that is intended to be clarified by means of an augmented reality display. Shown is a carpet that reflects a turn. This is not an actual augmentation using an augmented reality head-up display, but merely the visualization of a
  • the augmented reality head-up display is used to display an augmentation in the form of a navigation marking 60, which corresponds to the carpet shown in FIG. 9. Because of the short distance to the intersection, the representation of the contact-analog navigation marking 60 is severely cropped by the field of view 62. The navigation marking 60 can hardly be recognized as such.
  • FIG. 11 shows an augmented reality representation of the navigation marking 60 with the eyebox shifted according to the situation.
  • the eyebox was made in view of the to be depicted
  • Navigation marking 60 shifted down so that a significantly larger part of the carpet can now be seen. Even without a greater vertical extension of the field of view 62, the representation of the navigation marking 60 is significantly improved.
  • the representation can be further improved.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren, ein Computerprogramm mit Instruktionen und eine Vorrichtung zur Steuerung einer Anzeige eines Augmented-Reality-Head-up- Displays für ein Kraftfahrzeug. In einem ersten Schritt (10) werden die durch das Augmented-Reality-Head-up-Display darzustellenden Inhalte analysiert. Dabei kann optional eine Priorisierung der darzustellenden Inhalte erfolgen (11). Im Anschluss wird eine Position einer Eyebox des Augmented-Reality-Head-up-Displays in Abhängigkeit von den darzustellenden Inhalten angepasst (12).

Description

Beschreibung
Steuerung einer Anzeige einer Augmented-Reality-Head-up-Display-Vorrichtung für ein
Kraftfahrzeug
Die vorliegende Erfindung betrifft ein Verfahren, ein Computerprogramm mit Instruktionen und eine Vorrichtung zur Steuerung einer Anzeige eines Augmented-Reality-Head-up- Displays für ein Kraftfahrzeug. Die Erfindung betrifft weiterhin ein Kraftfahrzeug, in dem ein erfindungsgemäßes Verfahren oder eine erfindungsgemäße Vorrichtung eingesetzt wird.
Mit der stetigen Weiterentwicklung von Virtual und Augmented Reality-Technologien und -Anwendungen finden diese auch Einzug in das Automobil. Bei Augmented Reality (AR), auf Deutsch„erweiterte Realität“, handelt es sich um die Anreicherung der realen Welt durch virtuelle Elemente, die im dreidimensionalen Raum ortskorrekt registriert sind und eine Echtzeitinteraktion erlauben. Da sich in der Fachwelt im deutschsprachigen Raum der Ausdruck„Augmented Reality“ gegenüber dem Ausdruck„erweiterte Realität“ durchgesetzt hat, wird im Folgenden ersterer benutzt. Synonym wird auch der Ausdruck„Mixed Reality“ verwendet.
Eine mögliche technische Realisierung, um den Fahrerarbeitsplatz entsprechend mit perspektivisch korrekten virtuellen Erweiterungen anzureichern, bietet das Head-up-Display (HUD). Dabei werden die Lichtstrahlen eines im Armaturenbrett verbauten Displays über mehrere Spiegel und Linsen gefaltet und über eine Projektionsfläche in das Auge des Fahrers gespiegelt, sodass dieser ein virtuelles Bild außerhalb des Fahrzeugs wahrnimmt.
Als Projektionsfläche dient im Automobilbereich oftmals die Frontscheibe, deren gekrümmte Form bei der Darstellung berücksichtigt werden muss. Als Alternative wird zum Teil auch eine zusätzliche Scheibe aus Glas oder Kunststoff genutzt, die zwischen dem Fahrer und der Frontscheibe auf dem Armaturenbrett angeordnet ist. Durch die optische Überlagerung von Anzeige und Fahrszene sind weniger Kopf- und Augenbewegungen zum Ablesen der Informationen notwendig. Zudem verringert sich der Adaptationsaufwand für die Augen, da abhängig von der virtuellen Distanz der Anzeige weniger bis gar nicht akkommodiert werden muss.
Augmented Reality bietet vielfältige Anwendungsmöglichkeiten zur Unterstützung des Fahrers durch kontaktanaloge Markierung von Fahrbahnen und Objekten. Relativ
naheliegende Beispiele beziehen sich meist auf den Bereich der Navigation. Während klassische Navigationsanzeigen in herkömmlichen Head-up-Displays in der Regel schematische Darstellungen anzeigen, z.B. einen rechtwinklig verlaufenden Pfeil nach rechts als Zeichen dafür, dass bei nächster Gelegenheit rechts abgebogen werden soll, bieten AR- Anzeigen wesentlich effektivere Möglichkeiten. Da die Anzeigen als„Teil der Umwelt“ dargestellt werden können, können dem Fahrer z.B. sehr effektiv Navigationshinweise oder Gefahrenwarnungen direkt am realen Bezugsort präsentiert werden.
Der Darstellungsbereich eines Head-up-Displays, in dem die Anzeige von virtuellen Inhalten in der Windschutzscheibe möglich ist, wird durch das Sichtfeld oder Field of View (FOV) beschrieben. Der Bereich, aus dem die Anzeige sichtbar ist, wird als Eyebox bezeichnet.
Das Sichtfeld gibt die Ausdehnung des virtuellen Bildes in horizontaler und vertikaler Richtung in Wnkelgrad an und wird im Wesentlichen durch den verfügbaren Bauraum im Fahrzeug limitiert. Bei konventioneller Technologie ist ein Sichtfeld von etwa 10°c4° realisierbar. Die beschränkte Größe des Sichtfeldes führt dazu, dass wesentliche
Anzeigeinhalte in Augmented-Reality-Anwendungen in vielen Situationen nicht oder nur eingeschränkt dargestellt werden können.
Ein erster Ansatz zur Lösung dieses Problems besteht darin, die Größe des Sichtfeldes zu erhöhen, indem z.B. alternative Displaytechnologien genutzt werden. Beispielsweise kann durch Verwendung holographischer Komponenten bei gleichbleibendem oder sogar reduziertem Bauvolumen ein größeres Sichtfeld realisiert werden.
In diesem Zusammenhang beschreibt US 2012/0224062 A1 ein Head-up-Display für ein Kraftfahrzeug. Das Head-up-Display nutzt ein laserbasiertes Bilderzeugungssystem für ein virtuelles Bild. Das Bilderzeugungssystem umfasst mindestens eine Laserlichtquelle, die mit einer Bilderzeugungsoptik gekoppelt ist, um einen Lichtstrahl bereitzustellen, der
zweidimensionale virtuelle Bilder trägt. Ein Lichtwellenleiter zum Aufweiten einer
Austrittspupille ist optisch mit dem laserbasierten virtuellen Bilderzeugungssystem gekoppelt, um den Lichtstrahl zu empfangen und eine Eyebox des Head-up-Display zur Betrachtung der virtuellen Bilder zu vergrößern.
Ein weiterer Lösungsansatz besteht darin, die Position der Eyebox an die Kopfposition des Fahrers anzupassen, sodass die Augen des Fahrers im Zentrum der Eyebox liegen und ein möglichst großes Sichtfeld effektiv zur Verfügung steht.
Vor diesem Hintergrund beschreibt die DE 10 2015 010 373 A1 ein Verfahren zum Anpassen einer Position eines virtuellen Bildes eines Head-up-Displays eines Kraftfahrzeugs an einen Sichtbereich eines Benutzers. Das Head-up-Display weist ein Gehäuse mit einer Verstellmöglichkeit auf, das in Reaktion auf eine Bedienhandlung des Benutzers in eine gewünschte Stellung gebracht wird, in der das virtuelle Bild im Sichtbereich des Benutzers liegt.
In Kombination mit Head-Tracking kann auch eine individuelle und sogar automatische Einstellung der Eyebox je nach Kopfposition des Fahrers realisiert werden. Dabei können auch dynamische Bewegungen des Fahrers durch eine laufende Anpassung der Eyebox kompensiert werden.
Es ist eine Aufgabe der Erfindung, alternative Lösungen für die Steuerung einer Anzeige eines Augmented-Reality-Head-up-Displays für ein Kraftfahrzeug bereitzustellen, die eine Reduzierung der aus der beschränkten Größe des Sichtfeldes resultierenden Nachteile ermöglichen.
Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 , durch ein Computerprogramm mit Instruktionen gemäß Anspruch 9 und durch eine Vorrichtung mit den Merkmalen des Anspruchs 10 gelöst. Bevorzugte Ausgestaltungen der Erfindung sind Gegenstand der abhängigen Ansprüche.
Gemäß einem ersten Aspekt der Erfindung umfasst ein Verfahren zur Steuerung einer Anzeige eines Augmented-Reality-Head-up-Displays für ein Kraftfahrzeug die Schritte:
- Analysieren von durch das Augmented-Reality-Head-up-Display darzustellenden Inhalten; und
- Anpassen einer Position einer Eyebox des Augmented-Reality-Head-up-Displays in Abhängigkeit von den darzustellenden Inhalten.
Gemäß einem weiteren Aspekt der Erfindung enthält ein Computerprogramm Instruktionen, die bei Ausführung durch einen Computer den Computer zur Ausführung der folgenden Schritte zur Steuerung einer Anzeige eines Augmented-Reality-Head-up-Displays für ein Kraftfahrzeug veranlassen:
- Analysieren von durch das Augmented-Reality-Head-up-Display darzustellenden Inhalten; und
- Anpassen einer Position einer Eyebox des Augmented-Reality-Head-up-Displays in Abhängigkeit von den darzustellenden Inhalten.
Der Begriff Computer ist dabei breit zu verstehen. Insbesondere umfasst er auch
Steuergeräte und andere prozessorbasierte Datenverarbeitungsvorrichtungen. Das Computerprogramm kann beispielsweise für einen elektronischen Abruf bereitgestellt werden oder auf einem computerlesbaren Speichermedium gespeichert sein.
Gemäß einem weiteren Aspekt der Erfindung weist eine Vorrichtung zur Steuerung einer Anzeige eines Augmented-Reality-Head-up-Displays für ein Kraftfahrzeug auf:
- ein Analysemodul zum Analysieren von durch das Augmented-Reality-Head-up-Display darzustellenden Inhalten; und
- ein Steuerungsmodul zum Anpassen einer Position einer Eyebox des Augmented-Reality- Head-up-Displays in Abhängigkeit von den darzustellenden Inhalten.
Aufgrund der optischen Auslegung von Head-up-Displays ist das virtuelle Bild nur erkennbar, wenn sich die Augen des Betrachters in einer definierten Eyebox befinden. Bei der erfindungsgemäßen Lösung werden die aus der beschränkten Größe des Sichtfeldes resultierenden Nachteile dadurch abgemildert, dass die Position der Eyebox abhängig von den virtuellen Inhalten verstellt wird. Es ist somit keine Technologie zur Vergrößerung des virtuellen Bildes erforderlich, vielmehr erfolgt stattdessen eine optimierte Nutzung des limitierten Bildbereiches. Die erfindungsgemäße Lösung lässt sich somit kostengünstig realisieren und erfordert keine Anpassung des für das Head-up-Display erforderlichen Bauraums.
Gemäß einem Aspekt der Erfindung erfolgt eine vertikale Verschiebung der Eyebox des Augmented-Reality-Head-up-Displays in Abhängigkeit von den darzustellenden Inhalten.
Das virtuelle Bild, das für die Darstellung im Head-up-Display gerendert wird, sollte stets um einen Puffer größer sein als das Bild, das das Head-up-Display darstellen kann. Nimmt man z.B. ein Head-up-Display mit einem vertikalen Sichtfeld von 4° und einem Puffer von jeweils 0,5° oberhalb und unterhalb der Bildgrenzen an, so sollte ein Bild für ein Sichtfeld von 5° gerendert werden. Über eine Verschiebung der vertikalen Position wird nun das Sichtfeld dynamisch um den Bereich des Puffers erweitert. Selbstverständlich kann alternativ oder zusätzlich auch eine horizontale Verschiebung der Eyebox realisiert werden, wenn rechts und links der Bildgrenzen ein Puffer vorgesehen wird.
Gemäß einem Aspekt der Erfindung wird die Position der Eyebox mittels einer Verstellung einer optischen Komponente des Augmented-Reality-Head-up-Displays angepasst. Bei vielen Head-up-Displays ist bereits vorgesehen, dass die Eyebox in der vertikalen
Ausrichtung durch eine Spiegelverstellung in der Optik des Head-up-Displays verschoben werden kann. Dies dient dazu, die Position der Eyebox an die Kopfposition des Betrachters anzupassen. Diese Einstellmöglichkeit kann nun auch genutzt werden, um die Position der Eyebox in Abhängigkeit von den darzustellenden Inhalten anzupassen. Es sind somit keine zusätzlichen Verstellmöglichkeiten erforderlich.
Gemäß einem Aspekt der Erfindung wird beim Analysieren der durch das Augmented- Reality-Head-up-Display darzustellenden Inhalte ein für die Anzeige gerendertes Bild ausgewertet. Insbesondere können dabei Farbwerte des Bildes ausgewertet werden. Für die situationsabhängige Verstellung der Eyebox kann eine dynamische Auswertung des gerenderten Bildes erfolgen. Für eine Darstellung im Head-up-Display wird grundsätzlich ein Bild mit schwarzem Hintergrund gerendert, weil schwarz im Head-up-Display als transparent erscheint. Daher kann eine automatische Überprüfung der Pufferbereiche hinsichtlich des Auftretens von Pixeln erfolgen, deren RGB-Farbwert nicht (0,0,0) entspricht. Wenn diese Überprüfung positiv ist, erfolgt eine Verschiebung der Eyebox. Die Eyebox wird nach oben verstellt, wenn im oberen Pufferbereich Inhalte dargestellt werden sollen, und nach unten, wenn im unteren Pufferbereich Inhalte dargestellt werden sollen. Selbstverständlich ist eine solche Farbauswertung auch für andere Farbräume realisierbar.
Gemäß einem Aspekt der Erfindung werden beim Analysieren der durch das Augmented- Reality-Head-up-Display darzustellenden Inhalte Eingangsdaten für ein Rendering eines Bildes für die Anzeige ausgewertet. Da die Verstellung der Eyebox in der Regel mechanisch erfolgt und somit mit einer hohen Latenz einhergeht ist es sinnvoll, die Überprüfung der darzustellenden Inhalte prädiktiv durchzuführen. Statt das bereits gerenderte Bild
auszuwerten, erfolgt die Auswertung in diesem Fall bereits vor dem Rendering auf Basis der Eingangsdaten.
Gemäß einem Aspekt der Erfindung erfolgt eine Priorisierung der darzustellenden Inhalte. Vorzugsweise wird sichergestellt, dass die Verstellung der Eyebox und des damit
einhergehenden Darstellungsbereichs des Head-up-Displays nicht dazu führt, dass andere anzuzeigende Inhalte nicht dargestellt werden können. Daher werden sinnvollerweise nicht nur die Pufferbereiche hinsichtlich darzustellender Inhalte überprüft, sondern auch der Darstellungsbereich. Die Eyebox sollte nur so weit verstellt werden, dass andere Inhalte des gerenderten Bildes nicht aus dem Darstellungsbereich fallen. Fall nicht alle darzustellenden Inhalte in den Darstellungsbereich passen, werden die darzustellenden Inhalte priorisiert. Auf diese Weise kann bestimmt werden, welche darzustellenden Inhalte abgeschnitten werden.
Gemäß einem Aspekt der Erfindung ist die Priorisierung von einer Fahrsituation abhängig oder von einem Nutzer des Augmented-Reality-Head-up-Displays beeinflussbar. Beispielsweise kann vorgesehen sein, dass bei einer Autobahnfahrt Navigationshinweise eine geringere Priorität haben als Hinweise auf Personen, während bei einer Stadtfahrt Navigationshinweise eine größere Priorität erhalten als Hinweise auf Personen. Dabei ist es sinnvoll, wenn zwischen Personen am Fahrbahnrand und Personen auf der Fahrbahn unterschieden wird, d.h. wichtige Warnhinweise für Gefahrensituationen sollten stets die höchste Priorität erhalten. Vorzugsweise kann der Nutzer des Head-up-Displays festlegen, welche virtuellen Inhalte priorisiert werden sollen, um so das Verhalten des Head-up- Displays an die eigenen Vorlieben anpassen zu können.
Besonders vorteilhaft wird ein erfindungsgemäßes Verfahren oder eine erfindungsgemäße Vorrichtung in einem Fahrzeug, insbesondere einem Kraftfahrzeug, eingesetzt.
Weitere Merkmale der vorliegenden Erfindung werden aus der nachfolgenden Beschreibung und den angehängten Ansprüchen in Verbindung mit den Figuren ersichtlich.
Fig. 1 zeigt eine Anfahrt an eine Kreuzung aus Fahrerperspektive bei großer
Entfernung zur Kreuzung;
Fig. 2 zeigt die Anfahrt an die Kreuzung aus Fahrerperspektive bei geringer Entfernung zur Kreuzung;
Fig. 3 zeigt schematisch ein Verfahren zur Steuerung einer Anzeige eines Augmented- Reality-Head-up-Displays für ein Kraftfahrzeug;
Fig. 4 zeigt eine erste Ausführungsform einer Vorrichtung zur Steuerung einer Anzeige eines Augmented-Reality-Head-up-Displays für ein Kraftfahrzeug;
Fig. 5 zeigt eine zweite Ausführungsform einer Vorrichtung zur Steuerung einer
Anzeige eines Augmented-Reality-Head-up-Displays;
Fig. 6 stellt schematisch ein Kraftfahrzeug dar, in dem eine erfindungsgemäße Lösung realisiert ist;
Fig. 7 zeigt schematisch einen allgemeinen Aufbau eines Augmented-Reality-Head-up- Displays für ein Kraftfahrzeug; Fig. 8 zeigt einen Darstellungsbereich eines Head-up-Displays und daran angrenzende Toleranzbereiche für verschiedenen Positionen der Eyebox;
Fig. 9 zeigt eine Abbiegesituation, die mittels einer Augmented-Reality-Darstellung verdeutlicht werden soll;
Fig. 10 zeigt eine Augmented-Reality-Darstellung einer Navigationsmarkierung ohne
Verschiebung der Eyebox; und
Fig. 11 zeigt eine Augmented-Reality-Darstellung der Navigationsmarkierung mit situativ verschobener Eyebox.
Zum besseren Verständnis der Prinzipien der vorliegenden Erfindung werden nachfolgend Ausführungsformen der Erfindung anhand der Figuren detaillierter erläutert. Es versteht sich, dass sich die Erfindung nicht auf diese Ausführungsformen beschränkt und dass die beschriebenen Merkmale auch kombiniert oder modifiziert werden können, ohne den Schutzbereich der Erfindung zu verlassen, wie er in den angehängten Ansprüchen definiert ist.
Fig. 1 zeigt eine Anfahrt an eine Kreuzung aus Fahrerperspektive bei großer Entfernung zur Kreuzung. Das Augmented-Reality-Head-up-Display stellt zum einen eine kontaktanaloge Navigationsmarkierung 60, hier in Form eines Fahrteppichs, und zum anderen eine kontaktanaloge Objektmarkierung 61 dar, hier in Form eines Rahmens um eine Person. Dargestellt sind zudem zwei verschiedene Sichtfelder 62, 62‘, ein großes Sichtfeld 62‘ entsprechend einem Winkelbereich von 20°c10° und ein kleines Sichtfeld 62 entsprechend einem Wnkelbereich von 10°c4°. Bei dieser Entfernung ist die Darstellung der virtuellen Inhalte problemlos für beide Größen der Sichtfelder 62, 62‘ möglich.
Fig. 2 zeigt die Anfahrt an die Kreuzung aus Fahrerperspektive bei geringer Entfernung zur Kreuzung. Bei dieser Entfernung sind die Darstellungen sowohl der kontaktanalogen
Navigationsmarkierung 60 als auch der kontaktanalogen Objektmarkierung 61 durch das kleine Sichtfeld 62 stark beschnitten. Die Navigationsmarkierung 60 ist kaum noch als solche erkennbar. Dieser Effekt reduziert den Mehrwert und das Nutzererlebnis eines Augmented Reality Head-up-Displays.
Fig. 3 zeigt schematisch ein Verfahren zur Steuerung einer Anzeige eines Augmented- Reality-Head-up-Displays für ein Kraftfahrzeug. In einem ersten Schritt 10 werden die durch das Augmented-Reality-Head-up-Display darzustellenden Inhalte analysiert. Beispielsweise kann ein für die Anzeige gerendertes Bild ausgewertet werden, insbesondere dessen Farbwerte. Alternativ können auch Eingangsdaten für ein Rendering eines Bildes für die Anzeige ausgewertet werden. Optional kann zudem eine Priorisierung der darzustellenden Inhalte erfolgen 11. Diese Priorisierung kann von einer Fahrsituation abhängig oder von einem Nutzer beeinflussbar sein. Im Anschluss wird eine Position einer Eyebox des Augmented-Reality-Head-up-Displays in Abhängigkeit von den darzustellenden Inhalten angepasst 12. Vorzugsweise erfolgt dabei zumindest eine vertikale Verschiebung der Eyebox. Die Position der Eyebox kann beispielsweise mittels einer Verstellung einer optischen Komponente des Augmented-Reality-Head-up-Displays angepasst werden 12.
Fig. 4 zeigt eine vereinfachte schematische Darstellung einer ersten Ausführungsform einer Vorrichtung 20 zur Steuerung einer Anzeige eines Augmented-Reality-Head-up-Displays für ein Kraftfahrzeug. Die Vorrichtung 20 hat einen Eingang 21 , über den beispielsweise Bilddaten einer Kamera 43, Daten eines Sensorsystems 44 oder Daten eines
Navigationssystems 45 empfangen werden können. Das Sensorsystem 44 kann
beispielsweise einen Laserscanner oder eine Stereokamera zum Detektieren von Objekten in einer Umgebung des Kraftfahrzeugs aufweisen. Die Vorrichtung 20 hat zudem eine Analyseeinheit 22, die die durch das Augmented-Reality-Head-up-Display darzustellenden Inhalte analysieren kann, insbesondere in Hinblick auf ihre Darstellbarkeit in einem
Darstellungsbereich des Augmented-Reality-Head-up-Displays. Beispielsweise kann die Analyseeinheit 22 eingerichtet sein, ein für die Anzeige gerendertes Bild auszuwerten, insbesondere dessen Farbwerte. Alternativ können auch Eingangsdaten für ein Rendering eines Bildes für die Anzeige ausgewertet werden. Die Analyseeinheit 22 kann zudem eine Priorisierung der darzustellenden Inhalte vornehmen. Diese Priorisierung kann von einer Fahrsituation abhängig oder von einem Nutzer beeinflussbar sein. Ein Steuerungsmodul 23 bewirkt schließlich ein Anpassen einer Position einer Eyebox des Augmented-Reality-Head- up-Displays in Abhängigkeit von den darzustellenden Inhalten. Vorzugsweise erfolgt dabei zumindest eine vertikale Verschiebung der Eyebox. Die Position der Eyebox kann beispielsweise mittels einer Verstellung einer optischen Komponente des Augmented- Reality-Head-up-Displays angepasst werden. Über einen Ausgang 26 der Vorrichtung 20 können Steuerungssignale des Steuerungsmoduls 23 ausgegeben werden, z.B. an ein Steuergerät 42 des Augmented-Reality-Head-up-Displays.
Die Analyseeinheit 22 und das Steuerungsmodul 23 können von einer Kontrolleinheit 24 gesteuert werden. Über eine Benutzerschnittstelle 27 können gegebenenfalls Einstellungen der Analyseeinheit 22, des Steuerungsmoduls 23 oder der Kontrolleinheit 24 geändert werden. Die in der Vorrichtung 20 anfallenden Daten können bei Bedarf in einem Speicher
25 der Vorrichtung 20 abgelegt werden, beispielsweise für eine spätere Auswertung oder für eine Nutzung durch die Komponenten der Vorrichtung 20. Die Analyseeinheit 22, das Steuerungsmodul 23 sowie die Kontrolleinheit 24 können als dedizierte Hardware realisiert sein, beispielsweise als integrierte Schaltungen. Natürlich können sie aber auch teilweise oder vollständig kombiniert oder als Software implementiert werden, die auf einem
geeigneten Prozessor läuft, beispielsweise auf einer GPU. Der Eingang 21 und der Ausgang
26 können als getrennte Schnittstellen oder als eine kombinierte bidirektionale Schnittstelle implementiert sein. Im beschriebenen Beispiel ist die Vorrichtung 20 eine eigenständige Komponente. Sie kann aber ebenso im Steuergerät 42 der Augmented-Reality-Head-up- Display-Vorrichtung integriert sein.
Fig. 5 zeigt eine vereinfachte schematische Darstellung einer zweiten Ausführungsform einer Vorrichtung 30 zur Steuerung einer Anzeige eines Augmented-Reality-Head-up-Displays für ein Kraftfahrzeug. Die Vorrichtung 30 weist einen Prozessor 32 und einen Speicher 31 auf. Beispielsweise handelt es sich bei der Vorrichtung 30 um einen Computer oder ein
Steuergerät. Im Speicher 31 sind Instruktionen abgelegt, die die Vorrichtung 30 bei
Ausführung durch den Prozessor 32 veranlassen, die Schritte gemäß einem der
beschriebenen Verfahren auszuführen. Die im Speicher 31 abgelegten Instruktionen verkörpern somit ein durch den Prozessor 32 ausführbares Programm, welches das erfindungsgemäße Verfahren realisiert. Die Vorrichtung 30 hat einen Eingang 33 zum Empfangen von Informationen, beispielsweise von Navigationsdaten oder Daten zu einer Umgebung des Kraftfahrzeugs. Vom Prozessor 32 generierte Daten werden über einen Ausgang 34 bereitgestellt. Darüber hinaus können sie im Speicher 31 abgelegt werden. Der Eingang 33 und der Ausgang 34 können zu einer bidirektionalen Schnittstelle
zusammengefasst sein.
Der Prozessor 32 kann eine oder mehrere Prozessoreinheiten umfassen, beispielsweise Mikroprozessoren, digitale Signalprozessoren oder Kombinationen daraus.
Die Speicher 25, 31 der beschriebenen Ausführungsformen können sowohl volatile als auch nichtvolatile Speicherbereiche aufweisen und unterschiedlichste Speichergeräte und
Speichermedien umfassen, beispielsweise Festplatten, optische Speichermedien oder Halbleiterspeicher.
Fig. 6 stellt schematisch ein Kraftfahrzeug 40 dar, in dem eine erfindungsgemäße Lösung realisiert ist. Das Kraftfahrzeug 40 weist ein Augmented-Reality-Head-up-Display 41 mit einem zugehörigen Steuergerät 42 auf. Weiterhin weist das Kraftfahrzeug 40 eine
Vorrichtung 20 zur Steuerung einer Anzeige des Augmented-Reality-Head-up-Displays 41 auf. Die Vorrichtung 20 kann natürlich auch in das Augmented-Reality-Head-up-Display 41 oder in das Steuergerät 42 des Augmented-Reality-Head-up-Displays 41 integriert sein. Weitere Komponenten des Kraftfahrzeugs 40 sind eine Kamera 43 und ein Sensorsystem 44 zur Erfassung von Objekten, ein Navigationssystem 45, eine Datenübertragungseinheit 46 sowie eine Reihe von Assistenzsystemen 47, von denen eines exemplarisch dargestellt ist. Mittels der Datenübertragungseinheit 46 kann eine Verbindung zu Dienstanbietern aufgebaut werden, beispielsweise zum Abrufen von Kartendaten. Zur Speicherung von Daten ist ein Speicher 48 vorhanden. Der Datenaustausch zwischen den verschiedenen Komponenten des Kraftfahrzeugs 40 erfolgt über ein Netzwerk 49.
Fig. 7 zeigt schematisch ein Augmented-Reality-Head-up-Display 41 für ein Kraftfahrzeug 40, mit dessen Hilfe Inhalte auf einer Projektionsfläche 53 des Kraftfahrzeugs 40 angezeigt werden können, beispielsweise auf der Frontscheibe oder auf einer zusätzlichen Scheibe aus Glas oder Kunststoff, die zwischen dem Fahrer und der Frontscheibe auf dem
Armaturenbrett angeordnet ist. Die dargestellten Inhalte werden durch eine bildgebende Einheit 50 erzeugt und mit Hilfe eines optischen Moduls 51 auf die Projektionsfläche 53 projiziert. Typischerweise erfolgt die Projektion dabei in einen Bereich der Frontscheibe oberhalb des Lenkrades. Mittels einer optischen Komponente 52 des optischen Moduls 51 kann die Position einer Eyebox des Augmented-Reality-Head-up-Displays 41 angepasst werden. Die bildgebende Einheit 50 kann beispielsweise ein LCD-TFT-Display sein. Das Augmented-Reality-Head-up-Display 41 ist in der Regel in einem Armaturenbrett des Kraftfahrzeugs 40 verbaut.
Nachfolgend soll eine bevorzugte Ausführungsform der Erfindung anhand der Figuren 8 bis 11 beschrieben werden.
Fig. 8 zeigt ein Sichtfeld 62 eines Head-up-Displays und daran angrenzende
Toleranzbereiche 63 für verschiedenen Positionen der Eyebox. Fig. 8a) illustriert eine mittlere Position der Eyebox, Fig. 8b) eine hohe Position und Fig. 8c) eine tiefe Position. Aufgrund der optischen Auslegung von Head-up-Displays ist das virtuelle Bild nur erkennbar, wenn sich die Augen des Betrachters innerhalb der Eyebox befinden. Durch eine Verstellung in der Optik des Head-up-Displays, z.B. durch eine Spiegelverstellung, kann diese Eyebox in der vertikalen Ausrichtung verschoben werden. Der verfügbare Verstellbereich wird durch den vertikalen Doppelpfeil und mit gepunkteten Linien dargestellte Rechteck angedeutet. Über die Verstellung in der Optik wird somit die vertikale Position des Sichtfeldes 62 definiert, d.h. der Look-Down-Angle (Blickwinkel nach unten, d.h. Winkel der Sichtachse relativ zur Straße) bezogen auf den Mittelpunkt der Eyebox. Ist die Eyebox zu hoch oder zu tief für den Fahrer eingestellt, so wird das Bild des Displays am oberen bzw. unteren Rand des Sichtfeldes 62 abgeschnitten. Bei einer korrekten Einstellung kann der Fahrer hingegen das Bild vollständig erkennen. Zudem ergeben sich oberhalb bzw. unterhalb des Sichtfeldes 62 Toleranzbereiche 63. In diesen Bereichen wäre das virtuelle Bild bei einer größeren vertikalen Ausdehnung des Sichtfeldes 62 ebenfalls erkennbar.
Fig. 9 zeigt eine Abbiegesituation, die mittels einer Augmented-Reality-Darstellung verdeutlicht werden soll. Dargestellt ist ein Fahrteppich, der einen Abbiegeverlauf widerspiegelt. Dabei handelt es sich nicht um eine tatsächliche Augmentierung durch ein Augmented-Reality-Head-up-Display, sondern lediglich um die Visualisierung eines
Fahrteppichs, der den Sichtbereich des Fahrers vollständig nutzt.
Fig. 10 zeigt eine Augmented-Reality-Darstellung einer Navigationsmarkierung 60 ohne Verschiebung der Eyebox. Mittels des Augmented-Reality-Head-up-Displays wird eine Augmentierung in Form einer Navigationsmarkierung 60 eingeblendet, die dem in Fig. 9 gezeigten Fahrteppich entspricht. Aufgrund der geringen Entfernung zur Kreuzung ist die Darstellung der kontaktanalogen Navigationsmarkierung 60 durch das Sichtfeld 62 stark beschnitten. Die Navigationsmarkierung 60 ist kaum noch als solche erkennbar.
Fig. 11 zeigt eine Augmented-Reality-Darstellung der Navigationsmarkierung 60 mit situativ verschobener Eyebox. Die Eyebox wurde in Anbetracht der darzustellenden
Navigationsmarkierung 60 nach unten verschoben, sodass nun ein deutlich größerer Teil des Fahrteppichs zu erkennen ist. Auch ohne eine größere vertikale Ausdehnung des Sichtfeldes 62 ist die Darstellung der Navigationsmarkierung 60 deutlich verbessert. Durch eine
Vergrößerung des Sichtfeldes 62 kann die Darstellung noch zusätzlich verbessert werden.
Bezugszeichenliste
Analysieren von darzustellenden Inhalten
Priorisieren der darzustellenden Inhalte
Anpassen einer Position einer Eyebox
Vorrichtung
Eingang
Analysemodul
Steuerungsmodul
Kontrolleinheit
Speicher
Ausgang
Benutzerschnittstelle
Vorrichtung
Speicher
Prozessor
Eingang
Ausgang
Kraftfahrzeug
Augmented-Reality-Head-up-Display
Steuergerät des Augmented-Reality-Head-up-Displays
Kamera
Sensorsystem
Navigationssystem
Datenübertragungseinheit
Assistenzsystem
Speicher
Netzwerk
Bildgebende Einheit
Optisches Modul
Optische Komponente
Projektionsfläche
Navigationsmarkierung
Objektmarkierung
, 62‘ Sichtfeld
Toleranzbereich

Claims

Patentansprüche
1. Verfahren zur Steuerung einer Anzeige eines Augmented-Reality-Head-up-Displays (41) für ein Kraftfahrzeug (40), mit den Schritten:
- Analysieren (10) von durch das Augmented-Reality-Head-up-Display (41)
darzustellenden Inhalten (60, 61); und
- Anpassen (12) einer Position einer Eyebox des Augmented-Reality-Head-up-Displays (41) in Abhängigkeit von den darzustellenden Inhalten (60, 61).
2. Verfahren gemäß Anspruch 1 , wobei eine vertikale Verschiebung der Eyebox des
Augmented-Reality-Head-up-Displays (41) in Abhängigkeit von den darzustellenden Inhalten (60, 61) erfolgt.
3. Verfahren gemäß Anspruch 1 oder 2, wobei die Position der Eyebox mittels einer
Verstellung einer optischen Komponente (52) des Augmented-Reality-Head-up- Displays (41) angepasst wird.
4. Verfahren gemäß einem der vorherigen Ansprüche, wobei beim Analysieren (10) der durch das Augmented-Reality-Head-up-Display (41) darzustellenden Inhalte (60, 61) ein für die Anzeige geändertes Bild ausgewertet wird.
5. Verfahren gemäß Anspruch 5, wobei Farbwerte des für die Anzeige geänderten Bildes ausgewertet werden.
6. Verfahren gemäß einem der Ansprüche 1 bis 3, wobei beim Analysieren (10) der durch das Augmented-Reality-Head-up-Display (41) darzustellenden Inhalte (60, 61)
Eingangsdaten für ein Rendering eines Bildes für die Anzeige ausgewertet werden.
7. Verfahren gemäß Anspruch 6, wobei eine Priorisierung der darzustellenden Inhalte (60, 61) erfolgt.
8. Verfahren gemäß Anspruch 7, wobei die Priorisierung von einer Fahrsituation abhängig ist oder von einem Nutzer des Augmented-Reality-Head-up-Displays (41) beeinflussbar ist.
9. Computerprogramm mit Instruktionen, die bei Ausführung durch einen Computer den Computer zur Ausführung der Schritte eines Verfahrens gemäß einem der Ansprüche 1 bis 8 zur Steuerung einer Anzeige eines Augmented-Reality-Head-up-Displays (41) für ein Kraftfahrzeug (40) veranlassen.
10. Vorrichtung (20) zur Steuerung einer Anzeige eines Augmented-Reality-Head-up- Displays (41) für ein Kraftfahrzeug (40), mit:
- einem Analysemodul (22) zum Analysieren (10) von durch das Augmented-Reality- Head-up-Display (41) darzustellenden Inhalten (60, 61); und
- einem Steuerungsmodul (23) zum Anpassen (12) einer Position einer Eyebox des Augmented-Reality-Head-up-Displays (41) in Abhängigkeit von den darzustellenden Inhalten (60, 61).
11. Kraftfahrzeug (40) mit einem Augmented-Reality-Head-up-Display (41), dadurch gekennzeichnet, dass das Kraftfahrzeug (40) eine Vorrichtung (20) gemäß Anspruch 10 aufweist oder eingerichtet ist, ein Verfahren gemäß einem der Ansprüche 1 bis 8 zur Steuerung einer Anzeige des Augmented-Reality-Head-up-Displays (41) auszuführen.
PCT/EP2020/063871 2019-06-13 2020-05-18 Steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug WO2020249367A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202080041285.7A CN113924518A (zh) 2019-06-13 2020-05-18 控制机动车的增强现实平视显示器装置的显示内容
US17/618,386 US20220348080A1 (en) 2019-06-13 2020-05-18 Control of a display of an augmented reality head-up display apparatus for a motor vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019208649.7A DE102019208649B3 (de) 2019-06-13 2019-06-13 Steuerung einer Anzeige einer Augmented-Reality-Head-up-Display-Vorrichtung für ein Kraftfahrzeug
DE102019208649.7 2019-06-13

Publications (1)

Publication Number Publication Date
WO2020249367A1 true WO2020249367A1 (de) 2020-12-17

Family

ID=68886505

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/063871 WO2020249367A1 (de) 2019-06-13 2020-05-18 Steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug

Country Status (4)

Country Link
US (1) US20220348080A1 (de)
CN (1) CN113924518A (de)
DE (1) DE102019208649B3 (de)
WO (1) WO2020249367A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240181980A1 (en) * 2021-08-12 2024-06-06 Shanghai Yanfeng Jinqiao Automotive Trim Systems Co. Ltd. System and method for use of a sensor matrix in a vehicle interior

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021103754A1 (de) 2021-02-17 2022-08-18 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Überprüfen einer Augmented Reality Anzeige auf einer Blickfeldanzeigevorrichtung
CN115107516A (zh) * 2022-07-07 2022-09-27 重庆长安汽车股份有限公司 抬头显示系统的显示方法、装置、车辆和存储介质
WO2024184391A1 (de) * 2023-03-09 2024-09-12 Saint-Gobain Glass France Projektionsanordnung

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120224062A1 (en) 2009-08-07 2012-09-06 Light Blue Optics Ltd Head up displays
US20130194110A1 (en) * 2012-02-01 2013-08-01 Electronics And Telecommunications Research Institute Automotive augmented reality head-up display apparatus and method
DE102015010373A1 (de) 2015-08-07 2017-02-09 Audi Ag Verfahren zum Anpassen einer Position eines virituellen Bildes eines Head-up-Displays eines Kraftfahrzeugs
WO2018070193A1 (ja) * 2016-10-13 2018-04-19 マクセル株式会社 ヘッドアップディスプレイ装置
WO2018126257A1 (en) * 2017-01-02 2018-07-05 Visteon Global Technologies, Inc. Automatic eye box adjustment
US20190025580A1 (en) * 2016-02-05 2019-01-24 Maxell, Ltd. Head-up display apparatus

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9754629B2 (en) * 2010-03-03 2017-09-05 Koninklijke Philips N.V. Methods and apparatuses for processing or defining luminance/color regimes
JP2016509767A (ja) * 2012-12-21 2016-03-31 ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー 車両用システム及び通信方法
US20150310287A1 (en) * 2014-04-28 2015-10-29 Ford Global Technologies, Llc Gaze detection and workload estimation for customized content display
CN105974583B (zh) * 2015-03-11 2019-06-18 现代摩比斯株式会社 用于车辆的抬头显示器及其控制方法
CN106483659A (zh) * 2015-08-24 2017-03-08 福特全球技术公司 用于观察具有抬头显示器的车辆的驾驶员的眼睛的方法
US10338396B2 (en) * 2016-04-27 2019-07-02 Jabil Optics Germany GmbH Optical system and a method for operating an HUD
US20170371165A1 (en) * 2016-06-22 2017-12-28 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Head up display with stabilized vertical alignment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120224062A1 (en) 2009-08-07 2012-09-06 Light Blue Optics Ltd Head up displays
US20130194110A1 (en) * 2012-02-01 2013-08-01 Electronics And Telecommunications Research Institute Automotive augmented reality head-up display apparatus and method
DE102015010373A1 (de) 2015-08-07 2017-02-09 Audi Ag Verfahren zum Anpassen einer Position eines virituellen Bildes eines Head-up-Displays eines Kraftfahrzeugs
US20190025580A1 (en) * 2016-02-05 2019-01-24 Maxell, Ltd. Head-up display apparatus
WO2018070193A1 (ja) * 2016-10-13 2018-04-19 マクセル株式会社 ヘッドアップディスプレイ装置
WO2018126257A1 (en) * 2017-01-02 2018-07-05 Visteon Global Technologies, Inc. Automatic eye box adjustment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CLAUDIO PINHANEZ: "Using a steerable projector and a camera to transform surfaces into interactive displays", PROC. OF 2001 CONFERENCE ON HUMAN FACTORS IN COMPUTING SYSTEMS, ACM, 2 PENN PLAZA, SUITE 701 NEW YORK NY 10121-0701 USA, 31 March 2001 (2001-03-31), pages 369 - 370, XP058179615, ISBN: 978-1-58113-340-0, DOI: 10.1145/634067.634285 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240181980A1 (en) * 2021-08-12 2024-06-06 Shanghai Yanfeng Jinqiao Automotive Trim Systems Co. Ltd. System and method for use of a sensor matrix in a vehicle interior

Also Published As

Publication number Publication date
DE102019208649B3 (de) 2020-01-02
US20220348080A1 (en) 2022-11-03
CN113924518A (zh) 2022-01-11

Similar Documents

Publication Publication Date Title
EP3765324B1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-display-vorrichtung für ein kraftfahrzeug
DE112018001655B4 (de) Anzeigevorrichtung und sich bewegender Körper mit der Anzeigevorrichtung
DE102017216774B4 (de) Verfahren, Vorrichtung, computerlesbares Speichermedium und Kraftfahrzeug mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-up-Display-Vorrichtung für ein Kraftfahrzeug
WO2020249367A1 (de) Steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug
EP3620842B1 (de) Konzept zum einstellen eines head-up-displays in einem kraftfahrzeug
DE112015002228B4 (de) Anzeigevorrichtung
DE112019001736T5 (de) Bildanzeigesystem, bildanzeigeverfahren, programm und fahrzeug einschliesslich des bildanzeigesystems
DE112019000329B4 (de) Anzeigesystem, bewegliches objekt und gestaltungsverfahren
EP3834031B1 (de) Verfahren zum betreiben einer blickfeldanzeigevorrichtung für ein kraftfahrzeug
EP3807705A1 (de) Head-up-display für ein fahrzeug
WO2018114078A1 (de) Head-up-display-vorrichtung für ein kraftfahrzeug, verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer head-up-display-vorrichtung
DE102019005891B4 (de) Projektionsvorrichtung als projektierendes Anzeigesystem mit variabler Projektionstiefe, Verfahren und Kraftfahrzeug mit einer derartigen Projektionsvorrichtung
EP3983252A1 (de) Generieren einer anzeige eines augmented-reality-head-up-displays für ein kraftfahrzeug
EP3749541B1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug
EP3296795B1 (de) Verfahren zur darstellung eines bildobjekts in einem fahrzeug auf einer fahrzeugintern und einer fahrzeugextern wahrgenommenen anzeige
EP3967537B1 (de) Verfahren zur darstellung eines virtuellen elements
DE112021002765T5 (de) Auf einer Konvexlinse/Konkavlinse basierende durchsichtige virtuelle Anzeigevorrichtung einer toten Zone direkt vor einem Fahrzeug und zugehöriges Verfahren
DE102018206021B4 (de) Head-up-Displayvorrichtung für Fahrzeuge und Verfahren zum Steuern derselben
DE102018200312B4 (de) Verfahren, Vorrichtung und Computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-Up-Display-Vorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug mit einer solchen Vorrichtung
WO2023093952A1 (de) Verfahren, computerprogramm und vorrichtung zum steuern einer augmented-reality-anzeigevorrichtung
DE102017215023B4 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Bereitstellen von Informationen zur Steuerung einer Anzeige einer Head-Up-Display-Vorrichtung für ein Kraftfahrzeug, sowie zugehöriges System zur Steuerung und Kraftfahrzeug damit
DE102015005363A1 (de) Verfahren und Vorrichtung zur augmentierten Darstellung sowie Fahrzeug
WO2025016509A1 (de) Head-up-display für ein fortbewegungsmittel
DE102018126329A1 (de) Verfahren zum Ausrichten eines virtuellen Bildelements und Head-up-Display zum Abbilden eines virtuellen Bildelements

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20727236

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 20727236

Country of ref document: EP

Kind code of ref document: A1