WO2019233687A1 - Konzept zum bereitstellen von korrekturwerten für die anzeige von augmented-reality-inhalten auf einem head-up-display für ein kraftfahrzeug - Google Patents

Konzept zum bereitstellen von korrekturwerten für die anzeige von augmented-reality-inhalten auf einem head-up-display für ein kraftfahrzeug Download PDF

Info

Publication number
WO2019233687A1
WO2019233687A1 PCT/EP2019/061589 EP2019061589W WO2019233687A1 WO 2019233687 A1 WO2019233687 A1 WO 2019233687A1 EP 2019061589 W EP2019061589 W EP 2019061589W WO 2019233687 A1 WO2019233687 A1 WO 2019233687A1
Authority
WO
WIPO (PCT)
Prior art keywords
motor vehicle
display
correction values
head
vehicle
Prior art date
Application number
PCT/EP2019/061589
Other languages
English (en)
French (fr)
Inventor
Malte Lutz
Original Assignee
Volkswagen Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen Aktiengesellschaft filed Critical Volkswagen Aktiengesellschaft
Publication of WO2019233687A1 publication Critical patent/WO2019233687A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/23
    • B60K35/28
    • B60K35/29
    • B60K35/81
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • B60K2360/177
    • B60K2360/178
    • B60K2360/191
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/12Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to parameters of the vehicle itself, e.g. tyre models
    • B60W40/13Load or weight
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0183Adaptation to parameters characterising the motion of the vehicle
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B2027/0192Supplementary details
    • G02B2027/0198System for aligning or maintaining alignment of an image in a predetermined direction

Definitions

  • the present invention relates to a method, a device and a
  • Computer program with instructions for providing correction values for the display of augmented reality content on a head-up display for a motor vehicle The invention further relates to a motor vehicle in which a method according to the invention or a device according to the invention is used.
  • Augmented Reality is the enrichment of the real world by virtue of virtual elements that are registered in three-dimensional space with the correct location and allow real-time interaction. Since the term “augmented reality” has prevailed in the German-speaking world compared with the term "augmented reality”, the former is used in the following.
  • HUD head-up display
  • the front screen whose curved shape must be taken into account in the illustration, often serves as the projection surface.
  • an additional disc made of glass or plastic is used in part, which is arranged between the driver and the windshield on the dashboard. Due to the optical overlay of the display and the driving scene, fewer head and eye movements are required to read the information. In addition, the adaptation effort for the eyes is reduced since, depending on the virtual distance of the display, less, if at all, does not have to be accommodated.
  • Current serial HUDs are limited to displays just below the driver's primary field of view and contain redundant information, such as the speed gauge, which can also be found elsewhere in the cockpit.
  • DE 10 2014 21 1 803 A1 discloses an augmented reality system for a motor vehicle.
  • the augmented reality system includes a display for displaying variable information and a sighting tracking system for
  • the augmented reality system also has a display control that controls the display in such a way that the display for the occupant indicates an obstacle in front of a road closed to entry, and / or that the display is an object outside the motor vehicle or . in the vicinity of the motor vehicle through a plausible background blended.
  • Augmented Reality offers a wide range of possible applications to support the driver by contact-analogous marking of lanes and objects.
  • Relatively obvious examples mostly relate to the field of navigation.
  • a wide variety of data is captured by environmental sensors. The aim of current developments is to meaningfully integrate these data into augmented reality representations.
  • DE102016213687A1 describes a method for controlling a display device for a motor vehicle comprising a head-up display by means of a control device. In the method, depending on one of
  • Control means provided by a sensor device changes a representation of an information displayed by means of the head-up display.
  • the signal correlates with a color and / or a brightness of a projection background and / or with a relative movement between the projection background and a projection surface.
  • a specific height adjustment and / or rotation of the representation of the information is made by the control device automatically in dependence on the signal.
  • a method for providing correction values for the display of augmented reality content on a head-up display for a motor vehicle comprises the steps:
  • a computer program includes instructions that, when executed by a computer, cause the computer to perform the following steps to provide augmented reality content display correction values on a motor vehicle head-up display:
  • the computer program may be provided for electronic retrieval or stored on a computer readable storage medium.
  • an apparatus for providing correction values for the display of augmented reality content on a head-up display for a motor vehicle comprises:
  • a trajectory unit for determining a trajectory of the motor vehicle
  • a calculation unit for calculating correction values for stabilizing the display of the augmented reality contents on the basis of the lane information and the trajectory;
  • the roadway profile located in front of the vehicle is first detected for this purpose.
  • the trajectory traveled by the vehicle on the preceding roadway profile data is calculated. Based on this information, the expected movements of the vehicle body are determined and the corrected correction values are calculated.
  • sensors located in the vehicle are, in particular, head movements of the driver.
  • time-correct position and angle data can be used for image generation.
  • the image generation is based on the determined variables for compensating the vehicle body movement and on the other input variables available in the vehicle.
  • Solution according to the invention is thus the permanent location and time correct display of
  • Augmented reality content in the head-up display allows.
  • the correction values describe horizontal and vertical movements of the motor vehicle. Investigations have shown that these have the greatest influence on typical display distances. A restriction to these movements reduces the amount required to calculate the correction values
  • the trajectory is determined on the basis of control specifications of a driver of the motor vehicle.
  • the basis for the determination of the trajectory are the control specifications of the driver, such as the steering angle, the steering torque or the speed, and possibly the corresponding adjusting vehicle reaction, which can also be detected by sensors in the vehicle.
  • the wheel speed or the yaw rate can be detected.
  • the measured variables of the vehicle reaction are not absolutely necessary, a description of the trajectory also succeeds only based on the driver's specified drive.
  • the driver can
  • Position-determining methods such as GPS and differential GPS.
  • the roadway information is determined from data of at least one sensor of the motor vehicle or from map data.
  • mono cameras, stereo cameras, lidar sensors, radar sensors, laser scanners, ultrasonic sensors or sensors for detecting the height values of a chassis are used.
  • the roadway profile detection by highly accurate
  • Map data or cloud-based information about the lane profile Necessary for the application of the proposed method is the knowledge of the height profile of the roadway. These map data are also generated by the above-mentioned road surface description methods or already exist.
  • Movements of the motor vehicle calculated on the basis of a vehicle dynamics model for the motor vehicle.
  • the vehicle dynamics model is for example a one-track model
  • Two-track model Two-track model, a half-vehicle model, a full-vehicle model or a combination of these models.
  • the downstream vehicle dynamics model uses the recorded or determined
  • Lane profile data the current position of the vehicle, the prediction of the trajectory traveled by the vehicle, the driver's control input and possibly further vehicle-specific data.
  • weight the weight that
  • the vehicle dynamics model also takes into account design data of the vehicle, e.g. Spring and damper characteristics of the chassis and properties of another
  • Chassis components Here is the so-called bump stop of the damper and called by an oblique installation of spring and damper "translation”.
  • a learning system is also conceivable which can provide input variables for the calculation of correction values by evaluating past data.
  • Loading condition of the motor vehicle is taken into account. Since the loading state also has an influence on the vehicle body movement, it makes sense to record this as an input parameter. For example, the loading state can be determined on the basis of the number of passengers and the load of the trunk.
  • a method according to the invention or a device according to the invention in a vehicle, in particular a motor vehicle.
  • the described concept can be used both for head-up displays integrated in the motor vehicle and for augmented reality displays generated by means of data glasses.
  • FIG. 1 schematically shows a method for providing correction values for the
  • Fig. 2 shows a first embodiment of a device for providing
  • Fig. 3 shows a second embodiment of a device for providing
  • Fig. 4 schematically illustrates a motor vehicle in which a solution according to the invention is realized
  • Fig. 5 shows schematically the general structure of a head-up display for a
  • FIG. 6 shows an example of an augmented reality representation of a head-up display
  • FIG. 7 shows an example of an augmented reality representation of a head-up display with incorrectly positioned virtual elements
  • Fig. 9 illustrates the translational and rotational degrees of freedom in the
  • Fig. 10 illustrates a height profile for an obstacle and a wavy tarred road as
  • Fig. 1 1 illustrates a height profile for a wavy paved road as a basis for a
  • FIG. 12 shows a comparison of measurement data and simulation data of the pitch angle
  • FIG. 13 shows a comparison of measured data and simulation data of the pitch angle
  • FIG. 14 shows a comparison of measured data and simulation data of the pitch angle
  • FIG. 15 shows a comparison of measurement data and simulation data of the roll angle
  • FIG. 16 shows a comparison of measured data and simulation data of the pitch angle
  • FIG. 17 shows a comparison of measured data and simulation data of the roll angle
  • Fig. 1 shows schematically a method for providing correction values for the display of augmented reality content on a head-up display for a motor vehicle.
  • the correction values describe horizontal and vertical movements of the motor vehicle.
  • lane information is received 10, representing the unevenness of the road ahead of the motor vehicle.
  • Roadway information can be determined, for example, from data from at least one sensor of the motor vehicle or from map data. Examples of suitable sensors are cameras, lidar sensors, radar sensors, laser scanners, ultrasound sensors, etc. In addition, a trajectory of the motor vehicle is determined 11, e.g. based on
  • Roadway information and the trajectory correction values are calculated for stabilizing the display of the augmented reality content 12.
  • movements of the motor vehicle are calculated on the basis of a driving dynamics model for the motor vehicle. In this case, a loading state of the motor vehicle can be taken into account.
  • Vehicle dynamics model may e.g. a one-track model, a two-track model, a
  • Semi-vehicle model a whole-vehicle model or a combination of these models.
  • the correction values are finally used for a control unit of the head-up display
  • FIG. 2 shows a simplified schematic representation of a first embodiment of a device 20 for providing correction values for the display of augmented reality content on a head-up display for a motor vehicle.
  • the correction values may be e.g. Describe horizontal and vertical movements of the motor vehicle.
  • the device 20 has an entrance 21, via which roadway information FS, FK can be received, which represent unevenness of the road ahead of the motor vehicle.
  • Roadway information FS, FK can be determined, for example, from data from at least one sensor of the motor vehicle or from map data. Examples of suitable sensors are cameras, lidar sensors, radar sensors, laser scanners, ultrasonic sensors, etc.
  • the device 20 also has a trajectory unit 22 for determining a trajectory of the motor vehicle, for example based on control specifications of a driver of the vehicle Motor vehicle.
  • a computing unit 23 calculates correction values KW for stabilizing the display of the augmented reality contents on the basis of the roadway information FS, FK and the trajectory.
  • the arithmetic unit 23 calculates movements of the motor vehicle on the basis of a vehicle dynamics model for the motor vehicle. In this case, the arithmetic unit 23 can take into account a loading state of the motor vehicle.
  • the vehicle dynamics model can, for example, a single-track model, a two-track model, a half-vehicle model, a
  • the correction values KW are provided for a control unit 42 of the head-up display.
  • the controller 42 may then display the head-up display
  • the trajectory unit 22 and the arithmetic unit 23 can be controlled by a control unit 24. If necessary, settings of the trajectory unit 22, the arithmetic unit 23 or the control unit 24 can be changed via a user interface 27. If required, the data accumulating in the device 20 can be stored in a memory 25 of the device 20, for example for later evaluation or for use by the components of the device 20.
  • the object unit 22, the arithmetic unit 23 and the control unit 24 can be used as be implemented dedicated hardware, for example as integrated circuits. Of course, they may also be partially or fully combined or implemented as software running on a suitable processor, such as a GPU.
  • the input 21 and the output 26 may be as separate interfaces or as a combined bidirectional interface
  • the device 20 is shown as a separate component. However, it can also be integrated into other components of the motor vehicle, for example in the control unit 42 of the head-up display.
  • FIG. 3 shows a simplified schematic representation of a second embodiment of a device 30 for providing correction values for the display of augmented reality content on a head-up display for a motor vehicle.
  • the device 30 has a processor 32 and a memory 31.
  • device 30 is a computer or controller.
  • the memory 31 stores instructions which, when executed by the processor 32, cause the device 30 to execute the steps according to one of the described methods.
  • the instructions stored in the memory 31 thus embody an executable by the processor 32
  • the device 30 has an input 33 for receiving information, such as sensor data. Data generated by the processor 32 is provided via an output 34. Furthermore they can be stored in the memory 31. The input 33 and the output 34 can be combined to form a bidirectional interface.
  • the processor 32 may include one or more processing units, such as microprocessors, digital signal processors, or combinations thereof.
  • the memories 25, 31 of the described embodiments can have both volatile and non-volatile memory areas and a wide variety of memory devices and
  • Storage media include, for example, hard disks, optical storage media or semiconductor memory.
  • Fig. 4 schematically illustrates a motor vehicle 40 in which a solution according to the invention is realized.
  • the motor vehicle 40 has a head-up display 41 with an associated control unit 42. Furthermore, the motor vehicle 40 has a camera 43, further
  • Device 20 may be integrated, for example, in the control unit 42 of the head-up display 41. Further components of the motor vehicle 40 are a navigation system 45, a data transmission unit 46 and a number of assistance systems 47, one of which is shown by way of example. By means of the data transmission unit 46, a connection to service providers can be established. For storage of data, a memory 48 is present. The data exchange between the different components of the motor vehicle 40
  • Motor vehicle 40 takes place via a network 49.
  • Fig. 5 shows schematically a head-up display 41 for a motor vehicle 40, with the aid of which contents can be displayed on a projection surface 52 of the motor vehicle 40, for example on the windshield or on an additional glass or plastic disc between the driver and the windscreen is located on the dashboard.
  • the displayed contents are generated by an imaging unit 50 and projected on the projection surface 52 by means of an optical module 51.
  • the projection takes place in an area of the windshield above the steering wheel.
  • the imaging unit 50 may be, for example, an LCD TFT display.
  • the head-up display 41 is usually installed in a dashboard of the motor vehicle 40.
  • FIG. 6 shows an example of an augmented reality representation of a head-up display.
  • the actual environment is superimposed on two augmented reality contents 60, ie virtual elements in contact-analog representation.
  • these are a navigation path and a warning to a pedestrian crossing the roadway.
  • the warning is designed so that the pedestrian is surrounded by dots / circles in a warning color.
  • the navigation path is designed as a navigation carpet, which is located on the road and opens into a street in which to turn.
  • a distance is displayed for an upcoming navigation maneuver, which in this example is not displayed contact-analogous.
  • the illustrated elements are based on information collected from vehicle sensors or determined from map data. For the concrete design of the presentation a variety of design options are available to the skilled person.
  • FIG. 7 shows the augmented reality representation from FIG. 6 with incorrectly positioned virtual elements.
  • the actual environment as before, is overlaid with two augmented reality contents 60, i. a navigation path and a warning.
  • the pedestrian is no longer enclosed by the points / circles, but at least partially hidden by them.
  • the navigation path is no longer on the road, but seems to float above the roadway. Therefore, it no longer unquestionably flows into the desired road, so that the mediated navigation instruction is not clear to the driver.
  • the spatial and temporal discrepancies between the augmented reality content 60 and the real objects or the real environment have a noticeably negative effect on the impression of the superposition and correspondingly also on the functionality of the system.
  • Fig. 8 shows a schematic system design of the solution according to the invention.
  • a detection 70 of the roadway profile located in front of the vehicle takes place.
  • the lane profile detection 70 may be implemented using highly accurate map data KD.
  • Important is the knowledge of the height profile of the roadway.
  • the resulting roadway information FS from the sensor data SD and the roadway information FK from the map data KD are provided for further processing.
  • a prediction 71 of the vehicle trajectory TR takes place.
  • the aid of measured variables present in the vehicle e.g. in terms of
  • the downstream driving dynamics model 72 uses the known roadway information FS, FK, the prediction of the
  • Vehicle trajectory TR the control specifications SV of the driver and possibly further vehicle-specific data, eg with regard to weight distribution, Wheelbase, mass moment of inertia, etc.
  • Some parameters of the vehicle dynamics model are not adopted according to the real components, in particular with regard to simplifications in the model, which serve to shorten the computing time. So that the correction values or output variables calculated by the correspondingly simplified model continue to correspond to the measurement data used as a reference, the corresponding parameters are optimized by classical control engineering methods. This is usually done offline, so once at the first startup of the system. Optionally, however, it is possible to record 74 rather easily variable vehicle parameters FP. These can then also online, ie during operation, optimized or
  • the mathematical relationships depicted in the driving dynamics model 72 describe all translational and rotational degrees of freedom of the vehicle body. These time-correct position and angle data are made available in the form of correction values KW of an image generation 73 and accordingly enable the constant, locally and temporally correct display of augmented reality content in the head-up display.
  • Fig. 9 illustrates the translational and rotational degrees of freedom in the
  • the rotatory degrees of freedom include rolling about the longitudinal axis (K), pitching about the transverse axis ( ⁇ ) and yawing about the vertical axis (y).
  • FIG. 10 illustrates a height profile for an obstacle as a basis for a comparison of the model-based simulation of the vehicle body movement with measured data.
  • Simulation is assumed here a constant speed and a constant steering angle.
  • Fig. 1 1 illustrates a height profile for a wavy paved road as a basis for a
  • FIG. 12 shows a comparison of measured data and simulation data of the pitch angle ⁇ based on a half-vehicle model for the obstacle from FIG. 10.
  • the vertical line marks the beginning of the obstacle.
  • the half-vehicle model describes a
  • FIG. 13 shows a comparison of measured data and simulation data of the pitch angle ⁇ on the basis of a half-vehicle model for the wavy tar road from FIG. 11.
  • the vertical line marks the beginning of the wavy tar road and thus the beginning of the simulation.
  • the tire properties were neglected and adopted a linear spring and damper behavior. As you can see from the data, a fairly large amplitude error occurs. In addition, a decreasing phase fidelity is observed.
  • a simulation by the half-vehicle model should preferably be used only with a simple road geometry, since it does not do justice to a complex road geometry.
  • FIG. 14 shows a comparison of measured data and simulation data of the pitch angle ⁇ on the basis of a complete vehicle model for the obstacle from FIG. 10. In the case of the whole vehicle model, compared with the half-vehicle model, two more are added
  • Wheel suspensions introduced the track width of the vehicle.
  • the model considers a build-up mass approximated by a two-dimensional plate and four tires interconnected by spring-damper elements.
  • the model allows a vertical dynamic description of center of gravity stroke z, pitch angle ⁇ and roll angle K.
  • the tire properties were neglected.
  • a linear spring behavior and a non-linear damper behavior were shown.
  • Damper behavior was represented by a characteristic curve.
  • a translation of spring and damper was implemented in the model and the damper was implemented
  • Bump buffer extended. We considered a synchronous and asynchronous excitation on a plane surface. As you can see from the data, the amplitude errors and the Phase error reduced. However, the decay is faulty, which is probably caused by an active suspension.
  • FIG. 15 shows a comparison of measurement data and simulation data of the roll angle k on the basis of a complete vehicle model for the obstacle from FIG. 10. We were to expect the roll angle k for the idealized obstacle crossing can not be represented.
  • FIG. 16 shows a comparison of measured data and simulation data of the pitch angle ⁇ on the basis of a whole vehicle model for the wavy tar road from FIG. 1. As can be seen from the data, the amplitude errors are significantly reduced. In addition, the phase errors are corrected.
  • FIG. 17 shows a comparison of measured data and simulation data of the roll angle k based on a whole vehicle model for the wavy tarred road from FIG. 1. Although the amplitude errors are amplified by steering movements, the phase is now correct.

Abstract

Ein Verfahren, eine Vorrichtung und ein Computerprogramm mit Instruktionen zum Bereitstellen von Korrekturwerten für die Anzeige von Augmented-Reality-Inhalten auf einem Head-up-Display für ein Kraftfahrzeug. In einem ersten Schritt werden Fahrbahninformationen empfangen (10), die Unebenheiten der Fahrbahn vor dem Kraftfahrzeug repräsentieren. Zudem wird eine Trajektorie des Kraftfahrzeugs ermittelt (11). Auf Basis der Fahrbahninformationen und der Trajektorie werden Korrekturwerte für eine Stabilisierung der Anzeige der Augmented-Reality-Inhalte berechnet (12). Die Korrekturwerte werden schließlich für ein Steuergerät des Head-up-Displays bereitgestellt (13).

Description

Beschreibung
Konzept zum Bereitstellen von Korrekturwerten für die Anzeige von Augmented-Reality- Inhalten auf einem Head-up-Display für ein Kraftfahrzeug
Die vorliegende Erfindung betrifft ein Verfahren, eine Vorrichtung und ein
Computerprogramm mit Instruktionen zum Bereitstellen von Korrekturwerten für die Anzeige von Augmented-Reality-Inhalten auf einem Head-up-Display für ein Kraftfahrzeug. Die Erfindung betrifft weiterhin ein Kraftfahrzeug, in dem ein erfindungsgemäßes Verfahren oder eine erfindungsgemäße Vorrichtung eingesetzt wird.
Mit der stetigen Weiterentwicklung von Virtual & Augmented Reality-Technologien und - Anwendungen finden diese auch Einzug in das Automobil. Bei Augmented Reality (AR), auf Deutsch„erweiterte Realität“, handelt es sich um die Anreicherung der realen Welt durch virtuelle Elemente, die im dreidimensionalen Raum ortskorrekt registriert sind und eine Echtzeitinteraktion erlauben. Da sich in der Fachwelt im deutschsprachigen Raum der Ausdruck„Augmented Reality“ gegenüber dem Ausdruck„erweiterte Realität“ durchgesetzt hat, wird im Folgenden ersterer benutzt.
Eine mögliche technische Realisierung, um den Fahrerarbeitsplatz entsprechend mit perspektivisch korrekten virtuellen Erweiterungen anzureichern, bietet das Head-up-Display (HUD). Dabei werden die Lichtstrahlen eines im Armaturenbrett verbauten Displays über mehrere Spiegel und Linsen gefaltet und über eine Projektionsfläche in das Auge des Fahrers gespiegelt, sodass dieser ein virtuelles Bild außerhalb des Fahrzeugs wahrnimmt.
Als Projektionsfläche dient im Automobilbereich oftmals die Frontscheibe, deren gekrümmte Form bei der Darstellung berücksichtigt werden muss. Als Alternative wird zum Teil auch eine zusätzliche Scheibe aus Glas oder Kunststoff genutzt, die zwischen dem Fahrer und der Frontscheibe auf dem Armaturenbrett angeordnet ist. Durch die optische Überlagerung von Anzeige und Fahrszene sind weniger Kopf- und Augenbewegungen zum Ablesen der Informationen notwendig. Zudem verringert sich der Adaptationsaufwand für die Augen, da abhängig von der virtuellen Distanz der Anzeige weniger bis gar nicht akkommodiert werden muss. Aktuelle Serien-HUDs beschränken sich jedoch auf Anzeigen direkt unter dem primären Sichtbereich des Fahrers und enthalten redundante Informationen, wie z.B. die Geschwindigkeitsanzeige, die auch an anderer Stelle im Cockpit wiederzufinden sind. Diese Anzeigetechnologie reduziert zwar Blickabwendungen von der Straße, hat aber weiterhin den Nachteil, dass die präsentierten Informationen interpretiert und auf die reale Situation übertragen werden müssen, da sie nicht in der realen Szene registriert sind. Dies kann in komplexen Situationen einen mental beanspruchenden kognitiven Prozess darstellen. Durch Markieren von Objekten und Einblenden von Informationen an ihrem realen Bezugsort, d.h. durch eine kontaktanaloge Darstellung, lassen sich umweltbezogene Informationen im Sichtfeld des Fahrers direkt darstellen. Diese direkte grafische Anreicherung der Umwelt in Form von Augmented Reality kann die kognitiven Transferanforderungen erheblich reduzieren.
In diesem Zusammenhang offenbart die DE 10 2014 21 1 803 A1 ein Augmented-Reality- System für ein Kraftfahrzeug. Das Augmented-Reality-System umfasst ein Display zur Darstellung veränderliche Informationen und ein Blickrichtungs-Trackingsystem zur
Bestimmung der Blickrichtung oder Kopfausrichtung eines Insassen des Kraftfahrzeuges. Das Augmented-Reality-System weist zudem eine Anzeigesteuerung auf, die das Display derart ansteuert, dass das Display für den Insassen ein Hindernis vor einer für die Einfahrt gesperrten Straße anzeigt bzw. darstellt, und/oder dass das Display ein Objekt außerhalb des Kraftfahrzeugs bzw. in der Umgebung des Kraftfahrzeugs durch einen plausiblen Hintergrund überblendet.
Augmented Reality bietet vielfältige Anwendungsmöglichkeiten zur Unterstützung des Fahrers durch kontaktanaloge Markierung von Fahrbahnen und Objekten. Relativ naheliegende Beispiele beziehen sich meist auf den Bereich der Navigation. Während klassische Navigationsanzeigen in herkömmlichen HUDs in der Regel schematische Darstellungen anzeigen, z.B. einen rechtwinklig verlaufenden Pfeil nach rechts als Zeichen dafür, dass bei nächster Gelegenheit rechts abgebogen werden soll, bieten AR-Anzeigen wesentlich effektivere Möglichkeiten. Da die Anzeigen als„Teil der Umwelt“ dargestellt werden können, sind äußerst schnelle und intuitive Interpretationen durch den Nutzer möglich. In modernen Kraftfahrzeugen werden vielfältige Daten durch Umfeldsensoren erfasst. Ziel aktueller Entwicklungen ist es, diese Daten sinnvoll in Augmented-Reality- Darstellungen zu integrieren.
Räumliche und zeitliche Diskrepanzen zwischen virtuellen Anzeigen und realen Objekten wirken sich negativ auf den Eindruck der Überlagerung und entsprechend auf die
Funktionalität des Systems aus. Eine Registrierung der virtuellen Informationen im realen Sichtfeld des Fahrers im Sinne von Augmented Reality stellt allerdings sehr hohe
Anforderungen an die technische Umsetzung. Um virtuelle Inhalte ortsgenau und perspektivisch korrekt in der Realität darstellen zu können ist sehr detailliertes Wissen über die Umgebung und Eigenbewegung des Fahrzeugs notwendig. Vor diesem Hintergrund beschreibt die DE102016213687A1 ein Verfahren zum Steuern einer ein Head-up-Display umfassenden Anzeigevorrichtung für ein Kraftfahrzeug mittels einer Steuereinrichtung. Bei dem Verfahren wird in Abhängigkeit von einem der
Steuereinrichtung von einer Sensoreinrichtung bereitgestellten Signal eine Darstellung einer mittels des Head-up-Displays dargestellten Information verändert. Dabei korreliert das Signal mit einer Farbe und/oder einer Helligkeit eines Projektionshintergrunds und/oder mit einer Relativbewegung zwischen dem Projektionshintergrund und einer Projektionsfläche. Als Veränderung wird durch die Steuereinrichtung selbsttätig eine in Abhängigkeit von dem Signal bestimmte Höhenverstellung und/oder Drehung der Darstellung der Information vorgenommen.
Es ist eine Aufgabe der Erfindung, ein Konzept zur Verbesserung von Augmented-Reality- Darstellungen in einem Kraftfahrzeug aufzuzeigen.
Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 , durch ein Computerprogramm mit Instruktionen gemäß Anspruch 9 und durch eine Vorrichtung mit den Merkmalen des Anspruchs 10 gelöst. Bevorzugte Ausgestaltungen der Erfindung sind Gegenstand der abhängigen Ansprüche.
Gemäß einem ersten Aspekt der Erfindung umfasst ein Verfahren zum Bereitstellen von Korrekturwerten für die Anzeige von Augmented-Reality-Inhalten auf einem Head-up-Display für ein Kraftfahrzeug die Schritte:
- Empfangen von Fahrbahninformationen, die Unebenheiten der Fahrbahn vor dem
Kraftfahrzeug repräsentieren;
- Ermitteln einer Trajektorie des Kraftfahrzeugs;
- Berechnen von Korrekturwerten für eine Stabilisierung der Anzeige der Augmented-Reality- Inhalte auf Basis der Fahrbahninformationen und der Trajektorie; und
- Bereitstellen der Korrekturwerte für ein Steuergerät des Head-up-Displays.
Gemäß einem weiteren Aspekt der Erfindung enthält ein Computerprogramm Instruktionen, die bei Ausführung durch einen Computer den Computer zur Ausführung der folgenden Schritte zum Bereitstellen von Korrekturwerten für die Anzeige von Augmented-Reality- Inhalten auf einem Head-up-Display für ein Kraftfahrzeug veranlassen:
- Empfangen von Fahrbahninformationen, die Unebenheiten der Fahrbahn vor dem
Kraftfahrzeug repräsentieren;
- Ermitteln einer Trajektorie des Kraftfahrzeugs; - Berechnen von Korrekturwerten für eine Stabilisierung der Anzeige der Augmented-Reality- Inhalte auf Basis der Fahrbahninformationen und der Trajektorie; und
- Bereitstellen der Korrekturwerte für ein Steuergerät des Head-up-Displays.
Der Begriff Computer ist dabei breit zu verstehen. Insbesondere umfasst er auch
Steuergeräte und andere prozessorbasierte Datenverarbeitungsvorrichtungen.
Das Computerprogramm kann beispielsweise für einen elektronischen Abruf bereitgestellt werden oder auf einem computerlesbaren Speichermedium gespeichert sein.
Gemäß einem weiteren Aspekt der Erfindung weist eine Vorrichtung zum Bereitstellen von Korrekturwerten für die Anzeige von Augmented-Reality-Inhalten auf einem Head-up-Display für ein Kraftfahrzeug auf:
- einem Eingang zum Empfangen von Fahrbahninformationen, die Unebenheiten der Fahrbahn vor dem Kraftfahrzeug repräsentieren;
- einer Trajektorieneinheit zum Ermitteln einer Trajektorie des Kraftfahrzeugs;
- einer Recheneinheit zum Berechnen von Korrekturwerten für eine Stabilisierung der Anzeige der Augmented-Reality-Inhalte auf Basis der Fahrbahninformationen und der Trajektorie; und
- einem Ausgang zum Bereitstellen der Korrekturwerte für ein Steuergerät des Head-up- Displays.
Unter der Annahme einer korrekten Positionierung des Fahrzeugs durch vorhandene Sensorik, wie z.B. durch GPS, eine Frontkamera, etc., und folglich unter der Annahme einer zunächst orts- und zeitkorrekten Darstellung, rückt insbesondere die durch die befahrene Fahrbahn induzierte Bewegung des Fahrzeugaufbaus in den Vordergrund. Aktuelle Sensorik ist nur mit Einschränkungen in Anbetracht von Genauigkeit oder Latenz in der Lage, die zur Darstellung von AR-Inhalten notwendigen Informationen bereitzustellen.
Die auftretenden Latenzen zwischen den sensorisch ermittelten Informationen zur
Beschreibung translatorischer und rotatorischer Bewegungen des Fahrzeugaufbaus und der Anzeige im Head-up-Display können zwar verkürzt, jedoch nicht verhindert werden. Darüber hinaus muss jegliche durch die Steuerung des Fahrzeugs angeregte
Fahrzeugaufbaubewegung beachtet werden. Diese induziert ebenfalls eine bei der
Darstellung von Inhalten zu korrigierende Diskrepanz zwischen virtueller Anzeige und realem Objekt. Bei dem vorgestellten Lösungsvorschlag wird nicht versucht, die sensorische Einschränkung zu reduzieren oder aufzuheben. Stattdessen werden die zu erwartende Bewegung des Fahrzeugaufbaus und die zur Kompensation erforderlichen Korrekturwerte vorausberechnet.
Erfindungsgemäß wird dazu zunächst das vor dem Fahrzeug befindliche Fahrbahnprofil erfasst. Darüber hinaus wird unter Zuhilfenahme von im Fahrzeug vorhandenen Messdaten die vom Fahrzeug auf den vorausliegenden Fahrbahnprofildaten befahrene Trajektorie berechnet. Auf Grundlage dieser Informationen werden die zu erwartenden Bewegungen des Fahrzeugaufbaus bestimmt und die daran angepassten Korrekturwerte berechnet.
Ergänzend können weitere Informationen mittels im Fahrzeug befindlicher Sensoren erfasst werden. Hierbei handelt es sich insbesondere um Kopfbewegungen des Fahrers.
Entsprechend der nun zur Verfügung stehenden Größen können zeitkorrekte Positions- und Winkeldaten zur Bildgenerierung angewendet werden. Die Bildgenerierung stützt sich dabei auf die ermittelten Größen zur Kompensation der Fahrzeugaufbaubewegung und auf die weiteren im Fahrzeug zur Verfügung stehenden Eingangsgrößen. Durch die
erfindungsgemäße Lösung wird so die ständige orts- und zeitkorrekte Anzeige von
Augmented-Reality-Inhalten im Head-up-Display ermöglicht.
Zur Auswertung der erfassten Informationen kommen regelungstechnische Ansätze zur Vorhersage von Messgrößen bzw. zur Berechnung von Daten zum Einsatz. Speziell Ansätze des Bereichs„Model Predictive Control“, also exemplarisch ein Kalmanfilter oder auch ein neuronales Netz, erlauben die Vorhersage der zuvor genannten Trajektorie.
Gemäß einem Aspekt der Erfindung beschreiben die Korrekturwerte horizontale und vertikale Bewegungen des Kraftfahrzeuges. Untersuchungen haben ergeben, dass diese für typische Anzeigeentfernungen den größten Einfluss haben. Eine Beschränkung auf diese Bewegungen reduziert den für die Berechnung der Korrekturwerte erforderlichen
Rechenaufwand.
Gemäß einem Aspekt der Erfindung wird die Trajektorie auf Basis von Steuerungsvorgaben eines Fahrers des Kraftfahrzeugs ermittelt. Grundlage für die Bestimmung der Trajektorie sind die Steuerungsvorgaben des Fahrers, z.B. der Lenkwinkel, das Lenkmoment oder die Geschwindigkeit, und gegebenenfalls die sich entsprechend einstellende Fahrzeugreaktion, welche ebenfalls durch Sensorik im Fahrzeug erfasst werden kann. Insbesondere können die Raddrehzahl oder die Gierrate erfasst werden. Die Messgrößen der Fahrzeugreaktion sind jedoch nicht zwingend notwendig, eine Beschreibung der Trajektorie gelingt auch einzig auf Basis der vom Fahrer vorgegebenen Fahrt. Darüber hinaus kann die befahrene
Trajektorie alternativ durch positionsbestimmende Verfahren wie GPS und differential GPS beschrieben werden.
Gemäß einem Aspekt der Erfindung werden die Fahrbahninformationen aus Daten zumindest eines Sensors des Kraftfahrzeugs oder aus Kartendaten ermittelt. Genutzt werden dabei insbesondere Monokameras, Stereokameras, Lidarsensoren, Radarsensoren, Laserscanner, Ultraschallsensoren oder Sensoren zur Erkennung von Höhenstandswerten eines Fahrwerkes. Alternativ kann die Fahrbahnprofilerfassung durch hochgenaue
Kartendaten oder durch in einer Cloud abgelegte Informationen über das Fahrbahnprofil ersetzt werden. Erforderlich für die Anwendung des vorgeschlagenen Verfahrens ist die Kenntnis des Höhenprofils der Fahrbahn. Diese Kartendaten werden ebenfalls durch die oben genannten Verfahren zur Beschreibung der Fahrbahnoberfläche generiert oder sind bereits vorhanden.
Gemäß einem Aspekt der Erfindung werden zum Berechnen der Korrekturwerte
Bewegungen des Kraftfahrzeugs auf Basis eines Fahrdynamikmodells für das Kraftfahrzeug berechnet. Das Fahrdynamikmodell ist beispielsweise ein Einspurmodell, ein
Zweispurmodell, ein Halbfahrzeugmodell, ein Ganzfahrzeugmodell oder eine Kombination dieser Modelle.
Das nachgelagerte Fahrdynamikmodell bedient sich der erfassten bzw. ermittelten
Fahrbahnprofildaten, der aktuellen Position des Fahrzeuges, der Vorhersage der vom Fahrzeug befahrenen Trajektorie, der Steuerungsvorgabe des Fahrers und gegebenenfalls weiterer fahrzeugspezifischer Daten. Hier sind exemplarisch das Gewicht, die
Gewichtsverteilung, der Radstand, Massenträgheitsmomente oder Schwerpunktlage zu nennen. Das Fahrdynamikmodell berücksichtigt zudem Konstruktionsdaten des Fahrzeugs, z.B. Feder- und Dämpferkennlinien des Fahrwerks und Eigenschaften weiterer
Fahrwerksbauteile. Hier sei der sogenannte Anschlagpuffer des Dämpfers und die durch einen Schrägeinbau von Feder und Dämpfer notwendige„Übersetzung“ genannt. Es ist auch ein lernendes System denkbar, das durch eine Auswertung von Vergangenheitsdaten Eingangsgrößen für die Berechnung von Korrekturwerten zur Verfügung stellen kann.
Die im Modell abgebildeten mathematischen Zusammenhänge beschreiben die
translatorischen und rotatorischen Freiheitsgrade des Fahrzeugaufbaus. Neben klassischen Fahrdynamikmodellen zur Beschreibung von Längs-, Quer- und Vertikaldynamik, wie u.a. ein Einspurmodell, ein Zweispurmodell, ein Halbfahrzeugmodell, ein Ganzfahrzeugmodell und die Kombination dieser Modelle untereinander, können spezielle Modelle zur Beschreibung von Reifeneigenschaften und weitere spezielle Modelle zur Beschreibung des
Fahrzeugverhaltens zum Einsatz kommen.
Gemäß einem Aspekt der Erfindung beim Berechnen der Korrekturwerte ein
Beladungszustand des Kraftfahrzeugs berücksichtigt wird. Da auch der Beladungszustand Einfluss auf die Fahrzeugaufbaubewegung hat, ist es sinnvoll, diesen als Eingangsgröße zu erfassen. Beispielsweise kann der Beladungszustand auf Basis der Anzahl der Passagiere und der Beladung des Kofferraums bestimmt werden.
Besonders vorteilhaft wird ein erfindungsgemäßes Verfahren oder eine erfindungsgemäße Vorrichtung in einem Fahrzeug, insbesondere einem Kraftfahrzeug, eingesetzt. Dabei ist das beschriebene Konzept sowohl für im Kraftfahrzeug integrierte Head-up-Displays als auch für mittels Datenbrillen generierte Augmented-Reality-Darstellungen nutzbar.
Weitere Merkmale der vorliegenden Erfindung werden aus der nachfolgenden Beschreibung und den angehängten Ansprüchen in Verbindung mit den Figuren ersichtlich.
Fig. 1 zeigt schematisch ein Verfahren zum Bereitstellen von Korrekturwerten für die
Anzeige von Augmented-Reality-Inhalten auf einem Head-up-Display für ein Kraftfahrzeug;
Fig. 2 zeigt eine erste Ausführungsform einer Vorrichtung zum Bereitstellen von
Korrekturwerten für die Anzeige von Augmented-Reality-Inhalten auf einem Head-up-Display für ein Kraftfahrzeug;
Fig. 3 zeigt eine zweite Ausführungsform einer Vorrichtung zum Bereitstellen von
Korrekturwerten für die Anzeige von Augmented-Reality-Inhalten auf einem Head-up-Display für ein Kraftfahrzeug;
Fig. 4 stellt schematisch ein Kraftfahrzeug dar, in dem eine erfindungsgemäße Lösung realisiert ist;
Fig. 5 zeigt schematisch den allgemeinen Aufbau eines Head-up-Displays für ein
Kraftfahrzeug;
Fig. 6 zeigt ein Beispiel einer Augmented-Reality-Darstellung eines Head-up-Displays; Fig. 7 zeigt ein Beispiel einer Augmented-Reality-Darstellung eines Head-up-Displays mit fehlerhaft positionierten virtuellen Elementen;
Fig. 8 zeigt einen Systementwurf der erfindungsgemäßen Lösung zum Bereitstellen von
Korrekturwerten für die Anzeige von Augmented-Reality-Inhalten auf einem Head-up-Display für ein Kraftfahrzeug;
Fig. 9 illustriert die translatorischen und rotatorischen Freiheitsgrade bei der
Fahrzeugaufbaubewegung;
Fig. 10 illustriert ein Höhenprofil für ein Hindernis und eine wellige Teerstraße als
Grundlage für einen Vergleich der modellbasierten Simulation der
Fahrzeugaufbaubewegung mit Messdaten;
Fig. 1 1 illustriert ein Höhenprofil für eine wellige Teerstraße als Grundlage für einen
Vergleich der modellbasierten Simulation der Fahrzeugaufbaubewegung mit Messdaten;
Fig. 12 zeigt einen Vergleich von Messdaten und Simulationsdaten des Nickwinkels auf
Basis eines Halbfahrzeugmodells für das Hindernis aus Fig. 10;
Fig. 13 zeigt einen Vergleich von Messdaten und Simulationsdaten des Nickwinkels auf
Basis eines Halbfahrzeugmodells für die wellige Teerstraße aus Fig. 11 ;
Fig. 14 zeigt einen Vergleich von Messdaten und Simulationsdaten des Nickwinkels auf
Basis eines Ganzfahrzeugmodells für das Hindernis aus Fig. 10;
Fig. 15 zeigt einen Vergleich von Messdaten und Simulationsdaten des Wankwinkels auf
Basis eines Ganzfahrzeugmodells für das Hindernis aus Fig. 10;
Fig. 16 zeigt einen Vergleich von Messdaten und Simulationsdaten des Nickwinkels auf
Basis eines Ganzfahrzeugmodells für die wellige Teerstraße aus Fig. 11 ; und
Fig. 17 zeigt einen Vergleich von Messdaten und Simulationsdaten des Wankwinkels auf
Basis eines Ganzfahrzeugmodells für die wellige Teerstraße aus Fig. 11. Zum besseren Verständnis der Prinzipien der vorliegenden Erfindung werden nachfolgend Ausführungsformen der Erfindung anhand der Figuren detaillierter erläutert. Es versteht sich, dass sich die Erfindung nicht auf diese Ausführungsformen beschränkt und dass die beschriebenen Merkmale auch kombiniert oder modifiziert werden können, ohne den Schutzbereich der Erfindung zu verlassen, wie er in den angehängten Ansprüchen definiert ist.
Fig. 1 zeigt schematisch ein Verfahren zum Bereitstellen von Korrekturwerten für die Anzeige von Augmented-Reality-Inhalten auf einem Head-up-Display für ein Kraftfahrzeug.
Beispielsweise beschreiben die Korrekturwerte horizontale und vertikale Bewegungen des Kraftfahrzeugs. In einem ersten Schritt werden Fahrbahninformationen empfangen 10, die Unebenheiten der Fahrbahn vor dem Kraftfahrzeug repräsentieren. Die
Fahrbahninformationen können beispielsweise aus Daten zumindest eines Sensors des Kraftfahrzeugs oder aus Kartendaten ermittelt werden. Beispiele für geeignete Sensoren sind Kameras, Lidarsensoren, Radarsensoren, Laserscanner, Ultraschallsensoren, etc. Zudem wird eine Trajektorie des Kraftfahrzeugs ermittelt 11 , z.B. auf Grundlage von
Steuerungsvorgaben eines Fahrers des Kraftfahrzeugs. Auf Basis der
Fahrbahninformationen und der Trajektorie werden Korrekturwerte für eine Stabilisierung der Anzeige der Augmented-Reality-Inhalte berechnet 12. Dazu werden Bewegungen des Kraftfahrzeugs auf Basis eines Fahrdynamikmodells für das Kraftfahrzeug berechnet. Dabei kann ein Beladungszustand des Kraftfahrzeugs berücksichtigt werden. Das
Fahrdynamikmodell kann z.B. ein Einspurmodell, ein Zweispurmodell, ein
Halbfahrzeugmodell, ein Ganzfahrzeugmodell oder eine Kombination dieser Modelle sein.
Die Korrekturwerte werden schließlich für ein Steuergerät des Head-up-Displays
bereitgestellt 13.
Fig. 2 zeigt eine vereinfachte schematische Darstellung einer ersten Ausführungsform einer Vorrichtung 20 zum Bereitstellen von Korrekturwerten für die Anzeige von Augmented- Reality-Inhalten auf einem Head-up-Display für ein Kraftfahrzeug. Die Korrekturwerte können z.B. horizontale und vertikale Bewegungen des Kraftfahrzeugs beschreiben. Die Vorrichtung 20 hat einen Eingang 21 , über den Fahrbahninformationen FS, FK empfangen werden können, die Unebenheiten der Fahrbahn vor dem Kraftfahrzeug repräsentieren. Die
Fahrbahninformationen FS, FK können beispielsweise aus Daten zumindest eines Sensors des Kraftfahrzeugs oder aus Kartendaten ermittelt werden. Beispiele für geeignete Sensoren sind Kameras, Lidarsensoren, Radarsensoren, Laserscanner, Ultraschallsensoren, etc. Die Vorrichtung 20 hat zudem eine Trajektorieneinheit 22 zum Ermitteln einer Trajektorie des Kraftfahrzeugs, z.B. auf Grundlage von Steuerungsvorgaben eines Fahrers des Kraftfahrzeugs. Eine Recheneinheit 23 berechnet Korrekturwerte KW für eine Stabilisierung der Anzeige der Augmented-Reality-Inhalte auf Basis der Fahrbahninformationen FS, FK und der Trajektorie. Dazu berechnet die Recheneinheit 23 Bewegungen des Kraftfahrzeugs auf Basis eines Fahrdynamikmodells für das Kraftfahrzeug. Dabei kann die Recheneinheit 23 einen Beladungszustand des Kraftfahrzeugs berücksichtigen. Das Fahrdynamikmodell kann z.B. ein Einspurmodell, ein Zweispurmodell, ein Halbfahrzeugmodell, ein
Ganzfahrzeugmodell oder eine Kombination dieser Modelle sein. Über einen Ausgang 26 der Vorrichtung 20 werden die Korrekturwerte KW für ein Steuergerät 42 des Head-up-Displays bereitgestellt. Das Steuergerät 42 kann dann die Anzeige des Head-up-Displays
entsprechend der ermittelten Korrekturwerte KW anpassen.
Die Trajektorieneinheit 22 und die Recheneinheit 23 können von einer Kontrolleinheit 24 gesteuert werden. Über eine Benutzerschnittstelle 27 können gegebenenfalls Einstellungen der Trajektorieneinheit 22, der Recheneinheit 23 oder der Kontrolleinheit 24 geändert werden. Die in der Vorrichtung 20 anfallenden Daten können bei Bedarf in einem Speicher 25 der Vorrichtung 20 abgelegt werden, beispielsweise für eine spätere Auswertung oder für eine Nutzung durch die Komponenten der Vorrichtung 20. Die T rajektorieneinheit 22, die Recheneinheit 23 sowie die Kontrolleinheit 24 können als dedizierte Hardware realisiert sein, beispielsweise als integrierte Schaltungen. Natürlich können sie aber auch teilweise oder vollständig kombiniert oder als Software implementiert werden, die auf einem geeigneten Prozessor läuft, beispielsweise auf einer GPU. Der Eingang 21 und der Ausgang 26 können als getrennte Schnittstellen oder als eine kombinierte bidirektionale Schnittstelle
implementiert sein. In Fig. 2 ist die Vorrichtung 20 als eigenständige Komponente dargestellt. Sie kann aber auch in andere Komponenten des Kraftfahrzeugs integriert werden, beispielsweise in das Steuergerät 42 des Head-up-Displays.
Fig. 3 zeigt eine vereinfachte schematische Darstellung einer zweiten Ausführungsform einer Vorrichtung 30 zum Bereitstellen von Korrekturwerten für die Anzeige von Augmented- Reality-Inhalten auf einem Head-up-Display für ein Kraftfahrzeug. Die Vorrichtung 30 weist einen Prozessor 32 und einen Speicher 31 auf. Beispielsweise handelt es sich bei der Vorrichtung 30 um einen Computer oder ein Steuergerät. Im Speicher 31 sind Instruktionen abgelegt, die die Vorrichtung 30 bei Ausführung durch den Prozessor 32 veranlassen, die Schritte gemäß einem der beschriebenen Verfahren auszuführen. Die im Speicher 31 abgelegten Instruktionen verkörpern somit ein durch den Prozessor 32 ausführbares
Programm, welches das erfindungsgemäße Verfahren realisiert. Die Vorrichtung 30 hat einen Eingang 33 zum Empfangen von Informationen, beispielsweise von Sensordaten. Vom Prozessor 32 generierte Daten werden über einen Ausgang 34 bereitgestellt. Darüber hinaus können sie im Speicher 31 abgelegt werden. Der Eingang 33 und der Ausgang 34 können zu einer bidirektionalen Schnittstelle zusammengefasst sein.
Der Prozessor 32 kann eine oder mehrere Prozessoreinheiten umfassen, beispielsweise Mikroprozessoren, digitale Signalprozessoren oder Kombinationen daraus.
Die Speicher 25, 31 der beschriebenen Ausführungsformen können sowohl volatile als auch nichtvolatile Speicherbereiche aufweisen und unterschiedlichste Speichergeräte und
Speichermedien umfassen, beispielsweise Festplatten, optische Speichermedien oder Halbleiterspeicher.
Fig. 4 stellt schematisch ein Kraftfahrzeug 40 dar, in dem eine erfindungsgemäße Lösung realisiert ist. Das Kraftfahrzeug 40 weist ein Head-up-Display 41 mit einem zugehörigen Steuergerät 42 auf. Weiterhin weist das Kraftfahrzeug 40 eine Kamera 43, weitere
Umgebungssensoren 44 und eine Vorrichtung 20 zum Bereitstellen von Korrekturwerten für die Anzeige von Augmented-Reality-Inhalten auf dem Head-up-Display 41 auf. Die
Vorrichtung 20 kann beispielsweise in das Steuergerät 42 des Head-up-Displays 41 integriert sein. Weitere Komponenten des Kraftfahrzeugs 40 sind ein Navigationssystem 45, eine Datenübertragungseinheit 46 sowie eine Reihe von Assistenzsystemen 47, von denen eines exemplarisch dargestellt ist. Mittels der Datenübertragungseinheit 46 kann eine Verbindung zu Dienstanbietern aufgebaut werden. Zur Speicherung von Daten ist ein Speicher 48 vorhanden. Der Datenaustausch zwischen den verschiedenen Komponenten des
Kraftfahrzeugs 40 erfolgt über ein Netzwerk 49.
Fig. 5 zeigt schematisch ein Head-up-Display 41 für ein Kraftfahrzeug 40, mit deren Hilfe Inhalte auf einer Projektionsfläche 52 des Kraftfahrzeugs 40 angezeigt werden können, beispielsweise auf der Frontscheibe oder auf einer zusätzlichen Scheibe aus Glas oder Kunststoff, die zwischen dem Fahrer und der Frontscheibe auf dem Armaturenbrett angeordnet ist. Die dargestellten Inhalte werden durch eine bildgebende Einheit 50 erzeugt und mit Hilfe eines optischen Moduls 51 auf die Projektionsfläche 52 projiziert.
Typischerweise erfolgt die Projektion dabei in einen Bereich der Frontscheibe oberhalb des Lenkrades. Die bildgebende Einheit 50 kann beispielsweise ein LCD-TFT-Display sein. Das Head-up-Display 41 ist in der Regel in einem Armaturenbrett des Kraftfahrzeugs 40 verbaut.
Fig. 6 zeigt ein Beispiel einer Augmented-Reality-Darstellung eines Head-up-Displays. Der tatsächlichen Umgebung sind zwei Augmented-Reality-Inhalte 60 überlagert, d.h. virtuelle Elemente in kontaktanaloger Darstellung. Im Beispiel in Fig. 6 sind dies ein Navigationspfad sowie ein Warnhinweis auf einen Fußgänger, der die Fahrbahn überquert. Der Warnhinweis ist dabei so ausgestaltet, dass der Fußgänger von Punkten/Kreisen in einer Warnfarbe umschlossen ist. Der Navigationspfad ist als Navigationsteppich ausgeführt, der auf der Fahrbahn liegt und in eine Straße einmündet, in die abgebogen werden soll. Zusätzlich wird eine Entfernung für ein bevorstehendes Navigationsmanöver angezeigt, die in diesem Beispiel nicht kontaktanalog dargestellt wird. Die dargestellten Elemente beruhen auf Informationen, die von Fahrzeugsensoren erfasst oder anhand von Kartendaten ermittelt wurden. Für die konkrete Gestaltung der Darstellung stehen dem Fachmann vielfältige Gestaltungsmöglichkeiten zur Verfügung.
Fig. 7 zeigt die Augmented-Reality-Darstellung aus Fig. 6 mit fehlerhaft positionierten virtuellen Elementen. Der tatsächlichen Umgebung sind wie zuvor zwei Augmented-Reality- Inhalte 60 überlagert, d.h. ein Navigationspfad und ein Warnhinweis. Allerdings wird der Fußgänger nicht mehr von den Punkten/Kreisen umschlossen, sondern zumindest teilweise von ihnen verdeckt. Zudem liegt der Navigationspfad nicht mehr auf der Fahrbahn, sondern scheint über der Fahrbahn zu schweben. Er mündet daher auch nicht mehr unzweifelhaft in die gewünschte Straße, so dass die vermittelte Navigationsanweisung für den Fahrer nicht eindeutig ist. Die räumlichen und zeitlichen Diskrepanzen zwischen den Augmented-Reality- Inhalten 60 und den realen Objekten bzw. der realen Umgebung wirken sich erkennbar negativ auf den Eindruck der Überlagerung und entsprechend auch auf die Funktionalität des Systems aus.
Fig. 8 zeigt einen schematischen Systementwurf der erfindungsgemäßen Lösung. Auf Grundlage von gemessenen Sensordaten SD, die durch eine im Fahrzeug vorhandene Sensorik bereitgestellt werden, erfolgt eine Erfassung 70 des vor dem Fahrzeug befindlichen Fahrbahnprofils. Alternativ kann die Fahrbahnprofilerfassung 70 unter Verwendung von hochgenauen Kartendaten KD umgesetzt werden. Wichtig ist die Kenntnis des Höhenprofils der Fahrbahn. Die resultierenden Fahrbahninformationen FS aus den Sensordaten SD bzw. die Fahrbahninformationen FK aus den Kartendaten KD werden für eine Weiterverarbeitung bereitgestellt. Darüber hinaus erfolgt eine Vorhersage 71 der Fahrzeugtrajektorie TR. Dazu wird unter Zuhilfenahme von im Fahrzeug vorhandenen Messgrößen, z.B. bezüglich
Lenkwinkel, Geschwindigkeit, Raddrehzahl, etc., die vom Fahrzeug auf den vorliegenden Fahrbahnprofildaten befahrene Trajektorie TR berechnet und mit klassischen
regelungstechnischen Ansätzen vorhergesagt. Das nachgelagerte Fahrdynamikmodell 72 bedient sich der bekannten Fahrbahninformationen FS, FK, der Vorhersage der vom
Fahrzeug befahrenen Trajektorie TR, der Steuerungsvorgaben SV des Fahrers sowie gegebenenfalls weiterer fahrzeugspezifischer Daten, z.B. bezüglich Gewichtsverteilung, Radstand, Massenträgheitsmomente, etc. Einige Parameter des Fahrdynamikmodells werden nicht entsprechend der realen Bauteile angenommen, insbesondere in Hinblick auf Vereinfachungen im Modell, die der Verkürzung der Rechenzeit dienen. Damit die durch das entsprechend vereinfachte Modell berechneten Korrekturwerte bzw. Ausgangsgrößen weiterhin den als Referenz herangezogenen Messdaten entsprechen, werden die entsprechenden Parameter durch klassische regelungstechnische Verfahren optimiert. Dies geschieht in der Regel offline, also einmalig bei der ersten Inbetriebnahme des Systems. Optional kann aber eine Erfassung 74 eher leicht veränderlicher Fahrzeugparameter FP erfolgen. Diese können dann auch Online, also im laufenden Betrieb, optimiert bzw.
nachgeführt werden. Beispiele für solche Parameter sind der Beladungszustand oder die über die Lebensdauer eintretende Alterung eines Dämpfers. Zusätzlich kann optional eine Erfassung 75 von Umgebungsparametern UP erfolgen, die im Modell berücksichtigt werden können. Ein Beispiel dafür ist die Außentemperatur, die einen Einfluss auf das Verhalten der Dämpfer im Fahrwerk hat. Die im Fahrdynamikmodell 72 abgebildeten mathematischen Zusammenhängen beschreiben alle translatorischen und rotatorischen Freiheitsgrade des Fahrzeugaufbaus. Diese zeitkorrekten Positions- und Winkeldaten werden in Form von Korrekturwerten KW einer Bildgenerierung 73 zur Verfügung gestellt und ermöglichen entsprechend die ständige orts- und zeitkorrekte Anzeige von Augmented Reality-Inhalten im Head-up-Display.
Fig. 9 illustriert die translatorischen und rotatorischen Freiheitsgrade bei der
Fahrzeugaufbaubewegung. Bei den translatorischen Freiheitsgraden ist zu unterscheiden zwischen Längsbewegungen entlang der Längsachse (x), Querbewegungen entlang der Querachse (y) und Hubbewegungen entlang der Hochachse (z). Bei den rotatorischen Freiheitsgraden sind das Wanken um die Längsachse (K), das Nicken um die Querachse ( ϋ ) und das Gieren um die Hochachse ( y zu betrachten.
Fig. 10 illustriert ein Höhenprofil für ein Hindernis als Grundlage für einen Vergleich der modellbasierten Simulation der Fahrzeugaufbaubewegung mit Messdaten. Für die
Simulation werden hier eine konstante Geschwindigkeit und ein konstanter Lenkwinkel angenommen.
Fig. 1 1 illustriert ein Höhenprofil für eine wellige Teerstraße als Grundlage für einen
Vergleich der modellbasierten Simulation der Fahrzeugaufbaubewegung mit Messdaten. Für die Simulation werden hier eine konstante Geschwindigkeit und eine vorgegebene Spur angenommen. Fig. 12 zeigt einen Vergleich von Messdaten und Simulationsdaten des Nickwinkels ϋ auf Basis eines Halbfahrzeugmodells für das Hindernis aus Fig. 10. Die senkrechte Linie markiert den Beginn des Hindernisses. Das Halbfahrzeugmodell beschreibt ein
Einspurmodell mit einer Aufbaumasse und zwei Reifen, welche mittels Feder-Dämpfer- Elementen untereinander verbunden sind. Die linke und die rechte Spur werden dabei in Fahrzeugmitte zusammengefasst. Das Modell erlaubt eine vertikaldynamische Beschreibung von Schwerpunkthub z und Nickwinkel ϋ. Bei der Simulation wurden die Reifeneigenschaften vernachlässigt. Weiterhin wurde ein lineares Feder- und Dämpferverhalten abgebildet.
Angenommen wurde eine synchrone Anregung auf ebener Fläche. Wie man den Daten entnehmen kann, treten Fehler in Amplitude und Phase auf. Zudem ist das zu
Abklingverhalten nicht korrekt.
Fig. 13 zeigt einen Vergleich von Messdaten und Simulationsdaten des Nickwinkels ϋ auf Basis eines Halbfahrzeugmodells für die wellige Teerstraße aus Fig. 11. Die senkrechte Linie markiert den Beginn der welligen Teerstraße und somit den Beginn der Simulation. Auch in diesem Fall wurden die Reifeneigenschaften vernachlässigt und ein lineares Feder- und Dämpferverhalten angenommen. Wie man den Daten entnehmen kann, tritt ein recht großer Amplitudenfehler auf. Zudem ist eine abnehmenden Phasentreue zu beobachten.
Im Ergebnis konnte beobachtet werden, dass eine Simulation durch das Halbfahrzeugmodell vorzugsweise nur bei einer einfachen Straßengeometrie genutzt werden sollte, da sie einer komplexen Straßengeometrie nicht gerecht wird.
Fig. 14 zeigt einen Vergleich von Messdaten und Simulationsdaten des Nickwinkels ϋ auf Basis eines Ganzfahrzeugmodells für das Hindernis aus Fig. 10. Beim Ganzfahrzeugmodell wird gegenüber dem Halbfahrzeugmodell durch Hinzunahme zweier weiterer
Radaufhängungen die Spurbreite des Fahrzeugs eingeführt. Das Modell betrachtet eine Aufbaumasse, die durch eine zweidimensionale Platte approximiert wird, und vier Reifen, welche mittels Feder-Dämpfer-Elementen untereinander verbunden sind. Das Modell erlaubt eine vertikaldynamische Beschreibung von Schwerpunkthub z, Nickwinkel ϋ und Wankwinkel K. Bei der Simulation wurden die Reifeneigenschaften vernachlässigt. Weiterhin wurden ein lineares Federverhalten und ein nichtlineares Dämpferverhalten abgebildet. Das
Dämpferverhalten wurde dabei durch eine Kennlinie abgebildet. Zusätzlich wurden in dem Modell eine Übersetzung von Feder und Dämpfer implementiert und die Dämpfer um
Anschlagpuffer erweitert. Betrachtet wurden eine synchrone und asynchrone Anregung auf ebener Fläche. Wie man den Daten entnehmen kann, sind die Amplitudenfehler und die Phasenfehler reduziert. Allerdings ist das Abklingverhalten fehlerbehaftet, was vermutlich durch ein aktives Fahrwerk verursacht wird.
Fig. 15 zeigt einen Vergleich von Messdaten und Simulationsdaten des Wankwinkels k auf Basis eines Ganzfahrzeugmodells für das Hindernis aus Fig. 10. Wir zu erwarten war ist der Wankwinkel k für die idealisierte Hindernisüberfahrt nicht darstellbar.
Fig. 16 zeigt einen Vergleich von Messdaten und Simulationsdaten des Nickwinkels ϋ auf Basis eines Ganzfahrzeugmodells für die wellige Teerstraße aus Fig. 1 1. Wie man den Daten entnehmen kann, sind die Amplitudenfehler deutlich reduziert. Zudem sind auch die Phasenfehler korrigiert.
Fig. 17 zeigt einen Vergleich von Messdaten und Simulationsdaten des Wankwinkels k auf Basis eines Ganzfahrzeugmodells für die wellige Teerstraße aus Fig. 1 1. Zwar sind hier die durch Lenkbewegungen Amplitudenfehler verstärkt, dafür ist die Phase nun korrekt.
Im Ergebnis konnte beobachtet werden, dass sich durch die Optimierung des
Fahrdynamikmodells die Qualität der Ergebnisse deutlich verbessert.
Bezugszeichenliste
Empfangen von Fahrbahninformationen
Ermitteln einer Trajektorie des Kraftfahrzeugs
Berechnen von Korrekturwerten für eine Stabilisierung der Anzeige
Bereitstellen der Korrekturwerte
Vorrichtung
Eingang
Trajektorieneinheit
Recheneinheit
Kontrolleinheit
Speicher
Ausgang
Benutzerschnittstelle
Vorrichtung
Speicher
Prozessor
Eingang
Ausgang
Kraftfahrzeug
Head-up-Display
Steuergerät des Head-up-Displays
Kamera
Umgebungssensor
Navigationssystem
Datenübertragungseinheit
Assistenzsystem
Speicher
Netzwerk
Bildgebende Einheit
Optisches Modul
Projektionsfläche
Augmented-Reality-Inhalt
Fahrbahnprofilerfassung
Vorhersage der Fahrzeugtrajektorie
Fahrdynamikmodell
Bildgenerierung 74 Erfassung von Fahrzeugparametern
75 Erfassung von Umgebungsparametern
FK Fahrbahninformation aus Kartendaten
FP Fahrzeugparameter
FS Fahrbahninformation aus Sensordaten
KD Kartendaten
KW Korrekturwert
SD Sensordaten
SV Steuerungsvorgabe
TR Trajektorie
UP Umgebungsparameter

Claims

Patentansprüche
1. Verfahren zum Bereitstellen von Korrekturwerten (KW) für die Anzeige von
Augmented-Reality-Inhalten (60) auf einem Head-up-Display (41 ) für ein Kraftfahrzeug (40), mit den Schritten:
- Empfangen (10) von Fahrbahninformationen (FS, FK), die Unebenheiten der Fahrbahn vor dem Kraftfahrzeug (40) repräsentieren;
- Ermitteln (1 1 ) einer Trajektorie (TR) des Kraftfahrzeugs (40);
- Berechnen (12) von Korrekturwerten (KW) für eine Stabilisierung der Anzeige der Augmented-Reality-Inhalte (60) auf Basis der Fahrbahninformationen (FS, FK) und der Trajektorie (TR); und
- Bereitstellen (13) der Korrekturwerte (KW) für ein Steuergerät (42) des Head-up- Displays (41 ).
2. Verfahren gemäß Anspruch 1 , wobei die Korrekturwerte (KW) horizontale und vertikale Bewegungen des Kraftfahrzeugs (40) beschreiben.
3. Verfahren gemäß Anspruch 1 oder 2, wobei die Trajektorie (TR) auf Basis von
Steuerungsvorgaben (SV) eines Fahrers des Kraftfahrzeugs (40) ermittelt wird (1 1 ).
4. Verfahren gemäß einem der vorherigen Ansprüche, wobei die Fahrbahninformationen (FS, FK) aus Daten (SD) zumindest eines Sensors (43, 44) des Kraftfahrzeugs (40) oder aus Kartendaten (KD) ermittelt werden.
5. Verfahren gemäß Anspruch 4, wobei der zumindest eine Sensor (43, 44) des
Kraftfahrzeugs (40) eine Kamera, ein Lidarsensor, ein Radarsensor, ein Laserscanner oder ein Ultraschallsensor ist.
6. Verfahren gemäß einem der vorherigen Ansprüche, wobei zum Berechnen (12) der Korrekturwerte (KW) Bewegungen des Kraftfahrzeugs (40) auf Basis eines
Fahrdynamikmodells für das Kraftfahrzeug (40) berechnet werden.
7. Verfahren gemäß Anspruch 6, wobei das Fahrdynamikmodell ein Einspurmodell, ein Zweispurmodell, ein Halbfahrzeugmodell, ein Ganzfahrzeugmodell oder eine
Kombination dieser Modelle ist.
8. Verfahren gemäß Anspruch 6 oder 7, wobei beim Berechnen (12) der Korrekturwerte (KW) ein Beladungszustand des Kraftfahrzeugs (40) berücksichtigt wird.
9. Computerprogramm mit Instruktionen, die bei Ausführung durch einen Computer den Computer zur Ausführung der Schritte eines Verfahrens gemäß einem der Ansprüche 1 bis 8 zum Bereitstellen von Korrekturwerten (KW) für die Anzeige von Augmented- Reality-Inhalten (60) auf einem Head-up-Display (41 ) für ein Kraftfahrzeug (40) veranlassen.
10. Vorrichtung (20) zum Bereitstellen von Korrekturwerten (KW) für die Anzeige von
Augmented-Reality-Inhalten (60) auf einem Head-up-Display (41 ) für ein Kraftfahrzeug (40), mit:
- einem Eingang (21 ) zum Empfangen (10) von Fahrbahninformationen (FS, FK), die Unebenheiten der Fahrbahn vor dem Kraftfahrzeug (40) repräsentieren;
- einer Trajektorieneinheit (22) zum Ermitteln (11 ) einer Trajektorie (TR) des
Kraftfahrzeugs (40);
- einer Recheneinheit (23) zum Berechnen (12) von Korrekturwerten (KW) für eine Stabilisierung der Anzeige der Augmented-Reality-Inhalte (60) auf Basis der
Fahrbahninformationen (FS, FK) und der Trajektorie (TR); und
- einem Ausgang (26) zum Bereitstellen (13) der Korrekturwerte (KW) für ein
Steuergerät (42) des Head-up-Displays (41 ).
1 1. Kraftfahrzeug (40) mit einem Head-up-Display (41 ), dadurch gekennzeichnet, dass das Kraftfahrzeug (40) eine Vorrichtung (20) gemäß Anspruch 10 aufweist oder eingerichtet ist, ein Verfahren gemäß einem der Ansprüche 1 bis 8 zum Bereitstellen von
Korrekturwerten (KW) für die Anzeige von Augmented-Reality-Inhalten (60) auf dem Head-up-Display (41 ) auszuführen.
PCT/EP2019/061589 2018-06-04 2019-05-06 Konzept zum bereitstellen von korrekturwerten für die anzeige von augmented-reality-inhalten auf einem head-up-display für ein kraftfahrzeug WO2019233687A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE102018208765 2018-06-04
DE102018208765.2 2018-06-04
DE102018219089.5 2018-11-08
DE102018219089.5A DE102018219089A1 (de) 2018-06-04 2018-11-08 Konzept zum Bereitstellen von Korrekturwerten für die Anzeige von Augmented-Reality-Inhalten auf einem Head-up-Display für ein Kraftfahrzeug

Publications (1)

Publication Number Publication Date
WO2019233687A1 true WO2019233687A1 (de) 2019-12-12

Family

ID=68576356

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/061589 WO2019233687A1 (de) 2018-06-04 2019-05-06 Konzept zum bereitstellen von korrekturwerten für die anzeige von augmented-reality-inhalten auf einem head-up-display für ein kraftfahrzeug

Country Status (2)

Country Link
DE (1) DE102018219089A1 (de)
WO (1) WO2019233687A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113767026A (zh) * 2019-05-08 2021-12-07 大众汽车股份公司 用于运行机动车的方法
US20220250595A1 (en) * 2019-07-18 2022-08-11 Robert Bosch Gmbh Method and device for operating a brake system, computer program and computer program product, brake system

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020201851B4 (de) 2020-02-14 2021-12-30 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Assistenzsystems, sowie Assistenzsystem
DE102020202966A1 (de) 2020-03-09 2021-09-09 Volkswagen Aktiengesellschaft Sicherheitseinrichtung, Verfahren zur Korrektur einer Warnvorrichtung und Kraftfahrzeug
DE102020214208A1 (de) 2020-11-12 2022-05-12 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Ansteuerung eines Anzeigemittels
DE102021123585A1 (de) 2021-09-13 2023-03-16 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Fahrerassistenzsystem zur Unterstützung eines Fahrers beim Fahren entlang einer aufgezeichneten Trajektorie

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2415625A1 (de) * 2009-03-30 2012-02-08 Equos Research Co., Ltd. Informationsanzeigevorrichtung
DE102014013408A1 (de) * 2014-09-10 2015-04-02 Daimler Ag Verfahren zur Darstellung von Umgebungsinformationen eines Fahrzeugs
DE102014211803A1 (de) 2014-06-19 2015-12-24 Volkswagen Aktiengesellschaft Augmented-Reality-System für ein Kraftfahrzeug
WO2016190135A1 (ja) * 2015-05-28 2016-12-01 日本精機株式会社 車両用表示システム
JP2017007481A (ja) * 2015-06-19 2017-01-12 日本精機株式会社 車載ヘッドアップディスプレイ装置及び車載表示システム
US20170169612A1 (en) * 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
DE102016213687A1 (de) 2016-07-26 2018-02-01 Audi Ag Verfahren zum Steuern einer Anzeigevorrichtung für ein Kraftfahrzeug, Anzeigevorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit einer Anzeigevorrichtung

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2415625A1 (de) * 2009-03-30 2012-02-08 Equos Research Co., Ltd. Informationsanzeigevorrichtung
DE102014211803A1 (de) 2014-06-19 2015-12-24 Volkswagen Aktiengesellschaft Augmented-Reality-System für ein Kraftfahrzeug
DE102014013408A1 (de) * 2014-09-10 2015-04-02 Daimler Ag Verfahren zur Darstellung von Umgebungsinformationen eines Fahrzeugs
WO2016190135A1 (ja) * 2015-05-28 2016-12-01 日本精機株式会社 車両用表示システム
JP2017007481A (ja) * 2015-06-19 2017-01-12 日本精機株式会社 車載ヘッドアップディスプレイ装置及び車載表示システム
US20170169612A1 (en) * 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
DE102016213687A1 (de) 2016-07-26 2018-02-01 Audi Ag Verfahren zum Steuern einer Anzeigevorrichtung für ein Kraftfahrzeug, Anzeigevorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit einer Anzeigevorrichtung

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113767026A (zh) * 2019-05-08 2021-12-07 大众汽车股份公司 用于运行机动车的方法
US20220250595A1 (en) * 2019-07-18 2022-08-11 Robert Bosch Gmbh Method and device for operating a brake system, computer program and computer program product, brake system

Also Published As

Publication number Publication date
DE102018219089A1 (de) 2019-12-05

Similar Documents

Publication Publication Date Title
WO2019233687A1 (de) Konzept zum bereitstellen von korrekturwerten für die anzeige von augmented-reality-inhalten auf einem head-up-display für ein kraftfahrzeug
DE102017216774B4 (de) Verfahren, Vorrichtung, computerlesbares Speichermedium und Kraftfahrzeug mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-up-Display-Vorrichtung für ein Kraftfahrzeug
DE102004006133B4 (de) Vorrichtung zur Leuchtweitenregulierung eines Kraftfahrzeugs
DE102017202115A1 (de) Fahrzeugeigene vorrichtung, verfahren zum steuern einer fahrzeugeigenen vorrichtung und computerlesbares speichermedium
DE102012221762A1 (de) Fahrmanöverunterstützung an head-up-anzeige für gesamte windschutzscheibe
DE102018215185B3 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Einstellen eines Head-Up-Displays in einem Kraftfahrzeug, Einstellvorrichtung zur Verwendung in einem solchen Verfahren oder mit einer solchen Vorrichtung
DE102014214516A1 (de) Vorrichtung und Verfahren zur Wiedergabe von Daten in einer erweiterten Realität für einen Insassen eines Fahrzeugs
DE102015109027A1 (de) Head-Up Display mit situationsbasierter Anpassung der Darstellung von virtuellen Bildinhalten
EP3392111A1 (de) Verfahren und vorrichtung zum ermitteln einer visuellen ablenkung eines fahrers eines fahrzeugs
DE102017220268B4 (de) Erkennung und Visualisierung von Systemunsicherheit bei der Darstellung augmentierter Bildinhalte in Head-Up-Displays
WO2018114078A1 (de) Head-up-display-vorrichtung für ein kraftfahrzeug, verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer head-up-display-vorrichtung
EP3685123A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug
DE102018213820A1 (de) Verfahren zum Betreiben einer Blickfeldanzeigevorrichtung für ein Kraftfahrzeug
EP1967821B1 (de) Assistenzsystem für den Fahrer eines Fahrzeugs, insbesondere eines Kraftfahrzeugs für den öffentlichen Strassenverkehr
EP3978877A1 (de) Horizontale positionsfestlegung für das einblenden virtueller objekte bei einer head-up- displayeinrichtung
EP3983252A1 (de) Generieren einer anzeige eines augmented-reality-head-up-displays für ein kraftfahrzeug
EP3978294A1 (de) Betreiben einer head-up-displayeinrichtung bei ausserhalb eines sichtfelds positionierten einblendbaren objekten
DE102019206573B4 (de) Verfahren zum Betrieb eines Kraftfahrzeugs
DE102015006571A1 (de) Vorrichtung und Verfahren zur Ermittlung einer Verwindung einer Karosserie und/oder eines Fahrgestells
DE102019204057A1 (de) Bereitstellen von Korrekturwerten für die Projektion eines Lichtzeichens
DE102016005452A1 (de) Verfahren zur Korrektur einer Position eines in einer Anzeige eines Fahrzeuges projizierten erweiterten Realitäts-Objektes infolge eines verstellten Fahrwerkes des Fahrzeuges
EP3361355A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung
DE102020006512A1 (de) Verfahren zur Bestimmung dynamischer Aufmerksamkeitsbereiche und Fahrzeug
WO2020249367A1 (de) Steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug
DE102019216247A1 (de) Verfahren, Computerprogramm und Vorrichtung zum Bereitstellen von Eingangsgrößen für ein adaptives Lichtsystem für einen Innenraum eines Kraftfahrzeugs

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19724131

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19724131

Country of ref document: EP

Kind code of ref document: A1