EP3353013A1 - Projection of a pre-definable light pattern - Google Patents

Projection of a pre-definable light pattern

Info

Publication number
EP3353013A1
EP3353013A1 EP16770285.1A EP16770285A EP3353013A1 EP 3353013 A1 EP3353013 A1 EP 3353013A1 EP 16770285 A EP16770285 A EP 16770285A EP 3353013 A1 EP3353013 A1 EP 3353013A1
Authority
EP
European Patent Office
Prior art keywords
vehicle
projection
pixel
observer
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP16770285.1A
Other languages
German (de)
French (fr)
Other versions
EP3353013B1 (en
Inventor
Jose Roberto VARGAS RIVERO
Carsten Gut
Johannes Reim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Publication of EP3353013A1 publication Critical patent/EP3353013A1/en
Application granted granted Critical
Publication of EP3353013B1 publication Critical patent/EP3353013B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/06Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
    • B60Q1/08Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically
    • B60Q1/085Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically due to special conditions, e.g. adverse weather, type of road, badly illuminated road signs or potential dangers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/549Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for expressing greetings, gratitude or emotions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/547Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for issuing requests to other traffic participants; for confirming to other traffic participants they can proceed, e.g. they can overtake
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/20Indexing codes relating to the driver or the passengers
    • B60Q2300/23Driver's line of sight
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/32Road surface or travel path
    • B60Q2300/324Road inclination, e.g. uphill or downhill
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body

Definitions

  • the present invention relates to a method for projecting a predeterminable light pattern by means of a lighting device of a vehicle into an environment of the vehicle. Moreover, the present invention relates to a lighting device for a vehicle with a lighting unit and a control device for controlling the lighting unit. Furthermore, the present invention relates to a motor vehicle with such a lighting device.
  • Document EP 1 916 153 A2 discloses a method for displaying information, in which a projection object is produced at a projection location outside a motor vehicle by means of projection means provided on the motor vehicle. By means of a generated projection object, an anticipated future location of the motor vehicle is marked areally.
  • document DE 10 2006 050 548 A1 discloses a method for warning other road users.
  • a projection by means of a projection object is generated as a warning for another road user at a projection point outside the motor vehicle.
  • An angle of view of a particular viewer is taken into account in order to produce an undistorted image.
  • the object of the present invention is thus to provide a method with which a lighting device of a vehicle can be controlled more flexibly with regard to the surroundings of the vehicle. According to the invention, this object is achieved by a method according to claim 1.
  • the invention provides a lighting device according to claim 7.
  • a specifiable light pattern is projected into the surroundings of the vehicle.
  • This light pattern can serve purely for the presentation of information or specifically illuminate parts of the environment for better perception by a viewer, in particular the driver.
  • the perspective of a predetermined observer is explicitly taken into account.
  • the projection surface e.g., projection plane
  • a position of the predetermined or potential observer is determined, for example, by means of sensor technology or provided, for example, by means of already stored data.
  • a pixel-by-pixel control of a lighting unit eg of a pixel spotlight
  • a lighting unit eg of a pixel spotlight
  • the concrete perspective or representative of the projection surface or plane and the position of the observer are taken into account.
  • the predetermined observer is a driver or passenger of the vehicle or a pedestrian at a predetermined position outside the vehicle or a person in one passing vehicle.
  • the head position which is indeed relevant to the actual perspective, can be obtained accurately and simply from sensor data of the vehicle interior or the vehicle environment.
  • a change in position of the vehicle or of an object in the surroundings of the vehicle can be taken into account. This allows the process to be dynamically updated. In this case, for example, a trajectory of the vehicle or of the object can be used.
  • a topography in front of the vehicle can be analyzed.
  • the environment in front of the vehicle is sensory-recorded, and from the data, a suitable projection plane or surface is extracted.
  • a property of the environment can be taken into account for the pixel-by-pixel control of the lighting unit of the lighting device.
  • a property may be, for example, the nature of a projection surface, such as reflectance or granularity of the surface.
  • a property of the environment may be an actual traffic density, the nature of a road, a point-of-interest, the humidity of the traffic lane, or the ambient brightness. Such a property allows the projection of the light pattern to be further individualized, thus providing even more benefits to the observer.
  • the lighting device can have a plurality of headlights as the lighting unit, and in the pixel-by-pixel control of the lighting device, the headlights can be controlled such that the predeterminable light pattern results on the projection surface. This can therefore be several headlights for the generation of Light pattern, which can improve the variability or the resolution of the light pattern.
  • the lighting device according to the invention can be further developed functionally by the method features described above.
  • a vehicle may be equipped with this lighting device.
  • Fig. 1 is a Lochantimodell
  • FIG. 2 shows the geometry for the calculation of the coordinates in a side view and in a plan view
  • 4 shows a diagram for method selection
  • 5 shows a projection in side view
  • FIG. 6 shows the projection of FIG. 5 in a front view
  • Fig. 7 individual projection steps
  • Fig. 1 1 is a diagram for calculating the pixel intensity.
  • the embodiments described in more detail below represent preferred embodiments of the present invention. It should be noted that the individual features can be realized not only in the described combination, but also in isolation or in other technically meaningful combinations.
  • the invention is based on the approach that a dipped beam should be high resolution and can be realized for example by a pixel headlight. This makes it possible, for example, to provide perspectives which are adapted to the environment. In addition, interactions with the environment can occur. Furthermore, the road topology and the distance to other vehicles can be taken into account in order to achieve a situation-dependent control of the lighting device, in particular of a vehicle.
  • the central idea here is that the concrete perspective is determined by taking into account the position of the observer but also the current concrete projection plane or area in the surroundings of the vehicle for the pixel-by-pixel control of the lighting unit of a lighting device.
  • a first parameter for the control of the lighting unit of the lighting device may be a change in position of the own vehicle or ego vehicle. This parameter is important so that the desired light distribution is always projected at the same horizontal and vertical distance. For example, a pitch, roll, and roll motion can be detected via acceleration sensors. For this parameter, the eye / head position X f, Y f, Z f ... may be updated as well as the viewing direction are determined in accordance with a vector r.
  • a second parameter would be the position change of objects such as the lane markings. The importance of this parameter lies in the fact that the objects are references to which a light distribution can orient.
  • the topography T s can be determined from this parameter.
  • a third parameter would be the topography in front of the vehicle in the first place. This includes the detection of other projection surfaces except the road, such. B. a garage wall. The vertical and horizontal size v, h of the light distribution can be determined from this. The exact knowledge about the geometry of the projection surface is necessary for the calculation of a correct, rectified light image.
  • the topography T s can also be determined from this parameter.
  • An important parameter is also the condition of the projection surface. This includes the reflectance and the reflection properties as well as the granularity of the surface. Due to the reflection properties, the required light intensity and the image quality can be determined. The visibility S s , the reflectivity R s and the luminance L s of the projection surface can be determined from this parameter.
  • the head position of the driver the driver, the passenger, a passer or a person in another vehicle. Due to the reflection properties, the required light intensity and the image quality can be determined.
  • the visibility S s , the reflectivity R s and the luminance L s of the projection surface can be determined from this parameter.
  • the parameter h p observeer head height
  • Q viewing direction in respect to the road
  • lateral viewing direction
  • b distance between the observer head and the image plane
  • X f From the eye and head position of one or more observers: X f , Y f , Z f .
  • the line of sight vector r can be co-determined by one or more observers.
  • the speed v f of one or more observers can be determined from this.
  • Another parameter can specify the current traffic density. From this parameter results, which projection distance is to be selected. At high traffic density the projection distance is shortened and at low traffic density (eg on country road) the projection distance can be increased.
  • Size v, h of the light distribution can be determined from this.
  • the visibility S s of a light function can also be determined from this parameter.
  • a decision as to which function F should be displayed can be derived therefrom.
  • another parameter concerns the type of road and, where appropriate, 'points-of-interest' (urban environment, motorway, highway, construction site, accident, etc.) Depending on this parameter, activation of the desired lighting function may take place.
  • a decision as to which function F is to be displayed derive therefrom.
  • a further parameter can relate to the humidity of the lane. depending on an activation of the desired light function or a consideration in the illumination can be effected.
  • the light function, the reflectivity R s and the luminance L s of the projection surface can be co-determined from this parameter Furthermore, a decision as to which function F is to be displayed can be derived from this j)
  • the ambient brightness (illumination of a vehicle, street lamps, twilight , Daylight) represent another parameter. With him can an adjustment of the light intensity and an activation of a desired light function done. The luminance of the ambient brightness L f can be determined therefrom.
  • a parameter may be the distance and / or the coordinates to a preceding or oncoming vehicle and the vehicle topology. With this parameter, an exact display of a vehicle can take place.
  • the vertical and horizontal size v, h of the light distribution can be determined from this.
  • the topography T s can also be determined from this parameter.
  • Another parameter may be the user request or a user request. This / this can be on the operation of a button, eye tracking, driving behavior, voice recognition, well-being and the like recognize. Thus, the activation or adaptation of a desired light function / light distribution can take place. Likewise, a decision as to which function F should be displayed can be derived therefrom. m) Also vehicle data such as GPS and speed can be an important parameter. This is an activation or adaptation of a desired light function / light distribution possible. The speed of the vehicle occupant v v can be co-determined from this. In addition, a decision as to which function F should be displayed can be derived therefrom. n) Another parameter is the interior lighting.
  • the apron of the low beam can be made lighter.
  • the luminance of the interior lighting L f can be determined from this parameter.
  • the distance of a desired projection to the ego vehicle is conceivable as another parameter. It can be used to calculate the overlap of the left and right headlamps to correctly display the light distribution.
  • the topography T s can also be determined from this parameter.
  • As a further parameter can serve a decision input, which represents the decision of the driver, who should be an observer of the light function. This input can be done, for example, by pressing a button, an MMI (Human Machine Interface) or an APP. This can be decided by the driver himself, whether z. B. a logo projection from his point of view should be equalized perspective or from the perspective of a passer. This decision is the Superordinate function mapping (see below).
  • the decision parameter E can be determined from this.
  • Different lighting functions can be defined. These lighting functions are each assigned a corresponding viewing perspective. This assignment results in a so-called “function mapping.” For example, the "construction site light" function is assigned the driver's perspective, since the lighting of a construction site is primarily of importance to the driver.
  • the projection of a logo may, for example, be assigned to a driver's perspective in a default setting, if necessary this assignment can be changed by the MMI / APP, so that, for example, also a passerby sees the logo well.
  • the above table shows that the perspectives that arise for projecting a light pattern from a vehicle can be classified, for example, into four areas or categories. This results in perspectives or functions for a driver, a passenger, a foreign vehicle or a pedestrian.
  • the respective function then ensures that the projection is not distorted from the corresponding perspective. In some situations, however, it may happen that the function can not be displayed for the desired perspective. Then it has to be decided whether the lighting function is provided or not.
  • a camera center O c which corresponds in the present case, the optical center, for example, a headlamp.
  • O w the optical center
  • a 3D point cloud is to be generated, each point of which is represented, for example, by a value x w .
  • Such a point is located in the real world in a coordinate system O w .
  • a 2D plane can be defined by which each projection beam passes from the headlight center O c to the 3D point x w and defines a point m there.
  • This pinhole camera model can be used to convert a particular image on the road into a two-dimensional image relative to the headlight plane.
  • the two-dimensional coordinates can be calculated using the following equations, where u and v belong to the image plane coordinates and k to the intrinsic camera parameters. ⁇ corresponds to the extrinsic camera parameter.
  • the street scene is represented by a point cloud, the values being stored in X, Y and Z.
  • R and t correspond to a rotation between the camera and the world frame coordinates.
  • the angle values can be converted into pixel positions for any headlight technology and stored in a corresponding image or video format.
  • the method also uses a trigometrische approach for calculating the two-dimensional coordinates X p, Z p, wherein each pixel ⁇ ,, Z, is projected for a particular observer head position and direction of view on the road. It is assumed that the image plane is perpendicular to the viewing direction of the observer.
  • the coordinate X for example, of the driving tool longitudinal direction or direction of travel, the coordinate Z of the roadway transverse direction and the coordinate Y associated with the height direction of the vehicle.
  • Fig. 2 now shows the geometry for calculating the two-dimensional coordinates X p and Z p on a projection plane, z. B.
  • h p corresponds to the observer head height
  • the viewing direction with respect to the road
  • the lateral viewing direction
  • b the distance between the observer's head and the image plane
  • h b represents the lower part of the image and the road.
  • An error of approximately 2.5% for angles (a or ß) up to 14 ° is to be expected. This error is calculated from the distance between the pixels of the original image and those calculated from the driver's perspective using this method.
  • represents the angle between the observer (s) BO from the center of the road surface or projection plane PE, whereupon the image Bl is projected.
  • the coordinates of each corner of the portion of the road surface, ie the projection plane PE on which the image Bl is projected, are:, Zi ... X n , Z n .
  • an additional object OB is located on the projection plane.
  • the topography T s then results according to the uppermost illustration in FIG. 3.
  • the vehicle is illuminated by the two headlights View or beam direction vectors Si and S 2 symbolizes. It moves at the speed v s .
  • the topography T s for the surroundings in front of the vehicle is obtained with regard to the projection beam in the side view according to the middle image of FIG. 3.
  • the lower image of FIG. 3 shows the reflection beam which the observer BO perceives. This leads, together with all other reflection beams in an image plane, to an image Bl.
  • the projection beam and the reflection beam result in the corresponding perspective of the observer BO.
  • the observer BO can influence a decision parameter E.
  • a workflow for the geometric calculation at a specific time t In a first step S1, input parameters such as the function F (eg construction site light, logo representation etc.), the topography T s or the decision parameter E (eg driver or passerby as observer) are provided. In a subsequent step S2, it is automatically or manually decided whether projecting is desired. For ex- ample, it is undesirable if the topography does not fit or if a car is driving ahead. In the subsequent step S3, when the projection is desirable physical parameters such as v f, L f, S s, R s, U, V s or the like are calculated. In the subsequent step S4, it is decided whether the projecting is still possible.
  • the function F eg construction site light, logo representation etc.
  • the topography T s or the decision parameter E eg driver or passerby as observer
  • step S5 a query is made in step S5 as to whether projecting is still desired. If not, then step S1 is returned. If projecting is still desired, in step S6, observer parameters and projection surface parameters are extracted from the input parameters of step S1. These include the head position and the viewing direction on the one hand and the luminance on the other. It is then checked whether the projection plane is the same as the image plane. If not, the following procedure 1 is performed. If, on the other hand, the projection plane is the same as the image plane and the observer For example, looking perpendicular to the road onto which the image or light pattern is projected, method 2 is applied. The method 2 is based on the hole camera model and is much simpler than the method 1.
  • the method 1 is divided into the following steps:
  • Step 1 The image is binarized and those points that should be illuminated are extracted and stored as coordinates ⁇ , Z, (image plane).
  • Step 2 Based on the values of X f, Y f, Z f, r, ⁇ , Xi, Zi ... X n, Z n, h, v and the equations (7) and (8), each point in ⁇ ,, Z, scaled (ie adapted to the projection plane) and projected onto the surface defined by the points Xi, Zi ... X n , Z n and adapted to the topology T s .
  • ⁇ ,, Z forms a binary matrix
  • T s the topography matrix
  • 3rd step The surface defined by the points Xi, Zi ... X n , Z n is split into subfaces. For example, each headlamp, which together form the lighting unit of a lighting device, illuminate a sub-area.
  • Step 5 Based on the headlight technology and geometry, each 2D projection (ie, the flat dot distribution) is converted into a specific image format specific to the headlight (the pixel intensity is based on the pixel intensity calculation).
  • Step 6 Based on v s and v f , each image can be converted into a video sequence.
  • FIGS. 5 to 7 show an example in which the Audi logo for the driver's perspective is projected onto the road.
  • Fig. 5 shows the geometry in the side view.
  • a headlight SW projects a light pattern onto a projection plane PE, resulting in an image Bl for the observer BO in an image plane.
  • the resulting perspective here corresponds, for example, to a driver's perspective.
  • the constellation of FIG. 6 results.
  • the left-hand headlamp SWL, together with the right-hand headlamp SWR, should display the undistorted Audi logo for the driver or observer BO Projecting between two headlamps project.
  • an original or desired light pattern is given in accordance with the illustration on the top left in FIG.
  • the projection plane and the position of the observer or driver are already taken into account. Since, however, two headlights in different positions should generate the light pattern, corresponding images or drive signals corresponding to the illustrations on the right side of FIG. 7 for the left headlight SWL and the right headlight SWR must be determined. Together, for the observer BO, the reconstructed image from FIG. 7 then appears from the bottom on the left.
  • the second method indicated in FIG. 4 includes the following steps:
  • Step 2 Based on the values of Xi, Zi ... X n, Z n, h, v, each point Xi, Z, scaled in the image plane and passing through the points Xi, Zi ... X n, Z n defined surface and adapted to the topography T s .
  • Steps 3 to 6 As in Method 1 As for Method 1, there are also different optimization possibilities for Method 2 in order to reduce latency. For example, integration of steps 2 to 4 can be done in a single matrix operation.
  • Figures 8 and 9 show a possible light distribution for the two headlights. 8 shows on the left a vehicle FZ which is to produce a rectangular carpet of light on a roadway of a road. The left-hand headlamp should produce a left-hand carpet LTL and the right-hand headlamp a right-hand carpet LTR. The image in FIG. 8 right shows, in a mirrored view, the beam paths for the corners of the illuminated carpets LTL and LTR with respect to the two headlights SWL and SWR.
  • FIG. 9 shows the 2D image of each of the headlights SWL and SWR on the respective headlight level. This means that in each of the headlights, those pixels must be lit that are in the respectively marked area. Together with the headlight geometry and optics as well as the selected projection plane, the carpet of light then results with the two parts LTL and LTR.
  • the following explains how to calculate the pixel intensity. Based on the values L f , S s , R s , L s , T s and the parameters of observer and projection plane or road surface, the requirements of the Highway Code, the geometry of the headlights and their technology, the number of headlights and the 2D projections calculated by methods 1 and 2 can calculate the intensity per pixel needed to produce a desired light distribution on the road.
  • the overlapping areas for two or more headlamps are to be determined by way of example.
  • the desired light distribution x can be calculated from the sum of all overlapping images y k multiplied by the factor A k for all overlapping headlights K according to the formula:
  • Fig. 10 shows above the desired light distribution in total. This consists of the light distribution of the left headlamp SWL added to the light distribution of the right headlamp SWR together.
  • Fig. 1 1 shows a workflow diagram for calculating the pixel intensity.
  • step S10 all physical and geometric input parameters are provided for the intensity calculation.
  • step S1 1 it is checked whether overlapping areas are present. If not, a jump is made to step S12. However, if there are overlapping areas, a jump is made to step S13 where preprocessing of the data is made for, for example, increased resolution or special effects. Subsequently, it also jumps to step S12.
  • step S12 it is checked whether the speeds of interest are small and the affected topography T s is very complex. If this AND condition is satisfied, a time-consuming calculation can be performed in step S13. In this case, for example, a 3D image processing with so-called "render” or "inverse rateracing” done. Subsequently, an image sequence per headlight is generated in step S14.
  • step S12 if the AND condition of step S12 is not satisfied and, for example, one of the speeds is large, a predetermined criterion, e.g. B. checks the homogeneity or a desired intensity profile. Subsequently, the intensity per pixel is determined in step S16. Then, in step S17, one of the methods 1 or 2 for calculating the projection geometry and the pixel positions is performed. This is followed by a jump to step S14.
  • a predetermined criterion e.g. B. checks the homogeneity or a desired intensity profile.
  • light functions offer the possibility of actually improving or worsening the visibility of objects in the environment compared to other driver assistance systems, such as head-up displays.
  • light assist functions in future piloted driving can help to communicate and interact with the environment.
  • the driver can be supported in his vision and perception task.
  • a specialized GPU Graphic Processor Unit
  • a control unit on which the above method is implemented
  • a sensor system for the required sensor data may be connected. It can be implemented in an architecture and programming language that is optimized for normal latency.
  • the headlight it is advantageous if it is a high-resolution headlight, z. B.
  • DMD Digital Micro Device
  • scanner with at least 100 pixels.
  • Light functions in the dipped beam are not visible on wet roads, too bright external lighting or a vehicle driving in front of the vehicle and must therefore be used in a situational manner.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

The aim of the invention is to improve light patterns used to inform or assist an observer or a driver. To this end, the invention relates to an illuminating device and to a method for projecting a pre-definable light pattern by means of the illuminating device of a vehicle into an area surrounding the vehicle. According to the invention, a projection surface is determined in the area surrounding the vehicle, a position of a pre-defined observer (BO) is determined or provided, and a light unit (SW) of the illuminating device is controlled pixel-wise according to the determined projection surface (PE) and the determined position of the pre-defined observer (BO), in order to produce the pre-definable light pattern.

Description

Projizieren eines vorgebbaren Lichtmusters  Projecting a predefinable light pattern
BESCHREIBUNG: Die vorliegende Erfindung betrifft ein Verfahren zum Projizieren eines vorgebbaren Lichtmusters mittels einer Beleuchtungsvorrichtung eines Fahrzeugs in eine Umgebung des Fahrzeugs. Darüber hinaus betrifft die vorliegende Erfindung eine Beleuchtungsvorrichtung für ein Fahrzeug mit einer Leuchteinheit und einer Steuereinrichtung zum Steuern der Leuchteinheit. Ferner betrifft die vorliegende Erfindung ein Kraftfahrzeug mit einer solchen Beleuchtungsvorrichtung. DESCRIPTION: The present invention relates to a method for projecting a predeterminable light pattern by means of a lighting device of a vehicle into an environment of the vehicle. Moreover, the present invention relates to a lighting device for a vehicle with a lighting unit and a control device for controlling the lighting unit. Furthermore, the present invention relates to a motor vehicle with such a lighting device.
Bislang sind Fahrzeuge und insbesondere Kraftfahrzeuge mit Abblendlicht bekannt, das meist eine nahezu statische Lichtverteilung besitzt. Des Weite- ren wird das Abblendlicht in der Regel durch eine einzige Lichtquelle gebildet, aber es sind auch Pixelscheinwerfer bekannt. Die Einstellung des Abblendlichts hängt vom Fahrer oder von fahrzeuginternen Informationen ab. Eine Interaktion mit der Umwelt findet kaum statt. Nachteilig an der bekannten Steuerung des Abblendlichts ist, dass das Potenzial des Abblendlichts beispielsweise nicht genutzt wird, um mit der Umwelt zu kommunizieren oder den Fahrer durch gezieltes Anpassen der Lichtverteilung in seiner Seh- und Wahrnehmungsaufgabe vermehrt zu unterstützen. So far, vehicles and in particular motor vehicles with low beam are known, which usually has a nearly static light distribution. Furthermore, the dipped beam is usually formed by a single light source, but pixel spotlights are also known. The setting of the low beam depends on the driver or on-vehicle information. There is hardly any interaction with the environment. A disadvantage of the known control of the low beam is that the potential of the low beam, for example, is not used to communicate with the environment or to support the driver by selectively adjusting the light distribution in his vision and perception task increasingly.
Aus der Druckschrift EP 1 916 153 A2 ist ein Verfahren zur Informationsdarstellung bekannt, bei welchem ein Projektionsobjekt an einer Projektionsstelle außerhalb eines Kraftfahrzeugs mittels an dem Kraftfahrzeug vorgesehener Projektionsmittel erzeugt wird. Durch ein erzeugtes Projektionsobjekt wird ein voraussichtlicher zukünftiger Aufenthaltsort des Kraftfahrzeugs flächig markiert. Document EP 1 916 153 A2 discloses a method for displaying information, in which a projection object is produced at a projection location outside a motor vehicle by means of projection means provided on the motor vehicle. By means of a generated projection object, an anticipated future location of the motor vehicle is marked areally.
Darüber hinaus offenbart die Druckschrift DE 10 2006 050 548 A1 ein Verfahren zur Warnung anderer Verkehrsteilnehmer. Mittels eines Projektions- mittels wird ein Projektionsobjekt als Warnhinweis für einen anderen Verkehrsteilnehmer an einer Projektionsstelle außerhalb des Kraftfahrzeugs erzeugt. Ein Blickwinkel eines jeweiligen Betrachters wird berücksichtigt, um ein unverzerrtes Bild zu erzeugen. In addition, document DE 10 2006 050 548 A1 discloses a method for warning other road users. By means of a projection by means of a projection object is generated as a warning for another road user at a projection point outside the motor vehicle. An angle of view of a particular viewer is taken into account in order to produce an undistorted image.
Die Aufgabe der vorliegenden Erfindung besteht somit darin, ein Verfahren bereitzustellen, mit dem eine Beleuchtungsvorrichtung eines Fahrzeugs flexibler im Hinblick auf die Umgebung des Fahrzeugs gesteuert werden kann. Erfindungsgemäß wird diese Aufgabe gelöst, durch ein Verfahren nach Anspruch 1 . The object of the present invention is thus to provide a method with which a lighting device of a vehicle can be controlled more flexibly with regard to the surroundings of the vehicle. According to the invention, this object is achieved by a method according to claim 1.
Darüber hinaus wird erfindungsgemäß bereitgestellt eine Beleuchtungsvorrichtung nach Anspruch 7. In addition, the invention provides a lighting device according to claim 7.
In vorteilhafter Weise wird also ein vorgebbares Lichtmuster in die Umgebung des Fahrzeugs projiziert. Dieses Lichtmuster kann rein zur Informationsdarstellung dienen oder Teile der Umgebung zur besseren Wahrnehmung durch einen Betrachter, insbesondere den Fahrer, spezifisch beleuch- ten. Bei dem Projizieren wird explizit die Perspektive eines vorbestimmten Beobachters berücksichtigt. Hierzu wird die Projektionsfläche (z.B. Projektionsebene) in der Umgebung des Fahrzeugs ermittelt, auf die das Lichtmuster projiziert wird. Außerdem wird für die Perspektive eine Position des vorbestimmten bzw. potenziellen Beobachters beispielsweise mittels Sensorik ermittelt oder beispielsweise mittels bereits abgespeicherter Daten bereitgestellt. In Abhängigkeit von der ermittelten Projektionsfläche und der ermittelten bzw. bereitgestellten Position des vorbestimmten Beobachters, die zusammen die Beobachtungsperspektive repräsentieren, erfolgt ein pixelweises Steuern einer Leuchteinheit (z. B. eines Pixelscheinwerfers) der Be- leuchtungseinheit, um das vorgebbaren Lichtmuster auf der Projektionsfläche zu erzeugen. Damit wird also bei der Erzeugung des Lichtmusters die konkrete Perspektive bzw. stellvertretend die Projektionsfläche bzw. -ebene und die Position des Beobachters, berücksichtigt. Dadurch kann eine Information für den Beobachter leichter lesbar oder eine Beleuchtung individueller erfolgen. In an advantageous manner, therefore, a specifiable light pattern is projected into the surroundings of the vehicle. This light pattern can serve purely for the presentation of information or specifically illuminate parts of the environment for better perception by a viewer, in particular the driver. When projecting, the perspective of a predetermined observer is explicitly taken into account. For this purpose, the projection surface (e.g., projection plane) in the vicinity of the vehicle on which the light pattern is projected is determined. In addition, for the perspective, a position of the predetermined or potential observer is determined, for example, by means of sensor technology or provided, for example, by means of already stored data. Depending on the determined projection area and the determined or provided position of the predetermined observer, which together represent the observation perspective, a pixel-by-pixel control of a lighting unit (eg of a pixel spotlight) of the lighting unit takes place in order to supply the predeterminable light pattern on the projection surface produce. Thus, in the generation of the light pattern, the concrete perspective or representative of the projection surface or plane and the position of the observer are taken into account. As a result, information for the observer can be read more easily or illumination can be made more individual.
Beispielsweise handelt es sich bei dem vorbestimmten Beobachter um einen Fahrer oder Beifahrer des Fahrzeugs oder um einen Passanten an einer vorbestimmten Position außerhalb des Fahrzeugs oder eine Person in einem vorbeifahrenden Fahrzeug. Bei all diesen Beobachtern, für die das Lichtmus- ter bestimmt sein kann, kann die Kopfposition, die ja für die tatsächliche Perspektive von Bedeutung ist, ziemlicht exakt und einfach aus Sensordaten des Fahrzeuginnenraums oder der Fahrzeugumgebung gewonnen werden. For example, the predetermined observer is a driver or passenger of the vehicle or a pedestrian at a predetermined position outside the vehicle or a person in one passing vehicle. For all these observers, for whom the light pattern can be determined, the head position, which is indeed relevant to the actual perspective, can be obtained accurately and simply from sensor data of the vehicle interior or the vehicle environment.
Bei der Ermittlung der Projektionsfläche kann eine Positionsänderung des Fahrzeugs oder eines Objekts in der Umgebung des Fahrzeugs berücksichtigt werden. Dadurch lässt sich das Verfahren dynamisch aktualisieren. Hierbei kann beispielsweise eine Trajektorie des Fahrzeugs oder des Objekts benutzt werden. When determining the projection surface, a change in position of the vehicle or of an object in the surroundings of the vehicle can be taken into account. This allows the process to be dynamically updated. In this case, for example, a trajectory of the vehicle or of the object can be used.
Des Weiteren kann bei dem Ermitteln der Projektionsfläche eine Topographie vor dem Fahrzeug analysiert werden. Beispielsweise wird das Umfeld vor dem Fahrzeug sensorisch aufgenommen, und aus den Daten wird eine geeignete Projektionsebene bzw. -fläche extrahiert. Furthermore, when determining the projection surface, a topography in front of the vehicle can be analyzed. For example, the environment in front of the vehicle is sensory-recorded, and from the data, a suitable projection plane or surface is extracted.
Bei einer weiteren Ausgestaltung kann für das pixelweise Steuern der Leuchteinheit der Beleuchtungsvorrichtung eine Eigenschaft der Umgebung berücksichtigt werden. Bei einer solchen Eigenschaft kann es sich beispiels- weise um die Beschaffenheit einer Projektionsfläche wie beispielsweise Reflexionsgrad oder Granularität der Oberfläche handeln. Außerdem kann eine Eigenschaft der Umgebung eine aktuelle Verkehrsdichte, die Art einer Straße, ein Point-Of-Interest, die Feuchtigkeit der Fahrspur oder die Umgebungshelligkeit sein. Durch eine solche Eigenschaft kann die Projektion des Lichtmusters weiter individualisiert werden, so dass es für den Beobachter noch mehr Nutzen bringt. In a further embodiment, a property of the environment can be taken into account for the pixel-by-pixel control of the lighting unit of the lighting device. Such a property may be, for example, the nature of a projection surface, such as reflectance or granularity of the surface. In addition, a property of the environment may be an actual traffic density, the nature of a road, a point-of-interest, the humidity of the traffic lane, or the ambient brightness. Such a property allows the projection of the light pattern to be further individualized, thus providing even more benefits to the observer.
Vorteilhafterweise wird bei dem pixelweisen Steuern der Leuchteinheit der Beleuchtungsvorrichtung ein vorausfahrendes oder entgegenkommendes Fahrzeug, aktuelle Fahrzeugdaten, eine Information des oder über den Fahrer, ein Abstand des Lichtmusters von dem Fahrzeug oder dergleichen berücksichtigt. Auch durch diese Parameter lässt sich das Lichtmuster vorteilhaft beeinflussen. Bei einer speziellen Ausgestaltung kann die Beleuchtungsvorrichtung als Leuchteinheit mehrere Scheinwerfer aufweisen, und bei dem pixelweisen Steuern der Beleuchtungsvorrichtung können die Scheinwerfer so angesteuert werden, dass sich das vorgebbare Lichtmuster auf der Projektionsfläche ergibt. Hiermit lassen sich also mehrere Scheinwerfer für die Erzeugung des Lichtmusters nutzen, was die Variabilität oder die Auflösung des Lichtmus- ters verbessern lässt. Advantageously, in the pixel-by-pixel control of the lighting unit of the lighting device, a preceding or oncoming vehicle, current vehicle data, information of or about the driver, a distance of the light pattern from the vehicle or the like is taken into account. These parameters also allow the light pattern to be advantageously influenced. In a specific embodiment, the lighting device can have a plurality of headlights as the lighting unit, and in the pixel-by-pixel control of the lighting device, the headlights can be controlled such that the predeterminable light pattern results on the projection surface. This can therefore be several headlights for the generation of Light pattern, which can improve the variability or the resolution of the light pattern.
Die erfindungsgemäße Beleuchtungsvorrichtung lässt sich durch die oben beschriebenen Verfahrensmerkmale funktionell weiterbilden. Darüber hinaus kann ein Fahrzeug mit dieser Beleuchtungsvorrichtung ausgestattet sein. The lighting device according to the invention can be further developed functionally by the method features described above. In addition, a vehicle may be equipped with this lighting device.
Die vorliegende Erfindung wird nun anhand der beigefügten Zeichnungen näher erläutert, in denen zeigen: The present invention will now be explained in more detail with reference to the accompanying drawings, in which:
Fig. 1 ein Lochkameramodell; Fig. 1 is a Lochkameramodell;
Fig. 2 die Geometrie für die Berechnung der Koordinaten in einer Seitenansicht und in einer Draufsicht; FIG. 2 shows the geometry for the calculation of the coordinates in a side view and in a plan view; FIG.
Fig. 3 Ansichten zur Ermittlung einer Perspektive; 3 views for determining a perspective;
Fig. 4 ein Diagramm zur Methodenauswahl; Fig. 5 eine Projektion in der Seitenansicht; 4 shows a diagram for method selection; 5 shows a projection in side view;
Fig. 6 die Projektion von Fig. 5 in der Frontansicht; FIG. 6 shows the projection of FIG. 5 in a front view; FIG.
Fig. 7 einzelne Projektionsschritte; Fig. 7 individual projection steps;
Fig. 8 einen Lichtteppich für ein Fahrzeug; 8 shows a carpet of light for a vehicle;
Fig. 9 den jeweiligen Lichtteppich aus der Perspektive der Scheinwerfer; 9 shows the respective carpet of light from the perspective of the headlights;
Fig. 10 eine Lichtverteilung mit zwei Scheinwerfern; und 10 shows a light distribution with two headlights; and
Fig. 1 1 ein Diagramm zur Berechnung der Pixelintensität. Fig. 1 1 is a diagram for calculating the pixel intensity.
Die nachfolgend näher geschilderten Ausführungsbeispiele stellen bevorzugte Ausführungsformen der vorliegenden Erfindung dar. Dabei ist zu beachten, dass die einzelnen Merkmale nicht nur in der geschilderten Kombination, sondern auch in Alleinstellung oder in anderen technisch sinnvollen Kombinationen realisiert werden können. Die Erfindung geht von dem Ansatz aus, dass ein Abblendlicht hoch aufgelöst sein soll und beispielsweise durch einen Pixelscheinwerfer realisiert werden kann. Damit lassen sich beispielsweise perspektivische, an die Um- weit angepasste Darstellungen ermöglichen. Außerdem können Interaktionen mit der Umwelt erfolgen. Ferner kann die Straßentopologie und der Abstand zu anderen Fahrzeugen berücksichtigt werden, um eine situationsabhängige Ansteuerung der Beleuchtungsvorrichtung insbesondere eines Fahrzeugs zu erreichen. Kerngedanke dabei ist, dass die konkrete Perspek- tive ermittelt wird, indem die Position des Beobachters aber auch die aktuelle konkrete Projektionsebene bzw. -fläche in der Umgebung des Fahrzeug für die pixelweise Steuerung der Leuchteinheit einer Beleuchtungsvorrichtung berücksichtigt werden. The embodiments described in more detail below represent preferred embodiments of the present invention. It should be noted that the individual features can be realized not only in the described combination, but also in isolation or in other technically meaningful combinations. The invention is based on the approach that a dipped beam should be high resolution and can be realized for example by a pixel headlight. This makes it possible, for example, to provide perspectives which are adapted to the environment. In addition, interactions with the environment can occur. Furthermore, the road topology and the distance to other vehicles can be taken into account in order to achieve a situation-dependent control of the lighting device, in particular of a vehicle. The central idea here is that the concrete perspective is determined by taking into account the position of the observer but also the current concrete projection plane or area in the surroundings of the vehicle for the pixel-by-pixel control of the lighting unit of a lighting device.
Für eine konkrete Darstellung einer hochaufgelösten Lichtverteilung im Abblendlicht können mehrere Parameter bestimmt und in Form eines jeweiligen Sensorsignals bereitgestellt werden. Derartige in Frage kommenden Parameter werden im Folgenden aufgezählt, ohne eine abschließende Liste darzustellen: a) Ein erster Parameter für die Steuerung der Leuchteinheit der Beleuchtungsvorrichtung kann eine Lageänderung des eigenen Fahrzeugs bzw. Ego-Fahrzeugs sein. Dieser Parameter ist wichtig, damit die gewünschte Lichtverteilung immer im gleichen horizontalen und vertikalen Abstand projiziert wird. Beispielsweise kann über Beschleunigungssensoren eine Nick-, Roll-, und Wankbewegung detektiert werden. Aus diesem Parameter kann die Augen-/Kopfposition Xf, Yf, Zf... aktualisiert sowie die Blickrichtung entsprechend einem Vektor r bestimmt werden. Zusätzlich ist es möglich, die Koordinaten Xsi , Ysi, Zsi ... sowie den Blickrichtungsvektor Si ... für jeden Scheinwerfer zu bestimmen. b) Ein zweiter Parameter wäre die Positionsänderung von Objekten wie beispielsweise den Fahrspurmarkierungen. Die Bedeutung dieses Parameters liegt darin, dass die Objekte Referenzen sind, an denen sich eine Lichtverteilung orientieren kann. Die Topographie Ts kann aus diesem Parameter mitbestimmt werden. c) Ein dritter Parameter wäre die Topographie in erster Linie vor dem Fahrzeug. Dazu zählt auch die Erkennung von anderen Projektionsflächen außer der Straße, wie z. B. eine Garagenwand. Die vertikale und horizontale Größe v, h der Lichtverteilung kann hieraus mitbe- stimmt werden. Die genaue Kenntnis über die Geometrie der Projektionsfläche ist zur Berechnung eines korrekten, entzerrten Lichtbilds notwendig. Die Topographie Ts kann aus diesem Parameter ebenfalls mitbestimmt werden. d) Ein wichtiger Parameter ist auch die Beschaffenheit der Projektionsfläche. Dazu zählt der Reflexionsgrad und die Reflexionseigenschaften sowie die Granularität der Oberfläche. Aufgrund der Reflexionseigenschaften lässt sich die benötigte Lichtstärke und die Abbildungsqualität bestimmen. Die Sichtbarkeit Ss, die Reflektivität Rs und die Leuchtdichte Ls der Projektionsfläche kann aus diesem Parameter bestimmt werden. e) Gemäß einem weiteren Parameter kann festgelegt werden, ob die Lichtfunktion aus der Perspektive eines Fahrzeugführers, des Beifah- rers, eines Passanten oder einer Person in einem anderen Fahrzeug zu sehen sein soll. Dementsprechend muss die Entzerrung berechnet werden. Der Blickrichtungsvektor r von einem oder mehreren Beobachtern kann daraus mitbestimmt werden. f) In diesem Parameter kann die Kopfposition des FahrzeugführersFor a specific representation of a high-resolution light distribution in the dipped beam, a plurality of parameters can be determined and provided in the form of a respective sensor signal. Such eligible parameters are enumerated below without presenting a conclusive list: a) A first parameter for the control of the lighting unit of the lighting device may be a change in position of the own vehicle or ego vehicle. This parameter is important so that the desired light distribution is always projected at the same horizontal and vertical distance. For example, a pitch, roll, and roll motion can be detected via acceleration sensors. For this parameter, the eye / head position X f, Y f, Z f ... may be updated as well as the viewing direction are determined in accordance with a vector r. In addition, it is possible to determine the coordinates X s i, Y s i, Z s i ... as well as the sight line vector Si ... for each headlamp. b) A second parameter would be the position change of objects such as the lane markings. The importance of this parameter lies in the fact that the objects are references to which a light distribution can orient. The topography T s can be determined from this parameter. c) A third parameter would be the topography in front of the vehicle in the first place. This includes the detection of other projection surfaces except the road, such. B. a garage wall. The vertical and horizontal size v, h of the light distribution can be determined from this. The exact knowledge about the geometry of the projection surface is necessary for the calculation of a correct, rectified light image. The topography T s can also be determined from this parameter. d) An important parameter is also the condition of the projection surface. This includes the reflectance and the reflection properties as well as the granularity of the surface. Due to the reflection properties, the required light intensity and the image quality can be determined. The visibility S s , the reflectivity R s and the luminance L s of the projection surface can be determined from this parameter. e) According to another parameter, it may be determined whether the light function should be seen from the perspective of a vehicle driver, the passenger, a passer or a person in another vehicle. Accordingly, the equalization must be calculated. The line of sight vector r of one or more observers can be co-determined from this. f) In this parameter, the head position of the driver
(des eigenen Fahrzeugs oder des Fremdfahrzeugs) oder die Position der Passanten, aber auch gegebenenfalls deren Trajektorie hinterlegt werden. Die unter dem Parameter e) genannte perspektivische Verzerrung kann hierdurch exakter berechnet werden. Der Parameter hp (Beobachterkopfhöhe), ß (Blickrichtung in Bezug auf die Straße), α (laterale Blickrichtung), b (Abstand zwischen Beobachterkopf und Bildebene) kann gemäß den Punkten e) und f) berechnet werden. Aus der Augen- und Kopfposition von einem oder mehreren Beobachtern: Xf, Yf, Zf. Zusätzlich kann der Blickrichtungsvektor r von ein oder mehre- ren Beobachtern daraus mitbestimmt werden. Die Geschwindigkeit vf von einem oder mehreren Beobachtern kann daraus bestimmt werden. g) Ein weiterer Parameter kann die aktuelle Verkehrsdichte angeben. Aus diesem Parameter ergibt sich, welcher Projektionsabstand zu wählen ist. Bei hoher Verkehrsdichte wird der Projektionsabstand verkürzt und bei niedriger Verkehrsdichte (z. B. auf Landstraße) kann die Projektionsentfernung erhöht werden. Die vertikale und horizontale(own vehicle or other vehicle) or the position of the passers, but also possibly their trajectory are deposited. The perspective distortion mentioned under the parameter e) can hereby be calculated more exactly. The parameter h p (observer head height), Q (viewing direction in respect to the road), α (lateral viewing direction), b (distance between the observer head and the image plane) can be calculated according to the items e) and f). From the eye and head position of one or more observers: X f , Y f , Z f . In addition, the line of sight vector r can be co-determined by one or more observers. The speed v f of one or more observers can be determined from this. g) Another parameter can specify the current traffic density. From this parameter results, which projection distance is to be selected. At high traffic density the projection distance is shortened and at low traffic density (eg on country road) the projection distance can be increased. The vertical and horizontal
Größe v, h der Lichtverteilung kann hieraus mitbestimmt werden. Die Sichtbarkeit Ss einer Lichtfunktion kann aus diesem Parameter ebenfalls bestimmt werden. Ebenso lässt sich eine Entscheidung, welche Funktion F dargestellt werden soll, hieraus ableiten. h) ein weiterer Parameter betrifft die Art einer Straße sowie gegebenenfalls diesbezügliche„Points-Of-Interest" (urbane Umgebung, Autobahn, Landstraße, Baustelle, Unfall etc.). In Abhängigkeit von diesem Parameter kann eine Aktivierung der gewünschten Lichtfunktion erfol- gen. Ebenso lässt sich eine Entscheidung, welche Funktion F dargestellt werden soll, hieraus ableiten. i) Ein weiterer Parameter kann die Feuchtigkeit der Fahrspur betreffen. In Abhängigkeit davon kann eine Aktivierung der gewünschten Lichtfunktion bzw. eine Berücksichtigung in der Ausleuchtung erfolgen. Die Sichtbarkeit Ss der Lichtfunktion, die Reflektivität Rs und die Leuchtdichte Ls der Projektionsfläche kann aus diesem Parameter mitbestimmt werden. Ferner kann eine Entscheidung, welche Funktion F dargestellt werden soll, hieraus abgeleitet werden. j) Die Umgebungshelligkeit (Beleuchtung von einem Fahrzeug, Straßenlaternen, Dämmerung, Tageslicht) stellen einen weiteren Parameter dar. Mit ihm kann eine Anpassung der Lichtstärke und eine Aktivierung einer gewünschten Lichtfunktion erfolgen. Die Leuchtdichte der Umgebungshelligkeit Lf kann daraus bestimmt werden. k) Ein Parameter kann der Abstand und/oder die Koordinaten zu einem vorausfahrenden oder entgegenkommenden Fahrzeug und die Fahrzeug-Topologie sein. Mit diesem Parameter kann eine exakte Einblendung eines Fahrzeugs erfolgen. Zusätzlich können aber auch bei Bekanntsein der Fahrzeug-Topologie auch Informationen oder Symbole auf ein Fremd-Fahrzeug projiziert werden. Die vertikale und horizontale Größe v, h der Lichtverteilung kann hieraus mitbestimmt werden. Beispielsweise kann die Größe der Logoprojektion auf ein Fahrzeug davon abhängig gemacht werden. Auch die Topographie Ts kann aus diesem Parameter mitbestimmt werden. Size v, h of the light distribution can be determined from this. The visibility S s of a light function can also be determined from this parameter. Likewise, a decision as to which function F should be displayed can be derived therefrom. (h) another parameter concerns the type of road and, where appropriate, 'points-of-interest' (urban environment, motorway, highway, construction site, accident, etc.) Depending on this parameter, activation of the desired lighting function may take place. Likewise can a decision as to which function F is to be displayed, derive therefrom. i) a further parameter can relate to the humidity of the lane. depending on an activation of the desired light function or a consideration in the illumination can be effected. the visibility S s The light function, the reflectivity R s and the luminance L s of the projection surface can be co-determined from this parameter Furthermore, a decision as to which function F is to be displayed can be derived from this j) The ambient brightness (illumination of a vehicle, street lamps, twilight , Daylight) represent another parameter. With him can an adjustment of the light intensity and an activation of a desired light function done. The luminance of the ambient brightness L f can be determined therefrom. k) A parameter may be the distance and / or the coordinates to a preceding or oncoming vehicle and the vehicle topology. With this parameter, an exact display of a vehicle can take place. In addition, however, even if the vehicle topology is known, information or symbols can also be projected onto a foreign vehicle. The vertical and horizontal size v, h of the light distribution can be determined from this. For example, the size of the logo projection on a Vehicle to be made dependent on it. The topography T s can also be determined from this parameter.
I) Ein weiterer Parameter kann der Nutzerwunsch oder eine Nutzeranforderung sein. Dieser/diese lässt sich über die Betätigung eines Knopfes, Eyetracking, Fahrverhalten, Stimmerkennung, Wohlbefinden und dergleichen erkennen. Somit kann die Aktivierung bzw. Anpassung einer gewünschten Lichtfunktion/Lichtverteilung erfolgen. Ebenso lässt sich eine Entscheidung, welche Funktion F dargestellt werden soll, hieraus ableiten. m) Auch Fahrzeugdaten wie etwa GPS und Geschwindigkeit können einen wichtigen Parameter darstellen. Hiermit ist eine Aktivierung bzw. Anpassung einer gewünschten Lichtfunktion/Lichtverteilung möglich. Die Geschwindigkeit von dem Fahrzeuginsassen vv kann daraus mitbestimmt werden. Außerdem lässt sich wiederum eine Entscheidung, welche Funktion F dargestellt werden soll, hieraus ableiten. n) Einen weiteren Parameter stellt die Innenbeleuchtung dar. Ebenfalls kann mit ihr eine Aktivierung bzw. Anpassung einer gewünschten Lichtfunktion/Lichtverteilung erfolgen. Beispielsweise kann bei aktiviertem Innenraumlicht das Vorfeld des Abblendlichts heller gestaltet werden. Die Leuchtdichte der Innenbeleuchtung Lf kann aus diesem Parameter bestimmt werden. o) Der Abstand einer gewünschten Projektion zu dem Ego-Fahrzeug ist als weiterer Parameter denkbar. Er kann zur Berechnung der Überlappung von linkem und rechtem Scheinwerfer zur korrekten Darstellung der Lichtverteilung dienen. Auch kann die Topographie Ts aus diesem Parameter mitbestimmt werden. p) Als weiterer Parameter kann ein Entscheidungsinput dienen, der die Entscheidung des Fahrers repräsentiert, wer ein Beobachter der Lichtfunktion sein soll. Diese Eingabe kann beispielsweise über einen Knopfdruck, eine MMI (Mensch-Maschine-Schnittstelle) oder eine APP erfolgen. Hierdurch kann vom Fahrer selbst entschieden werden, ob z. B. eine Logoprojektion aus seiner Sicht perspektivisch entzerrt werden soll oder aus Sicht eines Passanten. Diese Entscheidung ist dem Funktionsmapping (siehe unten) übergeordnet. Der Entscheidungspa- rameter E kann hieraus ermittelt werden. I) Another parameter may be the user request or a user request. This / this can be on the operation of a button, eye tracking, driving behavior, voice recognition, well-being and the like recognize. Thus, the activation or adaptation of a desired light function / light distribution can take place. Likewise, a decision as to which function F should be displayed can be derived therefrom. m) Also vehicle data such as GPS and speed can be an important parameter. This is an activation or adaptation of a desired light function / light distribution possible. The speed of the vehicle occupant v v can be co-determined from this. In addition, a decision as to which function F should be displayed can be derived therefrom. n) Another parameter is the interior lighting. It can also be used to activate or adapt a desired light function / light distribution. For example, with activated interior light, the apron of the low beam can be made lighter. The luminance of the interior lighting L f can be determined from this parameter. o) The distance of a desired projection to the ego vehicle is conceivable as another parameter. It can be used to calculate the overlap of the left and right headlamps to correctly display the light distribution. The topography T s can also be determined from this parameter. p) As a further parameter can serve a decision input, which represents the decision of the driver, who should be an observer of the light function. This input can be done, for example, by pressing a button, an MMI (Human Machine Interface) or an APP. This can be decided by the driver himself, whether z. B. a logo projection from his point of view should be equalized perspective or from the perspective of a passer. This decision is the Superordinate function mapping (see below). The decision parameter E can be determined from this.
Es können unterschiedliche Lichtfunktionen definiert werden. Diesen Licht- funktionen ist jeweils eine entsprechende Betrachtungsperspektive zugewiesen. Aus dieser Zuweisung ergibt sich ein sogenanntes„Funktionsmapping". Beispielsweise wird der Funktion„Baustellenlicht" die Fahrerperspektive zugewiesen, da die Beleuchtung einer Baustelle in erster Linie für den Fahrer von Bedeutung ist. Die Funktion „Beleuchtung eines Zebrastreifens" wäre einer Passantenperspektive zuzuordnen, da ein Passant den Zebrastreifen gut erkennen soll. Die Projektion eines Logo kann beispielsweise einer Fahrerperspektive in einer Voreinstellung zugewiesen sein. Gegebenenfalls kann diese Zuweisung durch MMI/APP geändert werden, so dass beispielsweise auch ein Passant das Logo gut sieht. Different lighting functions can be defined. These lighting functions are each assigned a corresponding viewing perspective. This assignment results in a so-called "function mapping." For example, the "construction site light" function is assigned the driver's perspective, since the lighting of a construction site is primarily of importance to the driver. The projection of a logo may, for example, be assigned to a driver's perspective in a default setting, if necessary this assignment can be changed by the MMI / APP, so that, for example, also a passerby sees the logo well.
Obige Tabelle zeigt, dass sich die Perspektiven, die sich für das Projizieren eines Lichtmusters von einem Fahrzeug aus ergeben, beispielsweise in vier Bereiche bzw. Kategorien eingeteilt werden können. Es ergeben sich damit Perspektiven bzw. Funktionen für einen Fahrer, einen Beifahrer, ein Fremdfahrzeug oder einen Passanten. Die jeweilige Funktion gewährleistet dann, dass die Projektion aus der entsprechenden Perspektive nicht verzerrt ist. In manchen Situationen kann es allerdings vorkommen, dass die Funktion nicht für die gewünschte Perspektive darstellbar ist. Dann muss entschieden wer- den, ob die Lichtfunktion bereitgestellt wird oder nicht. The above table shows that the perspectives that arise for projecting a light pattern from a vehicle can be classified, for example, into four areas or categories. This results in perspectives or functions for a driver, a passenger, a foreign vehicle or a pedestrian. The respective function then ensures that the projection is not distorted from the corresponding perspective. In some situations, however, it may happen that the function can not be displayed for the desired perspective. Then it has to be decided whether the lighting function is provided or not.
Im Folgenden wird ein beispielhafter Algorithmus zur Berechnung der gewünschten Lichtverteilung als Basis für die Steuerung der Leuchteinheit der Beleuchtungsvorrichtung beschrieben. Das Verfahren basiert auf dem Loch- kameramodell mit homogenen Koordinaten, wie es in Fig. 1 dargestellt ist. Ausgangspunkt ist beispielsweise ein Kamerazentrum Oc, das im vorliegenden Fall dem optischen Zentrum beispielsweise eines Scheinwerfers entspricht. Mit ihm soll eine 3D-Punktewolke erzeugt werden, von denen jeder Punkt beispielsweise durch einen Wert xw repräsentiert wird. Ein solcher Punkt befindet sich in der realen Welt in einem Koordinatensystem Ow. Es lässt sich eine 2D-Ebene bzw. Bildebene (2D) definieren, durch die jeder Projektionsstrahl von dem Scheinwerferzentrum Oc zu dem 3D-Punkt xw hindurchtritt und dort einen Punkt m definiert. Dieses Lochkameramodell kann dazu verwendet werden, ein bestimmtes Bild auf der Straße in ein zweidi- mensionales Bild bezogen auf die Scheinwerferebene umzurechnen. In the following, an exemplary algorithm for calculating the desired light distribution as a basis for the control of the lighting unit of the lighting device will be described. The method is based on the hole camera model with homogeneous coordinates, as shown in Fig. 1. Starting point, for example, a camera center O c , which corresponds in the present case, the optical center, for example, a headlamp. With it, a 3D point cloud is to be generated, each point of which is represented, for example, by a value x w . Such a point is located in the real world in a coordinate system O w . It For example, a 2D plane can be defined by which each projection beam passes from the headlight center O c to the 3D point x w and defines a point m there. This pinhole camera model can be used to convert a particular image on the road into a two-dimensional image relative to the headlight plane.
Die zweidimensionalen Koordinaten können mit den folgenden Gleichungen berechnet werden, wobei u und v zu den Bildebene-Koordinaten gehören und k zu den intrinsischen Kamera-Parametern. Π entspricht dem extrinsi- chen Kamera-Parameter. Das Straßenbild wird durch eine Punktewolke repräsentiert, wobei die Werte in X, Y und Z gespeichert sind. R und t entspricht einer Drehung bzw. Verschiebung zwischen der Kamera und den Welt-Rahmenkoordinaten. The two-dimensional coordinates can be calculated using the following equations, where u and v belong to the image plane coordinates and k to the intrinsic camera parameters. Π corresponds to the extrinsic camera parameter. The street scene is represented by a point cloud, the values being stored in X, Y and Z. R and t correspond to a rotation between the camera and the world frame coordinates.
Kf y  Kf y
K 0 Kf (4) 0 0 K 0 Kf (4) 0 0
Die Bildebene-Koordinaten sind (in Winkel umgerechnet) wie folgt gegeben The image plane coordinates are given (converted to angles) as follows
Die Winkelwerte können für eine beliebige Scheinwerfer-Technologie in Pi- xelpositionen umgerechnet sowie in einem entsprechenden Bild- oder Videoformat gespeichert werden. Das Verfahren benutzt auch eine trigometrische Annäherung zur Berechnung der zweidimensionalen Koordinaten Xp, Zp, wobei jeder Bildpunkt Χ,, Z, für eine bestimmte Beobachterkopfposition und Blickrichtung auf die Straße projiziert wird. Dabei wird vorausgesetzt, dass sich die Bildebene senkrecht zur Blickrichtung des Beobachters befindet. In dem vorliegenden Dokument wird die Koordinate X beispielsweise der Fahr- zeuglängsrichtung bzw. Fahrtrichtung, die Koordinate Z der Fahrbahn- Querrichtung und die Koordinate Y der Höhenrichtung des Fahrzeugs zugeordnet. Fig. 2 zeigt nun die Geometrie zur Berechnung der zweidimensionalen Koordinaten Xp und Zp auf einer Projektionsebene, z. B. einer Straße. Die obere Abbildung in Fig. 2 zeigt die Seitenansicht und die untere Abbildung die Draufsicht. hp entspricht der Beobachterkopfhöhe, ß der Blickrichtung in Bezug auf die Straße, α der lateralen Blickrichtung, b dem Abstand zwischen Beobachterkopf und Bildebene und hb repräsentiert den unteren Teil des Bildes und der Straße. Ein Fehler von ungefähr 2,5 % für Winkelwerte (a oder ß) bis zu 14° ist zu erwarten. Dieser Fehler wird berechnet aus dem Abstand zwischen den Bildpunkten von dem ursprünglichen Bild und denjenigen, die aus Fahrersicht mit dieser Methode berechnet sind. The angle values can be converted into pixel positions for any headlight technology and stored in a corresponding image or video format. The method also uses a trigometrische approach for calculating the two-dimensional coordinates X p, Z p, wherein each pixel Χ ,, Z, is projected for a particular observer head position and direction of view on the road. It is assumed that the image plane is perpendicular to the viewing direction of the observer. In the present document, the coordinate X, for example, of the driving tool longitudinal direction or direction of travel, the coordinate Z of the roadway transverse direction and the coordinate Y associated with the height direction of the vehicle. Fig. 2 now shows the geometry for calculating the two-dimensional coordinates X p and Z p on a projection plane, z. B. a street. The upper illustration in FIG. 2 shows the side view and the lower illustration the top view. h p corresponds to the observer head height, β the viewing direction with respect to the road, α the lateral viewing direction, b the distance between the observer's head and the image plane and h b represents the lower part of the image and the road. An error of approximately 2.5% for angles (a or ß) up to 14 ° is to be expected. This error is calculated from the distance between the pixels of the original image and those calculated from the driver's perspective using this method.
Die zweidimensionalen Koordinaten Xp und Zp auf der Projektionsebene ergeben sich gemäß folgenden Gleichungen: The two-dimensional coordinates X p and Z p on the projection plane are given by the following equations:
Im Zusammenhang mit Fig. 3 wird nun kurz erläutert, wie aus den oben genannten Parametern bzw. unterschiedlichen Sensordaten Informationen gewonnen werden, um die notwendigen physikalischen bzw. geometrischen Werte zu bestimmen. Falls nicht anders angegeben, sind alle Werte auf einen globalen Bezugspunkt auf der Straße bezogen. So stellt ε den Winkel zwischen dem/den Beobachter(n) BO von der Mitte der Straßenfläche bzw. Projektionsebene PE dar, worauf das Bild Bl projiziert wird. Die Koordinaten jeder Ecke des Abschnitts der Straßenfläche, d.h. der Projektionsebene PE, worauf das Bild Bl projiziert wird, lauten: , Zi ...Xn, Zn. In dem Beispiel von Fig. 3 befindet sich auf der Projektionsebene ein zusätzliches Objekt OB. In der Draufsicht ergibt sich dann die Topographie Ts gemäß der obersten Abbildung in Fig. 3. Das Fahrzeug wird durch die beiden Scheinwerfer mit den Blick- bzw. Strahlrichtungsvektoren Si und S2 symbolisiert. Es bewegt sich mit der Geschwindigkeit vs. Die Topographie Ts für die Umgebung vor dem Fahrzeug ergibt sich im Hinblick auf den Projektionsstrahl in der Seitenansicht gemäß dem mittleren Bild von Fig. 3. Das untere Bild von Fig. 3 zeigt schließlich den Reflexionsstrahl, den der Beobachter BO wahrnimmt. Dieser führt zusammen mit allen anderen Reflexionsstrahlen in einer Bildebene zu einem Bild Bl. Aus Projektionsstrahl und Reflexionsstrahl ergibt sich die entsprechende Perspektive des Beobachters BO. Für die Steuerung der Beleuchtungsvorrichtung kann der Beobachter BO einen Entscheidungspara- meter E beeinflussen. In connection with FIG. 3, it is now briefly explained how information is obtained from the above-mentioned parameters or different sensor data in order to determine the necessary physical or geometric values. Unless otherwise indicated, all values refer to a global reference point on the road. Thus, ε represents the angle between the observer (s) BO from the center of the road surface or projection plane PE, whereupon the image Bl is projected. The coordinates of each corner of the portion of the road surface, ie the projection plane PE on which the image Bl is projected, are:, Zi ... X n , Z n . In the example of FIG. 3, an additional object OB is located on the projection plane. In top view, the topography T s then results according to the uppermost illustration in FIG. 3. The vehicle is illuminated by the two headlights View or beam direction vectors Si and S 2 symbolizes. It moves at the speed v s . The topography T s for the surroundings in front of the vehicle is obtained with regard to the projection beam in the side view according to the middle image of FIG. 3. Finally, the lower image of FIG. 3 shows the reflection beam which the observer BO perceives. This leads, together with all other reflection beams in an image plane, to an image Bl. The projection beam and the reflection beam result in the corresponding perspective of the observer BO. For the control of the lighting device, the observer BO can influence a decision parameter E.
Nachdem nun alle Eingangsparameter ermittelt bzw. bereitgestellt sind, kann eine entsprechende geometrische Berechnung erfolgen, mit der die jeweils notwendigen Pixel in einer zweidimensionalen Scheinwerferebene aktiviert werden müssen, um ein bestimmtes Bild für einen bestimmten Beobachter zu generieren. Die Intensität ist in dieser Rechnung noch nicht berücksichtigt, wird aber in einem späteren Schritt eigenständig ermittelt. Now that all input parameters have been determined or provided, a corresponding geometric calculation can be carried out with which the respectively required pixels in a two-dimensional headlight plane must be activated in order to generate a specific image for a specific observer. The intensity is not yet included in this calculation, but will be determined independently in a later step.
Fig. 4 zeigt einen Workflow für die geometrische Berechnung zu einem be- stimmten Zeitpunkt t. In einem ersten Schritt S1 werden Eingangsparameter wie etwa die Funktion F (z. B. Baustellenlicht, Logodarstellung etc.), die Topographie Ts oder der Entscheidungsparameter E (z. B. Fahrer oder Passant als Beobachter) bereitgestellt. In einem nachfolgenden Schritt S2 wird automatisch oder manuell entschieden, ob ein Projizieren erwünscht ist. Uner- wünscht ist es beispielsweise wenn die Topographie nicht passt oder ein Auto unmittelbar vorausfährt. Im anschließenden Schritt S3, wenn die Projektion erwünscht ist, werden physikalische Parameter wie vf, Lf, Ss, Rs, U, vs oder dergleichen berechnet. Im anschließenden Schritt S4 wird entschieden, ob das Projizieren nach wie vor möglich ist. Beispielsweise ist das Projizieren nicht möglich, wenn die Geschwindigkeit bei ständig wechselnder Projektionsebene zu hoch ist. Falls das Projizieren möglich ist, wird in Schritt S5 abgefragt, ob das Projizieren noch erwünscht ist. Falls nicht, wird zu Schritt S1 zurückgegangen. Falls das Projizieren noch erwünscht ist, werden in Schritt S6 aus den Eingangsparametern von Schritt S1 Beobachterparameter und Projektionsflächenparameter extrahiert. Hierzu zählen die Kopfposition und die Blickrichtung einerseits und die Leuchtdichte andererseits. Anschließend wird überprüft, ob die Projektionsebene gleich der Bildebene ist. Falls dem nicht so ist, wird das nachfolgende Verfahren 1 durchgeführt. Wenn hingegen die Projektionsebene gleich der Bildebene ist und der Beobachter bei- spielsweise senkrecht auf die Straße blickt, auf die das Bild bzw. Lichtmuster projiziert wird, so wird Verfahren 2 angewandt. Das Verfahren 2 basiert auf dem Lochkameramodell und ist wesentlicher einfacher als das Verfahren 1 . Das Verfahren 1 gliedert sich in folgende Schritte: 4 shows a workflow for the geometric calculation at a specific time t. In a first step S1, input parameters such as the function F (eg construction site light, logo representation etc.), the topography T s or the decision parameter E (eg driver or passerby as observer) are provided. In a subsequent step S2, it is automatically or manually decided whether projecting is desired. For ex- ample, it is undesirable if the topography does not fit or if a car is driving ahead. In the subsequent step S3, when the projection is desirable physical parameters such as v f, L f, S s, R s, U, V s or the like are calculated. In the subsequent step S4, it is decided whether the projecting is still possible. For example, projecting is not possible if the speed is too high with the projection plane constantly changing. If projecting is possible, a query is made in step S5 as to whether projecting is still desired. If not, then step S1 is returned. If projecting is still desired, in step S6, observer parameters and projection surface parameters are extracted from the input parameters of step S1. These include the head position and the viewing direction on the one hand and the luminance on the other. It is then checked whether the projection plane is the same as the image plane. If not, the following procedure 1 is performed. If, on the other hand, the projection plane is the same as the image plane and the observer For example, looking perpendicular to the road onto which the image or light pattern is projected, method 2 is applied. The method 2 is based on the hole camera model and is much simpler than the method 1. The method 1 is divided into the following steps:
1 . Schritt: Das Bild wird binarisiert und diejenigen Punkte, die beleuchtet sein sollen, werden extrahiert und als Koordinaten Χ,, Z, (Bildebene) gespeichert. 2. Schritt: Basierend auf den Werten von Xf, Yf, Zf, r, ε, Xi , Zi ... Xn, Zn, h, v und den Gleichungen (7) und (8) wird jeder Punkt in Χ,, Z, skaliert (d.h. an die Projektionsebene angepasst) und auf die durch die Punkte Xi , Zi ...Xn, Zn definierte Fläche projiziert und der Topologie Ts angepasst. Wenn Χ,, Z, eine binäre Matrix bildet, ist die Anpassung an eine bestimmte Topographie als das Hadamard-Produkt zwischen der Matrix bei Χ,, Z, und der Topographie- Matrix Ts definiert (hier nur als binäre Matrix betrachtet). Falls beide Matrizen nicht dieselbe Größe haben, können Interpolationsverfahren benutzt werden. 1 . Step: The image is binarized and those points that should be illuminated are extracted and stored as coordinates Χ, Z, (image plane). Step 2: Based on the values of X f, Y f, Z f, r, ε, Xi, Zi ... X n, Z n, h, v and the equations (7) and (8), each point in Χ ,, Z, scaled (ie adapted to the projection plane) and projected onto the surface defined by the points Xi, Zi ... X n , Z n and adapted to the topology T s . If Χ ,, Z, forms a binary matrix, is the adaptation to a particular topography as the Hadamard product between the matrix at Χ ,, Z, and the topography matrix T s is defined (here only as binary matrix considered). If both matrices are not the same size, interpolation techniques can be used.
3. Schritt: Die durch die Punkte Xi , Zi ...Xn, Zn definierte Fläche wird in Sub- flächen aufgetrennt. Beispielsweise kann jeder Scheinwerfer, die zusammen die Leuchteinheit einer Beleuchtungsvorrichtung bilden, eine Subfläche beleuchten. 3rd step: The surface defined by the points Xi, Zi ... X n , Z n is split into subfaces. For example, each headlamp, which together form the lighting unit of a lighting device, illuminate a sub-area.
4. Schritt: Basierend auf den Werten von Xsi , Ysi , Zsi ,...,Si ... und den Glei- chungen (1 ) bis (6) sowie der Trennung in Schritt S3 wird eine 2D-Projektion für jeden Scheinwerfer berechnet. 4th step: Based on the values of X s i, Y s i, Z s i,..., Si... And the equations (1) to (6) and the separation in step S3, a 2D Projection calculated for each headlight.
5. Schritt: Basierend auf der Scheinwerfer-Technologie und -geometrie wird jede 2D-Projektion (also die ebene Punkteverteilung) in ein bestimmtes Bild- Format spezifisch für den Scheinwerfer umgerechnet (die Pixelintensität basiert auf der Pixelintensitäts-Rechnung). Step 5: Based on the headlight technology and geometry, each 2D projection (ie, the flat dot distribution) is converted into a specific image format specific to the headlight (the pixel intensity is based on the pixel intensity calculation).
6. Schritt: Basierend auf vs und vf kann jedes Bild in eine Videosequenz umgewandelt werden. Step 6: Based on v s and v f , each image can be converted into a video sequence.
Basierend auf den Umständen gibt es unterschiedliche Optimierungsmöglichkeiten, um die Latenzzeit zu reduzieren, wie z. B. Integrieren des zweiten bis vierten Schritts in eine einzige Matrixoperation. Außerdem ist es möglich, das ursprüngliche Bild und das durch diese Methode erzeugte Bild zu vergleichen, um ein Qualitätskriterium zu erhalten. Based on the circumstances, there are various optimization options to reduce latency, such as: B. Integrating the second through fourth steps into a single matrix operation. It is also possible compare the original image and the image generated by this method to obtain a quality criterion.
Die Figuren 5 bis 7 zeigen ein Beispiel, bei dem das Audi-Logo für die Fah- rerperspektive auf die Straße projiziert wird. Dazu zeigt Fig. 5 die Geometrie in der Seitenansicht. Ein Scheinwerfer SW projiziert ein Lichtmuster auf eine Projektionsebene PE, woraus sich für den Beobachter BO in einer Bildebene ein Bild Bl ergibt. Die resultierende Perspektive entspricht hier beispielsweise einer Fahrerperspektive. In der Frontansicht, bei der die Querkoordinate Z horizontal und die Höhenkoordinate Y vertikal aufgetragen ist, ergibt sich die Konstellation von Fig. 6. Der linke Scheinwerfer SWL soll zusammen mit dem rechten Scheinwerfer SWR das unverzerrte Audi-Logo für den Fahrer bzw. Beobachter BO, der zwischen beiden Scheinwerfern positioniert ist, projizieren. Dazu wird ein ursprüngliches bzw. gewünschtes Lichtmuster ent- sprechend der Abbildung links oben in Fig. 7 vorgegeben. In dieser gewünschten Form ist bereits die Projektionsebene und die Position des Beobachters bzw. Fahrers berücksichtigt. Da aber nun zwei Scheinwerfer in unterschiedlichen Positionen das Lichtmuster erzeugen sollen, müssen entsprechende Bilder bzw. Ansteuersignale entsprechend den Darstellungen auf der rechten Seite von Fig. 7 für den linken Scheinwerfer SWL und den rechten Scheinwerfer SWR ermittelt werden. Zusammen ergibt sich für den Beobachter BO aus seiner Perspektive dann das rekonstruierte Bild aus Fig. 7 links unten. Das zweite in Fig. 4 angedeutete Verfahren beinhaltet folgende Schritte: FIGS. 5 to 7 show an example in which the Audi logo for the driver's perspective is projected onto the road. For this purpose, Fig. 5 shows the geometry in the side view. A headlight SW projects a light pattern onto a projection plane PE, resulting in an image Bl for the observer BO in an image plane. The resulting perspective here corresponds, for example, to a driver's perspective. In the front view, in which the transverse coordinate Z is applied horizontally and the vertical coordinate Y vertically, the constellation of FIG. 6 results. The left-hand headlamp SWL, together with the right-hand headlamp SWR, should display the undistorted Audi logo for the driver or observer BO Projecting between two headlamps project. For this purpose, an original or desired light pattern is given in accordance with the illustration on the top left in FIG. In this desired form, the projection plane and the position of the observer or driver are already taken into account. Since, however, two headlights in different positions should generate the light pattern, corresponding images or drive signals corresponding to the illustrations on the right side of FIG. 7 for the left headlight SWL and the right headlight SWR must be determined. Together, for the observer BO, the reconstructed image from FIG. 7 then appears from the bottom on the left. The second method indicated in FIG. 4 includes the following steps:
1 . Schritt: Wie in Verfahren 1 1 . Step: As in Procedure 1
2. Schritt: Basierend auf den Werten von Xi, Zi ...Xn, Zn, h, v wird jeder Punkt Xi, Z, in der Bildebene skaliert und auf die durch die Punkte Xi , Zi ...Xn, Zn definierte Fläche sowie an die Topographie Ts angepasst. Step 2: Based on the values of Xi, Zi ... X n, Z n, h, v, each point Xi, Z, scaled in the image plane and passing through the points Xi, Zi ... X n, Z n defined surface and adapted to the topography T s .
3. bis 6. Schritt: Wie in Verfahren 1 Wie für Verfahren 1 gibt es auch für Verfahren 2 unterschiedliche Optimierungsmöglichkeiten, um die Latenzzeit zu reduzieren. Beispielsweise kann eine Integration der Schritte 2 bis 4 in eine einzige Matrixoperation erfolgen. Die Figuren 8 und 9 zeigen eine mögliche Lichtverteilung für die beiden Scheinwerfer. Fig. 8 zeigt links ein Fahrzeug FZ, das auf einer Fahrbahn einer Straße einen rechteckigen Lichtteppich erzeugen soll. Dabei soll der linke Scheinwerfer einen linken Lichtteppich LTL und der rechte Scheinwerfer einen rechten Lichtteppich LTR erzeugen. Das Bild in Fig. 8 rechts zeigt in gespiegelter Ansicht die Strahlenverläufe für die Ecken der Leuchtteppiche LTL und LTR bezogen auf die beiden Scheinwerfer SWL und SWR. Steps 3 to 6: As in Method 1 As for Method 1, there are also different optimization possibilities for Method 2 in order to reduce latency. For example, integration of steps 2 to 4 can be done in a single matrix operation. Figures 8 and 9 show a possible light distribution for the two headlights. 8 shows on the left a vehicle FZ which is to produce a rectangular carpet of light on a roadway of a road. The left-hand headlamp should produce a left-hand carpet LTL and the right-hand headlamp a right-hand carpet LTR. The image in FIG. 8 right shows, in a mirrored view, the beam paths for the corners of the illuminated carpets LTL and LTR with respect to the two headlights SWL and SWR.
Fig. 9 gibt das 2D-Bild jedes der Scheinwerfer SWL und SWR auf der jewei- ligen Scheinwerferebene wieder. Dies bedeutet, dass in jedem der Scheinwerfer diejenigen Pixel leuchten müssen, die in dem jeweils markierten Bereich liegen. Zusammen mit der Scheinwerfergeometrie und— optik sowie der gewählten Projektionsebene ergibt sich dann der Lichtteppich mit den beiden Teilen LTL und LTR. FIG. 9 shows the 2D image of each of the headlights SWL and SWR on the respective headlight level. This means that in each of the headlights, those pixels must be lit that are in the respectively marked area. Together with the headlight geometry and optics as well as the selected projection plane, the carpet of light then results with the two parts LTL and LTR.
Im Folgenden soll erläutert werden, wie die Pixelintensität zu berechnen ist. Basierend auf den Werten Lf, Ss, Rs, Ls, Ts sowie den Parametern von Beobachter und Projektionsebene bzw. Straßenfläche, den Vorgaben der Straßenverkehrsordnung, der Geometrie der Scheinwerfer und deren Technolo- gie, der Anzahl der Scheinwerfer und der 2D-Projektionen, die mit den Verfahren 1 und 2 gerechnet werden, kann diejenige Intensität pro Pixel berechnet werden, die benötigt wird, um eine gewünschte Lichtverteilung auf der Straße zu erzeugen. Im Folgenden sollen beispielhaft die Überlappungsbereiche für zwei oder mehr Scheinwerfer bestimmt werden. Die gewünschte Lichtverteilung x kann aus der Summe aller überlappenden Bilder yk multipliziert mit dem Faktor Ak für alle überlappenden Scheinwerfer K berechnet werden entsprechend der Formel: The following explains how to calculate the pixel intensity. Based on the values L f , S s , R s , L s , T s and the parameters of observer and projection plane or road surface, the requirements of the Highway Code, the geometry of the headlights and their technology, the number of headlights and the 2D projections calculated by methods 1 and 2 can calculate the intensity per pixel needed to produce a desired light distribution on the road. In the following, the overlapping areas for two or more headlamps are to be determined by way of example. The desired light distribution x can be calculated from the sum of all overlapping images y k multiplied by the factor A k for all overlapping headlights K according to the formula:
Fig. 10 zeigt oben die gewünschte Lichtverteilung in Summe. Diese setzt sich aus der Lichtverteilung des linken Scheinwerfers SWL addiert mit der Lichtverteilung des rechten Scheinwerfers SWR zusammen. Fig. 10 shows above the desired light distribution in total. This consists of the light distribution of the left headlamp SWL added to the light distribution of the right headlamp SWR together.
Die Überlappung von mehreren Scheinwerferbildern kann zum einen die Intensität erhöhen, aber es kann auch die Auflösung verbessert werden. Fig. 1 1 zeigt ein Workflow-Diagramm zur Berechnung der Pixelintensität. In Schritt S10 werden alle physikalischen und geometrischen Eingangsparameter für die Intensitätsberechnung bereitgestellt. Im anschließenden Schritt S1 1 wird überprüft, ob überlappende Bereiche vorhanden sind. Wenn nicht, erfolgt ein Sprung zu Schritt S12. Wenn jedoch überlappende Bereiche vorhanden sind, erfolgt ein Sprung zu Schritt S13, in dem eine Vorverarbeitung der Daten beispielsweise hinsichtlich einer erhöhten Auflösung oder spezieller Effekte erfolgt. Anschließend wird ebenfalls zu Schritt S12 gesprungen. In Schritt S12 wird überprüft, ob die interessierenden Geschwindigkeiten klein und die betroffene Topographie Ts sehr komplex ist. Falls diese UND- Bedingung erfüllt ist, kann eine zeitintensive Berechnung in Schritt S13 durchgeführt werden. Dabei kann beispielsweise eine 3D-Bildverarbeitung mit sogenanntem„Render" bzw.„Inverse Rateracing" erfolgen. Anschließend wird in Schritt S14 eine Bildsequenz pro Scheinwerfer erzeugt. The overlap of multiple headlamp images can increase the intensity, but it can also improve the resolution. Fig. 1 1 shows a workflow diagram for calculating the pixel intensity. In step S10, all physical and geometric input parameters are provided for the intensity calculation. In the subsequent step S1 1 it is checked whether overlapping areas are present. If not, a jump is made to step S12. However, if there are overlapping areas, a jump is made to step S13 where preprocessing of the data is made for, for example, increased resolution or special effects. Subsequently, it also jumps to step S12. In step S12 it is checked whether the speeds of interest are small and the affected topography T s is very complex. If this AND condition is satisfied, a time-consuming calculation can be performed in step S13. In this case, for example, a 3D image processing with so-called "render" or "inverse rateracing" done. Subsequently, an image sequence per headlight is generated in step S14.
Falls jedoch die UND-Bedingung von Schritt S12 nicht erfüllt ist und beispielsweise eine der Geschwindigkeiten groß ist, wird in Schritt S15 ein vorgegebenes Kriterium, z. B. die Homogenität oder ein gewünschter Intensitätsverlauf überprüft. Anschließend wird in Schritt S16 die Intensität pro Pixel ermittelt. Sodann wird in Schritt S17 eines der Verfahren 1 oder 2 zur Berechnung der Projektionsgeometrie bzw. der Pixelpositionen durchgeführt. Anschließend erfolgt hier ebenfalls ein Sprung zu Schritt S14. However, if the AND condition of step S12 is not satisfied and, for example, one of the speeds is large, a predetermined criterion, e.g. B. checks the homogeneity or a desired intensity profile. Subsequently, the intensity per pixel is determined in step S16. Then, in step S17, one of the methods 1 or 2 for calculating the projection geometry and the pixel positions is performed. This is followed by a jump to step S14.
In vorteilhafter Weise bieten Lichtfunktionen, wie sie nach den beschriebe- nen Schemen gebildet werden können, gegenüber anderen Fahrerassistenzsystemen wie Head-Up-Displays die Möglichkeit, die Sichtbarkeit von Objekten in der Umwelt tatsächlich zu verbessern oder zu verschlechtern. Zudem können Lichtassistenz-Funktionen beim zukünftigen pilotierten Fahren dazu beitragen, mit der Umwelt zu kommunizieren und zu interagieren. Durch die Anpassung des Abblendlichts an die oben genannten Parameter kann der Fahrer in seiner Seh- und Wahrnehmungsaufgabe unterstützt werden. Bei einer konkreten technischen Umsetzung kann eine spezialisierte GPU (Graphic Processor Unit) mit einem Scheinwerfer, einem Steuergerät (auf dem das oben genannte Verfahren implementiert ist) und einer Sensorik für die benötigten Sensordaten verbunden sein. Dabei kann eine Umsetzung in einer Architektur und Programmiersprache erfolgen, die für eine normale Latenzzeit optimiert ist. Beim Scheinwerfer ist es von Vorteil, wenn es sich um einen hochauflösenden Scheinwerfer handelt, z. B. auf der Basis von DMD (Digital Micro Device) oder Scanner mit mindestens 100 Pixel. Bei der Entwicklung zukünftiger Lichtfunktionen sind diese so zu wählen, dass sie den Fahrer unterbe- wusst unterstützen, ohne ihn abzulenken. Lichtfunktionen im Abblendlicht sind bei nasser Fahrbahn, zu heller Fremdbeleuchtung sowie einem vorausfahrenden Fahrzeug nicht sichtbar und müssen dementsprechend situati- onsbezogen eingesetzt werden. Advantageously, light functions, as can be formed according to the described schemes, offer the possibility of actually improving or worsening the visibility of objects in the environment compared to other driver assistance systems, such as head-up displays. In addition, light assist functions in future piloted driving can help to communicate and interact with the environment. By adapting the low beam to the above parameters, the driver can be supported in his vision and perception task. In a specific technical implementation, a specialized GPU (Graphic Processor Unit) with a headlight, a control unit (on which the above method is implemented) and a sensor system for the required sensor data may be connected. It can be implemented in an architecture and programming language that is optimized for normal latency. When the headlight, it is advantageous if it is a high-resolution headlight, z. B. based on DMD (Digital Micro Device) or scanner with at least 100 pixels. When developing future lighting functions, these should be selected in such a way that they unconsciously support the driver without distracting him. Light functions in the dipped beam are not visible on wet roads, too bright external lighting or a vehicle driving in front of the vehicle and must therefore be used in a situational manner.

Claims

PATENTANSPRÜCHE: CLAIMS:
1 . Verfahren zum Projizieren eines vorgebbaren Lichtmusters mittels einer Beleuchtungsvorrichtung eines Fahrzeugs (FZ) in eine Umgebung des Fahrzeugs durch 1 . A method for projecting a predeterminable light pattern by means of a lighting device of a vehicle (FZ) in an environment of the vehicle
- Ermitteln einer Projektionsfläche (PE) in der Umgebung des Fahrzeugs (PZ),  Determining a projection surface (PE) in the vicinity of the vehicle (PZ),
- Ermitteln oder Bereitstellen einer Position eines vorbestimmten Beobachters (BO),  Determining or providing a position of a predetermined observer (BO),
- pixelweises Steuern einer Leuchteinheit (SW) der Beleuchtungsvorrichtung in Abhängigkeit von der ermittelten Projektionsfläche (PE) und der ermittelten Position des vorbestimmten Beobachters (BO) zum Erzeugen des vorgebbare Lichtmusters,  pixel-by-pixel control of a lighting unit (SW) of the lighting device in dependence on the determined projection area (PE) and the determined position of the predetermined observer (BO) for generating the predefinable light pattern,
dadurch gekennzeichnet, dass characterized in that
- bei dem Ermitteln der Projektionsfläche (PE) eine Positionsänderung des Fahrzeugs (FZ) oder eines Objekts (OB) in der Umgebung des Fahrzeugs berücksichtigt wird, oder  - In the determination of the projection surface (PE) a change in position of the vehicle (FZ) or an object (OB) is taken into account in the environment of the vehicle, or
- bei dem Ermitteln oder Bereitstellen einer Position eines vorbestimmten Beobachters (BO) dessen Trajektorie berücksichtigt wird.  - When determining or providing a position of a predetermined observer (BO) whose trajectory is taken into account.
2. Verfahren nach Anspruch 1 , wobei der vorbestimmte Beobachter (BO) ein Fahrer oder Beifahrer des Fahrzeugs oder ein Passant an einer vorbestimmten Position außerhalb des Fahrzeugs (FZ) oder eine Person in einem vorbeifahrenden Fahrzeug ist. 2. The method of claim 1, wherein the predetermined observer (BO) is a driver or passenger of the vehicle or a passer at a predetermined position outside the vehicle (FZ) or a person in a passing vehicle.
3. Verfahren nach einem der vorhergehenden Ansprüche, wobei bei dem Ermitteln der Projektionsfläche (PE) eine Topografie (Ts)vor dem Fahrzeug analysiert wird. 3. The method according to any one of the preceding claims, wherein in the determination of the projection surface (PE) a topography (T s ) is analyzed in front of the vehicle.
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei bei dem pixelweisen Steuern der Leuchteinheit (SW) der Beleuchtungsvorrichtung eine Eigenschaft der Umgebung berücksichtigt wird. 4. The method according to any one of the preceding claims, wherein in the pixel-by-pixel control of the lighting unit (SW) of the lighting device, a property of the environment is taken into account.
5. Verfahren nach einem der vorhergehenden Ansprüche, wobei bei dem pixelweisen Steuern der Leuchteinheit (SW) der Beleuchtungsvorrichtung ein vorausfahrendes oder entgegenkommendes Fahrzeug, aktuelle Fahrzeugdaten, eine Information des oder über den Fahrer oder ein Abstand des Lichtmusters von dem Fahrzeug (FZ) berücksichtigt wird. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Beleuchtungsvorrichtung als Leuchteinheit (SW) mehrere Scheinwerfer aufweist, und bei dem pixelweisen Steuern der Beleuchtungsvorrichtung die Scheinwerfer so angesteuert werden, dass sich das vorgebbare Lichtmuster auf der Projektionsfläche ergibt. 5. The method according to any one of the preceding claims, wherein in the pixel-by-pixel control of the lighting unit (SW) of the lighting device, a preceding or oncoming vehicle, current vehicle data, information of or about the driver or a distance of the light pattern from the vehicle (FZ) is taken into account , Method according to one of the preceding claims, wherein the lighting device as a lighting unit (SW) has a plurality of headlights, and in the pixel-wise controlling the lighting device, the headlights are controlled so that the predetermined light pattern results on the projection surface.
Beleuchtungsvorrichtung für ein Fahrzeug (FZ) mit Lighting device for a vehicle (FZ) with
- einer Leuchteinheit (SW),  - a lighting unit (SW),
- einer Recheneinrichtung zum Ermitteln einer Projektionsfläche (PE) in der Umgebung des Fahrzeugs (FZ) und zum Ermitteln oder Bereitstellen einer Position eines vorbestimmten Beobachters (BO) und  - A computing device for determining a projection surface (PE) in the vicinity of the vehicle (FZ) and for determining or providing a position of a predetermined observer (BO) and
- einer Steuereinrichtung zum pixelweisen Steuern der Leuchteinheit (SW) in Abhängigkeit von der ermittelten Projektionsfläche (PE) und der ermittelten Position des vorbestimmten Beobachters (BO) zur Erzeugung des vorgebbare Lichtmusters,  a control device for pixel-wise controlling the lighting unit (SW) as a function of the determined projection surface (PE) and the determined position of the predetermined observer (BO) for generating the predeterminable light pattern,
dadurch gekennzeichnet, dass characterized in that
- die Recheneinrichtung dazu ausgebildet ist,  the computing device is designed to
o bei dem Ermitteln der Projektionsfläche (PE) eine Positionsänderung des Fahrzeugs (FZ) oder eines Objekts (OB) in der Umgebung des Fahrzeugs zu berücksichtigen, oder o bei dem Ermitteln oder Bereitstellen einer Position eines vorbestimmten Beobachters (BO) dessen Kopfposition und/oder Trajektorie zu berücksichtigen.  o to take into account a change in position of the vehicle (FZ) or of an object (OB) in the surroundings of the vehicle when determining the projection surface (PE), or o in determining or providing a position of a predetermined observer (BO) whose head position and / or Trajectory to consider.
Fahrzeug mit einer Beleuchtungsvorrichtung nach Anspruch 7. Vehicle with a lighting device according to claim 7.
EP16770285.1A 2015-09-25 2016-09-23 Projection of a pre-definable light pattern Active EP3353013B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015012416.1A DE102015012416A1 (en) 2015-09-25 2015-09-25 Projecting a predefinable light pattern
PCT/EP2016/072725 WO2017050986A1 (en) 2015-09-25 2016-09-23 Projection of a pre-definable light pattern

Publications (2)

Publication Number Publication Date
EP3353013A1 true EP3353013A1 (en) 2018-08-01
EP3353013B1 EP3353013B1 (en) 2020-08-12

Family

ID=56985627

Family Applications (1)

Application Number Title Priority Date Filing Date
EP16770285.1A Active EP3353013B1 (en) 2015-09-25 2016-09-23 Projection of a pre-definable light pattern

Country Status (5)

Country Link
US (1) US10293745B2 (en)
EP (1) EP3353013B1 (en)
CN (1) CN108025672B (en)
DE (1) DE102015012416A1 (en)
WO (1) WO2017050986A1 (en)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017103886A1 (en) 2017-02-24 2018-08-30 Osram Opto Semiconductors Gmbh Arrangement for illuminating and recording a moving scene
JP7000114B2 (en) * 2017-10-24 2022-01-19 スタンレー電気株式会社 Optical axis change method and control system for road surface drawing for automobiles
DE102017223441B4 (en) 2017-12-20 2019-10-31 Audi Ag Light control device for the division of a light distribution
DE102017223439B4 (en) * 2017-12-20 2019-08-08 Audi Ag Warning device against dangerous situations for a motor vehicle
DE102018200002A1 (en) * 2018-01-02 2019-07-04 Ford Global Technologies, Llc Voice control of a vehicle light
CN111670318B (en) * 2018-02-09 2023-08-22 大日本印刷株式会社 Lighting device, lighting device designing method and lighting device designing device
DE102018218038A1 (en) * 2018-10-22 2020-04-23 Volkswagen Aktiengesellschaft System and method for projecting informational content for a motor vehicle
WO2020108761A1 (en) 2018-11-29 2020-06-04 HELLA GmbH & Co. KGaA Headlamp for a vehicle, vehicle with a headlamp and method of driving a headlamp
FR3096824B1 (en) * 2019-05-29 2021-10-01 Valeo Vision Method for providing a light pattern and lighting device for a motor vehicle
CN111439195A (en) * 2019-07-15 2020-07-24 长城汽车股份有限公司 Method for projecting pattern by using car lamp, car lamp system and car
CN112519670B (en) * 2019-09-17 2024-03-05 宝马股份公司 Reversing indication method and reversing indication system for motor vehicle and motor vehicle
CN111385947B (en) * 2020-03-23 2022-04-26 北京经纬恒润科技股份有限公司 Control method and device applied to pixel lamp
CN115485728A (en) * 2020-04-24 2022-12-16 法雷奥照明公司 Method for managing image data and vehicle lighting system
KR102446274B1 (en) * 2020-11-30 2022-09-22 현대모비스 주식회사 Apparatus for emitting road surface infromation and method thereof
WO2023090330A1 (en) * 2021-11-19 2023-05-25 株式会社小糸製作所 Lighting system and lamp controller and control method
FR3130937A1 (en) * 2021-12-16 2023-06-23 Valeo Vision Adaptation of the beam of a light module according to the load of a vehicle
US11607987B1 (en) 2022-03-02 2023-03-21 Ford Global Technologies, Llc Multi-functional headlamp and image projector
DE102022127219A1 (en) 2022-10-18 2024-04-18 HELLA GmbH & Co. KGaA Headlights for vehicles and control procedures

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006050548B4 (en) 2006-10-26 2014-05-08 Bayerische Motoren Werke Aktiengesellschaft Procedure for warning other road users
DE102006050546B4 (en) 2006-10-26 2020-07-23 Bayerische Motoren Werke Aktiengesellschaft Information presentation method
JP5255301B2 (en) * 2008-03-12 2013-08-07 株式会社小糸製作所 Vehicle headlamp device
JP5719697B2 (en) * 2011-06-10 2015-05-20 株式会社小糸製作所 Vehicle headlamp device
GB2499579B (en) 2012-02-07 2014-11-26 Two Trees Photonics Ltd Lighting device
JP5761119B2 (en) * 2012-05-17 2015-08-12 株式会社デンソー In-vehicle lighting system
US8733939B2 (en) 2012-07-26 2014-05-27 Cloudcar, Inc. Vehicle content projection
JP5790698B2 (en) 2013-04-11 2015-10-07 トヨタ自動車株式会社 Information display device and information display method
DE102013216318A1 (en) * 2013-08-16 2015-02-19 Volkswagen Aktiengesellschaft A method of controlling a headlamp assembly for a vehicle and headlamp assembly
DE102014000935A1 (en) * 2014-01-22 2015-07-23 Johannes Reusch Method and arrangement for generating a traffic light display for vehicles
JP6372376B2 (en) * 2014-02-10 2018-08-15 株式会社デンソー Headlight control device
WO2017019725A1 (en) * 2015-07-28 2017-02-02 Wenasont Dynamics Llc System and method for light and image projection

Also Published As

Publication number Publication date
US10293745B2 (en) 2019-05-21
CN108025672B (en) 2020-05-15
EP3353013B1 (en) 2020-08-12
US20190016256A1 (en) 2019-01-17
CN108025672A (en) 2018-05-11
DE102015012416A1 (en) 2017-03-30
WO2017050986A1 (en) 2017-03-30

Similar Documents

Publication Publication Date Title
EP3353013B1 (en) Projection of a pre-definable light pattern
DE102014107158B4 (en) Improved top-down imaging in a front curb visualization system
DE112018001655T5 (en) Display device and moving body with the display device
DE102008025459B4 (en) Method and device for calibrating a vertical cut-off line generated by a headlight of a vehicle
DE102010038825B4 (en) The image display control device
DE102013019021B4 (en) Method for driver assistance and motor vehicle
DE102017103282A1 (en) DISPLAY CONTROL FOR ONE VEHICLE
DE102017103287A1 (en) DISPLAY CONTROL FOR ONE VEHICLE
DE102016213687B4 (en) Method for controlling a display device for a motor vehicle, display device for a motor vehicle and motor vehicle with a display device
DE112017005111T5 (en) Board display controller
DE112018000858T5 (en) Apparatus and method for displaying information
DE102014107156A1 (en) Improved perspective imaging in a front curb visualization system
DE102016213028A1 (en) Motor vehicle with one or more headlamps
DE102010034140A1 (en) Method for displaying images on a display device and driver assistance system
DE102018218038A1 (en) System and method for projecting informational content for a motor vehicle
DE102018200963A1 (en) HEAD-UP DISPLAY DEVICE AND DISPLAY CONTROL METHOD
DE102012003158A1 (en) Method for projecting laser light image in environment around vehicle during driving vehicle, involves projecting manipulated contents of captured image to position in predetermined environment by using laser light beams
EP3847499B1 (en) Method for operating a field-of-vision display device for a motor vehicle
DE102013219556A1 (en) Method and device for controlling an image generation device of a head-up display
DE102009054231A1 (en) Head-up-display for information indication in motor vehicle, comprises indicating unit, which has display unit, in which lighting points are produced
DE102021132949A1 (en) Surrounding image display device and display control method
DE102011003550A1 (en) Method and device for adjusting a basic setting of a headlight of a motor vehicle
DE102017203896A1 (en) Motor vehicle with a lighting module for generating a symbolism
EP3296795A1 (en) Method for displaying an image object in a vehicle on a display seen inside and outside the vehicle
DE112019000329B4 (en) DISPLAY SYSTEM, MOVABLE OBJECT AND DESIGN METHOD

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20180425

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20190207

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

INTG Intention to grant announced

Effective date: 20200519

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE PATENT HAS BEEN GRANTED

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502016010846

Country of ref document: DE

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 1301245

Country of ref document: AT

Kind code of ref document: T

Effective date: 20200915

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

REG Reference to a national code

Ref country code: NL

Ref legal event code: MP

Effective date: 20200812

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20201113

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20201112

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20201112

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20201212

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502016010846

Country of ref document: DE

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

Ref country code: AL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

REG Reference to a national code

Ref country code: BE

Ref legal event code: MM

Effective date: 20200930

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200923

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

26N No opposition filed

Effective date: 20210514

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200923

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200930

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200930

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200930

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200812

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 1301245

Country of ref document: AT

Kind code of ref document: T

Effective date: 20210923

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20210923

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230530

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20230920

Year of fee payment: 8

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20230922

Year of fee payment: 8

Ref country code: DE

Payment date: 20230930

Year of fee payment: 8