EP2691917A1 - Verfahren und steuergerät zum übertragen von daten über eine aktuelle fahrzeugumgebung an ein scheinwerfersteuergerät eines fahrzeugs - Google Patents

Verfahren und steuergerät zum übertragen von daten über eine aktuelle fahrzeugumgebung an ein scheinwerfersteuergerät eines fahrzeugs

Info

Publication number
EP2691917A1
EP2691917A1 EP12710263.0A EP12710263A EP2691917A1 EP 2691917 A1 EP2691917 A1 EP 2691917A1 EP 12710263 A EP12710263 A EP 12710263A EP 2691917 A1 EP2691917 A1 EP 2691917A1
Authority
EP
European Patent Office
Prior art keywords
data
objects
camera
image
forming
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP12710263.0A
Other languages
English (en)
French (fr)
Inventor
Johannes FOLTIN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP2691917A1 publication Critical patent/EP2691917A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • B60Q1/143Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/05Special features for controlling or switching of the light beam
    • B60Q2300/056Special anti-blinding beams, e.g. a standard beam is chopped or moved in order not to blind
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/41Indexing codes relating to other road users or special conditions preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/42Indexing codes relating to other road users or special conditions oncoming vehicle

Definitions

  • the present invention relates to a method for transmitting data on a current vehicle environment to a headlight control unit of a vehicle, to a corresponding control device and to a corresponding computer program product according to the main claims.
  • Modern driver assistance systems include a control for the headlight system, so that a driver of a vehicle recognizes as early as possible to drive on the route. It should nevertheless be avoided dazzling of other road users.
  • DE 10 2007 041 781 B4 discloses a vehicle recognition device for detecting vehicles, the vehicles driving on a road with the light switched on.
  • the present invention proposes a method for transmitting data on a current vehicle environment to a headlight control unit of a vehicle, furthermore a control unit which uses this method and finally a corresponding computer program product according to the main patent claims.
  • Advantageous embodiments emerge from the respective subclaims and the following description.
  • the present invention provides a method for transmitting data about a current vehicle environment to a headlight control unit of a vehicle, wherein the data has been recorded using a camera and / or, if appropriate, further (environment) sensors for plausibility checking and wherein the method comprises the following steps:
  • the present invention further provides an apparatus adapted to perform the steps of the method according to the invention in corresponding devices.
  • a device may be a control device or in particular a data processing device.
  • this embodiment of the invention in the form of a device, the object underlying the invention can be solved quickly and efficiently.
  • the present invention provides a data processing device for transmitting data about a current vehicle environment to a headlight control device of a vehicle, wherein the data has been acquired using a camera, and wherein the data preparation device has the following features:
  • a device or a data processing device can be understood to be an electrical device which processes sensor signals and outputs control signals in dependence thereon.
  • the device may have one or more interfaces, which may be designed in terms of hardware and / or software.
  • the interfaces can be part of a so-called system ASIC, for example, which contains a wide variety of functions of the device.
  • system ASIC system ASIC
  • Interfaces own integrated circuits are or at least partially consist of discrete components.
  • the interfaces may be software modules that are present, for example, on a microcontroller in addition to other software modules.
  • a computer program product with program code which can be stored on a machine-readable carrier such as a semiconductor memory, a hard disk memory or an optical memory and is used to carry out the method according to one of the above-described embodiments is also of advantage if the program is stored on a control unit.
  • Data processing device or a device corresponding to a computer.
  • a vehicle environment can be understood to be a current environmental scenario around the vehicle when the vehicle is in motion or, more generally, participates in road traffic.
  • the vehicle environment may be formed by a road course, guide posts arranged at the roadside, traffic signs, oncoming vehicles or the like.
  • a vehicle environment can be detected with a camera as an optical or visual sensor, whereby a camera image is recorded and evaluated.
  • This camera image can subsequently be processed with a classification algorithm so that individual objects in this camera image are recognized.
  • the individual objects may be headlamps of a vehicle or reflective surfaces of delineators or traffic signs.
  • corresponding object data are generated, which, for example, a position of the detected object in the camera image, represents a size of the recognized object, a shape of the recognized object or the like. Furthermore, by evaluating the camera image, a plurality of parameters for these detected objects can be extracted, such as, for example, the brightness of the areas corresponding to the objects in the camera image, an optical sharpness of the areas corresponding to the objects in question
  • the object data may thus be data relating to a geometrical arrangement or position of the object in the camera image, whereas the parameters provided from the image data of the image taken by the camera relate to data obtained by the measurement (ie the capture of the camera image are determined such as the color or the viewing angle of a corresponding portion of the camera image), determined over a time history away (for example, the speed of each detected objects or the age, ie we long or since when the object is already visible) or have a relationship of the objects to other objects.
  • An object group data can be understood to mean a data package which contains information about several objects, wherein the data package for object group data has a smaller size than the sum of the object data of the individual objects which were taken into account for forming the object group data.
  • the object group data can include information about the objects of this object group which have the same or similar parameters within a tolerance range. Also, for example, parameters may be used to form such an object group relating to an arrangement of objects to each other.
  • the present invention is based on the recognition that by combining information about several objects into a data packet in the form of the object group data, a much more efficient transmission of information concerning the vehicle environment to the headlight control unit is now possible, which is frequently supplied by a headlight manufacturer. In this case, the formations of each individual detected object do not need to be transmitted into the camera image, which would otherwise be problematic for the transmission, especially for many detected objects and with limited available bandwidth.
  • the object group data can thus perform a pre-processing of the visual recorded vehicle environment, so that the headlamp control unit information only about, for example, contiguous areas or objects in the Vehicle environment, which can then be used to control the headlights.
  • the headlamp control unit information only about, for example, contiguous areas or objects in the Vehicle environment, which can then be used to control the headlights.
  • two bright, eg circular, objects arranged at a certain distance from one another probably represent a pair of headlights of an oncoming vehicle or headlights of vehicles driving one behind the other, so that the headlight control unit can initiate measures to prevent a driver's dazzling Prevent vehicles.
  • the present invention thus offers the advantage of relieving an available data transmission structure in a vehicle, while nevertheless ensuring a desired functionality for maintaining a certain driver comfort.
  • parameters which contain information relating to a brightness, color and / or sharpness of an image region of the image taken by the camera and / or an information relating to a position, assigned to the object. represents a distance and / or a movement of one of the objects with respect to the camera or with respect to the second of the at least two objects and / or a duration of the presence of the object in past images of the camera and / or an age of the objects.
  • the objects are often tracked by "tracking” (ie, tracking) across multiple images.Tracking can be used, for example, by determining the speed of a vehicle from differentiation of the position: the object speed can be used to determine the position of the object predict at the next measurement and then determine the new position of the object based on the estimate and the new measurements If an object is uniquely identified (which is important for tracking), you can easily calculate the "age” (eg Save the
  • Timestamp at the first occurrence of the object offers the advantage of easy-to-determine parameters, yet a reliable and simple grouping of objects in object groups is possible.
  • further object data relating to at least one third object can also be read in the step of reading in, wherein the further object data represent information about the third object which was classified as an object in the image taken by the camera and wherein in step forming the object group data is further formed using the further object data.
  • the object group data contain, for example, information about three objects, whereby a further reduction of the data transmission load to the headlight control unit can be realized. The greater the number of objects to which information in the object group data is taken into consideration, the lower the utilization of a data transmission connection for transmitting information about the objects recognized from the camera image to the headlight control unit.
  • the object group data may be formed on the basis of at least a third parameter different from the two parameters.
  • object group data may be formed that includes information about a position, a shape, a motion information, an age (ie, a time dependency), a brightness, a color information, a number of the objects and / or a size of an image section in which the at least two objects were detected in the image of the camera.
  • an embodiment of the present invention offers the advantage that the headlamp control unit can very easily use the object group data for the control, in particular for the alignment of the headlamps, without having to make more complex calculations themselves.
  • second object data concerning at least two further objects are also read in in the reading step, the second object data representing information about the two further objects which have been classified as an object in the image recorded by the camera, wherein, in the step of forming, second object group data is further formed from the read second object data of the at least two further objects, wherein the second object group data is formed using at least two different parameters provided from image data of the image taken by the camera Step of transmitting the second object group data are transmitted to the headlight control unit.
  • Such an embodiment of the present invention offers the advantage of transmitting a plurality of object groups or a plurality of data which are assigned to different object groups, so that the load on a connection bus to the headlight control unit can be further reduced, in particular for many detected objects.
  • object groups it may be advantageous to consider the shape of the object group. For example, a summary might prefer a certain aspect ratio and thus assign an object to one or the other group. For example, you could also optimize for the average brightness of the object group or the density of objects in the area of the object group.
  • the various parameters for forming the object groups there are several which also relate to the shape, average brightness etc. of the object group.
  • an object can also be arranged in several object groups.
  • at least object data of an additional object can be read in, the object data of the additional object representing information about the additional object classified as an object in the image taken by the camera, and wherein in the step of The object group data and the second object group data are formed by using the object data of the additional object together.
  • object group data corresponding to a predefined scenario in front of the vehicle known to the headlight control unit can thus be formed in the step of forming.
  • the object group data in the step of the transmission, can thus be sent to a headlight control unit, which is arranged by a data preparation device independently and spatially separated in its own housing, wherein the data preparation device performs the steps of reading and forming.
  • a vehicle communication bus eg CAN bus, Flexray, optical bus systems, wireless systems
  • Such an embodiment of the present invention offers the advantage that an already available data transmission system can be used in a vehicle without causing an excessive load on this vehicle data transmission system by transmitting headlight control information.
  • the vehicle communication bus eg CAN bus, Flexray, optical bus systems, wireless systems
  • Step of forming further in response to a request signal of the headlamp control unit are executed, wherein the request signal in particular information about a choice of the parameters for the formation of the object group data and / or a situation specification has.
  • the reading in of the objects is usually carried out cyclically as soon as new measurement data of the camera is available.
  • the request signal then makes it possible in group formation to specify how or using which parameters the objects should be combined.
  • Such an embodiment of the present invention offers the advantage that the headlamp control unit can already make a preselection of parameters that are optimal
  • the object group data contain information about objects that all have certain parameter properties of the desired parameters.
  • further object group data is also formed from the read-in object data of the at least two objects, the further object group data being formed using at least two further parameters which differ from the parameters and which are composed of image data of the object provided with the camera, and wherein in the step of transmitting the further object group data are transmitted to the headlight control unit.
  • Data transmission line are transmitted.
  • preclassification of the objects can take place on the basis of the different parameter properties. In this way, a data processing load of the
  • Headlight control unit made to the data preparation device, so that the data transmission capacity of the data transmission line of the vehicle can be efficiently used by the transfer of the already processed data.
  • Fig. 1 is a block diagram of a vehicle to which an embodiment of the present invention is applied;
  • Figure 2 is a schematic representation of the adaptive cut-off line from the periodical automotive electronics.
  • FIG. 3 is an illustration of a schematic adjustment of the headlamp range of headlamps to vehicles in front (with respect to a vertical angle) from a driver / camera / headlamp perspective;
  • Fig. 4 is a schematic representation of the glare-free high beam after a
  • Fig. 5A is a schematic representation of the glare-free high beam in a single vehicle (with respect to a vertical and horizontal axis) from a driver / camera / headlight perspective;
  • FIG. 5B is an illustration of optical flow using "optical flow” vectors
  • FIG. 6A is a camera image as taken by a camera in the vehicle, for example;
  • FIG. 6B is a processed camera image in which objects have been recognized by an object recognition algorithm;
  • FIG. 6A is a camera image as taken by a camera in the vehicle, for example;
  • FIG. 6B is a processed camera image in which objects have been recognized by an object recognition algorithm;
  • FIG. 6A is a camera image as taken by a camera in the vehicle, for example;
  • FIG. 6B is a processed camera image in which objects have been recognized by an object recognition algorithm;
  • 6C shows an image of a camera in which several objects have been grouped in accordance with an embodiment of the method according to the invention
  • Fig. 7 is a flow chart of an embodiment of the present invention.
  • FIG. 8 is a more detailed flow chart of an embodiment of the present invention including transmission of the generated object group data to a headlight controller.
  • Fig. 1 shows a block diagram of a vehicle 100 which uses an embodiment of the approach described below for the transmission of data to a headlight control unit.
  • the vehicle surroundings 115 are scanned at a viewing angle 120 by a camera 110 and from this a camera image of the vehicle surroundings 15 is generated.
  • the camera 1 10 serves as an optical sensor and can be configured for example as a very inexpensive CCD or CMOS camera, as it is now widely available.
  • the camera image delivered by the camera 1 10 is subsequently further processed in a data processing device 130.
  • the data processing device 130 may also be part of the camera 110 or executed as software on a processor unit, not shown in FIG. 1, of the camera 110.
  • An algorithm is applied to the camera image to detect objects in the camera image and to capture corresponding parameters of the camera image related to those objects. Under such a parameter, for example, the brightness or color of a section of the camera image are understood in which an object was detected.
  • this data processing device 130 now a grouping of several, that is at least two objects is made, this grouping is done using at least two different parameters that are associated with the two objects. In this case, the grouping takes place such that, for example, a first parameter of a first object is compared with a first parameter of the second object, and a second parameter of the first object, which is different from the first parameter, is related to a second parameter of the second object, the second parameter of the second object is also different from the first parameter of the second object.
  • the first parameter represents equal magnitudes in the first and second objects, whereby the second parameter also refers to equal magnitudes in the first and second objects.
  • the grouping thus takes place on the basis of two different parameters which are related to one another for each of the two grouped objects.
  • a brightness of the first object can be compared with a brightness as the first parameter of the second object, and a speed and / or direction as a second parameter of the first object compared to a speed and / or direction as a second parameter of the second object, wherein the first object is grouped with the second object into an object group if both the brightness of the first object matches the brightness of the second object within a tolerance range and the speed and / or direction of the first object with the velocity and / or direction of the second object within a tolerance range.
  • the first object is grouped with the second one into a common object group of the second object.
  • the objects grouped in this way are thus grouped together in a group of objects that can be described by a smaller amount of information than the two individual objects.
  • This object group can be represented by a data record (hereinafter referred to as object group data) which contains, for example, information about the number of objects in the object group, a shape of the objects in the object group, a movement direction of the objects of the object group, a description and / or indication of the position and / or size and / or shape of the Section of the camera image that represents the object group or something similar.
  • object group data contains, for example, information about the number of objects in the object group, a shape of the objects in the object group, a movement direction of the objects of the object group, a description and / or indication of the position and / or size and / or shape of the Section of the camera image that represents the object group or something similar.
  • the data about such a group of objects are subsequently transmitted via, for example, a CAN bus, a FlexRay, optical bus (eg MOST), wireless transmission (eg Bluetooth, ZigBee ), which controls the light distribution of a light cone or an illumination field of headlights 160 of the vehicle 100 using this object group data to an airbag control unit 180 and / or a trigger signal from the airbag control unit 180 to an airbag 190.
  • a CAN bus e.g MOST
  • wireless transmission eg Bluetooth, ZigBee
  • a detection algorithm FDD vehicle detection in the dark
  • FDD vehicle detection in the dark
  • Objects that can not be assigned to any of the categories are sorted or classified as "unknown objects.”
  • the vehicles distinguish between headlights and taillights Taillights are, for example, carried out by the parameter "light color" of the detected objects.
  • the individual light sources as detected objects are, if possible, combined into pairs of light as a group of objects.Also, an object detection / classification of the indicator signal and other signal devices of Vehicles, luminescent infrastructure (eg traffic lights),
  • the detected objects have an image position (detection angle) in both the vertical and horizontal directions. If a headlight pair has been detected, the distance from the headlights to each other makes it possible to estimate the distance very roughly (accuracy of several meters). The cause is the fluctuation of the installation positions / distances of the headlights.
  • the objects can be used for simple high-beam assistants, which switch between high beam and low beam.
  • simple high-beam assistants which switch between high beam and low beam.
  • recognition of the presence of other road users suffices here (see J. Rebut “A Monocular Vision Based Advanced Lighting Automation System for Driving Assistance", IEEE International Symposium on Industrial Electronics, 2009).
  • the beam angle of the headlight is raised so that the driver's range of vision is increased, but the other road users are not dazzled 2, the schematic representations of AHC in different scenarios of vehicle lighting on uneven road and / or preceding vehicle shown.
  • the vertical position and, if possible, the distance to the object should be known This is shown in Fig. 3, wherein in this figure a schematic adaptation of headlamps to vehicles in front
  • FIG. 4 is a schematic representation of the glare-free high beam as shown D.
  • pixel light or matrix beam the space in front of the vehicle is divided into segments, which can be illuminated individually.
  • the functionality is similar to the glare-free high beam, whereby the control has a greater flexibility: no common shadow area needs to be created.
  • the recommended settings for the headlights can come from the camera (or the integrated camera control unit) or can be determined in the headlight control unit.
  • the calculation within the camera is advantageous since all measured values can be accessed centrally
  • the calculation takes place in the headlamp control unit 150 according to FIG. 1, when the headlamp manufacturer realizes the entire activation of the headlamp.
  • the measured by FDD should objects from the camera to the headlight control unit in an object list.
  • a number of objects to be transferred are defined prior to development (eg 8 units in the project of a specific vehicle manufacturer), which are transmitted cyclically via the CAN bus. If the camera detects a larger number of objects, it must either omit objects or combine the objects.
  • the headlight control unit can not make the optimal decision on the headlamp setting. It is also possible that the headlight control unit does not correctly interpret the situation due to the missing information.
  • a particular aspect of the present invention relates to the use of a FOE, i. A "Field of Expansion.”
  • Optical flow detection takes into account how the objects move, using the position of the FOE to summarize, for example, vehicles lying close to the FOE, as these are likely to be far away. 5B (corresponding to the
  • the FOE is not always in the middle. For example, it moves in cornering in the direction of the curve. Normally, new objects no longer appear in the middle of the picture.
  • combinations of data can be used to make a meaningful grouping of objects.
  • Such a grouping can also be referred to as clustering.
  • the grouping is particularly necessary in order to provide the necessary information to the headlight control unit, even if there are too many objects for the bandwidth provided.
  • Rectangles are usually used to convey object groups (object clusters), but other geometric shapes can also be transferred in order to achieve an optimized data representation with the same bandwidth.
  • At least two parameters of objects should be related to each other in order to be able to precisely group the relevant objects into an object group. These parameters should refer to the same properties of the two objects. If the two parameters of two objects within a tolerance range match, the two objects should be grouped in a collection. Of course, more than two objects may also be grouped into one object group, in which case both the first and second parameters for all the objects grouped in the object group should lie within a tolerance range.
  • many different attributes or properties or parameters of the detected objects or parameters of the camera image can be used to calculate an object group.
  • duration of detection of the object (age” of the detected objects, i.e. duration, how long before the current detection the object has already been detected)
  • Group vehicle • Logically related objects (eg capture a column, merge a turn signal with taillights, %)
  • Edge slope of the edges of the light sources (the edge slope being inversely proportional to halo and the radiation characteristic of the light source)
  • Luminous area e.g., luminous area size
  • Type of light source e.g., LED, high pressure gas discharge lamp, etc.
  • Results of the surface estimation of the camera and / or a navigation system e.g., slope of the road in front of the vehicle
  • the light distribution is set to the object (s) closest to the vehicle.
  • additional data can be used to estimate the distance.
  • a halo forms around the light objects, as the light is scattered by the water droplets. The further away the vehicle is, the more drops of water are between the object and the camera and the larger If there is a halo, the edge gradient of the light source also decreases, ie the objects are only detected in a blurred or less sharply defined way than without moisture in the air
  • the knowledge of the exact characteristics of the rear vehicles for the headlight control is usually secondary - the relative position of the vehicles on the road to each other can therefore also be used as a distance (also for masking effects, where no distance due to only individual headlights n can be calculated).
  • the brightness can be used for distance estimation because it decreases quadratically with the distance (especially if the light source is less than pixels are mapped and thus averaged with dark shadow areas). Due to the averaging character of the image on pixels, brightness differences within the light source are also lost - the farther the light source is, the lower the brightness differences within the object fall out.
  • the determined proper motion of the camera can be used to e.g. At high speed less or only the distant objects to summarize, as you approach faster.
  • the "age" of an oncoming object may also serve this purpose (along with other parameters, e.g.
  • Objects that are close together in the picture may also be close to each other in reality and have a similar distance.
  • the parameter "object movement” has an influence on the dynamics of the entire system and on the situation recognition (eg oncoming vehicle) .
  • the object movement can be estimated directly from the image or by differentiation of the object position in the image Tail lights, ie vehicles in front usually result in a small change in relative position as they normally travel in the same direction as the vehicle itself
  • the direction of travel or the vehicle lighting type can be recognized by the light color.
  • the light color can also be used for object grouping.
  • the same light colors for group formation for objects in the same direction of travel
  • different light colors eg yellow signal to be assigned to the neighboring light sources.
  • a measurement of the light color can be done by color reconstruction, in which at least two differently colored pixels (in for example red and gray / colorless / only intensity; in digital cameras mostly 3 colors: red, green, blue) the color value is estimated. Instead of using a ready calculated color, even the relationships / differences between the (color) pixels at the light source can be evaluated.
  • the brightness of a light source is quadratically related to the distance (photometric law of distance). As the object approaches the camera, the brightness or size / area of the object increases. Therefore, for example, the brightness change can also be used as a parameter for group formation.
  • the "age” of objects ie the duration of the object in the image
  • an "old” object may be slow (in relation to the speed of the camera) (for example, a vehicle in front), but also become fast (such as an oncoming vehicle in good visibility when driving by).
  • Different object categories or object groups represent, for example, objects with different speeds, which can be viewed with, so that, for example, no proper movement of street lamps, traffic lights, reflectors, must be considered.
  • the orientation of the object can also play a role in the further movement. For example, objects with the same orientation can be grouped together in one object group, or objects that are driven in the same direction after the orientation estimation can be combined into one object group.
  • FDD can not always sense the individual objects in pairs.
  • putative single objects can be regrouped if they are similar and / or fit into the overall context.
  • the individual objects can be summarized in such a way that, for example, objects of a similar shape are combined or of the same light sources (frequency with LED, light color bluish with xenon, reddish with halogens).
  • an upright grouping of objects i.e., a grouping of objects superimposed in the camera image
  • Geometry for example, also group headlamps together with position lights.
  • an object is present in several groups. This is possible if, for example, the object both to the
  • Groups "responsive and close”, as well as “fast movement to the left” heard.
  • the objects are usefully grouped together, whereby the parameters of the group objects should also be adjusted.
  • cluster data An advantage in the transmission of exclusively object group data (cluster data) is that a marking in the communication message can be saved, whether the data transmitted is group data or individual object data, whereby the information to be transmitted can be further compressed.
  • a "bounding box" group of objects should be transmitted that includes all vehicles (from which horizontal and vertical coordinates for the area to be blanked can be extracted), or other group data may be transferred, but it must be ensured that all vehicles are from
  • a single object may also be present in a "group”. This may also be the case when groups with specific characteristics are transmitted, but only a single object fits into that group (e.g., a group "all oncoming vehicles closer than a certain distance" and there is only one oncoming vehicle).
  • object groups with other geometric shapes can also be transferred for an image section of the camera image. These include beside
  • Rectangles and trapezoids general "polygons" to define regions.
  • the regions can also be described as round shapes (eg circle, ellipse, curve, Bezier curve, ).
  • regions are assigned a "center of gravity” (e.g., center, "most important point”).
  • the center of gravity does not need to reflect the actual center of gravity of the geometric shape, but may also be the thematic center of gravity (e.g., foremost vehicle of a column).
  • movement information (translation, rotation, scaling / resizing) can be assigned to the form or the center of gravity in order to provide information about their probable development. This allows the algorithms based on it to work even more proactively.
  • objects that are not considered particularly relevant may also be left out (e.g., central vehicle of a grouping).
  • the camera can dynamically adapt the parameters according to which the groups are formed to the respective situation in order to achieve an optimum information density.
  • the headlamp controller requests various parameter settings from the camera or requests situations that it needs for optimal headlamp actuation.
  • the camera can spend the available computing power on the required situations or achieve an optimal information density of the transmitted data or optimal information transfer by a desired adaptation of the parameter combinations.
  • the compilation of objects and situations need not be fixed, but can be changed. If the headlamp control unit has more "intelligence", then it can decide for the then simpler held camera how it performs the compilation of the objects, so that the result is adapted to the own needs of the driving situation.
  • This parameter affects the transmission of detected traffic situations, their probability (optional) and appearance position in the image (optional).
  • the position or the situational area can be given as a geometric shape. ben (eg rectangle, trapezoid, ellipse ...), which describes an angle range relative to the vehicle (eg object angle, pixel coordinates, ...), but also in other coordinate systems.
  • the position can be specified as a segment (eg if the image was previously segmented).
  • the (relative) direction of movement can be transmitted. This also applies to the regular object groups.
  • the separation in the calculation of the headlamp control between camera and headlamp control unit need not take place at the level of the objects.
  • the measured or recognized objects and other information e.g.
  • Track information can be combined into various "situations" (ie driving scenarios), these situations can be sent to the headlamp control unit, reducing its resource requirements and making better use of the information available in the camera.
  • the metrics (parameters) will become summarized to driving situations and to the
  • Headlight control unit sent.
  • the range of the driving situation can also be specified. This can be done, for example, by specifying a point (e.g.
  • the headlamp control unit leaves room for interpretation and allows smooth transitions between individual driving situations.
  • the coordinates of the group may be the center, but it may also be a representative point or the point of the group most important to the light functions. This mainly depends on the chosen geometry of the group, as well as on the available bandwidth during transmission.
  • the object detection algorithm FDD detects an oncoming headlight pair 610 and three further light sources 620, as well as three reflectors 630 in the vehicle environment, as shown in FIG. 6B.
  • two object groups 640 (which are classified as rectangular areas in the camera image) are formed, as shown in the illustration of Fig. 6C.
  • the foremost vehicle (headlamp pair) is an object 640a (alone in "group"), the following vehicles are grouped together in a common group 640b, for example, based on equal or very similar brightness values and speeds with respect to the camera the area of the camera image (ie an object) in the driving situation "column” with estimated change in direction (speed arrow 660) and, for example, the similar brightness of the objects in the object group (s).
  • Point 670 describes the situation "pass-by" (as data for the headlight control unit) or it describes the object in a group of objects or as a single object which is most likely to be glare-endangered and to which particular control is required Group of reflectors 630.
  • an area for preceding objects could be separately generated, the farthest objects grouped together (e.g., independent of light color), and, for example, an area for street lamps inserted.
  • the present approach thus makes it possible to efficiently transmit bright objects recognized at night to a headlight control unit, which realizes lighting control therefrom. If many objects appear in the image, the present approach advantageously combines several of these objects into a group so that bandwidth is saved and / or all relevant information can be transmitted. In the present Approach various summaries are presented so that the headlight control unit can derive meaningful actions.
  • FIG. 7 shows a flow chart of an exemplary embodiment of the present invention as a method 700 for transmitting data about a current vehicle environment to a headlight control unit of a vehicle.
  • the data was recorded using a camera.
  • the method comprises a step of reading in 710 object data concerning at least two objects, the object data representing information about objects classified as an object in an image taken by the camera.
  • the method comprises a step of forming 720 object group data from the read object data of the at least two objects, the forming taking place using at least two different parameters provided from image data of the image taken by the camera.
  • the method 700 includes a step of transmitting 730 the object group data as data about a current vehicle environment to the headlight control unit.
  • FIG. 8 shows a flow chart of an embodiment of the present invention as a method, wherein the procedure for the formation of the object group data or the object groups is shown in more detail.
  • objects 810a to 81e are generated from a camera image, for example using the object detection algorithm FDD. These objects 810 can be described by specific data 815 a to 815 e, which represent, for example, a position in and / or a size of an image section of the camera image.
  • a first comparator 820a If it is determined in a first comparator 820a that the parameter P1 of the first object 810a is equal to the first parameter of a second object 810b within a tolerance range, this can be signaled by the comparator signal X1 to a first combiner 830a.
  • the second parameter P2 of the first object 810a within a tolerance range also corresponds to the second parameter P2 of the second object 810b, which is likewise signaled to the first combiner 830a by a comparator signal X2.
  • the first combiner 830a receives, via the first and second comparator signals X1 and X2, the information that both the first parameters P1 and the second parameters P2 of the two objects 810a and 810b are equal within a tolerance range, the first combiner 830a may be the first object 810a and the second object
  • the object 81Od and the object 81Oe may be recognized taillights of preceding vehicles.
  • These objects 81Od and 81Oe which are represented by the object data 815d and 815e, can now be examined on the basis of two different parameters P3 and P4.
  • the third parameter P3 may be a color of the objects 81 Od and 81 Oe detected in the camera image, whereas the parameter P4 represents a distance of these objects detected from the camera image. If it is determined in a third comparator 820c that the third parameter P3 of the third object 81 Od is within a tolerance range equal to the third parameter of a fourth object 81 Oe, this can be signaled by the comparator signal X3 to a second combiner 830b. Similarly, it can be checked in a fourth comparator 820d whether the fourth parameter P4 of the third object 81 Od within a tolerance range corresponds to the fourth parameter P4 of the fourth object 81 Oe, which is likewise indicated by a
  • Comparator signal X4 is signaled to the second combiner 830b.
  • a fifth object 810c or corresponding fifth object data 815c can also be read in.
  • a value of the first parameter P1 and a value of the second parameter P2 can be accessed from the object data 815c of the fifth object 810 and it can be checked whether the value of the first parameter P1 and a value of the second parameter P2 of the fifth object 810c within the respective tolerance ranges matches the values of the first parameter P1 and the second parameter P2 of the first object 810a and the second object 810b. If so, the first combiner 830a groups the fifth object 810c into the first object group 810a / b.
  • the fifth object 810c should be grouped into the second object group 810d / e. For example, from the object data 815c of the fifth object 810, a value of the third parameter P3 and the fourth parameter
  • the second combiner 830b groups the fifth one Object 810c into second object group 810d / e.
  • the fifth object 815c represents an upper limiting light of an oncoming truck
  • this can be done by reference to the light speed (of an active white light) and the speed or direction of movement, the brightness then possibly being allowed to deviate more strongly from the brightness pattern of the first two objects 810a and 810b.
  • this makes it possible to discriminate the fifth object 810c from the objects 81Od and 81Oe of the second object group 810d / e, since the color of the limiting light is different from the color of the taillights.
  • this data of the extended object group 810a / b / c assigns a much larger section of the image captured by the camera as belonging to the first object group because the upper limit lights of the oncoming truck better characterize the dimensions of the truck than if only the two headlights are recognized as the first or second object 810a or 810b.
  • this second object group can be enlarged to an extended second object group 810d / e / c, in which then further data of the fifth object 810c are embedded.
  • an exemplary embodiment comprises a "and / or" link between a first feature and a second feature
  • this can be read so that the embodiment according to one embodiment, both the first feature and the second feature and according to another embodiment, either only the first Feature or only the second feature.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (700) zum Übertragen von Daten (810a/b, 810d/e) über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät (150) eines Fahrzeugs (100). Dabei wurden die Daten (640a, 640b; 810a/b, 810d/e) unter Verwendung einer Kamera (110) aufgenommen, wobei eine Plausibilisierung über weitere Sensorik erfolgen kann. Das Verfahren (700) umfasst einen Schritt des Einlesens (710) von Objektdaten (815a-e) betreffend zumindest zwei Objekte (610, 620, 630; 810a-810e), wobei die Objektdaten (815a-e) Informationen über Objekte (810a-e) repräsentieren, die in einem von der Kamera (110) aufgenommen Bild als Objekt klassifiziert wurden. Ferner umfasst das Verfahren (700) einen Schritt des Bildens (720) von Objektgruppendaten (640a, 640b; 810a/b, 810d/e) aus den eingelesenen Objektdaten (815a-e) der zumindest zwei Objekte (610, 620, 630; 810a-e), wobei das Bilden (720) unter Verwendung von zumindest zwei unterschiedlichen Parametern (P1-P4) erfolgt, die aus Bilddaten des von der Kamera (110) aufgenommenen Bildes bereitgestellt wurden. Schließlich umfasst das Verfahren (700) einen Schritt des Übertragens (730) der Objektgruppendaten (640a, 640b; 810a/b, 810d/e) als Daten über eine aktuelle Fahrzeugumgebung an das Scheinwerfersteuergerät (150).

Description

Beschreibung
Titel
Verfahren und Steuergerät zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs
Stand der Technik
Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs, auf ein entsprechendes Steuergerät sowie auf ein entsprechendes Computerprogrammprodukt gemäß den Hauptansprüchen.
Moderne Fahrerassistenzsysteme umfassen eine Steuerung für die Scheinwerferanlage, damit ein Fahrer eines Fahrzeugs möglichst frühzeitig eine zu befahren der Wegstrecke erkennt. Dabei solle doch eine Blendung von weiteren Verkehrsteilnehmern vermieden werden.
In der DE 10 2007 041 781 B4 ist eine Fahrzeugerkennungsvorrichtung zur Erkennung von Fahrzeugen offenbart, wobei die Fahrzeuge mit eingeschaltetem Licht auf einer Fahrbahn fahren.
Offenbarung der Erfindung
Vor diesem Hintergrund wird mit der vorliegenden Erfindung ein Verfahren zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs, weiterhin ein Steuergerät, das dieses Verfahren verwendet sowie schließlich ein entsprechendes Computerprogrammprodukt gemäß den Hauptpatentansprüchen vorgestellt. Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung. Die vorliegende Erfindung schafft ein Verfahren zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs, wobei die Daten unter Verwendung einer Kamera und/oder gegebenenfalls weiterer (Umfeld-) Sensorik zur Plausibilisierung aufgenommen wurden und wobei das Verfahren die folgenden Schritte aufweist:
Einlesen von Objektdaten betreffend zumindest zwei Objekte, wobei die Objektdaten Informationen über Objekte repräsentieren, die in einem von der Kamera aufgenommen Bild als Objekt klassifiziert wurden;
Bilden von Objektgruppendaten aus den eingelesenen Objektdaten der zu- mindest zwei Objekte, wobei das Bilden unter Verwendung von zumindest zwei unterschiedlichen Parametern erfolgt, die aus Bilddaten des von der Kamera aufgenommenen Bildes bereitgestellt wurden,
Übertragen der Objektgruppendaten als Daten über eine aktuelle Fahrzeugumgebung an das Scheinwerfersteuergerät.
Die vorliegende Erfindung schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte des erfindungsgemäßen Verfahrens in entsprechenden Einrichtungen durchzuführen bzw. umzusetzen. Eine solche Vorrichtung kann ein Steuergerät oder insbesondere ein Datenaufbereitungsgerät sein. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
Insbesondere schafft die vorliegende Erfindung ein Datenaufbereitungsgerät zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwer- fersteuergerät eines Fahrzeugs, wobei die Daten unter Verwendung einer Kamera aufgenommen wurden und wobei das Datenaufbereitungsgerät die folgenden Merkmale aufweist:
eine Schnittstelle zum Einlesen von Objektdaten betreffend zumindest zwei Objekte, wobei die Objektdaten Informationen über Objekte repräsentieren, die in einem von der Kamera aufgenommen Bild als Objekt klassifiziert wurden;
eine Einheit zum Bilden von Objektgruppendaten aus den eingelesenen Objektdaten der zumindest zwei Objekte, wobei das Bilden unter Verwendung von zumindest zwei unterschiedlichen Parametern erfolgt, die aus Bilddaten des von der Kamera aufgenommenen Bildes bereitgestellt wurden; und eine Schnittstelle zum Übertragen der Objektgruppendaten als Daten über eine aktuelle Fahrzeugumgebung an das Scheinwerfersteuergerät.
Unter einer Vorrichtung bzw. einem Datenaufbereitungsgerät kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuersignale ausgibt. Die Vorrichtung kann eine oder mehrere Schnittstelle(n) aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann/können. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die
Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikro- controller neben anderen Softwaremodulen vorhanden sind.
Von Vorteil ist auch ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung des Verfahrens nach einer der vorstehend beschriebenen Ausfüh- rungsformen verwendet wird, wenn das Programm auf einem Steuergerät, einem
Datenaufbereitungsgerät oder einem einem Computer entsprechenden Gerät ausgeführt wird.
Unter einer Fahrzeugumgebung kann dabei ein aktuelles Umgebungsszenario um das Fahrzeug verstanden werden, wenn das Fahrzeug sich in Fahrt befindet oder allgemeiner gesagt am Straßenverkehr teilnimmt. Beispielsweise kann die Fahrzeugumgebung durch einen Straßenverlauf, am Fahrbahnrand angeordnete Leitpfosten, Verkehrszeichen, entgegenkommende Fahrzeuge oder Ähnliches gebildet werden. Eine solche Fahrzeugumgebung kann mit einer Kamera als op- tischem oder visuellem Sensor erfasst werden, wobei ein Kamerabild aufgenommen und ausgewertet wird. Dieses Kamerabild kann nachfolgend mit einem Klassifikationsalgorithmus bearbeitet werden, so dass einzelne Objekte in diesem Kamerabild erkannt werden. Beispielsweise können die einzelnen Objekte Scheinwerfer eines Fahrzeugs oder reflektierende Flächen von Leitpfosten oder Verkehrszeichen sein. Zu diesen Objekten werden entsprechende Objektdaten erzeugt, die zum Beispiel eine Position des erkannten Objektes im Kamerabild, eine Größe des erkannten Objekts, eine Form des erkannten Objekts oder Ähnliches darstellt. Ferner können durch die Auswertung des Kamerabilds mehrere Parameter zu diesen erkannten Objekten extrahiert werden, wie beispielsweise die Helligkeit der den Objekten entsprechenden Bereiche im Kamerabild, eine optische Schärfe der den betreffenden Objekten entsprechenden Bereiche im
Kamerabild oder Ähnliches. Die Objektdaten können somit Daten in Bezug auf eine geometrische Anordnung oder Position des Objekts im Kamerabild sein, wogegen die Parameter, die aus den Bilddaten des von der Kamera aufgenommenen Bildes bereitgestellt werden, Daten betreffen, die durch die Messung (das heißt die Aufnahme des Kamerabildes bestimmt sind wie beispielsweise die Farbe oder der Blickwinkel eines entsprechenden Bereichs des Kamerabildes), über eine zeitliche Historie hinweg bestimmt werden (beispielsweise die Geschwindigkeit der einzelnen erkannten Objekte oder auch das Alter, d.h. wir lange oder seit wann das Objekt schon sichtbar ist) oder die eine Beziehung der Objekte zu an- deren Objekten haben. Unter Objektgruppendaten lässt sich ein Datenpaket verstehen, welches Informationen über mehrere Objekte enthält, wobei das Datenpaket für Objektgruppendaten eine kleinere Größe aufweist, als die Summe der Objektdaten der einzelnen Objekte, die zur Bildung der Objektgruppendaten berücksichtigt wurden. Die Objektgruppendaten können dabei Informationen über die Objekte dieser Objektgruppe umfassen, die gleiche oder innerhalb eines Toleranzbereichs ähnliche Parameter aufweisen. Auch können beispielsweise Parameter zur Bildung einer solchen Objektgruppe verwendet werden, die sich auf eine Anordnung von Objekten zu einander beziehen. Die vorliegende Erfindung basiert auf der Erkenntnis, dass nun durch das Zusammenfassen von Informationen über mehrere Objekte zu einem Datenpaket in Form der Objektgruppendaten eine wesentlich effizientere Übertragung von die Fahrzeugumgebung betreffenden Informationen an das Scheinwerfersteuergerät möglich ist, welches häufig von einem Scheinwerferhersteller geliefert wird. In diesem Fall brauchen nicht die Formationen jedes einzelnen erkannten Objekts in den Kamerabild übertragen werden, was anderenfalls speziell bei vielen erkannten Objekten und bei begrenzter zur Verfügung stehender Bandbreite für die Übertragung problematisch wäre. Durch die Bildung der Objektgruppendaten lässt sich somit eine Vorverarbeitung der visuellen aufgenommenen Fahrzeug- Umgebung durchführen, so dass dem Scheinwerfersteuergerät lediglich Informationen über beispielsweise zusammenhängende Bereiche oder Objekte in der Fahrzeugumgebung übermittelt werden müssen, die dann zur Steuerung der Scheinwerfer verwendet werden können. Beispielsweise kann erkannt werden, dass zwei in einem von bestimmten Abstand zueinander angeordnete helle z.B. kreisförmige Objekte wahrscheinlich ein Scheinwerferpaar eines entgegenkom- menden Fahrzeugs oder Scheinwerfer von dicht hintereinander fahrenden Fahrzeugen darstellen, so dass das Scheinwerfersteuergerät Maßnahmen einleiten kann, um eine Blendung eines Fahrers dieses entgegenkommende Fahrzeugs zu verhindern. Dabei können auch Lichtobjekte, die nicht unbedingt zum gleichen Fahrzeug gehören, gruppiert werden (z.B. alle entgegenkommenden Fahrzeuge). Würden dagegen die beiden als kreisförmig erkannten Objekte separat übertragen, würde dies einen deutlich höheren Aufwand bei der Übertragung der Informationen zu diesen Objekten verursachen, und die verfügbare Bordinfrastruktur unnötig belasten. Die vorliegende Erfindung bietet somit den Vorteil einer Entlastung einer zur Verfügung stehenden Datenübertragungsstruktur in einem Fahr- zeug, wobei dennoch eine gewünschte Funktionalität zur Aufrechterhaltung eines bestimmten Fahrerkomforts sichergestellt werden kann. Durch die Verwendung von zumindest zwei unterschiedlichen Parametern zur Bildung der Objektgruppendaten mit den zumindest zwei Objekten lässt sie eine besonders zuverlässige Gruppierung dieser Objekte in eine Objektgruppe realisieren.
Günstig ist es, wenn im Schritt des Bildens Parameter verwendet werden, die eine Information in Bezug auf eine Helligkeit, Farbe und/oder eine Schärfe eines dem Objekt zugeordneten Bildbereichs des von der Kamera aufgenommenen Bildes und/oder eine Information in Bezug auf eine Position, einen Abstand und/oder eine Bewegung eines der Objekte in Bezug zur Kamera oder in Bezug zu dem zweiten der zumindest zwei Objekte und/oder eine Dauer des Vorhandenseins des Objektes in zeitlich zurückliegenden Bildern der Kamera und/oder ein Alter der Objekte repräsentiert. Die Objekte werden häufig durch„Tracking" (d.h. ein Verfolgen) über mehrere Bilder hinweg verfolgt. Tracking kann z.B. ver- wendet werden, indem die Geschwindigkeit eines Fahrzeugs aus Differentiation der Position ermittelt wird: Mit der Objekt-Geschwindigkeit kann man die Position des Objektes bei der nächsten Messung vorhersagen und dann die neue Position des Objekts an Hand der Schätzung und den neuen Messwerten ermitteln. Wenn ein Objekt eindeutig identifiziert wird (was für das Tracking wichtig ist), kann man auch ohne großen Aufwand das„Alter" berechnen (z.B. Speichern des
Zeitstempels beim ersten Auftreten des Objektes). Eine derartige Ausführungs- form der vorliegenden Erfindung bietet den Vorteil von einfach zu ermittelnden Parametern, wobei dennoch eine zuverlässige und einfache Gruppierung der Objekte in Objektgruppen möglich ist.
Gemäß einer weiteren Ausführungsform der vorliegenden Erfindung können im Schritt des Einlesens ferner weitere Objektdaten betreffend zumindest eines dritten Objektes eingelesen werden, wobei die weiteren Objektdaten Informationen über das dritte Objekt repräsentieren, das in dem von der Kamera aufgenommen Bild als Objekt klassifiziert wurde und wobei im Schritt des Bildens ferner die Objektgruppendaten unter Verwendung der weiteren Objektdaten gebildet wird. Eine solche Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass auch Informationen in Bezug auf mehr als zwei Objekte in die Objektgruppendaten eingebunden werden können. Dies bedeutet, dass die Objektgruppendaten beispielsweise Informationen über drei Objekte enthalten, wodurch sich eine weitere Reduktion der Datenübertragungslast an das Scheinwerfersteuergerät realisieren lässt. Je größer die Anzahl von Objekten ist, zu denen Informationen in den Objektgruppendaten berücksichtigt sind, desto geringer ist die Inanspruchnahme einer Datenübertragungsverbindung zur Übertragung von Informationen über die aus dem Kamerabild erkannten Objekte an das Scheinwerfersteuergerät.
Es können auch zwei (oder mehr) Objektgruppen zu einer einzelnen zusammen- gefasst werden. Dabei werden aus der Reihe der Objekte beispielsweise zuerst „kleine" Objektgruppen, bestehend aus wenigen Objekten, gebildet, die anschließend immer weiter miteinander verschmolzen werden, um daraus eine größere Objektgruppe zu bilden. Es können damit nicht ausschließlich mehrere Objekte zu einer Objektgruppe zusammengefasst werden, sondern auch mehrere Objektgruppen zu einer„verschmolzen" werden. Um eine noch präzisere Bildung von Objektgruppen zu ermöglichen, können auch mehr als zwei voneinander unterschiedliche Parameter verwendet werden. Somit können gemäß einer weiteren Ausführungsform der vorliegenden Erfindung im Schritt des Bildens die Objektgruppendaten auf der Basis zumindest eines dritten von den zwei Parametern unterschiedlichen Parameters gebildet wer- den. Gemäß einer anderen Ausführungsform der vorliegenden Erfindung können im Schritt des Bildens Objektgruppendaten gebildet werden, die eine Information über eine Position, eine Form, eine Bewegungsinformation, ein Alter (d.h. eine zeitliche Abhängigkeit), eine Helligkeit, eine Farbinformation, eine Anzahl der Ob- jekte und/oder eine Größe eines Bildausschnitts enthalten, in dem die zumindest zwei Objekte im Bild der Kamera detektiert wurden. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass das Scheinwerfersteuergerät die Objektgruppendaten sehr einfach zur Steuerung, insbesondere zur Ausrichtung der Scheinwerfer verwenden kann, ohne aufwändigere Berechnun- gen selbst anstellen zu müssen.
Günstig ist es auch, wenn gemäß einer weiteren Ausführungsform im Schritt des Einlesens ferner zweite Objektdaten betreffend zumindest zwei weitere Objekte eingelesen werden, wobei die zweiten Objektdaten Informationen über die zwei weiteren Objekte repräsentieren, die in dem von der Kamera aufgenommenen Bild als Objekt klassifiziert wurden, wobei im Schritt des Bildens ferner zweite Objektgruppendaten aus den eingelesenen zweiten Objektdaten der zumindest zwei weiteren Objekte gebildet werden, wobei das Bilden der zweiten Objektgruppendaten unter Verwendung von zumindest zwei unterschiedlichen Parametern erfolgt, die aus Bilddaten des von der Kamera aufgenommenen Bildes bereitgestellt wurden und wobei im Schritt des Übertragens die zweiten Objektgruppendaten an das Scheinwerfersteuergerät übertragen werden. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil der Übertragung von mehreren Objektgruppen bzw. mehreren Daten die unterschiedlichen Objektgruppen zugeordnet sind, so dass sich insbesondere bei vielen erkannten Objekten die Beanspruchung eines Verbindungsbusses zum Scheinwerfersteuergerät weiter reduzieren lässt.
Bei der Bildung von Objektgruppen kann es vorteilhaft sein die Form der Objekt- gruppe zu berücksichtigen. So könnte beispielsweise eine Zusammenfassung ein gewisses Seitenverhältnis bevorzugen und demnach ein Objekt der einen oder der anderen Gruppe zuordnen. Man könnte beispielsweise auch auf die durchschnittliche Helligkeit der Objektgruppe oder die Objektdichte in der Fläche der Objektgruppe optimieren. Bei der nachfolgend näher beschriebenen Parameter- liste, in der stichpunktartig die verschiedenen Parameter zur Bildung der Objekt- gruppen aufgelistet sind, gibt es mehrere die sich auch auf die Form, durchschnittliche Helligkeit etc. der Objekt-Gruppe beziehen.
Um eine besonders flexible Bildung von Objektgruppen zur ermöglichen, kann auch ein Objekt in mehrere Objektgruppen eingeordnet werden. In einer derartigen Ausführungsform der vorliegenden Erfindung kann insbesondere im Schritt des Einlesens ferner zumindest Objektdaten eines Zusatzobjektes eingelesen werden, wobei die Objektdaten des Zusatzobjektes Informationen über die das Zusatzobjekt repräsentieren, die in dem von der Kamera aufgenommen Bild als Objekt klassifiziert wurden und wobei im Schritt des Bildens die Objektgruppendaten und die zweiten Objektgruppendaten unter gemeinsamer Verwendung der Objektdaten des Zusatzobjektes gebildet werden.
Besonders vorteilhaft ist es, wenn nicht nur abstrakte Daten über eine Objekt- gruppe übertragen werden, sondern ein als Objektgruppendaten Informationen übertragen werden, die Reihen vordefinierter Szenarios um das Fahrzeug, insbesondere vor dem Fahrzeug betreffen. Ein solches Szenario könnte beispielsweise darin bestehen, dass eine (oder mehrere) Fahrzeug(e) dem eigenen Fahrzeug entgegenkommen. In diesem Fall könnte als Objektgruppendaten Informa- tionen über dieses aktuelle Szenario eines entgegenkommenden Fahrzeugs übertragen werden. Diese Informationen betreffen beispielsweise eine Information wie weit der weg sich das Fahrzeug befindet. Gemäß einer solchen Ausführungsform der vorliegenden Erfindung können somit im Schritt des Bildens Objektgruppendaten gebildet werden, die einem dem Scheinwerfersteuergerät be- kannten vordefinierten Szenario vor dem Fahrzeug entsprechen.
Besonders vorteilhaft ist es, wenn der hier vorgeschlagene Ansatz verwendet wird, um einen beispielsweise standardisierten Datenübertragungsbus zu Übertragung von Steuersignalen unterschiedlicher Fahrzeugkomponenten zu entlas- ten. In diesem Fall werden noch weitere Steuersignale als Informationen zur
Scheinwerfersteuerung über eine solche Datenübertragungsleitung gesendet. Gemäß einer weiteren Ausführungsform der vorliegenden Erfindung können somit im Schritt des Übersendens die Objektgruppendaten an ein Scheinwerfersteuergerät gesendet werden, das von einem Datenaufbereitungsgerät unab- hängig und räumlich getrennt in einem eigenen Gehäuse angeordnet ist, wobei das Datenaufbereitungsgerät die Schritte des Einlesens und des Bildens aus- führt, insbesondere wobei im Schritt des Übertragens die Objektgruppendaten über einen Fahrzeug-Kommunikationsbus (z.B. CAN-Bus, Flexray, optische Bussysteme, drahtlose Systeme) des Fahrzeugs übertragen werden. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass ein bereits verfügbares Datenübertragungssystem in einem Fahrzeug benutzt werden kann, ohne eine übermäßige Belastung dieses Fahrzeug-Datenübertragungssystems durch Übertragung von Informationen zur Scheinwerfersteuerung zu verursachen. Gemäß einer weiteren Ausführungsform der vorliegenden Erfindung kann der
Schritt des Bildens ferner ansprechend auf ein Anforderungssignal des Scheinwerfer-Steuergerätes ausgeführt werden, wobei das Anforderungssignal insbesondere eine Information über eine Wahl der Parameter für die Bildung der Objektgruppendaten und/oder über eine Situationsvorgabe aufweist. Das Einlesen der Objekte wird üblicherweise zyklisch vorgenommen, sobald neue Messdaten der Kamera vorliegen. Das Anforderungssignal ermöglicht dann bei der Gruppenbildung eine Vorgabe, wie bzw. unter Verwendung von welchen Parametern die Objekte zusammengefasst werden sollten. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass das Scheinwerfer-Steuergerät bereits eine Vorauswahl von Parametern vornehmen kann, die zur optimalen
Lichtaussendung durch die Scheinwerfer des Fahrzeugs benötigt werden. Auf diese Weise kann sichergestellt werden, dass die Objektgruppendaten Informationen über Objekte enthalten, die alle bestimmte Parametereigenschaften der gewünschten Parameter haben.
Besonders vorteilhaft ist es ferner, wenn im Schritt des Bildens ferner weitere Objektgruppendaten aus den eingelesenen Objektdaten der zumindest zwei Objekte gebildet werden, wobei das Bilden der weiteren Objektgruppendaten unter Verwendung von zumindest zwei sich von den Parametern unterscheidenden weiteren Parametern erfolgt, die aus Bilddaten des von der Kamera aufgenommenen Bildes bereitgestellt wurden und wobei im Schritt des Übertragens die weiteren Objektgruppendaten an das Scheinwerfersteuergerät übertragen werden. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass ein Teil der Verarbeitung des Kamerabildes bereits in dem Datenaufbe- reitungsgerät ausgeführt werden kann und die aufbereiteten Daten dann über die
Datenübertragungsleitung übertragen werden. Insbesondere durch die Gruppie- rung der einzelnen Objekte in unterschiedliche Objektgruppen kann eine Vorklassifizierung der Objekte anhand der unterschiedlichen Parametereigenschaften erfolgen. Auf diese Weise kann eine Datenverarbeitungslast von dem
Scheinwerfer-Steuergerät hin zum Datenaufbereitungsgerät erfolgen, so dass durch die Übertragung der bereits aufbereiteten Daten die Datenübertragungskapazität der Datenübertragungsleitung des Fahrzeugs effizient genutzt werden kann.
Die Erfindung wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
Fig. 1 ein Blockschaltbild eines Fahrzeugs, bei dem ein Ausführungsbeispiel der vorliegenden Erfindung verwendet wird;
Fig. 2 eine schematische Darstellung der adaptiven Hell-Dunkel-Grenze aus der Zeitschrift Automobil-Elektronik;
Fig. 3 eine Darstellung einer schematischen Anpassung der Leuchtweite von Scheinwerfern an vorausfahrende Fahrzeuge (in Bezug zu einem vertikalen Winkel) aus Fahrer-/Kamera-/Scheinwerfer-Perspektive;
Fig. 4 eine schematische Darstellung des blendfreien Fernlichts nach einer
Darstellung von D. Grimm„Trends in Automotive lighting, new technolo- gy and its benefits for end-users", 8th International Symposium on Automotive Lighting, 2009;
Fig. 5A eine schematische Darstellung des blendfreien Fernlichts bei einem einzelnen Fahrzeug (in Bezug auf einen vertikalen und horizontalen Wnkel) aus Fahrer-/Kamera-/Scheinwerfer-Perspektive;
Fig. 5B eine Darstellung eines optischen Flusses unter Verwendung von„Opti- scher-Fluss"-Vektoren;
Fig. 6A ein Kamerabild, wie es beispielsweise von einer Kamera in dem Fahrzeug aufgenommen wird; Fig. 6B ein verarbeitetes Kamerabild, in dem Objekte von einem Objekterkennungsalgorithmus erkannt wurden;
Fig. 6C ein Bild einer Kamera, bei dem mehrere Objekte in Ausführung eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens gruppiert worden sind;
Fig. 7 ein Ablaufdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung; und
Fig. 8 ein detaillierteres Ablaufdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung samt Übertragung der generierten Objektgruppendaten an ein Scheinwerfer-Steuergerät.
In der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
Fig. 1 zeigt ein Blockschaltbild eines Fahrzeugs 100, das ein Ausführungsbeispiel des nachfolgend beschriebenen Ansatzes zur Übertragung von Daten an ein Scheinwerfersteuergerät verwendet. Hierbei wird durch eine Kamera 110 die Fahrzeugumgebung 115 in einem Sichtwinkel 120 abgetastet und hieraus ein Kamerabild der Fahrzeugumgebung 1 15 generiert. Die Kamera 1 10 dient dabei als optischer Sensor und kann beispielsweise als sehr preisgünstige CCD- oder CMOS-Kamera ausgestaltet sein, wie sie mittlerweile breit verfügbar ist. Das von der Kamera 1 10 gelieferte Kamerabild wird nachfolgend in einem Datenaufbereitungsgerät 130 weiterverarbeitet. Das Datenaufbereitungsgerät 130 kann auch Teil der Kamera 1 10 oder als Software auf einer in Fig. 1 nicht dargestellten Prozessoreinheit der Kamera 1 10 ausgeführt werden. Dabei wird ein Algorithmus auf das Kamerabild angewendet, um Objekte in dem Kamerabild zu erkennen und entsprechende Parameter des Kamerabildes zu erfassen, die in Bezug zu diesen Objekten stehen. Unter einem solchen Parameter kann beispielsweise die Helligkeit oder Farbe eines Ausschnitts des Kamerabildes verstanden werden, in dem ein Objekt erkannt wurde. In diesem Datenaufbereitungsgerät 130 wird nun eine Gruppierung von mehreren, das heißt zumindest zwei Objekten vorgenommen, wobei diese Gruppierung unter Verwendung von zumindest zwei unterschiedlichen Parametern erfolgt, die den beiden Objekten zugeordnet sind. Dabei erfolgt die Gruppierung derart, dass beispielsweise ein erster Parameter eines ersten Objekts mit einem ersten Parameter des zweiten Objekts verglichen wird und ein zweiter Parameter des ersten Objekt, der vom ersten Parameter unterschiedlich ist, mit einem zweiten Parameter des zweiten Objekts in Beziehung gesetzt, wobei der zweite Parameter des zweiten Objekts ebenfalls vom ersten Parameter des zweiten Objekts unter- schiedlich ist. Der erste Parameter repräsentiert dabei gleiche Größen im ersten und zweiten Objekt, wobei sich auch der zweite Parameter auf gleiche Größen im ersten und zweiten Objekt bezieht. Auf diese Weise erfolgt die Gruppierung somit anhand von zwei unterschiedlichen Parametern, die für jedes der zwei gruppierten Objekte in Beziehung zueinander gesetzt werden. Beispielsweise kann als erster Parameter eine Helligkeit des ersten Objekts mit einer Helligkeit als erstem Parameter des zweiten Objekts verglichen werden und eine Geschwindigkeit und/oder Richtung als zweiter Parameter des ersten Objekts mit einer Geschwindigkeit und/oder Richtung als zweiter Parameter des zweiten Objekts verglichen werden, wobei das erste Objekte dann mit dem zweiten Objekt in eine Objektgruppe gruppiert wird, wenn sowohl die Helligkeit des ersten Objekts mit der Helligkeit des zweiten Objekts innerhalb eines Toleranzbereichs übereinstimmt als auch die Geschwindigkeit und/oder Richtung des ersten Objekts mit der Geschwindigkeit und/oder Richtung des zweiten Objekts innerhalb eines Toleranzbereichs übereinstimmt. Somit wird das erste Objekt mit dem zweiten in ei- ne gemeinsame Objektgruppe gruppiert, wenn sowohl der erste Parameter des ersten Objekts innerhalb eines Toleranzbereichs mit dem ersten Parameter des zweiten Objekts übereinstimmt und wobei der zweite Parameter des ersten Objekts innerhalb eines Toleranzbereichs mit dem zweiten Parameter des zweiten Objekts übereinstimmt. Die auf diese Weise gruppierten Objekte werden also in einer Objektgruppe zusammengefasst, die durch eine geringere Informationsmenge beschrieben werden kann, als die beiden einzelnen Objekte. Diese Objektgruppe kann durch einen Datensatz (der nachfolgend als Objektgruppendaten bezeichnet wird) repräsentiert sein, der beispielsweise eine Information über die die Anzahl Objekte in der Objektgruppe, eine Form der Objekte in der Ob- jektgruppe, eine Bewegungsrichtung der Objekte der Objektgruppe, eine Beschreibung und/oder Angabe zur Position und/oder Größe und/oder Form des Ausschnittes des Kamerabildes, das die Objektgruppe repräsentiert oder ähnliches sein. Weiterhin kann das„Alter" des ObjektesAgruppe im Bild berücksichtigt werden. Die Daten über eine solche Objektgruppe werden nachfolgend beispielsweise über einen Datenübertragungsbus 140 wie beispielsweise den CAN-Bus, ein FlexRay, optischer Bus (z.B. MOST), drahtlose Übertragung (z.B. Bluetooth, ZigBee) an das Scheinwerfersteuergerät 150 übertragen, welches unter Verwendung dieser Objektgruppendaten die Lichtverteilung eines Lichtkegels oder eines Beleuchtungsfeldes von Scheinwerfern 160 des Fahrzeugs 100 steuert. Dabei kann der Datenübertragungsbus 140 ein bereits standardmäßig im Fahrzeug 100 verbauter Datenbus sein, der beispielsweise auch eine Signalübertragung von Aufprallsensoren 170 an ein Airbagsteuergerät 180 und/oder ein Auslösesignal von dem Airbagsteuergerät 180 an einen Airbag 190 liefert. Durch die Gruppie- rung von mehreren Objekten zu einer gemeinsamen Objektgruppe und der Übertragung von solchen Objektgruppendaten über den Datenübertragungsbus 140 lässt sich somit eine Reduktion der über den Datenübertragungsbus 140 zur Übertragung der Informationen zu dem aus dem Kamerabild erkannten Objekten realisieren. Durch eine solche Reduktion der Datenübertragungslast kann eine mögliche Überlastung des Datenübertragungsbusses 140 vermieden werden, wobei dennoch eine optimale Ausleuchtung der Fahrzeugumgebung 1 15 durch die präzise Versorgung des Scheinwerfersteuergeräts mit erforderlichen Informationen möglich wird, um eine optimale Ansteuerung der Scheinwerfer 160 mittels der Scheinwerfersteuereinheit 150 zu realisieren.
Weiterhin können freie Ressourcen in der Kamera verwendet werden, um Situationen (vor-) zu berechnen. Dadurch muss die Rechenleistung von Kamera und Scheinwerfersteuergerät nicht auf die Spitzenlast ausgelegt werden. Ein Detektionsalgorithmus FDD (FDD = Fahrzeugdetektion bei Dunkelheit), der in der Kamera 110 selbst oder, wie in Fig. 1 in der Datenüberbereitungseinheit 130 ausgeführt wird, erkennt und klassifiziert beispielsweise bei Nacht helle Objekte und unterscheidet z.B. Fahrzeuge, Reflektoren und Straßenlaternen. Objekte, die keiner der Kategorien zugeordnet werden können, werden als„unbekannte Ob- jekte" einsortiert oder klassifiziert. Bei den Fahrzeugen werden Frontscheinwerfer und Rücklichter unterschieden. Die Unterscheidung zwischen Frontlichtern und Rücklichtern wird beispielsweise durch den Parameter„Lichtfarbe" der erkannten Objekte durchgeführt. Die einzelnen Lichtquellen als erkannte Objekte werden, falls möglich, zu Licht-Paaren als Objektgruppe zusammengefasst. Es kann ferner zusätzlich eine Objekt-Detektion/ -Klassifikation von Blinkersignal und andere Signaleinrichtungen von Fahrzeugen, leuchtender Infrastruktur (z.B. Ampeln),
Fahrrädern und Fußgängern (mit Reflektoren) nützlich sein.
Die erkannten Objekte besitzen eine Bildposition (Detektionswinkel) sowohl in vertikaler, als auch horizontaler Richtung. Wenn ein Scheinwerferpaar erkannt wurde, kann aus dem Abstand der Scheinwerfer zueinander die Entfernung sehr grob geschätzt werden (Genauigkeit mehrere Meter). Ursache ist die Schwankung der Einbaupositionen/ -abstände der Scheinwerfer.
Die Objekte können für einfache Fernlichtassistenten genutzt werden, die zwi- sehen Fernlicht und Abblendlicht hin- und herschalten. Für eine einfache Umsetzung (ohne Situationserkennung) reicht hier das Erkennen des Vorhandenseins anderer Verkehrsteilnehmer (vgl. J. Rebut„A Monocular Vision Based Advanced Lighting Automation System for Driving Assistance", IEEE International Symposium on Industrial Electronics, 2009).
Bei erweiterten Fernlichtassistenten, wie beispielsweise der„AHC"-Funktion (AHC = Adaptive High Beam Control), wird der Abstrahlwinkel des Scheinwerfers so weit angehoben, dass die Sichtweite des Fahrers erhöht wird, die anderen Verkehrsteilnehmer aber nicht geblendet werden. Dies ist in den Teilfiguren der Fig. 2, die schematische Darstellungen von AHC in unterschiedliche Szenarien einer Fahrzeugbeleuchtung bei unebener Fahrbahn und/oder vorausfahrendem Fahrzeug dargestellt. Um den Abstrahlwinkel des Scheinwerfers berechnen zu können, sollte die vertikale Position und, falls möglich, auch der Abstand zum Objekt bekannt sein. Dies ist in der Fig. 3 wiedergegeben, wobei in dieser Figur eine schematische Anpassung von Scheinwerfern an vorausfahrende Fahrzeuge
(vertikaler Wnkel) als Fahrer-/Kamera-/ und Scheinwerfer-Perspektive dargestellt ist. Der Fernlichtassistent ist verwandt mit der dynamischen Leuchtweiten- Regulierung, bei der die Leuchtweite angepasst wird. In diesem letztgenannten Fall erfolgt jedoch eine Anpassung an eine konstante Reichweite. Für den Lichtassistenten„blendfreies Fernlicht" (auch CHC = Continuous High Beam Control genannt) werden beispielsweise der rechte und linke Scheinwerfer auseinander geschwenkt, um einen Schattenbereich um die Fahrzeuge zu erzeugen. Fig. 4 zeigt eine schematische Darstellung des blendfreien Fernlichts entsprechend der Darstellung aus D. Grimm„Trends in Automotive lighting, new technology and its benefits for end-users", 8th International Symposium on Automotive Lighting, 2009, wie ein solches Auseinanderschwenken der Lichtkegel in unterschiedlichen Fahrtpositionen erfolgt, wenn das eigene Fahrzeug 400 auf ein entgegenkommendes Fahrzeug 410 zufährt. Für die Berechnung des Schat- tenbereichs sollten zusätzlich zur vertikalen Objektposition noch die horizontalen
Koordinaten der Verkehrsteilnehmer bekannt sein, wie dies aus der schematischen Darstellung des blendfreien Fernlichts bei einem einzelnen Fahrzeug (vertikaler Winkel und horizontale Winkel) aus Fahrer-/Kamera-/Scheinwerfer- Perspektive entsprechend der Fig. 5A darstellt ist. Die Verkehrsteilnehmer wer- den dann gemeinsam„entblendet".
Bei Pixel-Licht bzw. Matrix-Beam wird der Raum vor dem Fahrzeug in Segmente eingeteilt, die einzeln angeleuchtet werden können. Die Funktionalität ist ähnlich des blendfreien Fernlichts, wobei die Ansteuerung eine größere Flexibilität be- sitzt: Es braucht kein gemeinsamer Schattenbereich erzeugt werden.
Wenn zusätzlich zu den Objektwinkeln noch mehr Informationen zur Verfügung stehen, können daraus Situationen berechnet werden, auf die reagiert wird (z.B. Anpassung von Parametern). Eine Situationserkennung ist nötig, um moderne Assistenzsysteme zu entwickeln.
Je nach System-Ausprägung kann die Einstellempfehlung für die Scheinwerfer von der Kamera (bzw. dem integrierten Kamerasteuergerät) kommen oder im Scheinwerfersteuergerät bestimmt werden. Die Berechnung innerhalb der Kame- ra ist vorteilhaft, da hier auf alle Messwerte zentral zugegriffen werden können
(vollständig alle von FDD gemessenen Objekte mit allen Zusatzinformationen, aber auch z.B. Spurinformationen).
Häufig findet die Berechnung jedoch im Scheinwerfer-Steuergerät 150 entsprechend der Fig. 1 statt, wenn der Scheinwerferhersteller die gesamte Ansteuerung des Scheinwerfers realisiert. Zur Ansteuerung sollten dann die von FDD gemes- senen Objekte von der Kamera an das Scheinwerfer-Steuergerät in einer Objektliste übertragen werden. Dazu wird vor der Entwicklung eine Anzahl an zu übertragenden Objekten festgelegt (z.B. 8 Stück im Projekt eines bestimmten Fahrzeugherstellers), welche zyklisch über den CAN-Bus übertragen werden. Wenn die Kamera eine größere Anzahl an Objekten detektiert, muss sie entweder Objekte auslassen, oder die Objekte zusammenfassen.
Das Auslassen von Objekten und die Zusammenfassung von Objekten zu Gruppen haben Auswirkungen auf die Ansteuerungsmöglichkeiten des Scheinwerfer- Steuergerätes. Wenn die Gruppe nicht sinnvoll gewählt wird, oder die falschen
Objekte nicht gesendet werden, kann das Scheinwerfersteuergerät nicht die optimale Entscheidung zur Scheinwerfereinstellung treffen. Es ist ebenfalls möglich, dass das Scheinwerfersteuergerät durch die fehlenden Informationen die Situation nicht richtig interpretiert.
Die Art der Zusammenfassung der entsprechenden Objekte hat Auswirkungen auf die Leistungsfähigkeit der gesamten Scheinwerfer-Ansteuerung. Eine gute Zusammenfassung von Objekten gewährleistet eine optimale Verfügbarkeit der Funktion.
Ein besonderer Aspekt der vorliegenden Erfindung betrifft die Verwendung eines FOE, d.h. eines„Field of Expansion". Bei der Erkennung eines optischen Flusses wird berücksichtigt, wie sich die Objekte bewegen. Hier wird die Position des FOE genutzt, um z.B. nahe beim FOE liegende Fahrzeuge zusammenzufassen, da diese wahrscheinlich weit weg sind. In der Fig. 5B werden (entsprechend der
Erläuterung aus http://de.wikipedia.org/wiki/Optischer_Fluss) Vektoren bezüglich eines„optischen Flusses" wiedergegeben. Lange Linien entstehen dabei durch große Bewegungen von Fixpunkten an bestimmten Objekten. Die Fluss-Linien schneiden sich hier im„Field of Expansion" (FOE) ziemlich in der Mitte des Bil- des (oder scheinen dort zu entspringen). Aus diesem FOE-Punkt/-Region scheinen alle Dinge zu entstehen und bei Annäherung größer zu werden (was zum optischen Eindruck einer Expansion führt).
Das FOE ist nicht immer mittig. Beispielsweise verschiebt es sich bei Kurvenfahrt in Richtung der Kurve. Neue Objekte tauchen dann normalerweise nicht mehr in der Mitte des Bildes auf. In dem nachfolgen noch detaillierter beschriebenen Ansatz wird erläutert, welche Kombinationen von Daten genutzt werden (können), um eine sinnvolle Gruppierung von Objekten vorzunehmen. Eine solche Gruppierung kann auch als Cluste- ring bezeichnet werden. Die Gruppierung ist insbesondere dann nötig, um dem Scheinwerfersteuergerät alle nötigen Informationen zur Verfügung stellen zu können, auch wenn es zu viele Objekte für die zur Verfügung gestellte Bandbreite ist.
Weiterhin wird beschrieben, dass man Situationen an das Scheinwerfer- Steuergerät übermitteln kann und so das Scheinwerfersteuergerät von Berechnungen entlastet wird und die in der Kamera vorliegenden Informationen optimal nutzen kann.
Für die Übermittlung von Objektgruppen (Objektclustern) werden meist Rechtecke genutzt— es können aber auch andere geometrische Formen übertragen werden, um eine optimierte Datenrepräsentation bei gleichbleibender Bandbreite zu erreichen.
Um eine solche Objektgruppe bzw. ein Objekt-Cluster zu erzeugen, sollten zumindest zwei Parameter von Objekten in Beziehung zueinander gesetzt werden, um eine Gruppierung der betreffenden Objekte in eine Objektgruppe präzise vornehmen zu können. Diese Parameter sollten sich auf die gleichen Eigenschaften der beiden Objekte beziehen. Wenn die beiden Parameter von zwei Objekten innerhalb eines Toleranzbereichs übereinstimmen, sollten die beiden Objekte in einer Objektgruppe gruppiert werden. Auch können natürlich mehr als zwei Objekte in eine Objektgruppe gruppiert werden wobei dann sowohl der erste als auch der zweite Parameter für alle die in die Objektgruppe gruppierten Objekte innerhalb eines Toleranzbereichs liegen sollte.
Für die Gruppierung der Objekte können viele unterschiedliche Attribute oder Eigenschaften oder Parameter der erkannten Objekte bzw. Parameter des Kamerabildes zur Berechnung einer Objektgruppe herangezogen werden.
Für die Zusammenfassung von Objekten zu Objektgruppen wird eine Kombination von Attributen verschiedener Objekte miteinander verrechnet, um eine Grup- pe (Cluster) zu bilden. Als Beispiele für die für die Objektgruppierung berücksichtigten Parameter können die folgenden Parameter genannt werden:
• Detektionswinkel relativ zur optischen Achse der Kamera (entspricht ungefähr der Pixelposition)
o Horizontale Objektposition (Koordinaten)
o Vertikale Objektposition (Koordinaten)
• Entfernung des Objekts von der Kamera
• Typ des Objekts (Fahrzeug, Straßenlaterne, Reflektor, ...),
• Fahrtrichtung bzw. Fahrzeugbeleuchtungstyp (Frontscheinwerfer, Rücklicht, ...)
o Entgegenkommend (Frontscheinwerfer)
o Vorausfahrend (Rücklichter)
• Ausdehnung des Objekts (Höhe, Breite)
• Form des Objekts (Eckigkeit, Rundheit)
· Seitenverhältnis des Rechtecks, das das Objekt/ -gruppe umschließt (Dieser
Aspekt ist vorwiegend beim„Wachsenlassen" von Objekt-Gruppen nützlich, d.h. es existiert schon eine Gruppe und es wird überlegt, welches Objekt man noch hinzunimmt.)
• Helligkeit der Lichtquelle
· (durchschnittliche) Helligkeit des Rechtecks, das das Objekt oder Objektgruppe umschließt (gegebenenfalls auch Rechteck/ geometrische Form, die Gruppe umschließt)
• Farbe der Lichtquelle
• Die Entfernung (Detektionswinkel) zum nächsten/benachbarten Objekt o Entfernung der Mittelpunkte der Objekte
o Abstand zwischen den einzelnen Objekten
• Dauer der Detektion des Objekts („Alter" der detektierten Objekte, d.h. Dauer, wie lange vor der aktuellen Erfassung das Objekt bereits erkannt wurde)
• Relativgeschwindigkeit zum eigenen Fahrzeug (Skalierungsänderung, Ent- fernungsänderung, Positionsänderung)
• (geschätzte) Höhe des Objekts über Grund (-> z.B. Zusammenfassung bei Straßenlaternen)
• Nähe zum FOE (Field Of Expansion)
• Bewegungsrichtung/ -stärke im Kamerabild
· Position auf der Straße zueinander (z.B.„alle Fahrzeuge nach dem zweiten
Fahrzeug zusammenfassen") • Logisch zusammengehörige Objekte (z.B. eine Kolonne erfassen, einen Blinker mit Rückleuchten, ... zusammenführen)
• Straßenverlauf bei Gruppierung mit einbeziehen (Der Straßenverlauf ist keine Objekteigenschaft im engeren Sinne, sondern kann die Gruppenbildung beeinflussen. Der Straßenverlauf braucht nicht zwingend von der Kamera erkannt werden, sondern kann auch z.B. von einem Navigationsgerät ausgelesen werden).
• Größe eines Halos um das Lichtobjekt (wobei Halos proportional zur Entfernung des Lichtobjektes und den atmosphärischen Bedingungen wie Nebel sind)
• Kantensteilheit der Ränder der Lichtquellen (wobei die Kantensteilheit umgekehrt proportional zu Halo ist und der Abstrahlcharakteristik der Lichtquelle)
• Leuchtende Fläche (z.B. Größe der leuchtenden Fläche)
· Helligkeitsunterschiede innerhalb des Objekts (um z.B. Schilder zusammenzufassen)
• Orientierung des Objekts
• Anzahl von Objekten in Objektgruppe
• Objektdichte in Objektgruppe (Anzahl Objekte pro Fläche der Gruppe) · Eigenbewegung des Fahrzeugs oder der aufnehmenden Kamera (um sich z.B. an schnelle Änderungen im Bild bei hoher Geschwindigkeit/ Gierrate anzupassen)
• Typ der Lichtquelle (z.B. LED, Hochdruckgasentladungslampe, ... )
• Relative/ absolute Helligkeitsänderung der Lichtquelle (um beispielsweise eine Annäherungsgeschwindigkeit zu ermitteln)
• Frequenz der Helligkeitsänderung (um zum Beispiel getaktete Lichtquellen wie LEDs zu erkennen)
• Ergebnisse der Oberflächenschätzung der Kamera und/oder eines Navigationssystems (z.B. Steigung der Straße vor dem Fahrzeug)
· Entfernung zu Messdaten von anderen vorausschauenden Sensoren (z.B.
Entfernung zu Objekten, die an Hand von Radar-Reflexen ermittelt wurden) und/ oder
• Verhältnis zwischen Pixeln von mind. 2 unterschiedlichen spektralen Filterungen (auch: spektrale Filterung = keine Filterung) -Lichtfarbe Die oben genannten Parameter sind nur exemplarisch genannt, wobei zumindest zwei Parameter zur möglichst präzisen Gruppierung der betreffenden Objekte in eine gemeinsame Objektgruppe verwendet werden. Nachfolgend werden einzelne der oben genannten Parameter näher erläutert.
Parameter Objektentfernung
Normalerweise wird die Lichtverteilung auf das Objekt/die Objekte eingestellt, die am Nächsten zum Fahrzeug stehen. Zusätzlich zur tatsächlichen Schätzung der Entfernung des Objekts können noch weitere Daten zur Abschätzung des Ab- stands genutzt werden.
Dazu gehört beispielsweise auch die Position des erkannten Objekts im (Kame- ra-)Bild, mit der man bei bekannter Oberfläche und Anbauhöhe der Lichtquelle die Entfernung schätzen kann. Aus der Größe des Objekts kann man ebenso eine Entfernung schätzen, da weit entfernte Objekte im Bild kleiner erscheinen als nahe Objekte (FDD nutzt unter Anderem die Breite des Scheinwerferpaars zur Entfernungsschätzung).
Bei atmosphärischen Einflüssen wie Feuchte in der Luft bildet sich ein Lichtschein, ein sogenannter„Halo", um die Lichtobjekte, da das Licht an den Wassertropfen gestreut wird. Je weiter entfernt das Fahrzeug ist, desto mehr Wassertropfen sind zwischen Objekt und Kamera und desto größer wird der Halo. Wenn ein Halo vorhanden ist, sinkt auch die Kantensteilheit der Lichtquelle, d.h. die Objekte werden nur noch unscharf oder in einer geringeren Schärfe von der Kamera erkannt, als ohne Feuchte in der Luft. Lichtquellen bei Fahrzeugen haben meist eine maximal erlaubte Größe, die mit der Entfernung im Kamerabild kleiner wird. Bei Fahrzeugen, die hintereinander fahren, ist die Kenntnis der genauen Eigenschaften der hinteren Fahrzeuge für die Scheinwerferansteuerung meist zweitrangig— die relative Position der Fahrzeuge auf der Straße zueinander kann daher auch als Entfernung genutzt werden (auch bei Verdeckungseffekten, bei denen keine Entfernung wegen nur einzelnen Scheinwerfern berechnet werden kann).
Die Helligkeit kann zur Entfernungsschätzung genutzt werden, da sie quadratisch mit der Entfernung abnimmt (vor allem, wenn die Lichtquelle auf weniger als ei- nen Pixel abgebildet wird und so mit dunklen Schattenbereichen gemittelt wird). Durch den Mittelwert-bildenden Charakter bei der Abbildung auf Pixel, gehen auch Helligkeitsunterschiede innerhalb der Lichtquelle verloren— je weiter entfernt die Lichtquelle ist, desto geringer fallen die Helligkeitsunterschiede inner- halb des Objekts aus.
Die ermittelte Eigenbewegung der Kamera kann genutzt werden, um z.B. bei hoher Geschwindigkeit weniger oder nur die weit entfernten Objekte zusammenzufassen, da man sich schneller annähert. Das„Alter" eines entgegenkommenden Objekts kann ebenfalls dazu dienen (zusammen mit anderen Parametern, z.B.
Eigenbewegung, Oberflächenschätzung) auf die Entfernung zu schließen.
Objekte, die nahe beieinander im Bild sind, stehen möglicherweise auch in der Realität nahe beieinander und haben eine ähnliche Entfernung.
Parameter Objektbewegung
Der Parameter„Objektbewegung" hat Einfluss auf die Dynamik des Gesamtsystems und auf die Situationserkennung (z.B. entgegenkommendes Fahrzeug). Die Objektbewegung kann direkt aus dem Bild bzw. durch Differentiation der Objektposition im Bild geschätzt werden. Weiterhin kann man an Hand des Fahrzeugbeleuchtungstyps auf die qualitative Geschwindigkeit/ zukünftige Positionsänderung schließen. Rückleuchten, d.h. vorausfahrende Fahrzeuge haben meist eine kleine Änderung der relativen Position zur Folge, da sie normalerweise in die gleiche Richtung fahren wie das eigene Fahrzeug. Entgegenkommende
Fahrzeuge haben, wenn sie nah sind (d.h. eine geringe Objektentfernung aufweisen und/oder unter einem großen Objektwinkel zur Normalen des Kamerabildes aufgenommen werden), eine hohe Dynamik (besonders beim Vorbeifahren). Die Fahrtrichtung bzw. der Fahrzeugbeleuchtungstyp kann, an Hand der Lichtfarbe erkannt werden. Die Lichtfarbe kann ebenfalls zur Objekt-Gruppierung genutzt werden. So können zur Gruppenbildung beispielsweise gleiche Lichtfarben (zur Gruppenbildung für Objekte gleicher Fahrtrichtung) verwendet werden, aber auch unterschiedliche Lichtfarben (z.B. gelbes Blinkersignal zu den benachbar- ten Lichtquellen zuordnen). Eine Messung der Lichtfarbe kann durch Farbrekonstruktion erfolgen, bei der aus mind. zwei unterschiedlich farbigen Pixeln (bei- spielsweise rot und grau/farblos/nur Intensität; bei digitalen Kameras meist 3 Farben: rot, grün, blau) der Farbwert geschätzt wird. Statt eine fertig berechnete Farbe zu nutzen, können selbst die Verhältnisse/ Differenzen zwischen den (Färb-) Pixeln bei der Lichtquelle ausgewertet werden.
Die Helligkeit einer Lichtquelle hängt quadratisch mit der Entfernung zusammen (photometrisches Entfernungsgesetz). Bei Annäherung des Objektes zur Kamera erhöht sich die Helligkeit bzw. die Größe/Fläche des Objekts. Daher kann auch beispielsweise die Helligkeitsänderung als Parameter zur Gruppenbildung ge- nutzt werden.
Das„Alter" von Objekten (d.h. die Dauer des Objekts im Bild) hat unterschiedlichen Einfluss auf die voraussichtliche Dynamik des Objekts: ein„altes" Objekt kann langsam (in Bezug auf die Geschwindigkeit der Kamera) sein (beispielsweise ein vorausfahrendes Fahrzeug), aber auch schnell werden (wie beispielsweise ein entgegenkommendes Fahrzeug bei guter Sicht beim Vorbeifahren). Unterschiedliche Objektkategorien oder Objektgruppen repräsentieren beispielsweise Objekte mit unterschiedlichen Geschwindigkeiten, was mit betrachtet werden kann, so dass beispielsweise keine Eigenbewegung von Straßenlaternen, Ampeln, Reflektoren, berücksichtigt werden braucht. Die Orientierung des Objekts kann auch für die weitere Bewegung eine Rolle spielen. So können beispielsweise Objekte mit der gleichen Orientierung in eine Objektgruppe zusammengefasst werden, oder Objekte die nach der Orientierungsschätzung in die gleiche Richtung fahren werden können in eine Objektgruppe zusammengefasst werden.
Verminderung Fehlklassifikation
FDD kann die einzelnen Objekte nicht immer sinnvoll in Paare zusammenfassen. In der übergeordneten Funktionsschicht können vermeintliche Einzelobjekte wieder gruppiert werden, wenn sie ähnlich sind und/oder in den Gesamtkontext passen. In der übergeordneten Funktionsschicht kann auch auf die Messdaten anderer Umfeldsensoren (auch: andere kamerabasierte Messalgorithmen) zurückgegriffen werden, um die Messdaten in Zusammenhang zu bringen und eine verbesserte Gruppierung, als es ohne die weiteren Messgrößen möglich wäre, durchzuführen. Wenn im Bild zu viele erkannt Objekte sind, die nicht alle übertragen werden können, sollten diese vielen Objekte zu einer oder mehreren Objektgruppen zu- sammengefasst werden, um die Datenübertragungslast über die Datenleitung zu minimieren. Dabei kann beispielsweise die Zusammenfassungs-Schwelle von einzelnen Objekten im Vergleich zu FDD gesenkt werden.
Die Einzelobjekte können so zusammengefasst werden, dass beispielsweise Objekte mit einer ähnlichen Form zusammengefasst werden oder von gleichen Lichtquellen (Frequenz bei LED, Lichtfarbe bläulich bei Xenon, rötlich bei Halo- gen).
Es kann Situationen geben, in denen stark reflektierende Straßenschilder als Objekte/Fahrzeuge erkannt werden. Hier kann beispielsweise die Form, das Seitenverhältnis der umschließenden Rechtecks (bzw. umschließende geometrische Form), deren Fläche und durchschnittlichen Helligkeit (und Helligkeitsänderung innerhalb der Form) ausgewertet werden, um z.B. mit anderen vermeintlich nicht blendungsrelevanten Objekten zu verschmelzen. Schilder, die bei einer großen Größe in mehrere Objekte zerfallen könnten, sowie Häufungen von Schildern im Verkehrsraum, können so zusammengefasst werden.
Gruppenbildung
Je nach Strategie kann es sinnvoll sein, möglichst viele Objekte in einer Gruppe zusammenzufassen oder mehrere Gruppen mit möglichst wenigen Objekten zu bilden (Anzahl an Objekten in Gruppe).
Je nach Fernlichtassistent/ Ausprägung kann es sinnvoll sein, das Seitenverhältnis mit einzubeziehen. So könnte beispielsweise für eine feinere Abstufung beim blendfreien Fernlicht eine hochkant stehende Gruppierung von Objekten (d.h. eine Gruppierung von Objekten, die im Kamerabild übereinander angeordnet sind) bevorzugt werden, bei Einzel-Lichtern eine Gruppierung, die einer Fahrzeug-
Geometrie entspricht (z.B. auch Scheinwerfer zusammen mit Positionsleuchten gruppieren).
Ergänzung zur Gruppenbildung (Clustering)
Zur Reduzierung der Daten braucht nicht nur ein einzelner Objekt-Cluster oder eine einzelne Objektgruppe gebildet werden. Es ist auch möglich, dass mehrere Gruppen gebildet werden (z.B. zur Reduzierung der Anzahl an Objekten in einer Gruppe).
Weiterhin ist nicht ausgeschlossen, dass ein Objekt in mehreren Gruppen vor- handen ist. Das ist möglich, wenn beispielsweise das Objekt sowohl zu den
Gruppen (Clustern)„entgegenkommend und nah", als auch„schnelle Bewegung nach links" gehört.
Die Objekte werden sinnvoll zu Gruppen zusammengefasst, wodurch auch die Parameter der Gruppen-Objekte angepasst werden sollten.
Es ist auch möglich spezielle Botschaften für Objekt-Gruppen vorzusehen.
Statt einer Liste mit Einzelobjekten (gegebenenfalls gemischt mit Gruppen) las- sen sich auch ausschließlich Gruppendaten übertragen. Vorteilhaft bei der Übertragung von ausschließlich Objektgruppendaten (Clusterdaten) ist, dass eine Kennzeichnung in der Kommunikationsbotschaft eingespart werden kann, ob es sich bei den übertragenen Daten um Gruppendaten oder Einzel-Objektdaten handelt, wodurch die zu übertragende Information weiter verdichtet werden kann. Dabei sollte ein„Bounding-Box"-Objektgruppe übertragen werden, der alle Fahrzeuge umfasst (daraus können horizontale und vertikale Koordinaten für den zu entblendenden Bereich extrahiert werden). Alternativ können andere Gruppendaten übertragen werden. Es muss jedoch sichergestellt werden, dass alle Fahrzeuge von diesen Gruppen in Summe umfasst werden. In dem Sonderfall, dass keine Einzelobjekte sondern ausschließlich Gruppendaten übertragen werden können und nur ein einzelnes Objekt von der Kamera erkannt werden konnte, kann in einer„Gruppe" auch ein einzelnes Objekt vorhanden sein. Dies kann auch der Fall sein, wenn Gruppen mit spezifischen Eigenschaften übertragen werden, aber nur ein einzelnes Objekt in diese Gruppe passt (z.B. eine Gruppe „alle entgegenkommende Fahrzeuge, die näher als eine gewisse Entfernung sind" und es nur ein entgegenkommendes Fahrzeug gibt).
Statt Rechtecken mit Bereichen des Kamerabildes als Objektgruppe oder Ob- jektcluster können auch Objektgruppen mit anderen geometrischen Formen für einen Bildausschnitt des Kamerabildes übertragen werden. Dazu gehören neben
Rechtecken und Trapezen allgemeine„Vielecke" zur Definition von Regionen. Die Regionen können aber auch als runde Formen (z.B. Kreis, Ellipse, Kurvenverlauf, Bezier-Kurve, ...) beschrieben werden.
Es ist vorteilhaft, wenn den Regionen ein„Schwerpunkt" (z.B. Mittelpunkt,„wich- tigster Punkt") zugewiesen wird. Der Schwerpunkt braucht nicht den tatsächlichen Schwerpunkt der geometrischen Form wiederspiegeln, sondern kann auch der thematische Schwerpunkt sein (z.B. vorderstes Fahrzeug einer Kolonne).
Zur Form bzw. dem Schwerpunkt können zusätzlich Bewegungsinformationen (Translation, Rotation, Skalierung/ Größenänderung) zugeordnet werden, um Informationen über deren voraussichtliche Entwicklung zu geben. Dadurch können die darauf aufbauenden Algorithmen noch vorausschauender arbeiten.
An Stelle einer Gruppenbildung können auch Objekte, die als nicht besonders relevant gelten, ausgelassen werden (z.B. zentrales Fahrzeug einer Gruppierung).
Es ist vorteilhaft, wenn die Kamera die Parameter, nach denen die Gruppen gebildet werden, dynamisch an die jeweilige Situation anpassen kann, um eine optimale Informationsdichte zu erreichen.
Es ist möglich, dass das Scheinwerfer-Steuergerät verschiedene Parametereinstellungen von der Kamera anfordert oder Situationen anfordert, die es für eine optimale Scheinwerfer-Ansteuerung benötigt. So kann die Kamera die verfügbare Rechenleistung auf die benötigten Situationen aufwenden bzw. durch eine gewollte Anpassung der Parameterzusammenstellungen eine optimale Informationsdichte der übertragenen Daten bzw. optimale Informationsübertragung erreichen. Die Zusammenstellung der Objekte und Situationen braucht nicht fest zu sein, sondern kann geändert werden. Wenn das Scheinwerfersteuergerät mehr „Intelligenz" besitzt, kann es für die dann einfacher gehaltene Kamera entscheiden, wie sie die Zusammenstellung der Objekte durchführt, so dass das Ergebnis an die eigenen Bedürfnisse der Fahrsituation angepasst wird.
Parameter Fahrsituationen
Dieser Parameter betrifft die Übertragung von erkannten Verkehrssituationen, deren Wahrscheinlichkeit (optional) und Auftretensposition im Bild (optional). Die Position bzw. der Situationsbereich kann dabei als geometrische Form angege- ben werden (z.B. Rechteck, Trapez, Ellipse...), die einen Winkel-Bereich relativ zum Fahrzeug beschreibt (z.B. Objektwinkel, Pixelkoordinaten, ...), aber auch in anderen Koordinatensystemen. Ebenso kann die Position als Segment angeben werden (z.B. bei vorheriger Segmentierung des Bildes). Zusätzlich zur Position kann die (relative) Bewegungsrichtung übermittelt werden. Das gilt auch für die regulären Objekt-Gruppen.
Die Trennung in der Berechnung der Scheinwerferansteuerung zwischen Kamera und Scheinwerfersteuergerät braucht nicht auf der Ebene der Objekte erfol- gen. Die gemessenen oder erkannten Objekten und andere Informationen (z.B.
Spurinformationen) können zu verschiedenen„Situationen" (d.h. Fahrtszenarien) kombiniert werden. Diese Situationen können an das Scheinwerfer-Steuergerät geschickt werden, wodurch dessen Ressourcenbedarf sinkt und die in der Kamera vorhandenen Informationen besser verwendet werden können. Die Messgrö- ßen (Parameter) werden zu Fahrsituationen zusammengefasst und an das
Scheinwerfer-Steuergerät gesendet.
Zusätzlich zum Typ der Fahrsituation (z.B. überholendes Fahrzeug, Kolonne entgegenkommend, S-Kurve, ...) kann auch der Bereich der Fahrsituation angege- ben werden. Dies kann beispielsweise über die Angabe eines Punktes (z.B.
„wichtigster" Punkt in dieser Situation, z.B. Mittelpunkt des ersten entgegenkommenden Fahrzeugs) und/ oder die Angabe eines Bereiches erfolgen. Je nach Situation ist es sinnvoll eine Richtung mit anzugeben, um eine Tendenz der Bewegung der Situation zu erhalten. Eine (optionale) Wahrscheinlichkeit für eine ent- sprechende Fahrsituation lässt dem Scheinwerfer-Steuergerät Interpretationsspielräume und ermöglicht fließende Übergänge zwischen einzelnen Fahrsituationen.
Die Koordinaten der Gruppe kann der Mittelpunkt sein, aber es kann sich auch um einen repräsentativen Punkt handeln bzw. den für die Lichtfunktionen wichtigsten Punkt der Gruppe. Dies hängt vor allem mit der gewählten Geometrie der Gruppe zusammen, als auch mit der zur Verfügung stehenden Bandbreite bei der Übertragung.
Nachfolgend werden einige Beispiele für die Übertragung von Objektgruppendaten an das Scheinwerfer-Steuergerät darstellt. Aus den übertragenen Daten soll- te das Scheinwerfersteuergerät die optimale Ansteuerung für die einzelnen Scheinwerfer des Fahrzeugs ermitteln.
Zunächst wird eine Beispielsituation gemäß der Fig. 6 betrachtet. In dem Kame- rabild, das in der Fig. 6A dargestellt ist, sind drei hintereinander fahrende Fahrzeuge zu erkennen. Der Objektdetektionsalgorithmus FDD erkennt ein entgegenkommendes Scheinwerferpaar 610 und drei weitere Lichtquellen 620, sowie drei Reflektoren 630 in der Fahrzeugumgebung, wie es in der Fig. 6B dargestellt ist.
In diesem Beispiel werden zwei Objekt-Gruppen 640 (die als rechteckige Bereiche im Kamerabild klassifiziert werden) gebildet, wie es in der Darstellung aus Fig. 6C wiedergegeben ist. Das vorderste Fahrzeug (Frontscheinwerferpaar) ist ein Objekt 640a (alleine in„Gruppe"), die nachfolgenden Fahrzeuge werden in einer gemeinsamen Gruppe 640b zusammengefasst, beispielsweise auf der Basis gleicher oder sehr ähnlicher Helligkeitswerte und Geschwindigkeiten in Bezug zur Kamera. Weiterhin beschreibt die Ellipse 650 den Bereich des Kamerabildes (d.h. ein Objekt) in für die Fahrtsituation„Kolonne" mit geschätzter Richtungsänderung (Geschwindigkeit Pfeil 660) sowie beispielsweise der ähnlichen Helligkeit der Objekte in der Objektgruppe(n). Der Punkt 670 beschreibt die Situation„Vorbeifahrer" (als Daten für das Scheinwerfersteuergerät) oder es beschreibt das Objekt in einer Objektgruppe oder als Einzelobjekt, das am ehesten blendungs- gefährdet ist und auf das besonders geregelt werden muss mit Bewegungsrichtung. Das Trapez 680 beschreibt die Gruppe der Reflektoren 630.
Ebenso könnte noch beispielsweise ein Bereich für vorausfahrende Objekte separat erzeugt werden, die am weitesten entfernt liegenden Objekte zusammengefasst werden (die z.B. unabhängig von Lichtfarbe sind) und beispielsweise ein Bereich für Straßenlaternen eingefügt werden.
Durch den vorliegend vorgestellten Ansatz wird es somit möglich, helle bei Nacht erkannte Objekte effizient an ein Scheinwerfersteuergerät zu senden, welches daraus eine Lichtansteuerung realisiert. Wenn viele Objekte im Bild auftauchen können durch den vorliegenden Ansatz mehrere dieser Objekte vorteilhaft zu ei- ner Gruppe zusammengefasst werden, damit Bandbreite gespart wird und/oder alle relevanten Informationen übermittelt werden können. In dem vorliegenden Ansatz werden verschiedene Zusammenfassungen vorgestellt, damit das Scheinwerfersteuergerät daraus sinnvolle Aktionen ableiten kann.
Ferner zeigt die Fig. 7 ein Ablaufdiagramm eines Ausführungsbeispiels der vor- liegenden Erfindung als Verfahren 700 zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs. Die Daten wurden unter Verwendung einer Kamera aufgenommen. Das Verfahren weist einen Schritt des Einlesens 710 von Objektdaten betreffend zumindest zwei Objekte, wobei die Objektdaten Informationen über Objekte repräsentieren, die in einem von der Kamera aufgenommen Bild als Objekt klassifiziert wurden. Weiterhin umfasst das Verfahren einen Schritt des Bildens 720 von Objektgruppendaten aus den eingelesenen Objektdaten der zumindest zwei Objekte, wobei das Bilden unter Verwendung von zumindest zwei unterschiedlichen Parametern erfolgt, die aus Bilddaten des von der Kamera aufgenommenen Bildes bereitge- stellt wurden. Schließlich umfasst das Verfahren 700 einen Schritt des Übertragens 730 der Objektgruppendaten als Daten über eine aktuelle Fahrzeugumgebung an das Scheinwerfersteuergerät.
In der Fig. 8 ist ein Ablaufdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung als Verfahren dargestellt, wobei die Vorgehensweise bei der Bildung der Objektgruppendaten bzw. der Objektgruppen detaillierter dargestellt ist. Zunächst werden Objekte 810a bis 81 Oe aus einem Kamerabild generiert, beispielsweise unter Verwendung des Objektdetektionsalgorithmus FDD. Diese Objekte 810 lassen sich durch bestimmte Daten 815a bis 815e, die beispielsweise eine Position im und/oder eine Größe eines Bildausschnitts des Kamerabildes repräsentieren, beschreiben. Dies bedeutet, dass diese Daten 815a bis 815e, die die betreffenden Objekte 810 repräsentieren, übertragen werden und als Repräsentation dieses„Objekts" dienen. Zugleich werden bestimmte Parameter, wie sie vorstehend bereits aufgelistet wurden in Bezug zu den Objekten bestimmt und ebenfalls, beispielsweise in einem Datenrahmen, der die Objektdaten enthält, zur weiteren Verarbeitung bereitgestellt. Die Objekte 810a bis 81 Oe werden nachfolgend in einem ersten Schritt 710 des vorstehend näher beschriebenen Verfahrens eingelesen. Dabei kann sich beispielsweise bei dem Objekt 810a und dem Objekt 810b um erkannte Scheinwerfer von entgegenkommenden Fahrzeu- gen handeln. Diese Objekte 810a und 810b können nun an Hand von zwei unterschiedlichen Parametern P1 und P2 untersucht werden. Beispielsweise kann der erste Parameter P1 eine Helligkeit der in dem Kamerabild erkannten Objekte 810a und 810b sein, wogegen der Parameter P2 eine Geschwindigkeit und/oder eine Richtung dieser aus dem Kamerabild erkannten Objekte repräsentiert. Wird nun in einem ersten Vergleicher 820a ermittelt, dass der Parameter P1 des ers- ten Objekts 810a innerhalb eines Toleranzbereichs gleich dem ersten Parameter eines zweiten Objekts 810b ist, kann dies durch das Vergleichersignal X1 einem ersten Kombinierer 830a signalisiert werden. Analog kann in einem zweiten Vergleicher 820b überprüft werden, auch der zweite Parameter P2 des ersten Objekts 810a innerhalb eines Toleranzbereichs dem zweiten Parameter P2 des zweiten Objekts 810 b entspricht, was ebenfalls durch ein Vergleichersignal X2 dem ersten Kombinierer 830a signalisiert wird. Erhält der erste Kombinierer 830a über das erste und zweite Vergleichersignal X1 und X2 die Information, dass sowohl die ersten Parameter P1 als auch die zweiten Parameter P2 der beiden Objekte 810a und 810b jeweils innerhalb eines Toleranzbereichs gleich sind kann der erste Kombinierer 830a aus dem ersten Objekt 810a und den zweiten Objekt
810b eine Objektgruppe 810a/b bilden und entsprechende Objektgruppendaten 835a/b in einem Schritt des Übertragens 730 über eine Datenleitung 140 an das Scheinwerfer-Steuergerät 150 ausgeben. Es ist ferner auch möglich noch mehr Parameter bzw. Vergleicher zu verwenden wobei die Anzahl der Parameter bzw. Vergleicher beliebig groß sein kann.
Ferner kann es sich beispielsweise bei dem Objekt 81 Od und dem Objekt 81 Oe um erkannte Rücklichter von vorausfahrenden Fahrzeugen handeln. Diese Objekte 81 Od und 81 Oe, die durch die Objektdaten 815d und 815e repräsentiert sind, können nun an Hand von zwei unterschiedlichen Parametern P3 und P4 untersucht werden. Beispielsweise kann der dritten Parameter P3 eine Farbe der in dem Kamerabild erkannten Objekte 81 Od und 81 Oe sein, wogegen der Parameter P4 einen Abstand dieser aus dem Kamerabild erkannten Objekte repräsentiert. Wird nun in einem dritten Vergleicher 820c ermittelt, dass der dritte Pa- rameter P3 des dritten Objekts 81 Od auf innerhalb eines Toleranzbereichs gleich dem dritten Parameter eines vierten Objekts 81 Oe ist, kann dies durch das Vergleichersignal X3 einem zweiten Kombinierer 830b signalisiert werden. Analog kann in einem vierten Vergleicher 820d überprüft werden, ob der vierte Parameter P4 des dritten Objekts 81 Od innerhalb eines Toleranzbereichs dem vier- ten Parameter P4 des vierten Objekts 81 Oe entspricht, was ebenfalls durch ein
Vergleichersignal X4 dem zweiten Kombinierer 830b signalisiert wird. Erhält der zweite Kombinierer 830b über das dritte und vierte Vergleichersignal X3 und X4 die Information, dass sowohl die dritte Parameter P3 als auch der vierte Parameter P4 der beiden Objekte 81 Od und 81 Oe jeweils innerhalb eines Toleranzbereichs gleich sind, kann der zweite Kombinierer 830b aus dem dritten Objekt 81 Od und den vierten Objekt 81 Oe eine Objektgruppe 810d/e bilden und entsprechende Objektgruppendaten 835d/e in dem Schritt des Übertragens 730 über eine Datenleitung 140 an das Scheinwerfer-Steuergerät 150 ausgeben.
Ferner kann auch ein fünftes Objekt 810c bzw. entsprechende fünfte Objektdaten 815c eingelesen werden. Im Schritt des Bildens 720 kann dann geprüft werden, ob das fünfte Objekt 810c in die erste Objektgruppe 810a/b und/oder in die zweite Objektgruppe 810d/e gruppiert werden soll. Beispielsweise kann aus den Objektdaten 815c des fünften Objekts 810 ein Wert des ersten Parameters P1 und ein Wert des zweiten Parameters P2 heraus gegriffen werden und überprüft wer- den, ob der Wert des ersten Parameters P1 und ein Wert des zweiten Parameters P2 des fünften Objektes 810c innerhalb der jeweiligen Toleranzbereiche mit den Werten des ersten Parameters P1 und des zweiten Parameters P2 des ersten Objekts 810a und des zweiten Objekts 810b übereinstimmt. Ist dies der Fall, gruppiert der erste Kombinierer 830a das fünfte Objekt 810c in die erste Objekt- gruppe 810a/b.
Alternativ oder zusätzlich kann auch im Schritt des Bildens 720 beispielsweise geprüft werden, ob das fünfte Objekt 810c in die zweite Objektgruppe 810d/e gruppiert werden soll. Beispielsweise kann aus den Objektdaten 815c des fünften Objekts 810 einen Wert des dritten Parameters P3 und des vierten Parameters
P4 heraus gegriffen werden und überprüft werden, ob der Wert des dritten Parameters P3 innerhalb des Toleranzbereichs mit den Werten des dritten Parameters P3 des dritten Objekts 81 Od und des vierten Objekts 81 Oe übereinstimmt. Stimmt sowohl der Wert des dritten Parameters P3 als auch der Wert des vierten Parameters P4 des fünften Objekts 810c innerhalb der jeweiligen Toleranzbereiche mit Werten der dritten Parameter P3 und vierten Parameter P4 des dritten Objekts und des vierten Objekts überein, gruppiert der zweite Kombinierer 830b das fünfte Objekt 810c in die zweite Objektgruppe 810d/e.
Wrd beispielsweise durch das fünfte Objekt 815c ein oberes Begrenzungslicht eines entgegenkommenden LKWs repräsentiert, kann dies an Hand der Hellig- keit (eines aktiven weißen Lichts) und der Geschwindigkeit bzw. Bewegungsrichtung erkannt werden, wobei die Helligkeit dann möglicherweise stärker von dem Helligkeitsmuster der ersten beiden Objekte 810a und 810b abweichen darf. Zumindest kann hierdurch eine Unterscheidung des fünften Objekts 810c gegenüber den Objekten 81 Od und 81 Oe der zweiten Objektgruppe 810d/e getroffen werden, da die Farbe des Begrenzungslichts sich von der Farbe der Rücklichter unterscheidet. In diesem Fall werden als Objektgruppendaten der ersten Objektgruppe 810a/b zu einer erweiterten Objektgruppe 810a/b/c vergrößert wobei diese Daten der erweiterten Objektgruppe 810a/b/c beispielsweise einen wesentlich größeren Ausschnitt der von der Kamera erfassten Bildes als zur ersten Objektgruppe gehörend zugordnet, da die oberen Begrenzungsleuchten des entgegenkommenden LKWs die Abmessungen des LKWs besser charakterisieren, als wenn lediglich die beiden Frontscheinwerfer als erstes oder zweites Objekt 810a oder 810b erkannt werden.
Erfolgt jedoch die Gruppierung des fünften Objekts 810c in die zweite Objektgruppe 810d/e (beispielswiese wenn als fünftes Objekt eine obere Begrenzungsrückleuchte eines vorausfahrenden LKWs erkannt wurde) kann diese zweite Objektgruppe zu einer erweiterten zweiten Objektgruppe 810d/e/c vergrößert werden, in der dann weitere Daten des fünften Objektes 810c eingebettet sind.
Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden.
Ferner können erfindungsgemäße Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden.
Umfasst ein Ausführungsbeispiel eine„und/oder" Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so kann dies so gelesen werden, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.

Claims

Verfahren (700) zum Übertragen von Daten (810a/b, 810d/e) über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät (150) eines Fahrzeugs (100), wobei die Daten (640a, 640b; 810a/b, 810d/e) unter Verwendung einer Kamera (110) aufgenommen wurden und wobei das Verfahren (700) die folgenden Schritte aufweist:
Einlesen (710) von Objektdaten (815a-e) betreffend zumindest zwei Objekte (610, 620, 630; 810a - 81 Oe), wobei die Objektdaten (815a-e) Informationen über Objekte (810a-e) repräsentieren, die in einem von der Kamera (1 10) aufgenommen Bild als Objekt klassifiziert wurden;
- Bilden (720) von Objektgruppendaten (640a, 640b, 650, 660, 670, 680;
810a/b, 810d/e) aus den eingelesenen Objektdaten (815a-e) der zumindest zwei Objekte (610, 620, 630; 810a-e), wobei das Bilden (720) unter Verwendung von zumindest zwei unterschiedlichen Parametern (P1-P4) erfolgt, die aus Bilddaten des von der Kamera (110) aufgenommenen Bildes bereitgestellt wurden; und
- Übertragen (730) der Objektgruppendaten (640a, 640b, 650, 660, 670, 680; 810a/b, 810d/e) als Daten über eine aktuelle Fahrzeugumgebung an das Scheinwerfersteuergerät (150).
Verfahren (700) gemäß Anspruch 1 , dadurch gekennzeichnet, dass im Schritt des Bildens (720) Parameter (P1-P4) verwendet werden, die eine Information in Bezug auf eine Helligkeit, Farbe und/oder eine Schärfe eines dem Objekt zugeordneten Bildbereichs des von der Kamera (110) aufgenommenen Bildes und/oder eine Information in Bezug auf eine Position, einen Abstand und/oder eine Bewegung eines der Objekte (610, 620, 630; 810a - 81 Oe) in Bezug zur Kamera (1 10) oder in Bezug zu dem zweiten der zumindest zwei Objekte (610, 620, 630; 810a - 81 Oe) und/oder eine Dauer des Vorhandenseins des Objektes in zeitlich zurückliegenden Bildern der Kamera (1 10) repräsentiert. Verfahren (700) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Einlesens (710) ferner weitere Objektdaten (815c) betreffend zumindest eines dritten Objektes (810c) eingelesen werden, wobei die weiteren Objektdaten (815c) Informationen über das dritte Objekt (810c) repräsentieren, das in dem von der Kamera (1 10) aufgenommen Bild als Objekt klassifiziert wurde und wobei im Schritt des Bildens (720) ferner die Objektgruppendaten (810a/b/c) unter Verwendung der weiteren Objektdaten (815c) gebildet wird.
Verfahren (700) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Bildens (720) die Objektgruppendaten auf der Basis zumindest eines dritten von den zwei Parametern unterschiedlichen Parameters gebildet werden.
Verfahren (700) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Bildens (720) Objektgruppendaten (810a/b) gebildet werden, die eine Information über eine Position, eine Form eine Bewegungsinformation, ein Alter, eine Helligkeit, eine Farbinformation und/oder eine Anzahl der Objekte und/oder eine Größe eines Bildausschnitts enthalten, in dem die zumindest zwei Objekte (810a, 810b) im Bild der Kamera (1 10) detektiert wurden.
Verfahren (700) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Einlesens (710) ferner zweite Objektdaten (815d, 815e) betreffend zumindest zwei weitere Objekte (810d, 810e) eingelesen werden, wobei die zweiten Objektdaten (815d-e) Informationen über die zwei weiteren Objekte (810d-e) repräsentieren, die in dem von der Kamera (1 10) aufgenommen Bild als Objekt klassifiziert wurden, wobei im Schritt des Bildens (720) ferner zweite Objektgruppendaten (810d/e) aus den eingelesenen zweiten Objektdaten (815d-e) der zumindest zwei weiteren Objekte (810d-e) gebildet werden, wobei das Bilden (720) der zweiten Objektgruppendaten (810d/e) unter Verwendung von zumindest zwei unterschiedlichen Parametern (P3, P4) erfolgt, die aus Bilddaten des von der Kamera (1 10) aufgenommenen Bildes bereitgestellt wurden und wobei im Schritt des Übertragens (730) die zweiten Objektgruppendaten (810d/e) an das Scheinwerfersteuergerät (150) übertragen werden. Verfahren (700) gemäß Anspruch 6, dadurch gekennzeichnet, dass im Schritt des Einlesens (710) ferner zumindest Objektdaten eines Zusatzobjektes eingelesen werden, wobei die Objektdaten des Zusatzobjektes Informationen über die das Zusatzobjekt repräsentieren, die in dem von der Kamera aufgenommen Bild als Objekt klassifiziert wurden und wobei im Schritt des Bildens die Objektgruppendaten und die zweiten Objektgruppendaten unter gemeinsamer Verwendung der Objektdaten des Zusatzobjektes gebildet werden.
Verfahren (700) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Bildens (720) Objektgruppendaten gebildet werden, die einem dem Scheinwerfersteuergerät (150) bekannten vordefinierten Szenario um das Fahrzeug, insbesondere vor dem Fahrzeug (100) entsprechen.
Verfahren (700) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Übersendens (730) die Objektgruppendaten (810a/b, 810d/e) an ein Scheinwerfersteuergerät (150) gesendet werden, das von einem Datenaufbereitungsgerät (130) unabhängig und räumlich getrennt in einem eigenen Gehäuse angeordnet ist, wobei das Datenaufbereitungsgerät (130) ausgebildet ist, um die Schritte des Einlesens (710) und des Bildens (720) auszuführen, insbesondere wobei im Schritt des Übertragens (730) die Objektgruppendaten (810a/b, 810d/e) über einen Kommunikations-Bus des Fahrzeugs (100) übertragen werden.
0. Verfahren gemäß einem der vorangegangen Ansprüche, dadurch gekennzeichnet, dass der Schritt des Bildens (720) ferner ansprechend auf ein Anforderungssignal des Scheinwerfer-Steuergerätes ausgeführt wird, wobei das Anforderungssignal insbesondere eine Information über eine Wahl der Parameter für die Bildung der Objektgruppendaten und/ oder über eine Situationsvorgabe aufweist.
1. Verfahren gemäß einem der vorangegangen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Bildens (720) ferner weitere Objektgruppendaten (810d/e) aus den eingelesenen Objektdaten (815d-e) der zumindest zwei Objekte (810d-e) gebildet werden, wobei das Bilden (720) der weiteren Objektgruppendaten (810d/e) unter Verwendung von zumindest zwei sich von den Parametern unterscheidenden weiteren Parametern (P3, P4) erfolgt, die aus Bilddaten des von der Kamera (1 10) aufgenommenen Bildes bereitgestellt wurden und wobei im Schritt des Übertragens (730) die weiteren Objektgruppendaten (810d/e) an das Scheinwerfersteuergerät (150) übertragen werden.
Steuergerät (130), insbesondere Datenaufbereitungsgerät, das Einheiten aufweist, die ausgebildet sind, um die Schritte eines Verfahrens (700) gemäß einem der Ansprüche 1 bis 11 durchzuführen.
13. Computer-Programmprodukt mit Programmcode zur Durchführung des Ver- fahrens(700) nach einem der Ansprüche 1 bis 11 , wenn das Programm auf einem Steuergerät (130) oder einem Datenaufbereitungsgerät ausgeführt wird.
EP12710263.0A 2011-03-31 2012-03-22 Verfahren und steuergerät zum übertragen von daten über eine aktuelle fahrzeugumgebung an ein scheinwerfersteuergerät eines fahrzeugs Withdrawn EP2691917A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102011006570A DE102011006570A1 (de) 2011-03-31 2011-03-31 Verfahren und Steuergerät zum Übertragen von Daten über eine aktuelle Fahrzeugumgebung an ein Scheinwerfersteuergerät eines Fahrzeugs
PCT/EP2012/055092 WO2012130719A1 (de) 2011-03-31 2012-03-22 Verfahren und steuergerät zum übertragen von daten über eine aktuelle fahrzeugumgebung an ein scheinwerfersteuergerät eines fahrzeugs

Publications (1)

Publication Number Publication Date
EP2691917A1 true EP2691917A1 (de) 2014-02-05

Family

ID=45876778

Family Applications (1)

Application Number Title Priority Date Filing Date
EP12710263.0A Withdrawn EP2691917A1 (de) 2011-03-31 2012-03-22 Verfahren und steuergerät zum übertragen von daten über eine aktuelle fahrzeugumgebung an ein scheinwerfersteuergerät eines fahrzeugs

Country Status (5)

Country Link
US (1) US9381852B2 (de)
EP (1) EP2691917A1 (de)
CN (1) CN103597498B (de)
DE (1) DE102011006570A1 (de)
WO (1) WO2012130719A1 (de)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8775029B2 (en) * 2011-03-16 2014-07-08 Infineon Technologies Ag System and method for bit error rate monitoring
DE102013100552A1 (de) * 2013-01-21 2014-07-24 Hella Kgaa Hueck & Co. Verfahren für die Erkennung der Bewegungsrichtung eines Objekts relativ zu einem Fahrzeug
US9582886B2 (en) * 2013-07-08 2017-02-28 Honda Motor Co., Ltd. Object recognition device
DE102014219120A1 (de) * 2013-12-19 2015-06-25 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen einer Leuchtweitenausrichtung eines Scheinwerfers
DE102014204770A1 (de) * 2014-02-06 2015-08-06 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem
CN106031147B (zh) * 2014-02-13 2019-04-09 索尼公司 用于使用角膜反射调整相机设置的方法和系统
DE102014203544A1 (de) * 2014-02-27 2015-08-27 Robert Bosch Gmbh Verfahren und Vorrichtung zum Analysieren einer Lichtaussendung eines Scheinwerfers eines Fahrzeugs
DE102014205180A1 (de) * 2014-03-20 2015-09-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
US11756427B1 (en) * 2014-04-15 2023-09-12 Amanda Reed Traffic signal system for congested trafficways
DE102014214649A1 (de) * 2014-07-25 2016-01-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ausrichten eines Leuchtbereichs eines Scheinwerfers eines Fahrzeugs in Abhängigkeit eines Umfelds des Fahrzeugs
KR20160020132A (ko) * 2014-08-13 2016-02-23 현대모비스 주식회사 차량의 인식 시스템
CN106166980A (zh) * 2015-05-22 2016-11-30 福特全球技术公司 用于控制前照灯的方法和装置
CN107851184B (zh) * 2015-07-28 2022-12-23 苹果公司 用于光和图像投影的系统和方法
JP2017103619A (ja) * 2015-12-02 2017-06-08 ソニー株式会社 制御装置、制御方法、およびプログラム
US10768298B2 (en) 2016-06-14 2020-09-08 Magna Electronics Inc. Vehicle sensing system with 360 degree near range sensing
DE102016211552A1 (de) * 2016-06-28 2017-12-28 Bayerische Motoren Werke Aktiengesellschaft Kraftfahrzeug
DE102016115076A1 (de) * 2016-08-15 2018-02-15 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erkennen einer Fahrzeugbeleuchtung von einem Fahrzeug in einer Umgebung eines Kraftfahrzeugs, Steuergerät, Beleuchtungsvorrichtung sowie Kraftfahrzeug
FR3055946B1 (fr) * 2016-09-15 2020-07-17 Valeo Vision Dispositif lumineux utilisant une source lumineuse de haute resolution
US10536646B2 (en) * 2017-07-28 2020-01-14 Panasonic Intellectual Property Corporation Of America Imaging control device and imaging control method
DE102017221465A1 (de) * 2017-11-29 2019-05-29 Robert Bosch Gmbh Verfahren und Vorrichtung zum Detektieren eines lichtaussendenden Objekts an einem Verkehrsknotenpunkt für ein Fahrzeug
KR102054926B1 (ko) * 2018-02-27 2019-12-12 주식회사 만도 Free Space 신호 기반 근거리 컷인 차량 검출 시스템 및 방법
US10369923B1 (en) * 2018-04-30 2019-08-06 Automotive Research & Testing Center Operation method of adaptive driving beam headlamp system
FR3104674B1 (fr) * 2019-12-16 2021-11-26 Valeo Vision Procédé de commande d’un système d’éclairage d’un véhicule automobile
FR3104675B1 (fr) * 2019-12-16 2021-11-26 Valeo Vision Procédé de contrôle d’un système d’éclairage d’un véhicule automobile
CN113746885B (zh) * 2020-05-29 2024-07-19 大众汽车股份公司 车辆组队的通信方法、服务器和通信终端
DE102021205669B3 (de) 2021-06-04 2022-09-01 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs und Fahrzeug
US12007476B2 (en) 2021-09-13 2024-06-11 Magna Electronics Inc. Method for detecting objects via a vehicular sensing system
DE102022100921A1 (de) 2022-01-17 2023-07-20 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Ansteuerung von Beleuchtungseinrichtungen eines Kraftfahrzeugs, Steuergerät für eine Beleuchtungseinrichtung eines Kraftfahrzeugs, Beleuchtungseinrichtung für ein Kraftfahrzeug und Kraftfahrzeug

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6861809B2 (en) * 1998-09-18 2005-03-01 Gentex Corporation Headlamp control to prevent glare
US7881496B2 (en) * 2004-09-30 2011-02-01 Donnelly Corporation Vision system for vehicle
US8924078B2 (en) * 2004-11-18 2014-12-30 Gentex Corporation Image acquisition and processing system for vehicle equipment control
TWI302879B (en) * 2006-05-12 2008-11-11 Univ Nat Chiao Tung Real-time nighttime vehicle detection and recognition system based on computer vision
US20080043099A1 (en) * 2006-08-10 2008-02-21 Mobileye Technologies Ltd. Symmetric filter patterns for enhanced performance of single and concurrent driver assistance applications
JP4697101B2 (ja) 2006-09-07 2011-06-08 株式会社デンソー 車両検出装置、およびライト制御装置
JP4240110B2 (ja) * 2006-10-31 2009-03-18 トヨタ自動車株式会社 車両用照明装置、車両用照明制御方法、及び車両用照明制御プログラム
JP4415996B2 (ja) * 2007-02-26 2010-02-17 株式会社日立製作所 車載用画像認識装置及び配光制御装置、並びに配光制御方法
CN201012648Y (zh) * 2007-03-08 2008-01-30 川铭精密科技股份有限公司 车辆的自动开灯装置
DE102007041784B4 (de) 2007-09-03 2010-02-25 Continental Automotive Gmbh Schaltungsanordnung zum Schalten einer induktiven Last
JP4466701B2 (ja) * 2007-09-10 2010-05-26 株式会社デンソー ライト制御装置
DE102008048309A1 (de) * 2008-09-22 2010-04-01 Volkswagen Ag Verfahren und Vorrichtung zum Detektieren von Fahrzeugen bei Dunkelheit
CN101376352B (zh) * 2008-09-24 2011-05-04 上海大学 自动适应夜间行车弯道及坡度的汽车前照灯控制方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2012130719A1 *

Also Published As

Publication number Publication date
CN103597498B (zh) 2018-04-10
CN103597498A (zh) 2014-02-19
US9381852B2 (en) 2016-07-05
US20140219506A1 (en) 2014-08-07
DE102011006570A1 (de) 2012-10-04
WO2012130719A1 (de) 2012-10-04

Similar Documents

Publication Publication Date Title
WO2012130719A1 (de) Verfahren und steuergerät zum übertragen von daten über eine aktuelle fahrzeugumgebung an ein scheinwerfersteuergerät eines fahrzeugs
DE102014107488B4 (de) Vorrichtung zur bestimmung der umgebung
DE102013100327B4 (de) Fahrzeugfahrtumgebungserkennungsvorrichtung
DE102007000420B4 (de) Fahrzeuginterne Einrichtung zum Erfassen von Fahrzeugen und Vorrichtung zum Steuern von Scheinwerfern durch Verwenden der Einrichtung
EP2501584B1 (de) Verfahren zum steuern einer scheinwerferanordnung für ein fahrzeug und scheinwerferanordnung
EP2501585B1 (de) Verfahren zum steuern einer scheinwerferanordnung für ein fahrzeug und scheinwerferanordnung
DE102009015824B4 (de) Blendfreibereich-Kartenprodukt und dieses verwendende System zur Bestimmung, ob eine Person geblendet wird
DE102007034657B4 (de) Bildverarbeitungsvorrichtung
WO2012168055A2 (de) Verfahren und vorrichtung zur erkennung von objekten in einem umfeld eines fahrzeugs
DE212017000101U1 (de) Kamerabasiertes Scheinwerferlicht-Steuerungssystem
EP2501586B1 (de) Verfahren zum steuern einer scheinwerferanordnung für ein fahrzeug und scheinwerferanordnung
EP1757485A1 (de) Verfahren zur Steuerung der Leuchtweite der Scheinwerfer eines Kraftfahrzeuges
WO2017102366A1 (de) System und verfahren zur objektbasierten ansteuerung eines hochauflösenden scheinwerfers für ein kraftfahrzeug
DE102009054249A1 (de) Verfahren zum Steuern einer Scheinwerferanordnung für ein Fahrzeug und Scheinwerferanordnung
DE102010029149A1 (de) Verfahren und Steuergerät zum Plausibilisieren eines Leuchtweite-Testwerts eines Lichtkegels eines Fahrzeugscheinwerfers
DE112017006833T5 (de) Fahrzeugbeleuchtungssystem
DE102014225517A1 (de) Verfahren und Steuergerät zum Einstellen zumindest eines Parameters einer Fahrerassistenzvorrichtung eines Fahrzeugs
DE112012003611T5 (de) Fahrzeugscheinwerfersteuersystem
EP2166489B1 (de) Verfahren und Vorrichtung zum Detektieren von Fahrzeugen bei Dunkelheit
EP2562685B1 (de) Verfahren und Vorrichtung zur Klassifizierung eines sich in einem Vorfeld eines Fahrzeugs befindlichen Lichtobjekts
EP2131308B1 (de) Verfahren und Vorrichtung zum Klassifizieren eines in mindestens einem Bild einer Abbildung eines Bereichs vor einem Fahrzeug detektierten Objekts
DE102007008542B4 (de) Verfahren und Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs
DE102009054243A1 (de) Bauteil mit Oberflächenbeschichtung und Verfahren zur Herstellung eines solchen Bauteils
DE102009054248A9 (de) Verfahren zum Steuern einer Scheinwerferanordnung für ein Fahrzeug und Scheinwerferanordnung
EP1962245B1 (de) Verfahren und Vorrichtung zum Ermitteln des Bewegungszustands von Objekten

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20131031

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20150623

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20151104