EP3076377A1 - Verfahren zum bereitstellen von freirauminformationen in einem umgebungsbereich eines kraftfahrzeugs als sensor-rohdaten an einer kommunikationsschnittstelle, sensoreinrichtung, verarbeitungseinrichung und kraftfahrzeug - Google Patents

Verfahren zum bereitstellen von freirauminformationen in einem umgebungsbereich eines kraftfahrzeugs als sensor-rohdaten an einer kommunikationsschnittstelle, sensoreinrichtung, verarbeitungseinrichung und kraftfahrzeug Download PDF

Info

Publication number
EP3076377A1
EP3076377A1 EP16161172.8A EP16161172A EP3076377A1 EP 3076377 A1 EP3076377 A1 EP 3076377A1 EP 16161172 A EP16161172 A EP 16161172A EP 3076377 A1 EP3076377 A1 EP 3076377A1
Authority
EP
European Patent Office
Prior art keywords
sensor
control unit
motor vehicle
information
surrounding area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP16161172.8A
Other languages
English (en)
French (fr)
Inventor
Markus Heimberger
Jean-Francois Bariant
Axel DURBEC
Anto MICHAEL
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Publication of EP3076377A1 publication Critical patent/EP3076377A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details
    • G01S2015/938Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details in the bumper area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Definitions

  • the invention relates to a method for providing information dependent on an object detected in an environmental region of a motor vehicle, in which the environmental region is detected by a sensor device of the motor vehicle. Information is provided at a communication interface in the motor vehicle. Furthermore, the invention relates to a method for generating a surrounding area map of an environmental area of a motor vehicle, in which the surrounding area map is created on the basis of information that is acquired by a sensor device of the motor vehicle and provided at a communication interface. Moreover, the invention also relates to a computer program product.
  • the invention also relates to a sensor device for a motor vehicle, having at least one sensor and a control unit, wherein the sensor device is designed to provide information dependent on an object detected in an environmental region of the motor vehicle at a communication interface in the motor vehicle. Furthermore, the invention also relates to a processing device for generating a surrounding area map. Moreover, the invention also relates to a motor vehicle with a sensor device and / or a processing device.
  • information dependent on an object detected in the surrounding area of a motor vehicle is provided at a communication interface in the motor vehicle.
  • the surrounding area is detected by a sensor device of the motor vehicle and the information is provided at a communication interface.
  • An essential idea of the invention is that sensor raw data are stored as information about a free space in the surrounding area to be detected, in particular sensor raw data as information about a free space detected between the sensor device and the object in a sensor device-side control unit.
  • the free space is therefore an object-free area.
  • This information is then provided in this sensor device-side control unit at the communication interface connected to the sensor device-side control unit for transmission to and further processing with a further control unit of a processing device comprising the two control units and designed to create a surrounding area map.
  • the inventive method now makes it possible to generate a more specific information about an object and then to provide this specific information so that it is available to a very specific communication interface.
  • the communication interface at which then this individual information is available, is not a general data interface, which represents the connection to the entire network of the vehicle, but in contrast is virtually another, in particular such an interface previously switched communication interface.
  • an associated further control unit is also functionally individually specified.
  • this further control unit is in the context of an individually characterized processing device associated, which in turn is functionally designed to the effect that it uses the provided on the communication interface information and then additionally generated by the further control unit information creates a surrounding area map.
  • This environmental area map can in turn be transmitted via a further data interface in a network of the motor vehicle and thus can also be made available to individual driver assistance systems.
  • a transmission to a display unit can take place in the context, where then such a surrounding area map is also displayed or viewed visibly for a user.
  • the method according to the invention makes it particularly advantageous that the bandwidth of the communication interface for the transmission of data between the control units can be reduced, since less bandwidth is required due to the provision of only content-specific sensor raw data.
  • the information provided as sensor raw data and representing a clearance is preferably determined from a position of at least one sensor of the sensor device on the motor vehicle and a position of the sensor to at least one other sensor of the sensor device and a distance between the sensor and a detected object.
  • the sensor raw data are determined as individual measuring points of the sensor device and the raw data are stored without a polygonal pull generated from the measuring points and thus polygon-free and provided at the communication interface.
  • a particularly high reduction of the bandwidth requirements is achieved and nevertheless sufficient information about a free space is provided, so that there is a sufficient database for the creation of a surrounding area map from the sensor raw data.
  • the sensor raw data are transmitted via the communication interface to the further control unit and are evaluated in the further control unit.
  • control units of the processing device are connected for data exchange with a bus of the communication interface.
  • a surrounding area map is created in the further control unit of the processing device on the basis of the information transmitted via the processing device internal communication interface.
  • the communication interface of the processing device is thus designed only for data exchange between the control units of the processing device.
  • this communication interface is not designed for data exchange with a processor-external unit, for example a network of the motor vehicle.
  • the sensor raw data are preferably provided for free space in a data format in the sensor-side control unit, with which the information of the sensor-side control unit is transmitted compatible for various processing units that can be connected to the communication interface for generating a surrounding area card formed processing device, in particular then processed there.
  • a specific data format thus makes it possible to provide novel information to a sensor device flexibly and as needed.
  • control units are functionally assigned to a processing device of the motor vehicle, and a surrounding area map is created or generated by the processing device depending on the information of the sensor device, this being carried out in particular in the further control unit.
  • the surrounding area map is displayed on a display unit of the motor vehicle.
  • each detected environmental clearance situations is decided whether an at least one environment free space situation at least supposedly located in the surrounding area object is contained in an updated map of the environment on the then updated map of the environment or is included, in particular also on the display unit is then displayed in particular also displayed map of the environment.
  • the display of incorrect or no longer current positions of detected objects on the map of the environment can also be at least significantly reduced.
  • a dynamic update of the environment map can thus be significantly improved with respect to the number of objects and the object position and in this context a quasi very precise real-time environment map based on ultrasonic sensor information can be created.
  • a suspicion or a probability of existence of an object in the surrounding area during an object detection process of the sensor is characterized with one of a plurality of different confidence values.
  • Such a quasi-probability weighting of the trustworthiness of an object detection process clarifies the decision as to whether an object located at least supposedly in the surrounding area in an environment clearance situation is then displayed when the environment map is updated on the then updated environment map.
  • an improved precision can be achieved for the decision as to whether an object is even displayed on the updated map of the surroundings, and if so, it can then with a higher precision with respect to the exact location of the object for Motor vehicle displayed on the updated map of the area. For example, then the wrongly positioned object in the map can be deleted and / or entered with greater precision in the environment map or area map.
  • more than two such confidence values in particular four different confidence values, can be defined and specified.
  • an active confidence value can be specified here as a confidence value. This characterizes a maximum degree of suspicion of an object detection process with respect to the presence of the object and / or the position of the object.
  • this active confidence value characterizes the situation in which it can be judged with absolute certainty that a detected object is still in the detection range of the ultrasound sensor even after the temporal detection of the second environment clearance situation and is thus to be displayed on the updated environment map.
  • An example second confidence value may be, for example, a tracking confidence value. This then defines in particular the likelihood of existence, and thus the presence and / or the local position of the object, an object detection process to the effect that an object was actively measured or detected in particular in the surrounding area in the temporally preceding first environment free space situation and then not in the temporally subsequent second environment free space situation was detected more actively, but it can be concluded that the object is no longer within the detection range of the sensor.
  • This trace confidence value indicates a probability that the object is still within the detection range that is less than the related probability at the active confidence value. Nevertheless, the probability of the presence of the object is still to be assessed as high enough that at least one display of the object takes place in the updated map of the surroundings. However, the trustworthiness of the position of the displayed object is reduced in relation to the active confidence value. However, for a tracking confidence score, the situation should be estimated to be, for example, due to the security offered it is helpful and convenient to continue to display the object on the updated map of the area.
  • a third confidence value is given as the deletion confidence value.
  • the probability that an object exists in the detection range of the ultrasonic sensor is set smaller than the tracking confidence value.
  • this third deletion confidence value particular consideration is given to situations in which the ultrasound sensor, due to its arrangement and / or due to the configuration of the object, can no longer detect this object in an environment free space situation, even though it is still within its detection range. This may for example be the case for very low objects, which are then located in a free space between the ultrasonic sensor and a higher object detected by the ultrasonic sensor.
  • this may also be the case with static and thus stationary objects in specific situations, for example if the main axis of the sensor is oriented significantly differently to an angle of 90 ° to the object and thereby the object is not detected. If, at this confidence value, the state that the static object was correctly detected would always be valid and without exclusion, again a classification based on the above mentioned confidence value, in particular also the active confidence value, could take place. However, since such an object may also be detected dynamically or incorrectly, this third deletion confidence value is very advantageous for the decision check.
  • an existence probability of an object in an object detection process is such that the probability of the presence of the object in the detection range of the ultrasonic sensor is lower than the tracking confidence value, but due to the situation There is a probability that the object is still in the detection area, but can not be detected.
  • the object is still displayed on the updated map, whereby here as well as the tracking confidence value, the local position of this object relative to the actual position in the surrounding area can be provided with an inaccuracy or with a deviation.
  • An advantageous fourth confidence value is given by a deleted confidence value.
  • this cleared confidence value By means of this cleared confidence value, it can be assumed with a higher probability than the erasure confidence value that the object is no longer within the detection range of the ultrasound sensor.
  • the accuracy of an object detection process is thus assessed by this fourth confidence value to the effect that this object is no longer within the detection range of the ultrasound sensor with the highest probability and thus at least with almost certainty.
  • the at least supposedly detected object is then no longer displayed in this case on the basis of the confidence value assessment on the updated map.
  • the method according to the invention can be used for a very wide variety of applications.
  • it can be used in different surroundings detection systems, in particular parking assistance systems, which are designed to carry out an at least semi-autonomous parking operation.
  • the procedure of the method according to the invention can also be used in addition to or instead of in a brake assist system, such as an ACC (Adaptive Cruise Control) system.
  • ACC Adaptive Cruise Control
  • the driver assistance system reacts differently and in the context of different reactions with respect to the objects and their likelihood in an object detection process are required.
  • an assignment of a specific confidence value to an object detection process is performed as a function of at least one detected environmental free space situation and / or at least one predetermined reference free space and / or a comparison of at least one free space environment with a reference free space and / or the type of an object.
  • a type of object for example, the shape of the object and thus also the dimensions of the object or the type of the object can be defined.
  • an evaluation of a movement of the object relative to the ultrasound sensor and thus also to the motor vehicle can be taken into account, in which case static and dynamic objects are also included here.
  • This advantageous embodiment thus quasi verifies, in particular by means of a classification or a comparison, how the actual environment free space situation presents itself and how it can be assessed and quasi grouped in the light of the confidence value criteria.
  • This is also very advantageous in that the statement precision is thus increased as to whether a display of an object on an updated map of the surroundings can take place, and thus can also be made more precise statement as to whether the object should be displayed updated on the map and if so How exactly is it then may be displayed in the updated environment map relative to the motor vehicle and / or to any other object to be displayed, if any.
  • the information to a vehicle user can be substantially improved and, in addition, the reaction of a driver assistance system operating based on this information of the method according to the invention can also be improved. Whether and, if appropriate, how a driver assistance system then reacts can thus be very individual and adapted.
  • a free space or a free space situation generally represents an at least partial area of the detection area of at least one sensor, which is assessed in particular at a specific time in terms of how free it is from objects. This applies to the actual traffic situation, which is characterized by an environment clearance situation, as well as to a reference clearance, which is characterized by a predefined traffic situation.
  • a plurality of different reference clearances is predetermined, which are thus generally first defined and stored and stored in particular in a driver assistance system.
  • a confidence value characterizing an accuracy of this object detection operation of the ultrasound sensor it will include being or not being included, in particular then displaying or not Displays the object performed in the updated environment map.
  • this modeling with reference spaces can give a very pronounced structuring of this diversity and a particularly analytical and detail-adapted selection and classification of the actually detected Situation be enabled.
  • This refinement can thus also be used very purposefully and thus also quickly to make a very reliable statement about the number of environmental free space situations to be evaluated and the information obtained thereby.
  • the possibility is also created that the environment free space situations are compared with at least two reference spaces, which further favors the above-mentioned advantages.
  • the selection of whether the ambient free space situations are compared with only one reference free space or at least two reference free spaces is based on information of at least the first environment free space situation and / or at least the second free space environment.
  • the number and / or reference space models used for the comparison are selected on the basis of the sequence of the environmental clearance situations and the information obtained therefrom, which can thus be specified in particular in chronological order.
  • a certain priority order of the reference clearances is specified, which are then selected in this order for comparison with the environment clearance situations.
  • a second reference free space model is selected.
  • a certain priority order of the reference clearances is specified, which are then selected in this order for comparison with the environment clearance situations.
  • a second reference free space model is selected.
  • the statement precision about displaying an object on an updated environment map is made faster, more targeted and more precise.
  • an association or a relationship of a confidence value of the confidence value model with a reference free space model is advantageously predefined with regard to the decision of displaying an object on the updated map, then by considering at least one reference free space and one confidence value, the decision is made as to whether an object is updated Map is to be displayed, again in more detail and more accurate.
  • a specific reference space of the plurality of reference clearances is selected for the comparison. Even with this advantageous embodiment, a faster statement as to whether an object is to be displayed on an updated environment map is made possible. Since a variety of complex relationships can also arise from the above-mentioned very high diversity of everyday situations in traffic, this feature specification can be used to differentiate and improve the decision-making regarding the design of the updated map of the surroundings.
  • a first reference space is defined as an object space in which a distance of the object to the ultrasonic sensor and the orientation of the object to the ultrasonic sensor are taken into account for the evaluation of an object.
  • These two parameters concerning the distance and the orientation and allow a very accurate statement about the actual presence of an object in a detection range of the ultrasonic sensor. If these parameter values can thus be detected in at least one environment free space situation, it is then possible to make the statement that the detected object actually is in the respective environment free space situation very precisely, in particular taking into account a specific confidence value, in particular taking into account the active confidence value exists and is actually present at the appropriate position. If this then applies to both environment clearance situations, then the situation is almost certainly given with the highest certainty that the object actually still exists and is present at the corresponding position, so that it is then also displayed exactly in the updated environment map.
  • a detected distance value at a specific orientation of the object at which the object was first detected is checked whether the object was detected in the second environment free space situation.
  • the object on the updated environment map is no longer displayed on the basis of the criteria of the first reference clearance, in particular a specific, in particular associated, confidence value.
  • a second reference free space is defined as a sensor free space in which it is taken into account for the evaluation of an object whether it is in the first detection area of the sensor in an environment free space situation, but can not be detected by the sensor as an object.
  • the view from the sensor is preferably considered in this sensor free space.
  • this sensor space is particularly important for the characterization of the environment free space situation.
  • the object was correctly detected as a static object. In this case, the object is still considered to exist. However, it can not be detected because it can no longer be detected by the sensor due to the object properties and the relative position change in this second environment free space situation.
  • the detection will not be possible. This can be the case, for example, with very thin or small objects, which can then no longer be detected by the sensor as the distance increases from the reference distance value.
  • a second situation can be characterized in that the object is a dynamic object, which thus moves itself against the motor vehicle, or is an incorrectly detected object.
  • the object is no longer present in the detection range of the sensor.
  • the situation can then be assessed in such a way that the object is no longer within the detection range of the ultrasound sensor and thus should no longer be displayed on the updated environment map.
  • the sensor clearance is preferably limited to the measurement distance, as no judgments can be made on the object that are outside this maximum measurement distance, in particular due to the fact that with a sensor no looking through objects can be done and Thus, it can not be judged what is behind these detected, especially high, objects.
  • an object on the updated map is displayed, particularly due to a specific confidence value, when an object in the environment clearance situation has been detected by the sensor, but in the second environment clearance situation, the object is no longer detected by the sensor was, but at least with a probability greater than a threshold can be assumed that the object is still within the detection range of the sensor.
  • a third reference space is defined as an active space in which the space between the sensor and an object detected by the sensor is considered to be free of at least detected objects of comparatively high objects, in particular free of objects greater than a height threshold.
  • a reference free space in which a specific subarea of a detection range of a sensor is considered. Since there may be many situations in which there are low objects between a detected object and a sensor in the detection range of the sensor compared to the detected object, which can then no longer be detected explicitly by the sensor, but are present in particular in the detection range , this embodiment significantly increases the statement precision with respect to the updated map of the surroundings regarding an object representation.
  • an object in the updated map detected in at least one environment free space situation between the sensor and the detected object, in particular on the updated map, in particular due to a specific Confidence value, not displayed It can then be assumed with a corresponding, in particular predetermined, probability that there is no further, in particular to be considered and essential object in this active space.
  • the active clearance also includes a situation in which the sensor with maximum Vertraulose, in particular with a Vertrauiana regarding the active confidence value detected, and a position of the measurement can be declared with appropriate Vertrauley and probability.
  • the local position of these objects can then be determined very accurately and taken into account in consideration of the object free space and / or especially the active confidence value updated area map not only the display as such, but also the location can be displayed very precisely.
  • a fourth reference space is defined as background clearance, in which objects in a space of the detection area of the sensor are considered, which extends on the side facing away from the sensor, following the active space.
  • another subarea of the coverage area is locally specified and is individually assessed and classified individually with regard to the detection of objects.
  • first an active clearance and / or a sensor clearance be taken as the basis and environment clearance situations can be characterized accordingly by the comparison, in order then also to be able to analyze this background clearance. Only then, with this design, can the position and extent of the background clearance be determined.
  • a blind zone or a near zone in which the sensor detects can not detect anything due to functional limitation, so that no statement about the presence of an object in the surrounding area is possible and thus no statement is possible whether there is a free space or not.
  • This may be the case with an ultrasonic sensor due to its settling time. For a camera, this may be the case due to reflections. In such a situation, the information is then provided to the interface that no statement about a free space is possible.
  • the invention also relates to a method for generating a surrounding area map of an environmental area of a motor vehicle, in which the surrounding area map is created on the basis of information that is acquired with a sensor device of the motor vehicle.
  • An essential idea of the invention lies in the fact that the sensor raw data for free space information is provided in the method according to the invention or an advantageous embodiment thereof, as explained above, and taken into account in the generation of the surrounding area map.
  • the environment area map is made available for use in a driver assistance system and is not displayed further.
  • a surrounding area map is then pictorially displayed on a display unit of the motor vehicle, so that a vehicle occupant can also see which objects are located in the surrounding area of the vehicle. This can be advantageous, in particular, in a driver assistance system designed as a parking assistance system when parking in a parking space or parking it out of a parking space.
  • the invention relates to a computer program product, which is designed to carry out a method according to the aspects mentioned above, when the computer program product is executed on a programmable computer device.
  • the computer device is preferably arranged in the motor vehicle.
  • the invention relates to a sensor device for a motor vehicle with at least one sensor and a control unit, wherein the sensor device is designed to provide information dependent on an object detected in an environmental region of a motor vehicle.
  • the sensor device is furthermore designed to provide the information at a communication interface in the motor vehicle. It is provided that sensor raw data are stored as information about a free space in the surrounding area to be detected, in particular sensor raw data as information about a detected between the sensor device and the object space in a sensor device side control unit, and this information at the with the sensor device side Control unit connected communication interface for transmission to and for further processing with a further control unit of the two control units comprehensive and designed to create a surrounding area map processing means are provided.
  • the invention relates to a processing device with a sensor device according to the invention and with a further control unit, which is connected via a processing device internal communication interface with the sensor device side control unit, wherein in particular the further control unit is designed for creating a surrounding area map based on the information transmitted via the communication interface.
  • the environment area map is then provided by the processing device.
  • the further control unit is also designed to receive and process information of a further sensor device functionally different from the sensor device comprising the first control unit.
  • the further control unit is also designed, preferably based on the information of the first sensor device and on the basis of the information of the information directly obtained from the further sensor device, to create a surrounding area map.
  • Advantageous embodiments of the method according to the invention are to be regarded as advantageous embodiments of the processing device and of the motor vehicle.
  • the subject components of the processing device and of the motor vehicle are each designed to carry out the respective method steps.
  • the invention relates to a motor vehicle with a sensor device according to the invention and / or a processing device according to the invention.
  • Fig. 1 is a schematic plan view of a motor vehicle 1 shown having a driver assistance system 2.
  • the driver assistance system 2 can be a parking assistance system, for example.
  • the driver assistance system 2 comprises an evaluation device or processing device 12 (FIG. Fig. 2 ), comprising a first control unit 3a and a further control unit 3b, and an ultrasonic detection device 4 as a first Sensor device.
  • the ultrasonic detection device 4 comprises in the exemplary embodiment on the motor vehicle 1 frontally arranged ultrasonic sensors.
  • six ultrasonic sensors 5a, 5b, 5c, 5d, 5e and 5f are present.
  • further ultrasound sensors 6a, 6b, 6c, 6d, 6e and 6f are also installed in a rear region of the motor vehicle 1. With the front-side ultrasonic sensors 5a to 5f, a front and side surrounding area 7 can be detected.
  • the ultrasonic sensors 5a to 5f and 6a to 6f are preferably arranged so that the entire surrounding area around the motor vehicle 1, which is then composed of the surrounding areas 7 and 8, is detected.
  • the motor vehicle 1 further comprises a display unit 9, on which pictorial representations can be made. On this display unit 9 can then be displayed in particular a surrounding area map or an environment map. In this case, the motor vehicle 1 is then also shown, for example, in this plan view and the surrounding area is displayed, so that objects detected in the surrounding area 7 and / or 8 are also displayed and recognizable to a vehicle occupant. This can be advantageous, for example, during a parking process or a parking process.
  • the driver assistance system 2 it is possible to detect objects present in the surrounding area 7 and / or surrounding area 8 and also to be able to give statements about the state of such objects on the basis of the information received from the ultrasonic sensors 5a to 5f and / or 6a to 6f.
  • the information of at least some of the ultrasonic sensors 5a to 5f and 6a to 6f is processed in the processing device 12, which is designed in particular for creating a surrounding area map.
  • the motor vehicle 1 comprises in the exemplary embodiment, in addition to the ultrasonic detection device 4, which is a first sensor device, at least one functionally different second sensor device to the first sensor device, which is formed in the embodiment by a front camera 10 and / or a rear camera 11.
  • the front camera 10 and / or the rear camera 11 also detect in the surrounding area 7 or in the surrounding area 8, so that objects can also be detected therewith.
  • the sensor-device-side control unit 3a and the further control unit 3b which also constitutes a fusion control unit, are components of the processing device 12 as described in US Pat Fig. 2 is shown by way of example.
  • the processing device 12 is designed to generate a surrounding area map.
  • the environment area map can be used as the basis information for a driver assistance system, for example a parking assistance system. It can also be displayed on a screen or the display unit 9.
  • the further control unit 3b is advantageously designed, in addition to information which it receives from the sensor device-side control unit 3a and thus the control unit, which is associated with the ultrasound detection device 4, also for processing or further processing information which is functionally different from it Sensor device, for example, the front camera 10 and / or the rear camera 11 receives, be formed. Since in this context the information of the different sensor devices are processed, in particular fused, the term fusion control unit is to be understood correspondingly.
  • the control units 3a and 3b are connected by a communication interface 13 for data exchange.
  • This communication interface 13 comprises a bus 14, via which the data exchange between the control units 3a and 3b takes place.
  • This communication interface 13 is thus an interface that is functional and exclusive with regard to its units, which belongs to this processing device 12, which is functionally individually designed, namely to create a surrounding area map.
  • the further control unit 3b comprises a processing unit 3c, which further processes the information transmitted by the control unit 3a.
  • This processing unit 3c is also connected to a processor unit 3d, in particular a digital signal processor, the further control unit 3b. In this processor unit 3d, the information received from the further sensor device, in particular the front camera 10 and / or the rear camera 11, is processed.
  • the entire processing device 12 is via at least one further data interface 15, in particular via two further ones
  • Data interfaces 15 and 16 connected to a network of the motor vehicle.
  • the sensor device-side control unit 3a is connected directly to the network via the data interface 15 and the further control unit 3b is connected to the separate data interface 16 directly to the network.
  • the sensor device is the already mentioned ultrasound detection device 4 which, in addition to the ultrasonic sensors 5a to 5f and 6a to 6f, also has the sensor-side control unit 3a.
  • This specific information which is stored in the sensor device-side control unit 3a, is provided in a specific data format to this communication interface 13, which in particular connects only processing device-internal units, in such a way that it can be simply transferred to the further control unit 3b of the processing device 12 and further processed there, to then create in particular the surrounding area map.
  • the data format is designed so that a compatible further processing of the information provided can be done in different other control units. This is advantageous when the further control unit 3b is designed, for example, vehicle manufacturer-specific.
  • the compatibility of this data format is therefore an essential advantage in order to be able to design the same structure of the processing device across vehicles and still be able to carry out individual further processing of the information generated by the sensor device-side control unit 3a.
  • Sensor raw data is stored as information of a free space detected between the sensor device and an object detected in the surrounding area 7 or 8 in the sensor device side control unit 3a and provided to the processing device internal communication interface 13, so that the information content specific sensor raw data is also for internal further processing in the processing device 12 can be transferred to the processor in-house further control unit 3b.
  • the communication interface 13 is only for data exchange between the processing equipment internal Control units 3a and 3b provided. Therefore, it connects or allows a data exchange therefore only between processing device internal units.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Bereitstellen von von einem in einem Umgebungsbereich (7, 8) eines Kraftfahrzeugs (1) erfassten Objekt abhängigen Informationen, bei welchem der Umgebungsbereich (7, 8) mit einer Sensoreinrichtung (4, 10, 11) des Kraftfahrzeugs (1) erfasst wird, und eine Information an einer Kommunikationsschnittstelle im Kraftfahrzeug (1) bereitgestellt wird, wobei Sensor-Rohdaten als Information über einen zwischen der Sensoreinrichtung (4, 10, 11) und einem im Umgebungsbereich (7, 8) erfassten Objekt erkannter Freiraum in einer sensoreinrichtungsseitigen Steuereinheit (3a) abgelegt werden und diese Sensor-Rohdaten an einer mit der sensoreinrichtungsseitigen Steuereinheit (3a) verbundenen Kommunikationsschnittstelle (13) zur Übertragung an und zur Weiterverarbeitung mit einer weiteren Steuereinheit (3b) einer die beiden Steuereinheiten (3a, 3b) umfassenden und zur Erstellung einer Umgebungsbereichskarte ausgebildeten Verarbeitungseinrichtung (12) bereitgestellt wird. Die Erfindung betrifft auch eine Sensoreinrichtung, eine Verarbeitungseinrichtung (12) und ein Kraftfahrzeug (1).

Description

  • Die Erfindung betrifft ein Verfahren zum Bereitstellen von von einem in einem Umgebungsbereich eines Kraftfahrzeugs erfassten Objekt abhängigen Informationen, bei welchem der Umgebungsbereich mit einer Sensoreinrichtung des Kraftfahrzeugs erfasst wird. Eine Information wird an einer Kommunikationsschnittstelle im Kraftfahrzeug bereitgestellt. Des Weiteren betrifft die Erfindung ein Verfahren zum Erzeugen einer Umgebungsbereichskarte eines Umgebungsbereichs eines Kraftfahrzeugs, bei welchem die Umgebungsbereichskarte auf Basis von Informationen, die mit einer Sensoreinrichtung des Kraftfahrzeugs erfasst werden und an einer Kommunikationsschnittstelle bereitgestellt werden, erstellt wird. Darüber hinaus betrifft die Erfindung auch ein Computerprogrammprodukt. Ferner betrifft die Erfindung auch eine Sensoreinrichtung für ein Kraftfahrzeug, mit zumindest einem Sensor und einer Steuereinheit, wobei die Sensoreinrichtung zum Bereitstellen von von einer in einem Umgebungsbereich des Kraftfahrzeugs erfassten Objekt abhängigen Information an einer Kommunikationsschnittstelle im Kraftfahrzeug ausgebildet ist. Des Weiteren betrifft die Erfindung auch eine Verarbeitungseinrichtung zur Erzeugung einer Umgebungsbereichskarte. Darüber hinaus betrifft die Erfindung auch ein Kraftfahrzeug mit einer Sensoreinrichtung und/oder einer Verarbeitungseinrichtung.
  • Aus der DE 10 2006 049 626 A1 ist ein Verfahren zur Bestimmung der Position und der geometrischen Ausdehnung eines Objekts in einem Umfeld eines Kraftfahrzeugs bekannt. Die Zuordnung eines Messwerts zu einer Population eines Objekts wird dort über ein Gate-Verfahren oder über den Mahalanobis-Abstand durchgeführt.
  • Darüber hinaus ist aus der DE 10 2009 045 286 A1 ein Verfahren zur Abbildung eines Umfelds eines Kraftfahrzeugs bekannt. Es wird dort vorgesehen, dass detektierte Objekte jeweils mit zwei Koordinatenpunkten und einer zu dem jeweiligen Koordinatenpunkt zugeordneten Positionsunschärfe beschrieben werden. Diese Koordinatenpunkte und die Positionsunschärfe werden als Daten in einer Schnittstelle abgelegt, auf die vom Fahrerassistenzsystem des Fahrzeugs zugegriffen werden kann. Damit die Daten von Fahrerassistenzsystemen verwendet werden können, ist eine allgemeine Objektschnittstelle notwendig, mit der die Eigenschaften des Objekts beschrieben werden.
  • Bei den bekannten Verfahren ist die Beurteilung einer Zugehörigkeit eines Erfassungspunkts nur eingeschränkt möglich, so dass eine entsprechende Ungenauigkeit einhergeht. Dies ist insbesondere dann auch nachteilig für die konkrete Objektbewertung und somit auch folglich für weitere Aussagen, beispielsweise bezüglich einem Freiraum zwischen einem Objekt und dem Kraftfahrzeug und/oder bezüglich einer Eintragung eines derartigen Objekts in eine Umfeldkarte. Nicht zuletzt ist im Stand der Technik die Bereitstellung von Informationen an einer genannten Schnittstelle verbesserungswürdig, da einerseits nur pauschale und wenig spezifizierte, insbesondere im Hinblick auf eine Weiterverarbeitung oder Weiterleitung wenig angepasste Informationen vorhanden sind und andererseits der Auswerteaufwand für die Informationen, die an dieser Schnittstelle bereits bereitgestellt werden, relativ hoch ist.
  • Bei der aus dem Stand der Technik bekannten Vorgehensweise werden nur relativ ungenaue Informationen einer sehr allgemeinen Schnittstelle bereitgestellt. Das führt dazu, dass die vorhandenen und bereitgestellten Daten nur zu relativ ungenauen Aussagen über das Objekt führen und daher für die weitere Verarbeitung oder Verwendung von Fahrerassistenzsystemen nur eingeschränkt tauglich sind. Darüber hinaus ist eine derartige allgemeine Schnittstelle, die quasi bereits die eigentliche Verbindung zu dem restlichen Fahrzeugnetzwerk und somit auch zu den Fahrerassistenzsystemen mit deren Steuergeräten führt, nur bedingt tauglich. Denn es kann hier nur pauschal für alle vorhandenen bereitzustellenden Informationen eine Schnittstelle vorgesehen sein, die daher Nachteile wie Kompatibilitätsprobleme zur Anbindung an andere Fahrzeughersteller spezifische Steuergeräte und Netzwerke aufweist. Darüber hinaus ist die individuelle Bereitstellung von individuell bereits vorverarbeiteten Informationen an dieser allgemeinen Schnittstelle nicht möglich. Auch dies führt zu Einbußen und Kompatibilitätsproblemen dann, wenn mit der Kommunikationsschnittstelle auch Steuergeräte von Fahrzeugen unterschiedlicher Fahrzeughersteller angeschlossen werden sollen.
  • Es ist Aufgabe der vorliegenden Erfindung, ein Verfahren zu schaffen, bei welchem die Bereitstellung von Informationen des Umgebungsbereichs des Kraftfahrzeugs anforderungsgerechter an einer Schnittstelle ermöglicht ist. In dem Zusammenhang ist es auch Aufgabe der vorliegenden Erfindung, ein Computerprogrammprodukt, eine Sensoreinrichtung für ein Kraftfahrzeug, eine Verarbeitungseinrichtung für ein Kraftfahrzeug als auch ein Kraftfahrzeug zu schaffen, bei welchem bzw. bei welcher diese Aufgabe gelöst ist.
  • Bei einem erfindungsgemäßen Verfahren wird eine von von einem im Umgebungsbereich eines Kraftfahrzeugs erfassten Objekt abhängige Information an einer Kommunikationsschnittstelle im Kraftfahrzeug bereitgestellt. Der Umgebungsbereich wird mit einer Sensoreinrichtung des Kraftfahrzeugs erfasst und die Information wird an einer Kommunikationsschnittstelle bereitgestellt. Ein wesentlicher Gedanke der Erfindung ist darin zu sehen, dass Sensor-Rohdaten als Information über einen Freiraum im zu detektierenden Umgebungsbereich, insbesondere Sensor-Rohdaten als Information über einen zwischen der Sensoreinrichtung und dem Objekt erkannten Freiraum, in einer sensoreinrichtungsseitigen Steuereinheit abgelegt werden. Der Freiraum stellt daher einen objektfreien Bereich dar. Diese Informationen werden dann in dieser sensoreinrichtungsseitigen Steuereinheit an der mit der sensoreinrichtungsseitigen Steuereinheit verbundenen Kommunikationsschnittstelle zur Übertragung an und Weiterverarbeitung mit einer weiteren Steuereinheit einer die beiden Steuereinheiten umfassenden und zur Erstellung einer Umgebungsbereichskarte ausgebildeten Verarbeitungseinrichtung bereitgestellt.
  • Durch das erfindungsgemäße Verfahren wird es nun ermöglicht, eine spezifischere Information zu einem Objekt zu generieren und diese spezifische Information dann so bereitzustellen, dass sie einer ganz spezifischen Kommunikationsschnittstelle zur Verfügung steht. Denn die Kommunikationsschnittstelle, an der dann diese individuelle Information bereitsteht, ist nicht eine allgemeine Datenschnittstelle, die die Verbindung zum kompletten Netzwerk des Fahrzeugs darstellt, sondern ist demgegenüber quasi eine andere, insbesondere einer derartigen Schnittstelle vorher geschaltete Kommunikationsschnittstelle. Denn sie ist so ausgestaltet und zur Verbindung vorgesehen, dass eine damit verbundene weitere Steuereinheit auch funktionell individuell spezifiziert ist. Denn diese weitere Steuereinheit ist in dem Zusammenhang einer individuell charakterisierten Verarbeitungseinrichtung zugehörig, die für sich gesehen wiederum funktionell dahingehend ausgebildet ist, dass sie anhand der an der Kommunikationsschnittstelle bereitgestellten Informationen und der dann durch die weitere Steuereinheit zusätzlich generierten Informationen eine Umgebungsbereichskarte erstellt. Diese Umgebungsbereichskarte kann dann wiederum über eine weitere Datenschnittstelle in ein Netzwerk des Kraftfahrzeugs übertragen werden und kann somit auch individuellen Fahrerassistenzsystemen zur Verfügung gestellt werden. Insbesondere kann in dem Zusammenhang dann auch eine Übermittlung an eine Anzeigeeinheit erfolgen, wo dann eine derartige Umgebungsbereichskarte auch für einen Nutzer einsehbar beziehungsweise betrachtbar dargestellt wird.
  • Durch ein derartiges erfindungsgemäßes Verfahren, ist es nunmehr wesentlich bedarfsgerechter ermöglicht, individuelle Informationen in einer individuellen Aufbereitungs- beziehungsweise Vorverarbeitungsstufe an einer ganz spezifischen Kommunikationsschnittstelle bereitzustellen. Gerade mit dem Ziel, dann aus diesen Informationen in Verbindung mit der Steuereinheit der Verarbeitungseinrichtung eine genauere Umgebungsbereichskarte zu erstellen, ist eine derartige Aufteilungsvorgehensweise bei dem Verfahren besonders vorteilhaft.
  • Durch das erfindungsgemäße Verfahren ist es ganz besonders vorteilhaft, dass die Bandbreite der Kommunikationsschnittstelle zur Übertragung von Daten zwischen den Steuereinheiten reduziert werden kann, da durch das Bereitstellen von nur inhaltspezifischen Sensor-Rohdaten weniger Bandbreitenbedarf auftritt.
  • Vorzugsweise werden die als Sensor-Rohdaten bereitgestellten und einen Freiraum darstellenden Informationen aus einer Position zumindest eines Sensors der Sensoreinrichtung am Kraftfahrzeug und einer Position des Sensors zu zumindest einem anderen Sensor der Sensoreinrichtung und einem Abstand zwischen dem Sensor und einem erfassten Objekt bestimmt.
  • Insbesondere werden die Sensor-Rohdaten als einzelne Messpunkte der Sensoreinrichtung bestimmt und die Rohdaten ohne einen aus den Messpunkten erzeugten Polygonzug und somit polygonzugfrei abgelegt und an der Kommunikationsschnittstelle bereitgestellt. Dadurch wird eine besonders hohe Reduzierung der Bandbreiteerfordernisse erreicht und dennoch ausreichend Information über einen Freiraum bereitgestellt, so dass gerade für die Erstellung einer Umgebungsbereichskarte aus den Sensor-Rohdaten eine ausreichende Datenbasis vorliegt.
  • Insbesondere werden die Sensor-Rohdaten über die Kommunikationsschnittstelle zu der weiteren Steuereinheit übertragen und werden in der weiteren Steuereinheit ausgewertet. Diese Aufteilung der spezifischen Bereitstellung von spezifisch vorverarbeiteten Informationen und der Weiterverarbeitung in getrennten Steuereinheiten führt zu einem besonders vorteilhaften und bedarfsgerechten Datenmanagement.
  • Bei einer vorteilhaften Ausführung werden die Steuereinheiten der Verarbeitungseinrichtung zum Datenaustausch mit einem Bus der Kommunikationsschnittstelle verbunden.
  • Insbesondere wird in der weiteren Steuereinheit der Verarbeitungseinrichtung auf Basis der über die verarbeitungseinrichtungsinterne Kommunikationsschnittstelle übermittelten Information eine Umgebungsbereichskarte erstellt.
  • Die Kommunikationsschnittstelle der Verarbeitungseinrichtung ist somit nur zum Datenaustausch zwischen den Steuereinheiten der Verarbeitungseinrichtung ausgebildet. Insbesondere ist diese Kommunikationsschnittstelle nicht zum Datenaustausch mit einer verarbeitungseinrichtungsexternen Einheit, beispielsweise einem Netzwerk des Kraftfahrzeugs, ausgebildet.
  • Vorzugsweise werden die Sensor-Rohdaten zum Freiraum in einem Datenformat in der sensorseitigen Steuereinheit bereitgestellt, mit welchem die Information der sensorseitigen Steuereinheit kompatibel für verschiedene, an die Kommunikationsschnittstelle anschließbare weitere Steuereinheiten zur Erzeugung einer Umgebungsbereichskarte ausgebildeten Verarbeitungseinrichtung übertragen werden, insbesondere dort dann weiterverarbeitet werden. Ein derartiges spezifisches Datenformat ermöglicht somit neuartige Informationen einer Sensoreinrichtung flexibel und bedarfsgerechter bereitzustellen.
  • Vorzugsweise werden die Steuereinheiten einer Verarbeitungseinrichtung des Kraftfahrzeugs funktionell zugeordnet, und durch die Verarbeitungseinrichtung wird abhängig von den Informationen der Sensoreinrichtung eine Umgebungsbereichskarte erstellt beziehungsweise erzeugt, wobei dies insbesondere in der weiteren Steuereinheit durchgeführt wird.
  • Es kann vorgesehen sein, dass die Umgebungsbereichskarte auf einer Anzeigeeinheit des Kraftfahrzeugs angezeigt wird.
  • Vorzugsweise wird vorgesehen, dass zu zumindest zwei verschiedenen Zeitpunkten eine Erfassung des Umgebungsbereichs mit der zumindest einen Sensoreinrichtung durchgeführt wird und abhängig von diesen abhängig von Sensorinformationen zu den Zeitpunkten jeweils detektierten Umgebungsfreiraumsituationen wird entschieden, ob ein in zumindest einer Umgebungsfreiraumsituation zumindest vermeintlich im Umgebungsbereich befindliches Objekt bei einem Aktualisieren der Umgebungskarte auf der dann aktualisierten Umgebungskarte enthalten ist bzw. umfasst wird, insbesondere auch auf der Anzeigeeinheit dann insbesondere auch angezeigten Umgebungskarte angezeigt wird. Durch eine derartige Ausgestaltung können die oben genannten Nachteile bei der Verwendung von Sensoren, insbesondere Ultraschallsensoren, zur Umgebungserfassung eines Kraftfahrzeugs Rechnung getragen werden. Das Auftreten von fälschlichen Detektionen von Objekten oder deren falsche Positionierung, die dann auch fälschlicherweise auf der dynamisch veränderlichen und digitalen Umgebungskarte angezeigt werden, kann damit deutlich reduziert werden. Darüber hinaus kann auch das Anzeigen von falschen oder nicht mehr aktuellen Positionen von detektierten Objekten auf der Umgebungskarte ebenfalls zumindest deutlich reduziert werden. Eine dynamische Aktualisierung der Umgebungskarte kann somit bezüglich der Objektanzahl und der Objektposition wesentlich verbessert werden und in dem Zusammenhang eine diesbezüglich auch quasi sehr präzise Echtzeit-Umgebungskarte auf Basis von Ultraschallsensorinformationen erstellt werden.
  • Vorzugsweise wird vorgesehen, dass eine Vertraubarkeit bzw. eine Existenzwahrscheinlichkeit eines Objekts im Umgebungsbereich bei einem Objekterfassungsvorgang des Sensors mit einem von mehreren unterschiedlichen Konfidenzwerten charakterisiert wird. Dies ist eine vorteilhafte Ausführung, da somit quasi auch durch das Verfahren selbst die detektierten Informationen des Ultraschallsensors bewertet werden und somit die Aktualisierung der Umgebungskarte nochmals präzisiert wird. Gerade durch eine Mehrzahl von unterschiedlichen Konfidenzwerten wird den unterschiedlichen und vielzähligsten Gegebenheiten bei einem Objekterfassungsvorgang Rechnung getragen und somit auch eine Vertraubarkeitsklassifikation sehr bedarfsgerecht und auch insbesondere sehr feinjustiert beziehungsweise detailliert durchgeführt. Durch eine derartige quasi auch Wahrscheinlichkeitsgewichtung der Vertraubarkeit eines Objekterfassungsvorgangs wird die Entscheidung darüber präzisiert, ob dann ein zumindest in einer Umgebungsfreiraumsituation zumindest vermeintlich im Umgebungsbereich befindliches Objekt bei einem Aktualisieren der Umgebungskarte auf der dann aktualisierten Umgebungskarte angezeigt wird. Damit kann somit auch eine verbesserte Präzision für die Entscheidung dahingehend erreicht werden, ob ein Objekt überhaupt auf der aktualisierten Umgebungskarte angezeigt wird, und wenn ja, kann es dann auch mit einer höheren Präzision bezüglich der genauen Lage des Objekts zum Kraftfahrzeug auf der aktualisierten Umgebungskarte angezeigt werden. Beispielsweise kann dann das falsch positionierte Objekt in der Karte gelöscht werden und/oder mit höherer Präzision in die Umfeldkarte bzw. Umgebungskarte eingetragen werden.
  • Vorzugsweise können mehr als zwei derartige Konfidenzwerte, insbesondere vier unterschiedliche Konfidenzwerte, definiert und vorgegeben werden.
  • Insbesondere kann hier als ein Konfidenzwert ein Aktiv-Konfidenzwert vorgegeben werden. Dieser charakterisiert eine höchste Vertraubarkeit eines Objekterfassungsvorgangs bezüglich dem Vorhandensein des Objekts und/oder der Position des Objekts.
  • Beispielsweise charakterisiert dieser Aktiv-Konfidenzwert die Situation, bei welcher quasi mit höchster Sicherheit beurteilt werden kann, dass ein erfasstes Objekt auch nach der zeitlichen Erfassung der zweiten Umgebungsfreiraumsituation noch im Erfassungsbereich des Ultraschallsensors sich befindet und somit auf der aktualisierten Umgebungskarte angezeigt werden soll.
  • Ein beispielhafter zweiter Konfidenzwert kann beispielsweise ein Verfolgungs-Konfidenzwert sein. Dieser definiert dann insbesondere die Existenzwahrscheinlichkeit, und somit das Vorhandensein und/oder die örtliche Position des Objekts, eines Objekterfassungsvorgangs dahingehend, dass ein Objekt insbesondere im Umgebungsbereich in der zeitlich vorhergehenden ersten Umgebungsfreiraumsituation aktiv gemessen beziehungsweise erfasst wurde und in der zeitlich nachfolgenden zweiten Umgebungsfreiraumsituation dann nicht mehr aktiv erfasst wurde, jedoch darauf rückgeschlossen werden kann, dass sich das Objekt nicht mehr innerhalb des Erfassungsbereichs des Sensors befindet.
  • Dieser Verfolgungs-Konfidenzwert gibt dann eine Wahrscheinlichkeit an, dass das Objekt noch im Erfassungsbereich sich befindet, die kleiner ist als die diesbezügliche Wahrscheinlichkeit bei dem Aktiv-Konfidenzwert. Dennoch ist hier die Wahrscheinlichkeit des Vorhandenseins des Objekts noch als so hoch zu bewerten, dass zumindest eine Anzeige des Objekts in der aktualisierten Umgebungskarte erfolgt. Die Vertraubarkeit der Position des angezeigten Objekts ist in dem Zusammenhang jedoch reduziert gegenüber dem Aktiv-Konfidenzwert. Bei einem Verfolgungs-Konfidenzwert ist jedoch die Situation so einzuschätzen, dass es, beispielsweise aufgrund der gebotenen Sicherheit, dennoch hilfreich und zweckdienlich ist, das Objekt auf der aktualisierten Umgebungskarte weiterhin anzuzeigen.
  • Vorzugsweise wird ein dritter Konfidenzwert als Löschungs-Konfidenzwert vorgegeben. Bei diesem Löschungs-Konfidenzwert wird die Wahrscheinlichkeit, dass ein Objekt in dem Erfassungsbereich des Ultraschallsensors vorhanden ist, kleiner eingestuft als bei dem Verfolgungs-Konfidenzwert. Bei diesem dritten Löschungs-Konfidenzwert werden insbesondere Situationen berücksichtigt, bei denen der Ultraschallsensor aufgrund seiner Anordnung und/oder aufgrund der Ausgestaltung des Objekts dieses Objekt bei einer Umgebungsfreiraumsituation nicht mehr detektieren kann, obwohl es noch in seinem Erfassungsbereich sich befindet. Dies kann beispielsweise bei sehr niedrigen Objekten der Fall sein, die sich dann in einem Freiraum zwischen dem Ultraschallsensor und einem höheren, durch den Ultraschallsensor detektierten Objekt befinden. Beispielsweise kann dies auch bei statischen und somit ortsfesten Objekten in spezifischen Situationen der Fall sein, beispielsweise wenn die Hauptachse des Sensors deutlich unterschiedlich zu einem Winkel von 90°zu dem Objekt orientiert ist u nd dadurch das Objekt nicht erfasst wird. Wenn bei diesem Konfidenzwert der Zustand, dass das statische Objekt korrekt detektiert wurde, immer und ohne Ausschluss gültig wäre, könnte hier wiederum eine Eingruppierung anhand des oben genannten Konfidenzwerts, insbesondere auch des Aktiv-Konfidenzwerts, erfolgen. Da jedoch ein derartiges Objekt auch dynamisch oder falsch detektiert sein kann, ist dieser dritte Löschungs-Konfidenzwert für die Entscheidungsprüfung sehr vorteilhaft. Bei diesem dritten Löschungs-Konfidenzwert wird somit eine Situation bewertet, die eine Existenzwahrscheinlichkeit eines Objekts bei einem Objekterfassungsvorgang dahingehend beurteilt, dass die Wahrscheinlichkeit des Nochvorhandenseins des Objekts in dem Erfassungsbereich des Ultraschallsensors zwar niedriger als beim Verfolgungs-Konfidenzwert ist, jedoch aufgrund der Situation auch eine Wahrscheinlichkeit besteht, dass das Objekt noch in dem Erfassungsbereich sich befindet, jedoch nicht detektiert werden kann. Insbesondere wird dann bei dieser Beurteilung das Objekt noch auf der aktualisierten Karte angezeigt, wobei auch hier dann ähnlich wie beim Verfolgungs-Konfidenzwert die örtliche Lage dieses Objekts gegenüber der tatsächlichen Lage im Umgebungsbereich mit einer Ungenauigkeit beziehungsweise mit einer Abweichung versehen sein kann.
  • Ein vorteilhafter vierter Konfidenzwert wird durch einen Gelöscht-Konfidenzwert vorgegeben. Durch diesen Gelöscht-Konfidenzwert kann mit einer gegenüber dem Löschungs-Konfidenzwert höheren Wahrscheinlichkeit davon ausgegangen werden, dass sich das Objekt nicht mehr im Erfassungsbereich des Ultraschallsensors befindet. Die Genauigkeit eines Objekterfassungsvorgangs wird somit durch diesen vierten Konfidenzwert dahingehend beurteilt, dass mit höchster Wahrscheinlichkeit und somit zumindest mit an Sicherheit grenzender Wahrscheinlichkeit dieses Objekt nicht mehr im Erfassungsbereich des Ultraschallsensors ist. Das zumindest vermeintlich detektierte Objekt wird dann in diesem Fall auf Basis der Konfidenzwertbeurteilung auf der aktualisierten Karte nicht mehr angezeigt.
  • Es sei auch erwähnt, dass das erfindungsgemäße Verfahren für unterschiedlichste Anwendungen eingesetzt werden kann. Beispielsweise kann es bei unterschiedlichen Umfelderfassungssystemen, insbesondere Parkassistenzsystemen, welche zum Durchführen eines zumindest semi-autonomen Parkvorgangs ausgebildet sind, eingesetzt werden. Auch kann die Vorgehensweise des erfindungsgemäßen Verfahrens zusätzlich oder anstatt dazu bei einem Bremsassistenzsystem, wie beispielsweise einem ACC (Adaptive Cruise Control)-System Verwendung finden. Insbesondere ist vorgesehen, dass bei diesen unterschiedlichen Verwendungssituationen und somit auch unterschiedlichen Verkehrssituationen das Fahrerassistenzsystem unterschiedlich reagiert und in dem Zusammenhang auch unterschiedliche Reaktionen bezüglich der Objekte und deren Existenzwahrscheinlichkeit bei einem Objekterfassungsvorgang erforderlich sind.
  • Vorzugsweise wird eine Zuordnung eines spezifischen Konfidenzwerts zu einem Objekterfassungsvorgang abhängig von zumindest einer erfassten Umgebungsfreiraumsituation und/oder zumindest eines vorgegebenen Referenzfreiraums und/oder einem Vergleich zumindest einer Umgebungsfreiraumsituation mit einem Referenzfreiraum und/oder der Art eines Objekts durchgeführt. Als eine Art eines Objekts können beispielsweise die Form des Objekts und somit auch die Ausmaße des Objekts oder der Typ des Objekts definiert werden. Zusätzlich oder anstatt dazu kann auch eine Bewertung über eine Bewegung des Objekts relativ zum Ultraschallsensor und somit auch zum Kraftfahrzeug berücksichtigt werden, wobei hier somit dann auch statische oder dynamische Objekte umfasst sind. Durch diese vorteilhafte Ausführung wird somit quasi überprüft, insbesondere durch eine Klassifikation oder einen Vergleich, wie sich die tatsächliche Umgebungsfreiraumsituation darstellt und wie sie im Lichte der Konfidenzwertkriterien beurteilt und quasi eingruppiert werden kann. Dies ist dahingehend auch sehr vorteilhaft, dass somit die Aussagepräzision dahingehend erhöht ist, ob eine Anzeige eines Objekts auf einer aktualisierten Umgebungskarte erfolgen kann, und somit auch präziser Aussage darüber erfolgen kann, ob das Objekt überhaupt auf der Umgebungskarte aktualisiert angezeigt werden soll und wenn ja, wie lagegenau es dann in der aktualisierten Umgebungskarte relativ zum Kraftfahrzeug und/oder zu einem anderen gegebenenfalls anzuzeigenden Objekt angezeigt werden kann.
  • Durch diese Konfidenzwert-Klassifizierungen für die Anzeige-Entscheidungsprüfung können auch die Informationen an einen Fahrzeugnutzer wesentlich verbessert werden und darüber hinaus auch die Reaktion eines auf diesen Informationen des erfindungsgemäßen Verfahrens basierend arbeitenden Fahrerassistenzsystems verbessert werden. Ob und gegebenenfalls wie ein Fahrerassistenzsystem dann reagiert, kann somit sehr individueller und angepasster erfolgen.
  • Indem die oben genannte Zuordnung eines spezifischen Konfidenzwerts nicht nur anhand eines dieser konkreten Kriterien erfolgt, sondern anhand von vorzugsweise mehreren derartigen Kriterien erfolgt, können die oben genannten Vorteile nochmals verbessert werden.
  • Ein Freiraum bzw. eine Freiraumsituation stellt allgemein einen zumindest Teilbereich des Erfassungsbereichs zumindest eines Sensors dar, welcher insbesondere zu einem spezifischen Zeitpunkt dahingehend beurteilt ist, wie frei er von Objekten ist. Dies trifft auf die tatsächliche Verkehrssituation zu, die durch eine Umgebungsfreiraumsituation charakterisiert ist, als auch für einen Referenzfreiraum, der durch eine vordefinierte Verkehrssituation charakterisiert ist.
  • Bei einer vorteilhaften Ausführung ist vorgesehen, dass eine Mehrzahl von unterschiedlichen Referenzfreiräumen vorgegeben wird, welche somit zunächst dann allgemein definiert und insbesondere in einem Fahrerassistenzsystem abgelegt und abgespeichert werden. Es wird insbesondere zumindest abhängig von einem Vergleich der Umgebungsfreiraumsituation mit zumindest einem Referenzfreiraum und/oder einem eine Genauigkeit dieses Objekterfassungsvorgangs des Ultraschallsensors charakterisierenden Konfidenzwert, wie er oben in vorteilhaften Ausführungen genannt ist, das Enthaltensein oder Nicht-Enthaltensein, insbesondere das dann auch Anzeigen oder Nicht-Anzeigen, des Objekts in der aktualisierten Umgebungskarte durchgeführt. Dies ist eine besonders hervorzuhebende Ausführungsform, denn durch eine derartige Vorgabe und Klassifizierung bzw. Kategorisierung von spezifischen modellierten Freiraumsituationen, die durch die Referenzfreiräume abgebildet werden, kann die Aussage über die tatsächliche Situation, die durch die Umgebungsfreiraumsituationen dargestellt wird, nochmals verbessert eingeschätzt und beurteilt werden. Indem durch diese Mehrzahl von Referenzfreiräumen spezifischen und gegebenenfalls auch bezüglich einer Wahrscheinlichkeitshäufigkeit in der tatsächlichen Verkehrswelt priorisierten Situationen Rechnung getragen wird, kann auch hier bereits die Aussagegenauigkeit durch den Vergleich zumindest eines Referenzfreiraums mit den Umgebungsfreiraumsituationen die Entscheidungsfindung über das Darstellen eines Objekts auf einer aktualisierten Umgebungskarte verbessert werden. Diese Referenzräume sind daher ganz besonders wesentliche Vorgaben für die Entscheidungsfindung und erhöhen die Präzision über die Entscheidung dahingehend wesentlich, ob ein Objekt auf der aktualisierten Umgebungskarte angezeigt werden soll und wenn ja, ob in dem Zusammenhang dann, insbesondere auch unter Berücksichtigung der Konfidenzwerte, auch eine besonders exakte und aktualisierte Position des Objekts auf der Umgebungskarte angezeigt werden kann. Die Echtzeitausgestaltung einer aktualisierten Umgebungskarte auf Basis von Sensoren, insbesondere Ultraschallsensoren, kann dadurch wesentlich verbessert werden.
  • Aufgrund der äußerst großen Komplexität und Vielfalt von auftretenden Umgebungssituationen, wie sie in einem Umgebungsbereich eines Kraftfahrzeugs in der tatsächlichen Realität auftreten können, kann durch diese Modellierung mit Referenzfreiräumen eine sehr hervorzuhebende Strukturierung dieser Vielfalt vorgegeben und eine besonders analytische und detailangepasste Auswahl und Eingruppierung der tatsächlich erfassten Situation ermöglicht werden. Durch diese Ausgestaltung kann damit auch sehr zielgerichtet und somit auch schnell eine sehr hohe verlässliche Aussage über die zu bewertende Anzahl der Umgebungsfreiraumsituationen und die dadurch erhaltenen Informationen erfolgen.
  • Es wird in dem Zusammenhang auch die Möglichkeit geschaffen, dass die Umgebungsfreiraumsituationen mit zumindest zwei Referenzräumen verglichen werden, was die oben genannten Vorteile nochmals begünstigt. Insbesondere kann somit vorgesehen sein, dass die Auswahl, ob die Umgebungsfreiraumsituationen mit nur einem Referenzfreiraum oder zumindest zwei Referenzfreiräumen verglichen wird, auf Basis von Informationen zumindest der ersten Umgebungsfreiraumsituation und/oder zumindest der zweiten Umgebungsfreiraumsituation erfolgen. Es kann in dem Zusammenhang auch vorgesehen sein, dass auf Basis der Reihenfolge der Umgebungsfreiraumsituationen und den daraus erhaltenen Informationen, die sich somit insbesondere in zeitlicher Abfolge spezifizieren lassen, die Anzahl und/oder welche Referenzfreiraummodelle, die zum Vergleich herangezogen werden, ausgewählt wird.
  • Es kann jedoch auch vorgesehen sein, dass bei einer pauschalen Vorgabe eine gewisse Prioritätsreihenfolge der Referenzfreiräume vorgegeben wird, die dann in dieser Reihenfolge zum Vergleich mit den Umgebungsfreiraumsituationen ausgewählt werden. Ebenso kann vorgesehen sein, dass beispielsweise abhängig davon, welches Referenzfreiraummodell zum Vergleich mit den Umgebungsfreiraumsituationen ausgewählt wurde, ein zweites Referenzfreiraummodell ausgewählt wird. Gegebenenfalls kann in dem Zusammenhang beispielsweise anhand des Referenzfreiraums, mit welchem ein erster Vergleich mit den Umgebungsfreiraumsituationen durchgeführt wird, bereits eine doch schon sehr spezifische und zielführende weitere Vergleichsbildung mit einem dann weiteren spezifischen Referenzfreiraummodell erfolgen, durch welches aufbauend auf den Vergleich mit dem ersten Referenzfreiraummodell auch eine gewisse Abhängigkeit dahingehend gegeben ist, dass die Aussagepräzision über das Anzeigen eines Objekts auf einer aktualisierten Umgebungskarte schneller, zielführender und präziser ermöglicht ist.
  • Ist vorteilhafterweise eine Verknüpfung beziehungsweise ein Zusammenhang eines Konfidenzwerts des Konfidenzwertmodells mit einem Referenzfreiraummodell im Hinblick auf die Entscheidung über eine Anzeige eines Objekts auf der aktualisierten Karte vorgegeben, wird dann durch diese Berücksichtigung zumindest eines Referenzfreiraums und eines Konfidenzwerts die Entscheidung, ob ein Objekt auf einer aktualisierten Karte angezeigt werden soll, nochmals detaillierter und genauer.
  • Es kann auch vorgesehen werden, dass abhängig von der Anzahl von in den Umgebungsfreiraumsituationen detektierten Objekten und/oder von der Art von in den Umgebungsfreiraumsituationen detektierten Objekten und/oder der örtlichen Lage eines in zumindest einer Umgebungsfreiraumsituation detektierten Objekts zum Kraftfahrzeug und/oder einer örtlichen Lageveränderung eines in den Umgebungsfreiraumsituationen detektierten Objekts zum Kraftfahrzeug ein spezifischer Referenzfreiraum aus der Mehrzahl der Referenzfreiräume für den Vergleich ausgewählt wird. Auch durch diese vorteilhafte Ausführung kann eine schnellere Aussage darüber, ob ein Objekt auf einer aktualisierten Umgebungskarte angezeigt werden soll, ermöglicht werden. Da sich hier auch aus der bereits oben genannten sehr hohen Vielfalt von Alltagssituationen im Verkehr verschiedenste komplexe Zusammenhänge ergeben können, kann durch diese Merkmalspezifikation die Entscheidungsfindung bezüglich der Gestaltung der aktualisierten Umgebungskarte differenziert und verbessert werden.
  • Bei einer weiteren vorteilhaften Ausführung wird abhängig von der Anzahl von in den Umgebungsfreiraumsituationen detektierten Objekten und/oder von der Art von in den Umgebungsfreiraumsituationen detektierten Objekten und/oder der örtlichen Lage eines in zumindest einer Umgebungsfreiraumsituation detektierten Objekts zum Kraftfahrzeug und/oder einer örtlichen Lageveränderung eines in den Umgebungsfreiraumsituationen detektierten Objekts zum Kraftfahrzeug die Anzahl der für den Vergleich zu berücksichtigenden Referenzfreiräume bestimmt. Auch dadurch lassen sich dann die bereits oben genannten Vorteile erreichen beziehungsweise verbessern.
  • Vorzugsweise wird ein erster Referenzfreiraum als Objektfreiraum definiert, bei welchem für die Bewertung eines Objekts ein Abstand des Objekts zum Ultraschallsensor und die Orientierung des Objekts zum Ultraschallsensor berücksichtigt werden. Diese beiden Parameter betreffend den Abstand und die Orientierung und erlauben eine sehr genaue Aussagemöglichkeit über das tatsächliche Vorhandensein eines Objekts in einem Erfassungsbereich des Ultraschallsensors. Lassen sich somit diese Parameterwerte in zumindest einer Umgebungsfreiraumsituation detektieren, so kann dann auch sehr exakt, insbesondere unter Berücksichtigung eines spezifischen Konfidenzwerts, insbesondere unter Berücksichtigung des Aktiv-Konfidenzwerts, mit höchster Wahrscheinlichkeit die Aussage getroffen werden, dass das erfasste Objekt in der jeweiligen Umgebungsfreiraumsituation tatsächlich vorhanden ist und tatsächlich auch an der entsprechenden Position vorhanden ist. Trifft dies dann auf beide Umgebungsfreiraumsituationen zu, so ist quasi mit höchster Sicherheit die Situation gegeben, dass das Objekt tatsächlich noch vorhanden ist und an der entsprechenden Position vorhanden ist, sodass es dann auch exakt in der aktualisierten Umgebungskarte angezeigt.
  • Tritt hingegen dann eine Situation auf, bei welcher der Abstand und die Orientierung eines Objekts nur in einer Umgebungsfreiraumsituation genau bestimmt werden kann, so kann dann abhängig davon, ob dieses in der ersten Umgebungsfreiraumsituation oder der zweiten Umgebungsfreiraumsituation erfolgt ist, wiederum mit einem dann spezifischen Konfidenzwert auf die Wahrscheinlichkeit des Vorhandenseins rückgeschlossen werden. Durch dieses ganz spezifische, auf charakteristischen Parametern eines Objekts basierende Freiraummodell können die genannten entsprechenden Aussagen getroffen werden.
  • In einer bevorzugten Ausführung wird zum Vergleichen der Umgebungsfreiraumsituationen mit diesem ersten Referenzfreiraum in der ersten Umgebungsfreiraumsituation ein erfasster Abstandswert bei einer spezifischen Orientierung des Objekts, bei welchem das Objekt erstmals detektiert wurde, als Referenzabstandswert, gespeichert. Zumindest bei einer in der zweiten Umgebungsfreiraumsituation auftretenden relativen Lageveränderung zwischen dem Sensor und dem Objekt wird überprüft, ob das Objekt in der zweiten Umgebungsfreiraumsituation erfasst wurde. Bei einem nicht mehr Erfassen des Objekts in dieser zweiten Umgebungsfreiraumsituation durch den Sensor wird insbesondere das Objekt auf der aktualisierten Umgebungskarte aufgrund der Kriterien des ersten Referenzfreiraums, insbesondere eines spezifischen, insbesondere zugeordneten, Konfidenzwerts, nicht mehr angezeigt. Es wird dann bei dieser spezifischen Ausführungsform mit entsprechender Wahrscheinlichkeit davon ausgegangen, dass sich aufgrund einer relativen Lageveränderung zwischen dem Kraftfahrzeug und somit auch dem Sensor und dem Objekt zeitlich folgend auf die erste Umgebungsfreiraumsituation das Objekt wohl nicht mehr in dem Erfassungsbereich des Sensors befindet und daher die Relevanz zur Anzeige auf der aktualisierten Umgebungskarte zumindest so gering ist, dass das Anzeigen nicht mehr erforderlich erscheint.
  • Bei einer weiteren vorteilhaften Ausführung wird ein zweiter Referenzfreiraum als Sensorfreiraum definiert, bei welchem für die Bewertung eines Objekts berücksichtigt wird, ob es in einer Umgebungsfreiraumsituation zwar im ersten Erfassungsbereich des Sensors sich befindet, jedoch nicht vom Sensor als Objekt erfasst werden kann. Vorzugsweise wird bei diesem Sensorfreiraum im Unterschied zum Objektfreiraum die Sicht vom Sensor her betrachtet. Insbesondere dann, wenn bei diesem Sensorfreiraummodell auch die Bedingungen des Objektfreiraums nicht erfüllt sind und beispielsweise auch für ein niedriges Objekt der Abstand abhängig von der Bewegungsrichtung zwischen dem Kraftfahrzeug und dem detektierten Objekt sich in diese Bewegungsrichtung dahingehend verändert, dass es von einem Referenzabstandswert, zu den das Objekt erstmals detektiert wurde, verändert und somit dann das Objekt nicht mehr detektiert werden kann, obwohl es sich in dem Erfassungsbereich des Sensors befindet, ist dieser Sensorfreiraum für die Charakterisierung der Umgebungsfreiraumsituation besonders bedeutend. Es können in dem Zusammenhang zwei mögliche Situationen zugrundeliegen. Beispielsweise kann hier vorgesehen sein, dass das Objekt als statisches Objekt korrekt detektiert wurde. In diesem Fall ist das Objekt als durchaus noch vorhanden zu beurteilen. Es kann jedoch nicht erfasst werden, da es aufgrund der Objekteigenschaften und der relativen Lageveränderung in dieser zweiten Umgebungsfreiraumsituation vom Sensor nicht mehr erfasst werden kann. Beispielsweise kann aufgrund der Geometrie oder der Abmessungen dann, wenn sich das Fahrzeug von dem Objekt wegbewegt und bereits ein Abstand eingetreten ist, der größer als der Referenzabstandswert ist, die Detektion nicht mehr möglich sein. Dies kann beispielsweise bei sehr dünnen oder kleinen Objekten der Fall sein, die dann mit zunehmendem Abstand ab dem Referenzabstandswert nicht mehr vom Sensor erfasst werden können.
  • Eine zweite Situation lässt sich dahingehend charakterisieren, dass das Objekt ein dynamisches Objekt ist, welches sich somit selbst gegenüber dem Kraftfahrzeug bewegt, oder ein falsch detektiertes Objekt ist. In diesen beiden Unterfällen kann dann davon ausgegangen werden, dass das Objekt nicht mehr im Erfassungsbereich des Sensors vorhanden ist. Insbesondere unter Berücksichtigung dieser spezifischen Situation und eines dann insbesondere spezifisch zugeordneten Konfidenzwerts kann dann die Situation dahingehend beurteilt werden, dass mit höchster Wahrscheinlichkeit das Objekt nicht mehr im Erfassungsbereich des Ultraschallsensors ist und somit nicht mehr auf der aktualisierten Umgebungskarte angezeigt werden soll.
  • Da es insbesondere jedoch nicht möglich ist, insbesondere nicht mit gewünschter Aussagepräzision möglich ist, auf Basis der Informationen des Sensors zwischen einem dynamischen und einem statischen Objekt zu unterscheiden, ist in einer bevorzugten Ausführung vorgesehen, eine derartige Situation dann so zu beurteilen, dass zwar mit hoher Wahrscheinlichkeit das Objekt nicht mehr in dem Erfassungsbereich vermutet wird, dennoch die Wahrscheinlichkeit, dass es noch in dem Erfassungsbereich sein könnte, so beurteilt wird, dass dies bezüglich, insbesondere im Hinblick auf die Sicherheitsanforderungen, eine Anzeige des Objekts in der aktualisierten Umgebungskarte erfolgen sollte. Bei diesen Ausgestaltungen ist dann gemäß den bereits oben genannten vorteilhaften Definitionen von verschiedenen Konfidenzwerten jedoch dann die exakte Lage des Objekts in der Umgebungskarte, insbesondere relativ zum Kraftfahrzeug, mit einer gewissen Ungenauigkeit versehen.
  • Wenn eine Messung des Sensors erhältlich ist, ist in bevorzugter Weise der Sensorfreiraum auf die Messdistanz begrenzt, da keine Beurteilungen am Objekt erfolgen können, die außerhalb dieser maximalen Messdistanz liegen, insbesondere aufgrund der Tatsache, dass mit einem Sensor kein Hindurchschauen durch Objekte erfolgen kann und somit nicht beurteilt werden kann, was sich hinter diesen detektierten, insbesondere hohen, Objekten befindet.
  • Vorzugsweise wird beim Vergleichen der Umgebungsfreiraumsituationen mit dem zweiten Referenzfreiraum ein Objekt auf der aktualisierten Karte, insbesondere aufgrund eines spezifischen Konfidenzwerts, angezeigt, wenn ein Objekt in der Umgebungsfreiraumsituation von dem Sensor erfasst wurde, in der zweiten Umgebungsfreiraumsituation aber das Objekt nicht mehr von dem Sensor erfasst wurde, aber zumindest mit einer Wahrscheinlichkeit größer einem Schwellwert angenommen werden kann, dass sich das Objekt weiterhin im Erfassungsbereich des Sensors befindet.
  • Bei einer weiteren vorteilhaften Ausführung wird ein dritter Referenzfreiraum als Aktivfreiraum definiert, bei welchem der Raum zwischen dem Sensor und einem durch den Sensor erfassten Objekt als frei von zumindest erfassten Objekten vergleichbar hohen Objekten, insbesondere frei von Objekten größer einem Höhenschwellwert, betrachtet wird. Auch dies ist eine besonders vorteilhafte Definition eines Referenzfreiraums, bei welchem ein spezifischer Teilbereich von einem Erfassungsbereich eines Sensors betrachtet wird. Da es gerade vielerlei Situationen geben kann, bei denen zwischen einem erfassten Objekt und einem Sensor im Erfassungsbereich des Sensors auch im Vergleich zum erfassten Objekt niedrige Objekte vorhanden sind, die dann von dem Sensor nicht mehr explizit detektiert werden können, jedoch insbesondere im Erfassungsbereich vorhanden sind, erhöht diese Ausgestaltung die Aussagepräzision bezüglich der aktualisierten Umgebungskarte betreffend eine Objektdarstellung wesentlich. Es kann somit auch durch das erfindungsgemäße Verfahren beziehungsweise eine vorteilhafte Ausgestaltung davon in einem spezifischen Teilbereich des Erfassungsbereichs, wie er dann durch den Aktivfreiraum definiert wird, eine genauere Aussage über vermeintlich darin befindliche Objekte getroffen werden und insbesondere diesbezüglich singulär oder in einer vorteilhaften Ausführung abhängig von anderen Referenzfreiräumen und den Umgebungsfreiraumsituationen eine Aussage über ein vermeintliches Objekt in diesem Aktivfreiraum getroffen werden.
  • In einer vorteilhaften Ausführung wird beim Vergleichen der Umgebungsfreiraumsituationen mit dem dritten Referenzfreiraum, nämlich dem Aktivfreiraum, ein in zumindest einer Umgebungsfreiraumsituation vermeintlich zwischen dem Sensor und dem erfassten Objekt erfasstes, insbesondere zum erfassten Objekt vergleichbar hohes, Objekt auf der aktualisierten Karten, insbesondere aufgrund eines spezifischen Konfidenzwerts, nicht angezeigt. Es kann dann mit entsprechender, insbesondere vorgegebener, Wahrscheinlichkeit davon ausgegangen werden, dass in diesem Aktivfreiraum kein weiteres, insbesondere zu beachtendes und wesentliches Objekt vorhanden ist. Somit ist bei einer bevorzugten Ausführung mit dem Aktivfreiraum auch eine Situation umfasst, bei welcher der Sensor mit höchster Vertraubarkeit, insbesondere mit einer Vertraubarkeit betreffend den Aktiv-Konfidenzwert, detektiert, und eine Position der Messung ist mit entsprechender Vertraubarkeit und Wahrscheinlichkeit deklarierbar. So kann mit einer weiteren entsprechend hohen Wahrscheinlichkeit auch davon ausgegangen werden, dass kein weiteres Objekt, welches höher einem Höhenschwellwert ist, in dem Aktivfreiraum zwischen dem Sensor und dem aktiv detektierten Objekt, welches auf der dem Sensor abgewandten Seite somit den Aktivfreiraum quasi begrenzt, mehr vorhanden ist, wenn es insbesondere höher dem Höhenschwellwert ist. Bevorzugt kann vorgesehen sein, dass Objekte, die niedriger dem Höhenschwellwert sind, auch wiederum aufgrund eines insbesondere dann spezifischen Konfidenzwerts als anzeigewürdig in der aktuellen Umgebungskarte eingestuft werden und entsprechend dann auch auf der aktuellen Umgebungskarte angezeigt werden. Abhängig davon, ob diese dazwischenliegende Objekte dann mit entsprechender Existenzwahrscheinlichkeit, insbesondere abhängig vom Abstand und der Orientierung, erfasst werden können, kann unter Berücksichtigung des Objektfreiraums und/oder insbesondere des Aktiv-Konfidenzwerts auch die örtliche Lage dieser Objekte dann sehr genau bestimmt und in der aktualisierten Umgebungskarte nicht nur die Anzeige als solche, sondern auch die Lage sehr präzise dargestellt werden.
  • Bei einer weiteren vorteilhaften Ausführung wird ein vierter Referenzfreiraum als Hintergrundfreiraum definiert, bei welchem Objekte in einem Raum des Erfassungsbereichs des Sensors betrachtet werden, der sich auf der dem Sensor abgewandten Seite im Anschluss an den Aktivfreiraum erstreckt. Auch dadurch ist somit ein weiterer Teilbereich des Erfassungsbereichs lokal spezifiziert und wird individuell im Hinblick auf Detektion von Objekten exakt beurteilt und eingestuft.
  • Vorzugsweise wird beim Vergleichen der Umgebungsfreiraumsituationen mit dem vierten Referenzfreiraum abhängig von einem wiederum spezifischen Konfidenzwert eines in dem Hintergrundfreiraum zumindest in einer Umgebungsfreiraumsituation erfassten Objekts entschieden, ob das Objekt auf der aktualisierten Umgebungskarte angezeigt wird. Insbesondere ist somit bei diesem Freiraum erforderlich, dass zunächst ein Aktivfreiraum und/oder ein Sensorfreiraum zugrundegelegt und Umgebungsfreiraumsituationen entsprechend durch den Vergleich charakterisiert werden können, um dann auch diesen Hintergrundfreiraum analysieren zu können. Erst dann können quasi bei dieser Ausführung die Lage und das Ausmaß des Hintergrundfreiraums bestimmt werden.
  • Es kann auch vorgesehen sein, dass eine Blindzone bzw. ein Nahbereich, in dem der Sensor detektiert, jedoch aufgrund funktioneller Einschränkung nichts detektieren kann, so dass keine Aussage über das Vorhandensein eines Objekts im Umgebungsbereich möglich ist und somit auch keine Aussage möglich ist, ob ein Freiraum vorhanden ist oder nicht. Dies kann bei einem Ultraschallsensor aufgrund seiner Ausschwingzeit der Fall sein. Bei einer Kamera kann dies aufgrund von Reflexionen der Fall sein. Bei einer derartigen Situation wird dann an die Schnittstelle die Information bereitgestellt, dass keine Aussage über einen Freiraum möglich ist.
  • Diese vorteilhaften Ausführungen ermöglichen eine situationsgerechte Bestimmung eines Freiraums. Es werden dazu wiederum die individuellen Schritte in den jeweiligen Steuereinheiten durchgeführt.
  • Des Weiteren betrifft die Erfindung auch ein Verfahren zum Erzeugen einer Umgebungsbereichskarte eines Umgebungsbereichs eines Kraftfahrzeugs, bei welchem die Umgebungsbereichskarte auf Basis von Informationen, die mit einer Sensoreinrichtung des Kraftfahrzeugs erfasst werden, erstellt wird. Ein wesentlicher Gedanke der Erfindung ist darin zu sehen, dass die Sensor-Rohdaten zur Freirauminformation bei dem erfindungsgemäßen Verfahren oder einer vorteilhaften Ausgestaltung davon, wie es oben erläutert wurde, bereitgestellt werden und bei der Erzeugung der Umgebungsbereichskarte berücksichtigt werden.
  • Des Weiteren kann vorgesehen sein, dass die Umgebungsbereichskarte zur Verwendung bei einem Fahrerassistenzsystem zur Verfügung gestellt wird und nicht weiter angezeigt wird. Es kann jedoch auch vorgesehen sein, dass eine derartige Umgebungsbereichskarte dann an einer Anzeigeeinheit des Kraftfahrzeugs bildhaft dargestellt wird, so dass auch ein Fahrzeuginsasse sehen kann, welche Objekte sich im Umgebungsbereich des Fahrzeugs befinden. Dies kann insbesondere bei einem als Parkassistenzsystem ausgebildeten Fahrerassistenzsystems vorteilhaft sein, wenn in eine Parklücke eingeparkt wird oder aus einer Parklücke ausgeparkt wird.
  • Des Weiteren betrifft die Erfindung ein Computerprogrammprodukt, welches zum Ausführen eines Verfahrens gemäß den oben genannten Aspekten ausgebildet ist, wenn das Computerprogrammprodukt auf einer programmierbaren Computereinrichtung ausgeführt wird. Die Computereinrichtung ist vorzugsweise in dem Kraftfahrzeug angeordnet.
  • Des Weiteren betrifft die Erfindung eine Sensoreinrichtung für ein Kraftfahrzeug mit zumindest einem Sensor und einer Steuereinheit, wobei die Sensoreinrichtung zum Bereitstellen von von einer in einem Umgebungsbereich eines Kraftfahrzeugs erfasste Objekt abhängigen Information ausgebildet ist. Die Sensoreinrichtung ist darüber hinaus zur Bereitstellung der Information an einer Kommunikationsschnittstelle im Kraftfahrzeug ausgebildet. Es ist vorgesehen, dass Sensor-Rohdaten als Information über einen Freiraum im zu detektierenden Umgebungsbereich, insbesondere Sensor-Rohdaten als Information über einen zwischen der Sensoreinrichtung und dem Objekt erkannten Freiraum, in einer sensoreinrichtungsseitigen Steuereinheit abgelegt sind, und diese Informationen an der mit der sensoreinrichtungsseitigen Steuereinheit verbundenen Kommunikationsschnittstelle zur Übertragung an und zur Weiterverarbeitung mit einer weiteren Steuereinheit einer die beiden Steuereinheiten umfassenden und zur Erstellung einer Umgebungsbereichskarte ausgebildeten Verarbeitungseinrichtung bereitgestellt sind.
  • Des Weiteren betrifft die Erfindung eine Verarbeitungseinrichtung mit einer erfindungsgemäßen Sensoreinrichtung und mit einer weiteren Steuereinheit, die über eine verarbeitungseinrichtungsinterne Kommunikationsschnittstelle mit der sensoreinrichtungsseitigen Steuereinheit verbunden ist, wobei insbesondere die weitere Steuereinheit zur Erstellung einer Umgebungsbereichskarte auf Basis der über die Kommunikationsschnittstelle übertragenen Informationen ausgebildet ist. Die Umgebungsbereichskarte ist dann von der Verarbeitungseinrichtung bereitgestellt.
  • Besonders bevorzugt ist es, dass die weitere Steuereinheit auch zum Empfangen und zur Verarbeitung von Informationen einer von der Sensoreinrichtung umfassend die erste Steuereinheit funktionell unterschiedliche weitere Sensoreinrichtung ausgebildet ist. Dadurch ist die weitere Steuereinheit auch dazu ausgebildet, vorzugsweise auf Basis der Informationen der ersten Sensoreinrichtung und auf Basis der Informationen der direkt von der weiteren Sensoreinrichtung erhaltenen Informationen eine Umgebungsbereichskarte zu erstellen.
  • Vorteilhafte Ausführungen des erfindungsgemäßen Verfahrens sind als vorteilhafte Ausführungen der Verarbeitungseinrichtung und des Kraftfahrzeugs anzusehen. Die gegenständlichen Komponenten der Verarbeitungseinrichtung und des Kraftfahrzeugs sind dazu jeweils dazu ausgebildet, die jeweiligen Verfahrensschritte durchzuführen. Des Weiteren betrifft die Erfindung ein Kraftfahrzeug mit einer erfindungsgemäßen Sensoreinrichtung und/oder einer erfindungsgemäßen Verarbeitungseinrichtung.
  • Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen, sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen.
  • Ausführungsbeispiele der Erfindung werden nachfolgend anhand schematischer Zeichnungen näher erläutert. Es zeigen:
  • Fig. 1
    eine schematische Draufsicht auf ein Ausführungsbeispiel eines erfindungsgemäßen Kraftfahrzeugs mit einem Ausführungsbeispiel einer erfindungsgemäßen Verarbeitungseinrichtung; und
    Fig. 2
    eine schematische Darstellung eines Ausführungsbeispiels einer erfindungsgemäßen Verarbeitungseinrichtung.
  • In den Figuren werden gleiche oder funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.
  • In Fig. 1 ist in einer schematischen Draufsichtdarstellung ein Kraftfahrzeug 1 gezeigt, welches ein Fahrerassistenzsystem 2 aufweist. Das Fahrerassistenzsystem 2 kann beispielsweise ein Parkassistenzsystem sein.
  • Das Fahrerassistenzsystem 2 umfasst eine Auswerteeinrichtung bzw. Verarbeitungseinrichtung 12 (Fig. 2), umfassend eine erste Steuereinheit 3a und eine weitere Steuereinheit 3b, und eine Ultraschall-Detektionseinrichtung 4 als erste Sensoreinrichtung. Die Ultraschall-Detektionseinrichtung 4 umfasst im Ausführungsbeispiel am Kraftfahrzeug 1 frontseitig angeordnete Ultraschallsensoren. Hier sind im Ausführungsbeispiel sechs Ultraschallsensoren 5a, 5b, 5c, 5d, 5e und 5f vorhanden. Darüber hinaus sind im Ausführungsbeispiel auch in einem Heckbereich des Kraftfahrzeugs 1 weitere Ultraschallsensoren 6a, 6b, 6c, 6d, 6e und 6f verbaut. Mit den frontseitigen Ultraschallsensoren 5a bis 5f kann ein frontseitiger und seitlicher Umgebungsbereich 7 erfasst werden. Demgegenüber kann mit den heckseitigen Ultraschallsensoren 6a bis 6f ein heckseitiger und seitlicher Umgebungsbereich 8 des Kraftfahrzeugs 1 erfasst werden. In dem Zusammenhang sind die Ultraschallsensoren 5a bis 5f und 6a bis 6f vorzugsweise so angeordnet, dass der gesamte, um das Kraftfahrzeug 1 vorhandene Umgebungsbereich, der dann aus den Umgebungsbereichen 7 und 8 zusammengesetzt ist, erfasst wird.
  • Das Kraftfahrzeug 1 umfasst darüber hinaus eine Anzeigeeinheit 9, auf der bildhafte Darstellungen erfolgen können. Auf dieser Anzeigeeinheit 9 kann dann insbesondere eine Umgebungsbereichskarte beziehungsweise eine Umfeldkarte angezeigt werden. Dabei wird dann das Kraftfahrzeug 1 beispielsweise auch in dieser Draufsichtdarstellung gezeigt und der Umgebungsbereich dargestellt, sodass auch in dem Umgebungsbereich 7 und/oder 8 detektierte Objekte angezeigt und für einen Fahrzeuginsassen erkenntlich sind. Dies kann beispielsweise bei einem Einparkvorgang oder einem Ausparkvorgang vorteilhaft sein.
  • Mit dem Fahrerassistenzsystem 2 ist es ermöglicht, dass im Umgebungsbereich 7 und/oder Umgebungsbereich 8 vorhandene Objekte detektiert werden und auch auf Basis der von Ultraschallsensoren 5a bis 5f und/oder 6a bis 6f erhaltenen Informationen Aussagen über den Zustand von derartigen Objekten gegeben werden können.
  • Insbesondere ist vorgesehen, dass in der Verarbeitungseinrichtung 12, die insbesondere zur Erstellung einer Umgebungsbereichskarte ausgebildet ist, die Informationen zumindest einiger Ultraschallsensoren 5a bis 5f sowie 6a bis 6f verarbeitet werden.
  • Das Kraftfahrzeug 1 umfasst im Ausführungsbeispiel neben der Ultraschall-Detektionseinrichtung 4, die eine erste Sensoreinrichtung darstellt, zumindest eine zur ersten Sensoreinrichtung funktionell unterschiedlich arbeitende zweite Sensoreinrichtung, die im Ausführungsbeispiel durch eine Frontkamera 10 und/oder eine Heckkamera 11 gebildet ist. Die Frontkamera 10 und/oder die Heckkamera 11 detektieren ebenfalls in dem Umgebungsbereich 7 beziehungsweise in dem Umgebungsbereich 8, so dass auch damit Objekte erfasst werden können.
  • Die sensoreinrichtungsseitige Steuereinheit 3a und die weitere Steuereinheit 3b, die auch eine Fusions-Steuereinheit darstellt, sind Bestandteile der Verarbeitungseinrichtung 12, wie sie in Fig. 2 beispielhaft gezeigt ist. Die Verarbeitungseinrichtung 12 ist zur Erzeugung einer Umgebungsbereichskarte ausgebildet. Die Umgebungsbereichskarte kann als Basisinformation für ein Fahrerassistenzsystem, beispielsweise ein Parkassistenzsystem, zugrundegelegt werden. Sie kann zusätzlich auch auf einem Bildschirm beziehungsweise der Anzeigeeinheit 9 angezeigt werden.
  • Die weitere Steuereinheit 3b ist vorteilhafterweise dazu ausgebildet, neben Informationen, die sie von der sensoreinrichtungsseitigen Steuereinheit 3a und somit der Steuereinheit, die zu der Ultraschall-Detektionseinrichtung 4 zugehörig ist, auch zur Verarbeitung beziehungsweise zur Weiterverarbeitung von Informationen, die sie von einer dazu funktionell unterschiedlichen Sensoreinrichtung, beispielsweise der Frontkamera 10 und/oder der Heckkamera 11 erhält, ausgebildet sein. Da in dem Zusammenhang die Informationen der unterschiedlichen Sensoreinrichtungen verarbeitet werden, insbesondere fusioniert werden, ist auch die Bezeichnung Fusions-Steuereinheit entsprechend zu verstehen.
  • Bei der Darstellung in Fig. 2 sind die Steuereinheiten 3a und 3b durch eine Kommunikationsschnittstelle 13 zum Datenaustausch verbunden. Diese Kommunikationsschnittstelle 13 umfasst einen Bus 14, über den der Datenaustausch zwischen den Steuereinheiten 3a und 3b erfolgt. Diese Kommunikationsschnittstelle 13 ist somit eine funktionell und bezüglich ihrer zu verbindenden Einheiten exklusive Schnittstelle, die zu dieser Verarbeitungseinrichtung 12, die funktionell individuell ausgebildet ist, nämlich zum Erstellen einer Umgebungsbereichskarte, zugehörig ist. Die weitere Steuereinheit 3b umfasst eine Verarbeitungseinheit 3c, die die von der Steuereinheit 3a übertragene Information weiterverarbeitet. Diese Verarbeitungseinheit 3c ist darüber hinaus mit einer Prozessoreinheit 3d, insbesondere einem digitalen Signalprozessor, der weiteren Steuereinheit 3b verbunden. Bei dieser Prozessoreinheit 3d werden die von der weiteren Sensoreinrichtung, insbesondere der Frontkamera 10 und/oder der Heckkamera 11, erhaltenen Informationen aufbereitet.
  • Wie darüber hinaus zu erkennen ist, ist die gesamte Verarbeitungseinrichtung 12 über zumindest eine weitere Datenschnittstelle 15, insbesondere über zwei weitere
  • Datenschnittstellen 15 und 16 an ein Netzwerk des Kraftfahrzeugs angebunden. Im Ausführungsbeispiel ist dazu vorgesehen, dass die sensoreinrichtungsseitige Steuereinheit 3a direkt über die Datenschnittstelle 15 mit dem Netzwerk verbunden ist und die weitere Steuereinheit 3b mit der dazu separaten Datenschnittstelle 16 direkt mit dem Netzwerk verbunden ist.
  • Die Sensoreinrichtung ist im Ausführungsbeispiel die bereits genannte Ultraschall-Detektionseinrichtung 4, die neben den Ultraschallsensoren 5a bis 5f und 6a bis 6f auch die sensorseitige Steuereinheit 3a aufweist.
  • Diese spezifische Information, die in der sensoreinrichtungsseitigen Steuereinheit 3a abgelegt wird, wird an dieser insbesondere nur verarbeitungseinrichtungsinterne Einheiten verbindenen Kommunikationsschnittstelle 13 in einem spezifischen Datenformat bereitgestellt und zwar derart, dass sie an die weitere Steuereinheit 3b der Verarbeitungseinrichtung 12 einfach übertragen und dort weiterverarbeitet werden kann, um dann insbesondere die Umgebungsbereichskarte zu erstellen.
  • Das Datenformat ist dabei so gestaltet, dass eine kompatible Weiterverarbeitung der bereitgestellten Information in unterschiedlichen weiteren Steuereinheiten erfolgen kann. Dies ist dann vorteilhaft, wenn die weitere Steuereinheit 3b beispielsweise fahrzeugherstellerindividuell ausgestaltet ist. Die Kompatibilität dieses Datenformats ist daher ein wesentlicher Vorteil, um fahrzeugherstellerübergreifend die gleiche Struktur der Verarbeitungseinrichtung gestalten zu können und dennoch eine individuelle Weiterverarbeitung der von der sensoreinrichtungsseitigen Steuereinheit 3a generierten Information durchführen zu können.
  • Es werden Sensor-Rohdaten als Information eines zwischen der Sensoreinrichtung und einem im Umgebungsbereich 7 oder 8 erfassten Objekt erkannten Freiraums in der sensoreinrichtungsseitigen Steuereinheit 3a abgelegt und an der verarbeitungseinrichtungsinternen Kommunikationsschnittstelle 13 bereitgestellt, sodass die informationsinhaltsspezifischen Sensor-Rohdaten auch zur internen weiteren Verarbeitung in der Verarbeitungseinrichtung 12 an die verarbeitungseinrichtungsinterne weitere Steuereinheit 3b übertragen werden können.
  • Wie aus der Darstellung in Fig. 2 zu erkennen ist, ist die Kommunikationsschnittstelle 13 lediglich zum Datenaustausch zwischen den verarbeitungseinrichtungsinternen Steuereinheiten 3a und 3b vorgesehen. Sie verbindet daher beziehungsweise ermöglicht einen Datenaustausch daher nur zwischen verarbeitungseinrichtungsinternen Einheiten.

Claims (13)

  1. Verfahren zum Bereitstellen von von einem in einem Umgebungsbereich (7, 8) eines Kraftfahrzeugs (1) erfassten Objekt abhängigen Informationen, bei welchem der Umgebungsbereich (7, 8) mit einer Sensoreinrichtung (4, 10, 11) des Kraftfahrzeugs (1) erfasst wird, und eine Information an einer Kommunikationsschnittstelle im Kraftfahrzeug (1) bereitgestellt wird,
    dadurch gekennzeichnet, dass
    Sensor-Rohdaten als Information über einen zwischen der Sensoreinrichtung (4, 10, 11) und einem im Umgebungsbereich (7, 8) erfassten Objekt erkannter Freiraum in einer sensoreinrichtungsseitigen Steuereinheit (3a) abgelegt werden und diese Sensor-Rohdaten an einer mit der sensoreinrichtungsseitigen Steuereinheit (3a) verbundenen Kommunikationsschnittstelle (13) zur Übertragung an und zur Weiterverarbeitung mit einer weiteren Steuereinheit (3b) einer die beiden Steuereinheiten (3a, 3b) umfassenden und zur Erstellung einer Umgebungsbereichskarte ausgebildeten Verarbeitungseinrichtung (12) bereitgestellt wird.
  2. Verfahren nach Anspruch 1,
    dadurch gekennzeichnet, dass
    die als Sensor-Rohdaten bereitgestellten und einen Freiraum darstellenden Informationen aus einer Position zumindest eines Sensors (5a bis 5f; 6a bis 6f, 10, 11) der Sensoreinrichtung (4, 10, 11) am Kraftfahrzeug (1) und einer Position des Sensors (5a bis 5f; 6a bis 6f, 10, 11) zu zumindest einem anderen Sensor (5a bis 5f; 6a bis 6f, 10, 11) der Sensoreinrichtung (4, 10, 11) und einem Abstand zwischen dem Sensor (5a bis 5f; 6a bis 6f, 10, 11) und einem erfassten Objekt bestimmt werden.
  3. Verfahren nach Anspruch 1 oder 2,
    dadurch gekennzeichnet, dass
    die Sensor-Rohdaten als einzelne Messpunkte der Sensoreinrichtung (4, 10, 11) bestimmt werden und die Sensor-Rohdaten ohne einen aus den Messpunkten erzeugten Polygonzug abgelegt und an der Kommunikationsschnittstelle (13) bereitgestellt werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche,
    dadurch gekennzeichnet, dass
    die Sensor-Rohdaten über die Kommunikationsschnittstelle (13) zu der weiteren Steuereinheit (3b) übertragen werden und in der weiteren Steuereinheit (3b) ausgewertet werden.
  5. Verfahren nach Anspruch 4,
    dadurch gekennzeichnet, dass
    die Steuereinheiten (3a, 3b) der Verarbeitungseinrichtung (12) zum Datenaustausch mit einem Bus (14) der Kommunikationsschnittstelle (13) verbunden werden.
  6. Verfahren nach Anspruch 4 oder 5,
    dadurch gekennzeichnet, dass
    in der weiteren Steuereinheit (3b) auf Basis der über die verarbeitungseinrichtungsinternen Kommunikationsschnittstelle (13) übermittelten Sensor-Rohdaten eine Umgebungsbereichskarte erstellt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche,
    dadurch gekennzeichnet, dass
    die Informationen der Sensor-Rohdaten in einem Datenformat in der sensorseitigen Steuereinheit (3a) bereitgestellt werden, mit welchem die Informationen der sensorseitigen Steuereinheit (3a) kompatibel für verschiedene, an die Kommunikationsschnittstelle (13) anschließbare weitere Steuereinheiten (3a, 3b) übertragen werden kann, insbesondere dort dann weiterverarbeitet werden kann.
  8. Verfahren zum Erzeugen einer Umgebungsbereichskarte eines Umgebungsbereichs (7, 8) eines Kraftfahrzeugs (1), bei welchem die Umgebungsbereichskarte auf Basis von Informationen, die mit einer Sensoreinrichtung (4, 10, 11) des Kraftfahrzeugs (1) erfasst werden, erstellt wird, dadurch gekennzeichnet, dass
    die als Sensor-Rohdaten gebildeten Informationen nach einem Verfahren gemäß der vorhergehenden Ansprüche bereitgestellt werden und bei der Erzeugung der Umgebungsbereichskarte berücksichtigt werden.
  9. Computerprogrammprodukt, zum Ausführen eines Verfahrens nach einem der vorhergehenden Ansprüche, wenn das Computerprogrammprodukt auf einer programmierbaren Computereinrichtung ausgeführt wird.
  10. Sensoreinrichtung (4, 10, 11) für ein Kraftfahrzeug (1), mit zumindest einem Sensor (5a bis 5f, 6a bis 6f, 10, 11) und einer Steuereinheit (3a), wobei die Sensoreinrichtung (4, 10, 11) zum Bereitstellen von von einem in einem Umgebungsbereich (7, 8) eines Kraftfahrzeugs (1) erfassten Objekt abhängigen Informationen an einer Kommunikationsschnittstelle im Kraftfahrzeug (1) ausgebildet ist,
    dadurch gekennzeichnet, dass
    Sensor-Rohdaten als Information über einen zwischen der Sensoreinrichtung (4, 10, 11) und einem im Umgebungsbereich (7, 8) erfassten Objekt erkannten Freiraum in der sensoreinrichtungsseitigen Steuereinheit (3a) abgelegt sind, und diese Sensor-Rohdaten an einer mit der sensoreinrichtungsseitigen Steuereinheit (3a) verbundenen Kommunikationsschnittstelle (13) zur Übertragung an und zur Weiterverarbeitung mit einer weiteren Steuereinheit (3b) einer die beiden Steuereinheiten (3a, 3b) umfassenden und zur Erstellung einer Umgebungsbereichskarte ausgebildeten Verarbeitungseinrichtung (12) bereitgestellt sind.
  11. Verarbeitungseinrichtung (12) mit einer Sensoreinrichtung (4, 10, 11) nach Anspruch 10, und mit einer weiteren Steuereinheit (3b), die über eine verarbeitungseinrichtungsinternen Kommunikationsschnittstelle (13) mit der sensoreinrichtungsseitigen Steuereinheit (3a) verbunden ist, wobei die weitere Steuereinheit (3b) zur Erstellung einer Umgebungsbereichskarte auf Basis der über die Kommunikationsschnittstelle (13) übertragenen Information ausgebildet ist, und insbesondere die Umgebungsbereichskarte von der Verarbeitungseinrichtung (12) bereitgestellt ist.
  12. Verarbeitungseinrichtung (12) nach Anspruch 11,
    dadurch gekennzeichnet, dass
    die weitere Steuereinheit (3b) auch zum Empfangen und zur Verarbeitung von Informationen einer von der Sensoreinrichtung (4), umfassend die erste Steuereinheit (3a), funktionell unterschiedlichen weiteren Sensoreinrichtung (10, 11) ausgebildet ist.
  13. Kraftfahrzeug mit einer Sensoreinrichtung nach Anspruch 10 und/oder mit einer Verarbeitungseinrichtung nach Anspruch 11 oder 12.
EP16161172.8A 2015-03-31 2016-03-18 Verfahren zum bereitstellen von freirauminformationen in einem umgebungsbereich eines kraftfahrzeugs als sensor-rohdaten an einer kommunikationsschnittstelle, sensoreinrichtung, verarbeitungseinrichung und kraftfahrzeug Withdrawn EP3076377A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015104934.1A DE102015104934A1 (de) 2015-03-31 2015-03-31 Verfahren zum Bereitstellen von Freirauminformationen in einem Umgebungsbereich eines Kraftfahrzeugs als Sensor-Rohdaten an einer Kommunikationsschnittstelle, Sensoreinrichtung, Verarbeitungseinrichtung und Kraftfahrzeug

Publications (1)

Publication Number Publication Date
EP3076377A1 true EP3076377A1 (de) 2016-10-05

Family

ID=55589689

Family Applications (1)

Application Number Title Priority Date Filing Date
EP16161172.8A Withdrawn EP3076377A1 (de) 2015-03-31 2016-03-18 Verfahren zum bereitstellen von freirauminformationen in einem umgebungsbereich eines kraftfahrzeugs als sensor-rohdaten an einer kommunikationsschnittstelle, sensoreinrichtung, verarbeitungseinrichung und kraftfahrzeug

Country Status (2)

Country Link
EP (1) EP3076377A1 (de)
DE (1) DE102015104934A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018197089A1 (de) * 2017-04-27 2018-11-01 Siemens Mobility GmbH Verfahren und vorrichtung zum rechnergestützten erzeugen einer virtuellen zugumgebung
CN110065500A (zh) * 2018-01-23 2019-07-30 大众汽车有限公司 处理传感器数据的方法、相应设计的预处理单元以及车辆

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018000574B3 (de) * 2017-05-16 2020-09-24 Elmos Semiconductor Se Verfahren zur Übertragung von Daten über einen Fahrzeugdatenbus von einem Ultraschallsystem zu einer Datenverarbeitungsvorrichtung
DE102017126388B4 (de) * 2017-11-10 2020-12-03 Valeo Schalter Und Sensoren Gmbh Verfahren zur Bestimmung wenigstens eines Freiraums in einem Überwachungsbereich einer Entfernungsmessvorrichtung, Entfernungsmessvorrichtung und Fahrerassistenzsystem
DE102018010258A1 (de) 2018-03-16 2019-09-19 Elmos Semiconductor Aktiengesellschaft Klassifikation von Signalobjekten innerhalb von Ultraschallempfangssignalen und komprimierten Übertragung von Symbolen als Repräsentanten dieser Signalobjekte an eine Rechnereinheit zur Objekterkennung
DE102018010261A1 (de) 2018-03-16 2019-09-19 Elmos Semiconductor Aktiengesellschaft Klassifikation von Signalobjekten innerhalb von Ultraschallempfangssignalen und komprimierten Übertragung von Symbolen als Repräsentanten dieser Signalobjekte an eine Rechnereinheit zur Objekterkennung
DE102018010260A1 (de) 2018-03-16 2019-09-19 Elmos Semiconductor Aktiengesellschaft Klassifikation von Signalobjekten innerhalb von Ultraschallempfangssignalen und komprimierten Übertragung von Symbolen als Repräsentanten dieser Signalobjekte an eine Rechnereinheit zur Objekterkennung
DE102019009242B3 (de) 2018-03-16 2023-05-11 Elmos Semiconductor Se Sensor mit Ultraschallsignalkompression auf Basis eines Annäherungsverfahrens mittels Signalobjektklassen
DE102019105651B4 (de) 2018-03-16 2023-03-23 Elmos Semiconductor Se Klassifikation von Signalobjekten innerhalb von Ultraschallempfangssignalen und komprimierte Übertragung von Symbolen als Repräsentanten dieser Signalobjekte an eine Rechnereinheit zur Objekterkennung
DE102018010257A1 (de) 2018-03-16 2019-09-19 Elmos Semiconductor Aktiengesellschaft Klassifikation von Signalobjekten innerhalb von Ultraschallempfangssignalen und komprimierten Übertragung von Symbolen als Repräsentanten dieser Signalobjekte an eine Rechnereinheit zur Objekterkennung
DE102018106247A1 (de) * 2018-03-16 2019-09-19 Elmos Semiconductor Aktiengesellschaft Klassifikation von Signalobjekten innerhalb von Ultraschallempfangssignalen und komprimierten Übertragung von Symbolen als Repräsentanten dieser Signalobjekte an eine Rechnereinheit zur Objekterkennung
DE102018010255A1 (de) 2018-03-16 2019-09-19 Elmos Semiconductor Aktiengesellschaft Klassifikation von Signalobjekten innerhalb von Ultraschallempfangssignalen und komprimierten Übertragung von Symbolen als Repräsentanten dieser Signalobjekte an eine Rechnereinheit zur Objekterkennung
DE102018010254A1 (de) 2018-03-16 2019-09-19 Elmos Semiconductor Aktiengesellschaft Klassifikation von Signalobjekten innerhalb von Ultraschallempfangssignalen und komprimierten Übertragung von Symbolen als Repräsentanten dieser Signalobjekte an eine Rechnereinheit zur Objekterkennung
DE102019106204B4 (de) 2019-03-12 2023-04-27 Elmos Semiconductor Se Ultraschallsystem mit zentralisierter Objekterkennung auf Basis von dekomprimierten Ultraschallsignalen mehrerer Sensoren und zugehöriges Kompressionsverfahren
DE102019114207A1 (de) * 2019-05-28 2020-12-03 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben eines Ultraschallsensors für ein Fahrzeug mit Bestimmung eines Freiraums, Recheneinrichtung sowie Ultraschallsensorvorrichtung

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006049626A1 (de) 2006-10-20 2008-04-24 Volkswagen Ag Verfahren zur Bestimmung der Position und der geometrischen Ausdehnung eines Objekts im Umfeld eines Kraftfahrzeugs
DE102008036009A1 (de) * 2008-03-28 2009-10-01 Volkswagen Ag Verfahren zum Kollisionsschutz eines Kraftfahrzeugs und Parkhausassistent
DE102008028222A1 (de) * 2008-06-13 2009-12-17 Volkswagen Ag Verfahren und Vorrichtung zur Abstands- und Höhenbestimmung eines Fahrzeughindernisses und zur automatischen Verhinderung einer Beschädigung eines Fahrzeugs
DE102009045286A1 (de) 2009-10-02 2011-04-21 Robert Bosch Gmbh Verfahren zur Abbildung des Umfelds eines Fahrzeugs
DE102010018994A1 (de) * 2010-05-03 2011-11-03 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, Fahrerassistenzsystem und Fahrzeug
DE102011010860A1 (de) * 2011-02-10 2012-08-16 Connaught Electronics Ltd. Verfahren und Fahrerassistenzsystem zum Anzeigen von Bildern in einem Kraftfahrzeug sowie Kraftfahrzeug
DE102011077333A1 (de) * 2011-06-10 2012-12-27 Robert Bosch Gmbh Fahrerassistenzsystem mit Objektdetektion

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011086342A1 (de) * 2011-11-15 2013-05-16 Robert Bosch Gmbh Vorrichtung und verfahren zum betreiben eines fahrzeugs
DE102012208288A1 (de) * 2012-05-16 2013-11-21 Robert Bosch Gmbh Verfahren zur Darstellung einer Fahrzeugumgebung auf einer Anzeige und Fahrassistenzsystem

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006049626A1 (de) 2006-10-20 2008-04-24 Volkswagen Ag Verfahren zur Bestimmung der Position und der geometrischen Ausdehnung eines Objekts im Umfeld eines Kraftfahrzeugs
DE102008036009A1 (de) * 2008-03-28 2009-10-01 Volkswagen Ag Verfahren zum Kollisionsschutz eines Kraftfahrzeugs und Parkhausassistent
DE102008028222A1 (de) * 2008-06-13 2009-12-17 Volkswagen Ag Verfahren und Vorrichtung zur Abstands- und Höhenbestimmung eines Fahrzeughindernisses und zur automatischen Verhinderung einer Beschädigung eines Fahrzeugs
DE102009045286A1 (de) 2009-10-02 2011-04-21 Robert Bosch Gmbh Verfahren zur Abbildung des Umfelds eines Fahrzeugs
DE102010018994A1 (de) * 2010-05-03 2011-11-03 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, Fahrerassistenzsystem und Fahrzeug
DE102011010860A1 (de) * 2011-02-10 2012-08-16 Connaught Electronics Ltd. Verfahren und Fahrerassistenzsystem zum Anzeigen von Bildern in einem Kraftfahrzeug sowie Kraftfahrzeug
DE102011077333A1 (de) * 2011-06-10 2012-12-27 Robert Bosch Gmbh Fahrerassistenzsystem mit Objektdetektion

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018197089A1 (de) * 2017-04-27 2018-11-01 Siemens Mobility GmbH Verfahren und vorrichtung zum rechnergestützten erzeugen einer virtuellen zugumgebung
CN110065500A (zh) * 2018-01-23 2019-07-30 大众汽车有限公司 处理传感器数据的方法、相应设计的预处理单元以及车辆
CN110065500B (zh) * 2018-01-23 2022-06-03 大众汽车有限公司 处理传感器数据的方法、相应设计的预处理单元以及车辆

Also Published As

Publication number Publication date
DE102015104934A1 (de) 2016-10-06

Similar Documents

Publication Publication Date Title
EP3076377A1 (de) Verfahren zum bereitstellen von freirauminformationen in einem umgebungsbereich eines kraftfahrzeugs als sensor-rohdaten an einer kommunikationsschnittstelle, sensoreinrichtung, verarbeitungseinrichung und kraftfahrzeug
EP3177474B1 (de) Verfahren zum erzeugen einer umgebungskarte sowie fahrerassistenzsystem
EP3156820B1 (de) Verfahren zum erfassen eines dynamischen objekts in einem umgebungsbereich eines kraftfahrzeugs auf basis von informationen einer kraftfahrzeugseitigen ultraschall-detektionseinrichtung, fahrerassistenzsystem und kraftfahrzeug
DE102018128289B4 (de) Verfahren und vorrichtung für eine autonome systemleistung und zur einstufung
AT521607A4 (de) Verfahren und Vorrichtung zum Testen eines Fahrerassistenzsystem
EP3526095B1 (de) Kategorisierung von fahrzeugen in der umgebung eines kraftfahrzeugs
DE102018103803B4 (de) System für das erkennen einer fehlerhaften sensorinstallation innerhalb eines fahrzeugs, um die mit der objekterkennung verbundenen gefahren zu verringern
DE102015121353A1 (de) Verfahren zum Erkennen einer möglichen Kollision zwischen einem Kraftfahrzeug und einem Objekt unter Berücksichtigung einer räumlichen Unsicherheit, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102018128890A1 (de) Verfahren und Testvorrichtung zum Testen eines Fahrassistenzsystems für ein Kraftfahrzeug
WO2015135688A1 (de) Vorrichtung und verfahren zum betreiben eines fahrzeugs
DE102009038682A1 (de) Verfahren und Systeme zur Steuerung externer sichtbarer Anzeigen für Fahrzeuge
DE102013212360A1 (de) Vorhersage des zukünftigen Fahrpfades eines Fahrzeuges
EP4214607A1 (de) Verfahren und system zum testen eines fahrerassistenzsystems
EP2081791B1 (de) Verfahren zum abtasten eines umfelds eines fahrzeugs
WO2016156377A1 (de) Verfahren zum bereitstellen von höheninformationen eines objekts in einem umgebungsbereich eines kraftfahrzeugs an einer kommunikationsschnittstelle, sensoreinrichtung, verarbeitungseinrichtung und kraftfahrzeug
DE102013214631A1 (de) Effizientes Bereitstellen von Belegungsinformationen für das Umfeld eines Fahrzeugs
DE102018222195A1 (de) Ortung und/oder KIassifikation von Objekten aus Radardaten mit maschinellem Lernen
DE102019129904A1 (de) Automatische Fahrkompetenzanalyse
DE102015215852A1 (de) Verfahren und Vorrichtung zur Detektion von einem nichtautomatisiert betriebenen Fahrzeug
DE102014203805A1 (de) Fahrerassistenzsystem zur Erkennung eines sensorisch nicht erfassbaren Kollisionspartners
DE102014118035B4 (de) Verfahren zum Erkennen einer Abschattung einer Sensoreinrichtung eines Kraftfahrzeugs durch ein Objekt, Recheneinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019130037B4 (de) Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102019218078B4 (de) Bestimmung eines Sachverhalts im Umfeld eines Kraftfahrzeugs
DE102021131868A1 (de) Zuverlässigkeitsüberprüfung einer Objektklassifizierung
DE102020210116A1 (de) Verfahren zum Betreiben eines Assistenzsystems eines Fahrzeugs

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20170329

RBV Designated contracting states (corrected)

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20200213

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN WITHDRAWN

18W Application withdrawn

Effective date: 20220422