WO2023061675A1 - Verfahren und verarbeitungseinrichtung zum steuern einer fahrassistenzfunktion und fahrassistenzsystem - Google Patents

Verfahren und verarbeitungseinrichtung zum steuern einer fahrassistenzfunktion und fahrassistenzsystem Download PDF

Info

Publication number
WO2023061675A1
WO2023061675A1 PCT/EP2022/075160 EP2022075160W WO2023061675A1 WO 2023061675 A1 WO2023061675 A1 WO 2023061675A1 EP 2022075160 W EP2022075160 W EP 2022075160W WO 2023061675 A1 WO2023061675 A1 WO 2023061675A1
Authority
WO
WIPO (PCT)
Prior art keywords
intervention
sensor
processing device
vehicle
vehicle guidance
Prior art date
Application number
PCT/EP2022/075160
Other languages
English (en)
French (fr)
Inventor
Georg Tanzmeister
Moritz Werling
Original Assignee
Bayerische Motoren Werke Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke Aktiengesellschaft filed Critical Bayerische Motoren Werke Aktiengesellschaft
Publication of WO2023061675A1 publication Critical patent/WO2023061675A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/009Priority selection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion

Definitions

  • the invention relates to a method and a processing device for controlling a driver assistance function of a vehicle.
  • the invention relates to software with program code for carrying out such a method when the software runs on a software-controlled processing device, as well as a computer-readable (storage) medium with such software.
  • the invention can be used in particular as part of a driver assistance system (DAS), the longitudinal and/or lateral guidance of the vehicle being controlled in such a way that a driving task specified by the ADAS is fulfilled.
  • DAS driver assistance system
  • the ADAS can enable at least partially automated driving, possibly up to fully automated driving.
  • automated driving means driving with automated longitudinal and/or lateral guidance.
  • Automated driving can, for example, involve driving on the freeway for a longer period of time or driving for a limited period of time when parking.
  • automated driving includes automated driving with any degree of automation. Exemplary degrees of automation are assisted, semi-automated, highly automated, Fully automated and autonomous driving (each with an increasing degree of automation).
  • the five levels of automation mentioned above correspond to SAE levels 1 to 5 of the SAE J3016 standard (SAE - Society of Automotive Engineering). With assisted driving (SAE Level 1), the system performs longitudinal or lateral guidance in certain driving situations.
  • SAE Level 2 With semi-automated driving (SAE Level 2), the system takes over longitudinal and lateral guidance in certain driving situations, whereby the driver has to constantly monitor the system, as with assisted driving.
  • SAE Level 3 With highly automated driving (SAE Level 3), the system takes over longitudinal and lateral guidance in certain driving situations without the driver having to constantly monitor the system; however, the driver must be able to take control of the vehicle within a certain period of time when requested by the system.
  • SAE Level 4 With fully automated driving (SAE Level 4), the system takes over control of the vehicle in certain driving situations, even if the driver does not respond to a request to intervene, meaning that the driver is no longer a fallback option.
  • SAE Level 5 With autonomous driving (SAE Level 5), the system can carry out all aspects of the dynamic driving task under any road and environmental conditions, which can also be controlled by a human driver. SAE Level 5 thus corresponds to driverless driving, in which the system can automatically handle all situations like a human driver throughout the journey; a driver is generally no longer required.
  • driver assistance functions must be reliably designed to deal with safety-relevant scenarios, such as sudden braking of the vehicle in front.
  • a system reaction for example automatic braking to an object
  • an environment model which is determined on the basis of environment sensor data from a number of environment sensors.
  • a fusion of the various environmental sensors usually takes place before a system decision is made.
  • object lists each of which has been calculated from the surroundings sensor data from one of the surroundings sensors, are merged into a common object list.
  • the respective strengths and weaknesses of the individual environment sensors can be used or taken into account.
  • the driver assistance function then only works with this fused object list that is as reliable as possible.
  • an object or several relevant objects that is directly relevant to driving the vehicle is selected and a decision is made with regard to the relevant object as to whether a system reaction, i.e. braking, for example, should take place.
  • a first aspect of the invention relates to a computer-implemented method for controlling a driver assistance function of a vehicle.
  • the driver assistance function can be a function of a driver assistance system (DAS) of a vehicle.
  • DAS driver assistance system
  • the vehicle can in particular be a motor vehicle.
  • motor vehicle is to be understood in particular as meaning a land vehicle that is moved by machine power without being tied to railroad tracks.
  • a motor vehicle in this sense can, for example, be designed as a motor vehicle, motorcycle or tractor.
  • the driving assistance function can be carried out in particular as part of an at least partially automated driving of the vehicle.
  • it can be an ACC function (ie a combined speed and distance control), a steering and lane guidance assistant (LSA), an avoidance assistant (AWA), a lane change assistant function (SWA), a parking assistant function or the like.
  • One step of the method is receiving surroundings sensor data from at least two surroundings sensors.
  • the surroundings sensors or some of the surroundings sensors can be different types of sensors, in particular sensors based on different physical operating principles or operating in different electromagnetic wavelength ranges, such as an (optical) camera on the one hand and a radar or lidar sensor on the other .
  • a further step is the evaluation of the environmental sensor data to determine whether intervention in vehicle guidance is required. This means that it is evaluated whether, as part of the driver assistance function, based on the vehicle environment described by the respective environment sensor data, a specific actuation of a longitudinal and/or lateral control actuator system of the vehicle, such as braking and/or an evasive maneuver in response to an object detected in the vehicle environment or obstacle to be executed.
  • a separate evaluation is carried out on the basis of the surroundings sensor data of each of the at least two surroundings sensors and a respective sensor-specific decision is made about the intervention in vehicle guidance.
  • several separate logical channels are provided on the data processing level for an evaluation of the (respective) environment sensor data and a decision-making process based thereon relating to vehicle guidance.
  • These logical channels can also be referred to as individual sensor channels.
  • each of the individual sensor channels is only assigned to a single environment sensor and not to several, possibly different, environment sensors whose environment sensor data are already merged before the decision of the individual sensor channel about the intervention in the vehicle guidance.
  • a further step is the merging of the (at least two) sensor-specific decisions into an overall decision on the intervention in vehicle guidance.
  • the overall decision can relate in particular to whether or not a specific intervention in vehicle guidance, such as braking or an evasive maneuver, should be carried out.
  • a control signal for carrying out the intervention in vehicle guidance is generated.
  • a braking trigger or an evasion trigger can be set at the data processing level.
  • the control signal can then be output indirectly (ie after further data processing) or directly to a longitudinal and/or lateral control actuator system of the vehicle be implemented in order to implement the intervention in the vehicle control in accordance with the overall decision.
  • the invention is based on the idea that statistical validation of the performance of a sensor-based driver assistance function is made easier if several sensor-specific decisions about an intervention in vehicle guidance are first made independently of one another and the several sensor-specific decisions are then merged into one overall decision.
  • the objects recognized as relevant can be selected and checked for their criticality, i.e. e.g. in particular for the need for the vehicle to brake in response to the object become.
  • a corresponding brake trigger can then be set in each case.
  • a fusion then only takes place at the level of these sensor-specific brake triggers according to a defined fusion strategy, such as a "1-out-of-2 fusion strategy" or a "2-out-of-4 fusion strategy", as explained in more detail below.
  • a maximum overall error rate (roughly an overall rate of false negative errors, i.e. e.g. braking not performed, if this had been necessary) of 1/1000000 if a maximum error rate of 1/1000 is proven for each of the two environmental sensors. In practice, this corresponds to a very significant reduction in the effort involved in safeguarding, since you only have to safeguard the performance of the individual sensors. This can e.g. drastically reduce the number of scenarios to be driven on a test site.
  • the error rates of the overall function can be calculated from the error rates of the individual sensor channels using comparatively simple statistical methods.
  • the error correlation of the multiple individual sensor channels can be modeled very easily and reliably, especially if the sensor-specific decisions and the overall decision are binary signals.
  • the classic fusion concept for example, the temporal correlations of input signals must be known.
  • a further advantage is that with the solution proposed here, the overall result of the fusion improves in a reliable and predictable manner if the performance of one of the individual sensor channels is improved. It is therefore possible to optimize the individual sensor channels independently of one another.
  • the proposed solution makes it possible to derive certain KPIs (Key Performance Indicators) of the individual sensor channels directly from the end-to-end KPIs of the overall function, since the reaction of the vehicle is decisive here. If, for example, there is a KPI for determining the false-positive rate of the braking of the ego vehicle due to an object in front, then it is directly known due to which individual sensor channel(s) a certain error was caused. This allows improvements to be made more quickly. With a classic fusion approach, it is much more difficult to determine, in particular in an automated manner, which individual sensor caused the overall result to have an error.
  • KPIs Key Performance Indicators
  • a second aspect of the invention is a (data) processing device that is set up to carry out a computer-implemented method according to the first aspect of the invention. Accordingly, embodiments of the method according to the invention can correspond to the embodiments of the processing device according to the invention described in this document and vice versa.
  • the processing device can include one or more processors or microcontrollers, which are set up using a suitable computer program to carry out the computer-implemented method. According to some embodiments, it can also be a spatially distributed (e.g. over several processors or microcontrollers) distributed processing device.
  • the evaluation includes determining, on the basis of the respective surroundings sensor data, whether and, if so, which objects and/or obstacles are relevant for the vehicle guidance.
  • a target object can be selected from a sensor-specific object list, i.e. one based on the respective environmental sensor data and not already merged.
  • the fusion of the sensor-specific decisions is carried out in such a way that the overall decision is made to carry out a specific intervention in vehicle guidance if at least one of the sensor-specific decisions is that the intervention should be carried out.
  • This can mean, for example, that braking is performed when at least one of the surroundings sensors has detected a critical object (ie an object that makes braking necessary), regardless of whether this is confirmed by other surroundings sensors. If, for example, a brake trigger is set in a first individual sensor channel, the result is definitely braking, regardless of whether a brake trigger is also triggered via a second individual sensor channel or not.
  • fusion strategies can be used as an alternative to or in addition to the 1-out-of-n fusion strategies described come into use.
  • surroundings sensor data from at least three, in particular at least four (preferably different types) surroundings sensors are evaluated.
  • the fusion of the resulting sensor-specific decisions is carried out in such a way that the overall decision is made to carry out a specific intervention in vehicle guidance if at least two of the sensor-specific decisions lead to the intervention being carried out (so-called "2-out of-3 merger strategy" or "2-out-of-4 merger strategy” or generally "2-out-of-n merger strategy”).
  • the vehicle only performs a braking maneuver or e.g.
  • three environment sensors in the form of a front camera, a full range radar (FRR) are in a 2-out-of-3 fusion strategy and a lidar sensor.
  • FRR full range radar
  • SRR short-range radar
  • a 2-out-of-4 fusion strategy being implemented using the four individual sensor channels.
  • a false positive error in a single individual sensor channel does not affect the overall function, so that, for example, the frequency of unnecessary braking interventions can be reduced.
  • a false-positive robustness of the driver assistance function can be improved by such a fusion strategy.
  • one or more 1-out-of-n fusion strategies and/or one or more 2-out-of-n fusion strategies can be combined with one another with a specific respective weight, such as a desired one Achieving a compromise between a false-negative robustness and a false-positive robustness of the driver assistance function.
  • Recursions from several m-out-of-n fusion strategies are also possible as further fusion strategies.
  • a 2-out-of-2 fusion strategy can first be applied to two of the three individual sensor channels, followed by a 1-out-of-2 fusion strategy, which is based on the result of the 2- out-of-2 fusion strategy and another of the single sensor channels is applied.
  • this can also be written as "1-out-of-(2-out-of-2)" or "1oo(2oo2)".
  • a third aspect of the invention is a driver assistance system (DAS), which includes at least two (preferably different) surroundings sensors and a processing device according to the second aspect of the invention.
  • the processing device is set up to receive, evaluate and merge surroundings sensor data from the at least two surroundings sensors in accordance with the method according to the first aspect of the invention and to generate the control signal for carrying out the intervention in the vehicle guidance as a function of the overall decision.
  • DAS driver assistance system
  • the ADAS also includes an actuator system that is set up to implement the appropriate intervention in the vehicle guidance as a function of the control signal.
  • the actuator can in particular a longitudinal guide actuator, such as a Braking device and a drive train, and / or a Quer Installationsaktuatorik, such as a steering include.
  • the at least two surroundings sensors include at least two different elements from the following list: a camera; a radar sensor; a lidar sensor; an ultrasonic sensor.
  • the camera can be an optical camera, such as an optical front camera of the vehicle.
  • the use of an infrared camera, for example, is also conceivable.
  • the radar sensor can be, for example, a long-range radar (FRR) or a short-range radar (SRR).
  • the criticality of detected objects can be evaluated, optimized for the respective individual sensor, taking into account specific strengths and weaknesses of the individual sensor. For example, a distance of an object from the vehicle and a speed of the object can only be estimated comparatively imprecisely using a camera. On the other hand, a lane assignment and a time-to-collision (TTC) can be estimated very well using a camera. Accordingly, for this path, i.e. on the individual sensor channel belonging to the camera, a target object can be selected in the camera image and the brake trigger evaluation can be carried out based on the TTC. For distance-measuring sensors such as radar or lidar sensors, the target object can be selected on the basis of distance and speed in combination with map data.
  • TTC time-to-collision
  • a fourth aspect of the invention is a computer program comprising instructions which, when the computer program is executed by a processing device, cause the latter to carry out a method according to the first aspect of the invention.
  • the computer program can also be divided into a number of separate sub-programs, which can each be executed on different processing devices (such as e.g. a number of separate processors) that may be physically distant from one another.
  • an FAS according to the third aspect of the invention may comprise one or more processing devices on which a computer program according to the fourth aspect of the invention is executable.
  • a fifth aspect of the invention is a computer-readable storage medium comprising instructions which, when executed by a (possibly distributed) processing device, cause the latter to carry out a method according to the first aspect of the invention.
  • a computer program according to the fourth aspect of the invention can be stored on the computer-readable storage medium.
  • a sixth aspect of the invention is a vehicle having an ADAS according to the third aspect of the invention.
  • FIG. 1 illustrates, by way of example and schematically, a method sequence known in the prior art for controlling a driver assistance function.
  • FIG. 2 schematically illustrates a method sequence for controlling a driver assistance function according to an exemplary embodiment.
  • FIG. 3 schematically illustrates a method for controlling a driver assistance function.
  • FIG. 4 schematically illustrates a driver assistance system.
  • object data is provided by two environment sensors (“sensor 1” and “sensor 2”), for example in the form of a respective object list.
  • An object fusion is then carried out, with the object lists being merged into a common object list.
  • the driving assistance function then works on the basis of the merged object list.
  • a target object selection an object that is directly relevant to driving the vehicle is selected based on the merged object list, and a decision is made with regard to the relevant object as to whether a system reaction, i.e. braking, for example, should take place.
  • a brake trigger is set, which initiates braking of the vehicle.
  • FIG. 2 schematically illustrates a method 2 for controlling a driver assistance function according to an exemplary embodiment of the present invention.
  • the exemplary embodiment shown in FIG. 2 is explained below, with FIG a reference is made to the steps 21-24 of the method 2 according to the invention illustrated in FIG. 3 in the form of a block diagram and to the ADAS 1 illustrated schematically in FIG.
  • ADAS 1 according to FIG.
  • the ADAS 1 can include an actuator 13 that is set up to implement a corresponding intervention in the vehicle guidance.
  • One step of method 2 is receiving 21 surroundings sensor data from at least two surroundings sensors 11 , 12 (corresponding to “sensor 1” and “sensor 2” in FIG. 2 ).
  • Surroundings sensors 11, 12 are preferably of different types, in particular sensors based on different physical operating principles or operating in different electromagnetic wavelength ranges, such as an (optical) camera on the one hand and a radar or lidar sensor on the other.
  • a further step is the evaluation 22 of the surroundings sensor data to determine whether an intervention in the vehicle guidance is required.
  • a separate evaluation is carried out on the basis of the surroundings sensor data from each of the surroundings sensors 11, 12 and a respective sensor-specific decision is made about the intervention in vehicle guidance.
  • the evaluation 2 includes, in particular, a target object selection from a respective sensor-specific object list and, if necessary, the setting of a sensor-specific brake trigger. It is clear from FIG. 2 that these two steps are carried out separately on each individual sensor channel, that is, in contrast to the conventional method sequence shown in FIG becomes.
  • the sensor-specific decisions are then merged into an overall decision about the intervention in vehicle guidance.
  • the two sensor-specific braking decisions are thus merged (and not already the multiple sensor-specific object lists, as in FIG. 1).
  • the fusion of the sensor-specific decisions can be carried out according to a 1-out-of-2 fusion strategy, ie in such a way that the overall decision is made to carry out a specific intervention in the vehicle guidance if at least one of the sensor-specific decisions that the intervention should be carried out. If, for example, a brake trigger is set in a first individual sensor channel, the result is definitely braking, regardless of whether a brake trigger is also triggered via a second individual sensor channel or not.
  • fusion strategies or a combination of a plurality of fusion strategies with a respective weighting are also conceivable in further embodiments with more than two environment sensors, which are not shown separately in the figures.
  • three environment sensors in the form of a front camera, a full-range radar (FRR) and a lidar sensor can be involved in a 2-out-of-3 fusion strategy.
  • FRR full-range radar
  • lidar sensor can be involved in a 2-out-of-3 fusion strategy.
  • a short-range radar (SRR) is provided in addition to the three environmental sensors mentioned above, with a 2-out-of-4 fusion strategy being implemented using the four individual sensor channels.
  • a control signal for carrying out the intervention in the vehicle guidance is generated as a function of the overall decision.
  • the control signal can then be output, e.g. indirectly (i.e. after further data processing) or directly to the longitudinal and/or lateral control actuator system 13 of the vehicle in order to implement the intervention in the vehicle control.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein computerimplementiertes Verfahren (2) zum Betreiben einer Fahrassistenzfunktion eines Fahrzeugs, umfasst die Schritte: Empfangen (21) von Umfeldsensordaten von mindestens zwei Umfeldsensoren; Auswerten (22) der Umfeldsensordaten daraufhin, ob ein Eingriff in die Fahrzeugführung erforderlich ist, wobei jeweils eine separate Auswertung auf Basis der Umfeldsensordaten eines jeden der wenigstens zwei Umfeldsensoren vorgenommen wird und eine jeweilige sensorspezifische Entscheidung über den Eingriff in die Fahrzeugführung getroffen wird; Fusionieren (23) der sensorspezifischen Entscheidungen zu einer Gesamtentscheidung über den Eingriff in die Fahrzeugführung; und in Abhängigkeit von der Gesamtentscheidung, Erzeugen (24) eines Steuersignals zum Ausführen des Eingriffs in die Fahrzeugführung.

Description

Verfahren und Verarbeitungseinrichtung zum Steuern einer Fahrassistenzfunktion und Fahrassistenzsystem
Die Erfindung betrifft ein Verfahren und eine Verarbeitungseinrichtung zum Steuern einer Fahrassistenzfunktion eines Fahrzeugs. Darüber hinaus betrifft die Erfindung eine Software mit Programmcode zur Durchführung eines solchen Verfahrens, wenn die Software auf einer softwaregesteuerten Verarbeitungseinrichtung abläuft, sowie ein computerlesbares (Speicher)medium mit einer solchen Software.
Die Erfindung kann insbesondere im Rahmen eines Fahrassistenzsystems (FAS) eingesetzt werden, wobei die Längs- und/oder Querführung des Fahrzeugs in der Weise geregelt wird, dass eine durch das FAS vorgegebene Fahraufgabe erfüllt wird. Dabei kann das FAS ein wenigstens teilweise automatisiertes Fahren, ggf. bis hin zum vollautomatisierten Fahren, ermöglichen.
Unter dem Begriff „automatisiertes Fahren“ wird im Rahmen des Dokuments ein Fahren mit automatisierter Längs- und/oder Querführung verstanden. Beim automatisierten Fahren kann es sich beispielsweise um ein zeitlich längeres Fahren auf der Autobahn oder um ein zeitlich begrenztes Fahren im Rahmen des Einparkens handeln. Der Begriff „automatisiertes Fahren“ umfasst automatisiertes Fahren mit einem beliebigen Automatisierungsgrad. Beispielhafte Automatisierungsgrade sind assistiertes, teilautomatisiertes, hochautomatisiertes, vollautomatisiertes und autonomes Fahren (mit jeweils zunehmendem Automatisierungsgrad). Die vorstehend genannten fünf Automatisierungsgrade entsprechen den SAE-Leveln 1 bis 5 der Norm SAE J3016 (SAE - Society of Automotive Engineering). Beim assistierten Fahren (SAE-Level 1) führt das System die Längs- oder Querführung in bestimmten Fahrsituationen durch. Beim teilautomatisierten Fahren (SAE-Level 2) übernimmt das System die Längs- und Querführung in bestimmten Fahrsituationen, wobei der Fahrer das System wie beim assistierten Fahren dauerhaft überwachen muss. Beim hochautomatisierten Fahren (SAE- Level 3) übernimmt das System die Längs- und Querführung in bestimmten Fahrsituationen, ohne dass der Fahrer das System dauerhaft überwachen muss; der Fahrer muss aber innerhalb einer gewissen Zeit in der Lage sein, die Fahrzeugführung auf Anforderung durch das System zu übernehmen. Beim vollautomatisierten Fahren (SAE-Level 4) übernimmt das System die Fahrzeugführung in bestimmten Fahrsituationen, selbst wenn der Fahrer auf eine Anforderung zum Eingreifen nicht reagiert, so dass der Fahrer als Rückfallebene entfällt. Beim autonomen Fahren (SAE-Level 5) können vom System alle Aspekte der dynamischen Fahraufgabe unter jeder Fahrbahn- und Umgebungsbedingung durchgeführt werden, welche auch von einem menschlichen Fahrer beherrscht werden. Der SAE-Level 5 entspricht somit einem fahrerlosen Fahren, bei dem das System während der ganzen Fahrt alle Situationen wie ein menschlicher Fahrer automatisch bewältigen kann; ein Fahrer ist generell nicht mehr erforderlich.
Einige Fahrassistenzfunktionen müssen zuverlässig zur Bewältigung sicherheitsrelevanter Szenarien, wie z.B. einer plötzlichen Bremsung des Vorderfahrzeugs, ausgelegt sein. Bei konventionellen FAS beruht eine Systemreaktion, beispielsweise eine automatische Bremsung auf ein Objekt, auf einem Umfeldmodell, welches auf der Grundlage von Umfeldsensordaten mehrerer Umfeldsensoren ermittelt wird. Üblicherweise erfolgt dabei eine Fusion der verschiedenen Umfeldsensoren, bevor eine Systementscheidung getroffen wird. Zum Beispiel werden mehrere Objektlisten, die jeweils aus den Umfeldsensordaten von einem der Umfeldsensoren berechnet worden sind, zu einer gemeinsamen Objektliste fusioniert. Bei der Objektfusion können die jeweiligen Stärken und Schwächen der einzelnen Umfeldsensoren genutzt bzw. berücksichtigt werden. Die Fahrassistenzfunktion arbeitet dann nur mehr mit dieser möglichst verlässlichen fusionierten Objektliste. Konkret wird z.B. basierend auf der fusionierten Objektliste ein für die Fahrzeugführung unmittelbar relevantes Objekt (bzw. mehrere relevante Objekte) ausgewählt und es wird mit Blick auf das relevante Objekt entschieden, ob eine Systemreaktion, d.h. beispielsweise eine Bremsung, erfolgen soll.
Bei der Entwicklung und Absicherung derartiger Fahrassistenzfunktionen, insbesondere ab dem SAE-Level 3, stellt sich jedoch die Herausforderung, die aus Gründen der Sicherheit erforderlichen außerordentlich niedrigen Fehlerraten statistisch abzusichern. Beispielsweise wäre es praktisch nahezu unmöglich oder jedenfalls nicht wirtschaftlich, ein bestimmtes sicherheitsrelevantes Szenario millionenfach real auf einem Testgelände einzufahren, um den Nachweis zu erbringen, dass dabei z.B. nur maximal ein Fehler auftritt.
Hiervon ausgehend ist es eine Aufgabe der vorliegenden Erfindung, ein insbesondere hinsichtlich der Möglichkeiten zur statistischen Absicherung sehr geringer Fehlerraten verbessertes Konzept zum Steuern einer Fahrassistenzfunktion anzugeben.
Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsformen sind in den abhängigen Ansprüchen angegeben.
Es wird darauf hingewiesen, dass zusätzliche Merkmale eines von einem unabhängigen Patentanspruch abhängigen Patentanspruchs ohne die Merkmale des unabhängigen Patentanspruchs oder nur in Kombination mit einer Teilmenge der Merkmale des unabhängigen Patentanspruchs eine eigene und von der Kombination sämtlicher Merkmale des unabhängigen Patentanspruchs unabhängige Erfindung bilden können, die zum Gegenstand eines unabhängigen Patentanspruchs, einer Teilungsanmeldung oder einer Nachanmeldung gemacht werden kann. Dies gilt in gleicher Weise für in der Beschreibung erläuterte technische Lehren, die eine von den Merkmalen der unabhängigen Patentansprüche unabhängige Erfindung bilden können.
Ein erster Aspekt der Erfindung betrifft ein computerimplementiertes Verfahren zum Steuern einer Fahrassistenzfunktion eines Fahrzeugs.
Dabei kann die Fahrassistenzfunktion eine Funktion eines Fahrassistenzsystem (FAS) eines Fahrzeugs sein. Das Fahrzeug kann insbesondere ein Kraftfahrzeug sein. Unter dem Begriff Kraftfahrzeug soll dabei insbesondere ein Landfahrzeug, das durch Maschinenkraft bewegt wird, ohne an Bahngleise gebunden zu sein, verstanden werden. Ein Kraftfahrzeug in diesem Sinne kann z.B. als Kraftwagen, Kraftrad oder Zugmaschine ausgebildet sein.
Die Fahrassistenzfunktion kann insbesondere im Rahmen eines wenigstens teilweise automatisierten Fahrens des Fahrzeugs ausgeführt werden. Beispielsweise kann es sich um eine ACC-Funktion (d.h. eine kombinierte Geschwindigkeits- und Abstandsregelung), einen Lenk- und Spurführungsassistenten (LSA), einen Ausweichassistenten (AWA), eine Spurwechselassistenzfunktion (SWA), eine Parkassistenzfunktion oder dergleichen handeln. Ein Schritt des Verfahrens ist das Empfangen von Umfeldsensordaten von mindestens zwei Umfeldsensoren. Dabei kann es sich bei den Umfeldsensoren oder bei einigen der Umfeldsensoren um verschiedenartige Sensoren, insbesondere um auf unterschiedlichen physikalischen Wirkprinzipien beruhende oder in unterschiedlichen elektromagnetischen Wellenlängenbereichen operierende Sensoren, wie z.B. einerseits eine (optische) Kamera und andererseits einen Radar- oder Lidar-Sensor, handeln.
Ein weiterer Schritt ist das Auswerten der Umfeldsensordaten daraufhin, ob ein Eingriff in die Fahrzeugführung erforderlich ist. Damit ist gemeint, dass ausgewertet wird, ob im Rahmen der Fahrassistenzfunktion aufgrund des durch die jeweiligen Umfeldsensordaten beschriebenen Fahrzeugumfelds eine bestimmte Betätigung einer Längs- und oder Querführungsaktuatorik des Fahrzeugs, wie z.B. eine Bremsung und/oder ein Ausweichmanöver in Reaktion auf ein im Fahrzeugumfeld erfasstes Objekt oder Hindernis, ausgeführt werden soll.
Verfahrensgemäß ist dabei vorgesehen, dass jeweils eine separate Auswertung auf Basis der Umfeldsensordaten eines jeden der wenigstens zwei Umfeldsensoren vorgenommen wird und eine jeweilige sensorspezifische Entscheidung über den Eingriff in die Fahrzeugführung getroffen wird. Mit anderen Worten sind auf der Datenverarbeitungsebene mehrere separate logische Kanäle für eine Auswertung der (jeweiligen) Umfeldsensordaten und eine darauf basierende Entscheidungsfindung betreffend die Fahrzeugführung vorgesehen. Diese logischen Kanäle können auch als Einzelsensorkanäle bezeichnet werden. Dabei ist jeder der Einzelsensorkanäle nur einem einzigen Umfeldsensor zugeordnet und nicht etwa bereits mehreren, ggf. verschiedenartigen Umfeldsensoren, deren Umfeldsensordaten bereits vor der Entscheidung des Einzelsensorkanals über den Eingriff in die Fahrzeugführung fusioniert werden.
Ein weiterer Schritt ist das Fusionieren der (mindestens zwei) sensorspezifischen Entscheidungen zu einer Gesamtentscheidung über den Eingriff in die Fahrzeugführung. Die Gesamtentscheidung kann insbesondere zum Gegenstand haben, ob ein bestimmter Eingriff in die Fahrzeugführung, wie etwa eine Bremsung oder ein Ausweichmanöver, ausgeführt werden soll oder nicht.
In einem weiteren Schritt wird in Abhängigkeit von der Gesamtentscheidung ein Steuersignal zum Ausführen des Eingriffs in die Fahrzeugführung erzeugt. Dabei kann auf der Datenverarbeitungsebene z.B. ein Bremstrigger oder ein Ausweichtrigger gesetztwerden. Das Steuersignal kann in der Folge indirekt (d.h. nach einer datentechnischen Weiterverarbeitung) oder direkt an eine Längs- und/oder Querführungsaktuatorik des Fahrzeugs ausgegeben werden, um den Eingriff in die Fahrzeugführung entsprechend der Gesamtentscheidung umzusetzen.
Die Erfindung beruht auf dem Gedanken, dass eine statistische Absicherung der Performance einer sensorbasierten Fahrerassistenzfunktion erleichtert wird, wenn zunächst unabhängig voneinander mehrere sensorspezifische Entscheidungen über einen Eingriff in die Fahrzeugführung getroffen werden und die mehreren sensorspezifischen Entscheidungen sodann zu einer Gesamtentscheidung fusioniert werden. Beispielsweise können auf der Datenverarbeitungsebene im Rahmen von mehreren, voneinander unabhängigen Einzelsensorkanälen, welche jeweils einem Umfeldsensor zugeordnet sind, die jeweils als relevant erkannten Objekte ausgewählt und auf ihre Kritikalität, d.h. z.B. insbesondere auf die Notwendigkeit, dass das Fahrzeug in Reaktion auf das Objekt bremst, geprüft werden. Sodann kann jeweils ein entsprechender Bremstrigger gesetzt werden. Eine Fusion erfolgt dann erst auf der Ebene dieser sensorspezifischen Bremstrigger entsprechend einer festgelegten Fusionsstrategie, etwa einer „1-out-of-2-Fusionsstrategie“ oder einer „2-out-of-4- Fusionsstrategie“, wie weiter unten ausführlicher erläutert wird.
Die Verwendung derartiger Fusionskonzepte ermöglicht es, eine Anforderung an die Fahrassistenzfunktion, wie z.B. eine einzuhaltende maximale Gesamtfehlerrate, auf die mehreren Einzelsensorkanäle herunter zu brechen und sie dadurch in der Praxis gut beherrschbar zu machen. Dieser Vorgang kann auch als eine Dekomposition der Anforderung bezeichnet werden. Wenn z.B. eine 1-out-of-2-Fusionsstrategie verwendet wird und ferner angenommen werden kann, dass die einzelnen Umfeldsensorfehler statistisch unabhängig sind, so lässt sich eine maximale Gesamtfehlerrate (etwa eine Gesamtrate von Falsch- Negativ-Fehlern, d.h. z.B. nicht erfolgten Bremsungen, wenn dies erforderlich gewesen wäre) von 1/1000000 absichern, wenn für jeden der beiden Umfeldsensoren jeweils eine maximale Fehlerrate von 1/1000 nachgewiesen wird. In der Praxis entspricht dies einer sehr deutlichen Reduktion des Absicherungsaufwands, da man lediglich die Performance der Einzelsensoren absichern muss. Dadurch kann z.B. eine Anzahl von auf einem Testgelände zu fahrenden Szenarien drastisch reduziert werden.
Wie vorstehend anhand einer 1-out-of-2-Fusionsstrategie beispielhaft erläutert, ist eine statistische Hochrechnung von empirisch erfassten Fehlerraten bei den vorgeschlagenen Fusionskonzepten sehr einfach machbar. Auch bei anderen Fusionsstrategien, wie z.B. 2-out- of-3 oder 2-out-of-4 lassen sich die Fehlerraten der Gesamtfunktion mittels vergleichsweise einfacher statistischer Verfahren aus den Fehlerraten der Einzelsensorkanäle berechnen. Im Unterschied zum klassischen Sensorfusionsansatz, bei welchem zunächst die Umfeldsensordaten fusioniert werden und auf dieser Grundlage eine Systementscheidung getroffen wird, ist bei der vorgeschlagenen Lösung die Fehlerkorrelation der mehreren Einzelsensorkanäle sehr einfach und verlässlich modellierbar, insbesondere wenn die sensorspezifischen Entscheidungen und die Gesamtentscheidung binäre Signale sind. Demgegenüber müssen bei dem klassischen Fusionskonzept z.B. die zeitlichen Korrelationen von Eingangssignalen bekannt sein.
Ein weiterer Vorteil ist, dass bei der hier vorgeschlagenen Lösung das Gesamtergebnis der Fusion in verlässlicher- und berechenbarerweise besser wird, wenn die Performance einer der Einzelsensorkanäle verbessert wird. Es ist daher möglich, die Einzelsensorkanäle unabhängig voneinander zu optimieren.
Ferner ermöglicht es die vorgeschlagene Lösung, bestimmte KPIs (Key-Performance- Indicators) der Einzelsensorkanäle direkt aus den End-to-End-KPIs der Gesamtfunktion abzuleiten, da hierbei die Reaktion des Fahrzeugs ausschlaggebend ist. Wenn beispielsweise ein KPI zur Bestimmung der Falsch-Positiv Rate der Bremsung des Egofahrzeugs auf Grund eines Vorder-Objekts vorliegt, so ist direkt bekannt auf Grund welchem bzw. welcher Sensoreinzelkanäle ein gewisser Fehler verursacht wurde. Dadurch lassen sich Verbesserung rascher durchführen. Bei einem klassischen Fusionsansatz ist es deutlich schwieriger, insbesondere automatisiert, zu bestimmen, auf Grund welches Einzelsensors das Gesamtergebnis einen Fehler hat.
Hinsichtlich der Gesamtentscheidung wird darauf hingewiesen, dass dieser kein rein binärer Trigger (wie z.B. „bremsen“ oder „nicht bremsen“) sein muss. Vielmehr können gemäß einigen Ausführungsvarianten auch verallgemeinerte und z. B. abgestufte T rigger der Art „T rigger Stufe 1“, „Trigger Stufe 2“ usw. definiert sein, die z.B. einen Grad der Dringlichkeit einer Bremsung widerspiegeln. Erkennen zwei Sensoren die Notwendigkeit einer starken Bremsung („Trigger Stufe 1“), so wird das Fahrzeug beispielweise mit bis zu 7 m/sA2 verzögert. Bestätigen hingegen drei Sensoren die Notwendigkeit einer starken Bremsung („T rigger Stufe 2“), so wird das Fahrzeug beispielsweise mit bis zu 10 m/sA2 verzögert.
Allgemein lässt sich die hier vorgeschlagene Lösung gut mit einer klassischen, komfortorientierten Fusion kombinieren. Dabei kann z.B. vorgesehen sein, dass ein entsprechend der Gesamtentscheidung gesetzter Bremstrigger in seltenen Notsituationen eine Komfort-Trajektorie überschreibt. Dadurch kann beispielsweise auch eine Reaktionszeit verkürzt werden. Ein zweiter Erfindungsaspekt ist eine (Daten-)Verarbeitungseinrichtung, die zum Durchführen eines computerimplementierten Verfahrens gemäß dem ersten Erfindungsaspekt eingerichtet ist. Dementsprechend können Ausführungsformen des erfindungsgemäßen Verfahrens den in diesem Dokument beschriebenen Ausführungsformen der erfindungsgemäßen Verarbeitungseinrichtung entsprechen und umgekehrt.
Die Verarbeitungseinrichtung kann einen oder mehrere Prozessoren oder Mikrocontroller umfassen, die mittels eines geeigneten Computerprogramms zum Durchführen des computerimplementierten Verfahrens eingerichtet sind. Es kann sich gemäß einigen Ausführungsformen auch um eine räumlich (z.B. über mehrere beabstandete Prozessoren oder Mikrocontroller) verteilte Verarbeitungseinrichtung handeln.
Gemäß einer Ausführungsform des ersten Erfindungsaspekts und/oder des zweiten Erfindungsaspekts umfasst das Auswerten das Bestimmen auf Basis der jeweiligen Umfeldsensordaten, ob und ggf. welche Objekte und/oder Hindernisse für die Fahrzeugführung relevant sind. Beispielsweise kann dabei jeweils eine Zielobjektauswahl aus einer sensorspezifischen, d.h. auf den jeweiligen Umfeldsensordaten beruhenden und nicht etwa bereits fusionierten, Objektliste vorgenommen werden.
Gemäß einer Ausführungsform wird die Fusion der sensorspezifischen Entscheidungen in der Weise ausgeführt, dass die Gesamtentscheidung getroffen wird, einen bestimmten Eingriff in die Fahrzeugführung auszuführen, wenn wenigstens eine der sensorspezifischen Entscheidungen dahin geht, dass der Eingriff ausgeführt werden soll. Das kann z.B. bedeuten, dass eine Bremsung ausgeführt wird, wenn wenigstens einer der Umfeldsensoren ein kritisches Objekt (d.h. ein Objekt, das eine Bremsung nötig macht) erkannt hat, unabhängig davon, ob weitere Umfeldsensoren dies bestätigen. Falls also z.B. in einem ersten Einzelsensorkanal ein Bremstrigger gesetzt wird, so wird im Ergebnis definitiv gebremst, unabhängig davon, ob über einen zweiten Einzelsensorkanal auch ein Bremstrigger ausgelöst wird oder nicht. Wenn die sensorspezifischen Entscheidungen zweier Umfeldsensoren in dieser Weise fusioniert werden, kann dies auch als eine „1-out-of-2-Fusionsstrategie“ bezeichnet werden, wie weiter oben bereits erwähnt. Im Falle einer höheren Anzahl n beteiligter Umfeldsensoren kann entsprechend auch von einer „1-out-of-n-Fusionsstrategie“ die Rede sein. Hierbei ist vorteilhaft, dass es nicht dazu kommen kann, dass eine Fusion eines durch einen ersten Sensor erfassten kritischen Objekts mit einem weiteren, von einem zweiten Sensor erfassten Objekt zu einem unkritischen Objekt führt. „Kritisch“ kann dabei z.B. bedeuten, dass in Reaktion auf das Objekt eine unmittelbare Notbremsung eingeleitet werden muss. Wenn also ein zweiter Umfeldsensor ein weniger kritisches Objekt meldet, das z.B. weiter entfernt ist und sich mit höherer Geschwindigkeit in Fahrtrichtung des Fahrzeugs bewegt, dann wird die Fusion den Zustand des von dem ersten Sensor erfassten Objekts nicht insofern ändern, dass ein unkritisches Objekt resultiert. Bei herkömmlichen Objekt-Fusionsalgorithmen ist dies hingegen nicht ausgeschlossen, weil dabei häufig ein fusioniertes Objekt (z.B. mittels eines Kalman-Filters) getrackt wird, wobei ein Zustand des fusionierten Objekts auf der Grundlage von Zuständen von durch die Einzelsensoren erfassten Objekten aktualisiert wird.
Bei herkömmlichen fusionsbasierten Lösungen kann es ferner dazu kommen, dass Objekte durch die einzelnen Umfeldsensoren zwar an sich korrekt geschätzt werden, aber falsch assoziiert werden, da die Assoziation von Einzelsensorobjekten untereinander bzw. zu einem fusionierten Objekt nicht immer eindeutig ist. Bei der hier vorgeschlagenen Lösung sind Fehler der Fahrassistenzfunktion, die auf derartigen falschen Objektassoziationen bei der Objektfusion resultieren, ausgeschlossen.
Je nach einer verfügbaren Anzahl von Umfeldsensoren und/oder je nach einer relativen Gewichtung von Falsch-Negativ-Fehlern und Falsch-Positiv-Fehlern bei der Optimierung der Fahrassistenzfunktion können alternativ zu oder neben den beschriebenen 1-out-of-n- Fusionsstrategien weitere Fusionsstrategien zum Einsatz kommen. Beispielsweise werden gemäß einer weiteren Ausführungsform Umfeldsensordaten von wenigstens drei, insbesondere wenigstens vier (vorzugsweise verschiedenartigen) Umfeldsensoren ausgewertet. Dabei wird die Fusion der resultierenden sensorspezifischen Entscheidungen in der Weise ausgeführt, dass die Gesamtentscheidung getroffen wird, einen bestimmten Eingriff in die Fahrzeugführung auszuführen, wenn wenigstens zwei der sensorspezifischen Entscheidungen dahin gehen, dass der Eingriff ausgeführt werden soll (sog. „2-out-of-3- Fusionsstrategie“ bzw. „2-out-of-4-Fusionsstrategie“ oder allgemein „,,2-out-of-n- Fusionsstrategie“). Beispielsweise kann vorgesehen sein, dass das Fahrzeug nur dann ein Bremsmanöver oder z.B. ein Ausweichmanöver nach links ausführt, wenn wenigstens zwei Einzelsensorkanäle zu dem Ergebnis kommen, dass dies aufgrund des von ihnen jeweils erfassten Fahrzeugumfelds erforderlich ist.
Gemäß einer Ausführungsform sind an einer 2-out-of-3-Fusionsstrategie drei Umfeldsensoren in Form einer Frontkamera, eines Fernbereichsradars (Englisch: Full range radar - FRR) sowie eines Lidar-Sensors beteiligt. Bei einer anderen Ausführungsvariante ist zusätzlich zu den drei vorstehend genannten Umfeldsensoren ein Nahbereichsradar (Englisch: Short range radar - SRR) vorgesehen, wobei mittels der vier Einzelsensorkanäle eine 2-out-of-4- Fusionsstrategie umgesetzt wird.
Bei einer 2-out-of-n-Fusionsstrategie ist vorteilhaft, dass ein Falsch-Positiv-Fehler in einem einzigen Einzelsensorkanal nicht auf die Gesamtfunktion durchschlägt, sodass z.B. die Häufigkeit unnötiger Bremseingriffe reduziert werden kann. Mit anderen Worten kann durch eine solche Fusionsstrategie eine Falsch-Positiv-Robustheit der Fahrassistenzfunktion verbessert werden.
Es liegt auch im Rahmen der Erfindung, dass eine oder mehrere 1-out-of-n-Fusionsstrategien und/oder eine oder mehrere 2-out-of-n-Fusionsstrategien mit einer bestimmten jeweiligen Gewichtung miteinander kombiniert werden können, etwa um einen gewünschten Kompromiss zwischen einer Falsch-Negativ-Robustheit und einer Falsch-Positiv-Robustheit der Fahrassistenzfunktion zu erzielen.
Als weitere Fusionsstrategien sind auch Rekursionen aus mehreren m-out-of-n- Fusionsstrategien, wie z.B. mehreren 1-out-of-n oder 2-out-of-n-Fusionsstrategien möglich. Beispielsweise kann im Fall von (wenigstens) drei vorhandenen Einzelsensorkanälen zunächst auf zwei der drei Einzelsensorkanäle eine 2-out-of-2-Fusionsstrategie angewendet werden, gefolgt von einer 1-out-of-2-Fusionsstrategie, welche auf das Ergebnis der 2-out-of- 2-Fusionsstrategie und einen weiteren der Einzelsensorkanäle angewendet wird. In kompakter Notation kann dies auch geschrieben werden als ,,1-out-of-(2-out-of-2)“ oder ,,1oo(2oo2)“.
Ein dritter Erfindungsaspekt ist ein Fahrassistenzsystem (FAS), welches mindestens zwei (bevorzugt verschiedenartige) Umfeldsensoren und eine Verarbeitungseinrichtung gemäß dem zweiten Erfindungsaspekt umfasst. Dabei ist die Verarbeitungseinrichtung eingerichtet ist, Umfeldsensordaten von den mindestens zwei Umfeldsensoren entsprechend dem Verfahren gemäß dem ersten Erfindungsaspekt zu empfangen, auszuwerten und zu fusionieren und in Abhängigkeit von der Gesamtentscheidung das Steuersignal zum Ausführen des Eingriffs in die Fahrzeugführung zu erzeugen.
Gemäß einer Weiterbildung umfasst das FAS ferner eine Aktuatorik, die eingerichtet ist, in Abhängigkeit von dem Steuersignal den entsprechenden Eingriff in die Fahrzeugführung umzusetzen. Die Aktuatorik kann insbesondere eine Längsführungsaktuatorik, wie z.B. eine Bremseinrichtung und einen Antriebsstrang, und/oder eine Querführungsaktuatorik, wie z.B. eine Lenkung, umfassen.
Gemäß einer Ausführungsform des dritten Erfindungsaspekts umfassen die mindestens zwei Umfeldsensoren mindestens zwei unterschiedliche Elemente aus der folgenden Liste: Eine Kamera; einen Radar-Sensor; einen Lidar-Sensor; einen Ultraschall-Sensor. Die Kamera kann insbesondere eine optische Kamera, wie z.B. eine optische Frontkamera des Fahrzeugs, sein. Denkbar ist aber auch z.B. der Einsatz einer Infrarotkamera. Bei dem Radar-Sensor kann es sich z.B. um ein Fernbereichsradar (FRR) oder um ein Nahbereichsradar (SRR) handeln.
Bei der hier vorgeschlagenen, auf mehreren unabhängigen Einzelsensorkanälen basierenden Lösung, ist ferner vorteilhaft, dass eine für den jeweiligen Einzelsensor optimierte Bewertung der Kritikalität erfasster Objekte unter Berücksichtigung von spezifischen Stärken und Schwächen des Einzelsensors erfolgen kann. Beispielsweise lassen sich ein Abstand eines Objekts von dem Fahrzeug sowie eine Geschwindigkeit des Objekts mittels einer Kamera nur vergleichsweise ungenau schätzen. Sehr gut hingegen lässt sich mittels einer Kamera eine Spurzuordnung und eine Time-to-Collision (TTC) schätzen. Dementsprechend kann man für diesen Pfad, d.h. auf dem zu der Kamera gehörenden Einzelsensorkanal, eine Zielobjektauswahl im Kamerabild durchführen sowie die Bremstrigger-Auswertung basierend auf der TTC durchführen. Für abstandsmessende Sensoren wie Radar- oder Lidarsensoren wiederum kann die Zielobjektauswahl auf Basis von Abstand und Geschwindigkeit in Kombination mit Kartendaten erfolgen.
Ein vierter Erfindungsaspekt ist ein Computerprogramm, umfassend Befehle, die bei der Ausführung des Computerprogramms durch eine Verarbeitungseinrichtung diese veranlassen, ein Verfahren nach dem ersten Erfindungsaspekt auszuführen. Dabei kann das Computerprogramm auch auf mehrere separate Teilprogramme, aufgeteilt sein, die jeweils auf verschiedenen, ggf. räumlich voneinander entfernten Verarbeitungseinrichtungen (wie z.B. mehreren separaten Prozessoren) ausgeführt werden können.
Beispielsweise kann ein FAS gemäß dem dritten Erfindungsaspekt eine oder mehrere Verarbeitungsvorrichtungen umfassen, auf denen ein Computerprogramm gemäß dem vierten Erfindungsaspekt ausführbar ist.
Ein fünfter Erfindungsaspekt ist ein computerlesbares Speichermedium, umfassend Befehle, die bei der Ausführung durch eine (ggf. verteilte) Verarbeitungseinrichtung diese veranlassen, ein Verfahren gemäß dem ersten Erfindungsaspekt auszuführen. Mit anderen Worten kann auf dem computerlesbaren Speichermedium ein Computerprogramm gemäß dem vierten Erfindungsaspekt gespeichert sein.
Ein sechster Erfindungsaspekt ist ein Fahrzeug mit einem FAS gemäß dem dritten Erfindungsaspekt.
Die Erfindung wird nun anhand von Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. Dabei sind die vorstehend oder nachfolgend in der Beschreibung genannten und/oder in den Zeichnungen alleine gezeigten Merkmale und Merkmalskombinationen nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.
Fig. 1 veranschaulicht beispielhaft und schematisch einen im Stand der Technik bekannten Verfahrensablauf zum Steuern einer Fahrassistenzfunktion.
Fig. 2 veranschaulicht schematisch einen Verfahrensablauf zum Steuern einer Fahrassistenzfunktion gemäß einem Ausführungsbeispiel.
Fig. 3 veranschaulicht schematisch ein Verfahren zum Steuern einer Fahrassistenzfunktion.
Fig. 4 veranschaulicht schematisch ein Fahrerassistenzsystem.
Fig. 1 veranschaulicht beispielhaft und schematisch einen im Stand der Technik bekannten Verfahrensablauf zum Steuern einer Fahrassistenzfunktion. Dabei werden von zwei Umfeldsensoren („Sensor 1“ und „Sensor 2“) jeweils Objektdaten bereitgestellt, beispielsweise in Form einer jeweiligen Objektliste. Sodann wird eine Objektfusion ausgeführt, wobei die Objektlisten zu einer gemeinsamen Objektliste fusioniert werden. Die Fahrassistenzfunktion arbeitet dann auf der Grundlage der fusionierten Objektliste. Im Rahmen einer Zielobjektauswahl wird basierend auf der fusionierten Objektliste ein für die Fahrzeugführung unmittelbar relevantes Objekt ausgewählt, und es wird mit Blick auf das relevante Objekt entschieden, ob eine Systemreaktion, d.h. beispielsweise eine Bremsung, erfolgen soll. In diesem Fall wird ein Bremstrigger gesetzt, welcher eine Bremsung des Fahrzeugs auslöst.
Demgegenüber veranschaulicht Fig. 2 schematisch ein Verfahren 2 zum Steuern einer Fahrassistenzfunktion gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Nachfolgend wird das in Fig. 2 gezeigte Ausführungsbeispiel erläutert, wobei sogleich auch ein Bezug zu den in Fig. 3 in Form eines Blockdiagramms veranschaulichten Schritten 21-24 des erfindungsgemäßen Verfahrens 2 sowie zu dem in Fig. 4 schematisch dargestellten FAS 1 hergestellt wird. Dabei umfasst das FAS 1 gemäß Fig. 4 zwei Umfeldsensoren 11, 12 sowie eine Verarbeitungseinrichtung 10, die zum Durchführen des Verfahrens 2 eingerichtet ist. Darüber hinaus kann das FAS 1 eine Aktuatorik 13 umfassen, die eingerichtet ist, einen entsprechenden Eingriff in die Fahrzeugführung umzusetzen.
Ein Schritt des Verfahrens 2 ist das Empfangen 21 von Umfeldsensordaten von mindestens zwei Umfeldsensoren 11 , 12 (entsprechend „Sensor 1“ und „Sensor 2“ in Fig. 2). Bei den Umfeldsensoren 11, 12 handelt es sich vorzugsweise um verschiedenartige, insbesondere auf unterschiedlichen physikalischen Wirkprinzipien beruhende oder in unterschiedlichen elektromagnetischen Wellenlängenbereichen operierende Sensoren, wie z.B. einerseits um eine (optische) Kamera und andererseits um einen Radar- oder Lidar-Sensor.
Ein weiterer Schritt ist das Auswerten 22 der Umfeldsensordaten daraufhin, ob ein Eingriff in die Fahrzeugführung erforderlich ist. Dabei wird jeweils eine separate Auswertung auf Basis der Umfeldsensordaten eines jeden der Umfeldsensoren 11, 12 vorgenommen und es wird eine jeweilige sensorspezifische Entscheidung über den Eingriff in die Fahrzeugführung getroffen.
Bei dem Ausführungsbeispiel gemäß Fig. 2 umfasst das Auswerten 2 insbesondere eine Zielobjektauswahl aus einer jeweiligen sensorspezifischen Objektliste und ggf. das Setzen eines sensorspezifischen Bremstriggers. Dabei wird anhand der Fig. 2 deutlich, dass diese beiden Schritte auf jedem Einzelsensorkanal separat ausgeführt werden, dass also im Unterschied zu dem in Fig. 1 gezeigten konventionellen Verfahrensablauf auf der Grundlage einer jeweiligen sensorspezifischen Sicherheitsbewertung für jeden Umfeldsensor 11 , 12 separat eine Bremsentscheidung getroffen wird.
In einem weiteren Schritt 23 erfolgt sodann eine Fusion der sensorspezifischen Entscheidungen zu einer Gesamtentscheidung über den Eingriff in die Fahrzeugführung. Bezogen auf das Ausführungsbeispiel gemäß Fig. 2 werden also die beiden sensorspezifischen Bremsentscheidungen fusioniert (und nicht etwa bereits die mehreren sensorspezifischen Objektlisten, wie in Fig. 1).
Die Fusion der sensorspezifischen Entscheidungen kann gemäß einer 1-out-of-2- Fusionsstrategie ausgeführt, d.h. in der Weise, dass die Gesamtentscheidung getroffen wird, einen bestimmten Eingriff in die Fahrzeugführung auszuführen, wenn wenigstens eine der sensorspezifischen Entscheidungen dahin geht, dass der Eingriff ausgeführt werden soll. Falls z.B. in einem ersten Einzelsensorkanal ein Bremstrigger gesetzt wird, so wird im Ergebnis definitiv gebremst, unabhängig davon, ob über einen zweiten Einzelsensorkanal auch ein Bremstrigger ausgelöst wird oder nicht.
Bei weiteren, in den Figuren nicht gesondert dargestellten Ausführungsformen mit mehr als zwei Umfeldsensoren sind auch andere Fusionsstrategien oder eine Kombination mehrerer Fusionsstrategien mit einer jeweiligen Gewichtung denkbar. So können z.B. gemäß einer bevorzugten Ausführungsform an einer 2-out-of-3-Fusionsstrategie drei Umfeldsensoren in Form einer Frontkamera, eines Fernbereichsradars (Englisch: Full range radar - FRR) sowie eines Lidar-Sensors beteiligt sein. Bei einer anderen vorteilhaften Ausführungsvariante ist zusätzlich zu den drei vorstehend genannten Umweltsensoren ein Nahbereichsradar (Englisch: Short range radar - SRR) vorgesehen, wobei mittels der vier Einzelsensorkanäle eine 2-out-of-4-Fusionsstrategie umgesetzt wird.
In einem weiteren Schritt 24 wird in Abhängigkeit von der Gesamtentscheidung ein Steuersignal zum Ausführen des Eingriffs in die Fahrzeugführung erzeugt. Dabei kann auf der Datenverarbeitungsebene z.B. ein (Gesamt-)Bremstrigger oder gesetzt werden (vgl. „Bremsen“ in Fig. 2). Das Steuersignal kann in der Folge z.B. indirekt (d.h. nach einer datentechnischen Weiterverarbeitung) oder direkt an die Längs- und/oder Querführungsaktuatorik 13 des Fahrzeugs ausgegeben werden, um den Eingriff in die Fahrzeugführung umzusetzen.

Claims

Patentansprüche
1. Computerimplementiertes Verfahren (2) zum Steuern einer Fahrassistenzfunktion eines Fahrzeugs, umfassend die Schritte:
Empfangen (21) von Umfeldsensordaten von mindestens zwei Umfeldsensoren (11 , 12);
Auswerten (22) der Umfeldsensordaten daraufhin, ob ein Eingriff in die Fahrzeugführung erforderlich ist, wobei jeweils eine separate Auswertung auf Basis der Umfeldsensordaten eines jeden der wenigstens zwei Umfeldsensoren (11 , 12) vorgenommen wird und eine jeweilige sensorspezifische Entscheidung über den Eingriff in die Fahrzeugführung getroffen wird;
Fusionieren (23) der sensorspezifischen Entscheidungen zu einer Gesamtentscheidung über den Eingriff in die Fahrzeugführung; und in Abhängigkeit von der Gesamtentscheidung, Erzeugen (24) eines Steuersignals zum Ausführen des Eingriffs in die Fahrzeugführung.
2. Verarbeitungseinrichtung (10), wobei die Verarbeitungseinrichtung (10) zum Durchführen eines Verfahrens (2) nach Anspruch 1 eingerichtet ist.
3. Verarbeitungseinrichtung (10) nach Anspruch 2, wobei das Auswerten (22) ein Bestimmen auf Basis der jeweiligen Umfeldsensordaten umfasst, ob und ggf. welche Objekte und/oder Hindernisse für die Fahrzeugführung relevant sind.
4. Verarbeitungseinrichtung (10) nach Anspruch 2 oder 3, wobei der Eingriff in die Fahrzeugführung eine Bremsung und/oder ein Ausweichmanöver des Fahrzeugs umfasst.
5. Verarbeitungseinrichtung (10) nach einem der Ansprüche 2 bis 4, wobei das Fusionieren (23) in der Weise ausgeführt wird, dass die Gesamtentscheidung getroffen wird, einen Eingriff in die Fahrzeugführung auszuführen, wenn wenigstens eine der sensorspezifischen Entscheidungen dahin geht, dass der Eingriff ausgeführt werden soll.
6. Verarbeitungseinrichtung (10) nach einem der Ansprüche 2 bis 4, wobei Umfeldsensordaten von wenigstens drei, insbesondere wenigstens vier, Umfeldsensoren ausgewertet werden und wobei das Fusionieren (23) in der Weise ausgeführt wird, dass die Gesamtentscheidung getroffen wird, einen Eingriff in die Fahrzeugführung auszuführen, wenn wenigstens zwei der sensorspezifischen Entscheidungen dahin gehen, dass der Eingriff ausgeführt werden soll.
7. Fahrassistenzsystem (1), umfassend mindestens zwei Umfeldsensoren (11, 12); eine Verarbeitungseinrichtung (10) nach einem der Ansprüche 2 bis 6, wobei die Verarbeitungseinrichtung (10) eingerichtet ist, Umfeldsensordaten von den mindestens zwei Umfeldsensoren (11, 12) zu empfangen (21), auszuwerten (22) und zu fusionieren (23) und in Abhängigkeit von der Gesamtentscheidung das Steuersignal zum Ausführen des Eingriffs in die Fahrzeugführung zu erzeugen (24).
8. Fahrassistenzsystem (1) nach Anspruch 7, wobei die mindestens zwei Umfeldsensoren (11 , 12) mindestens zwei unterschiedliche Elemente aus der folgenden Liste umfassen:
Eine Kamera; einen Radar-Sensor; einen Lidar-Sensor; einen Ultraschall-Sensor.
9. Computerprogramm, umfassend Befehle, die bei der Ausführung des Computerprogramms durch eine Verarbeitungseinrichtung (10) diese veranlassen, ein Verfahren (2) nach Anspruch 1 auszuführen.
10. Computerlesbares Speichermedium, umfassend Befehle, die bei der Ausführung durch eine Verarbeitungseinrichtung (10) diese veranlassen, ein Verfahren (2) nach Anspruch 1 auszuführen.
PCT/EP2022/075160 2021-10-15 2022-09-09 Verfahren und verarbeitungseinrichtung zum steuern einer fahrassistenzfunktion und fahrassistenzsystem WO2023061675A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021126820.6A DE102021126820A1 (de) 2021-10-15 2021-10-15 Verfahren und Verarbeitungseinrichtung zum Steuern einer Fahrassistenzfunktion und Fahrassistenzsystem
DE102021126820.6 2021-10-15

Publications (1)

Publication Number Publication Date
WO2023061675A1 true WO2023061675A1 (de) 2023-04-20

Family

ID=84044409

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/075160 WO2023061675A1 (de) 2021-10-15 2022-09-09 Verfahren und verarbeitungseinrichtung zum steuern einer fahrassistenzfunktion und fahrassistenzsystem

Country Status (2)

Country Link
DE (1) DE102021126820A1 (de)
WO (1) WO2023061675A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2840007A1 (de) * 2013-08-22 2015-02-25 Honda Research Institute Europe GmbH Konsistente Verhaltenserzeugung eines erweiterten vorhersagbaren Fahrerhilfssystems
WO2016180665A1 (de) * 2015-05-12 2016-11-17 Valeo Schalter Und Sensoren Gmbh Verfahren zum steuern einer funktionseinrichtung eines kraftfahrzeugs anhand von fusionierten sensordaten, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
US20180370540A1 (en) * 2017-06-23 2018-12-27 Nvidia Corporation Method of using a single controller (ecu) for a fault-tolerant/fail-operational self-driving system
WO2020205648A1 (en) * 2019-03-29 2020-10-08 Intel Corporation Autonomous vehicle system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020208293A1 (de) 2020-07-02 2022-01-05 Continental Automotive Gmbh Verfahren und Vorrichtung zur autonomen Trajektorienführung für ein Ego-Fahrzeug
DE102020209680B3 (de) 2020-07-31 2022-01-13 Zf Friedrichshafen Ag Signalverarbeitungspfad, Vorrichtung zur Umfelderkennung und Verfahren zur Validierung eines automatisiert betreibbaren Fahrsystems

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2840007A1 (de) * 2013-08-22 2015-02-25 Honda Research Institute Europe GmbH Konsistente Verhaltenserzeugung eines erweiterten vorhersagbaren Fahrerhilfssystems
WO2016180665A1 (de) * 2015-05-12 2016-11-17 Valeo Schalter Und Sensoren Gmbh Verfahren zum steuern einer funktionseinrichtung eines kraftfahrzeugs anhand von fusionierten sensordaten, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
US20180370540A1 (en) * 2017-06-23 2018-12-27 Nvidia Corporation Method of using a single controller (ecu) for a fault-tolerant/fail-operational self-driving system
WO2020205648A1 (en) * 2019-03-29 2020-10-08 Intel Corporation Autonomous vehicle system

Also Published As

Publication number Publication date
DE102021126820A1 (de) 2023-04-20

Similar Documents

Publication Publication Date Title
EP3181422B1 (de) Verfahren und system zur automatischen steuerung eines folgefahrzeugs mit einem scout-fahrzeug
DE102016203086B4 (de) Verfahren und Vorrichtung zur Fahrerassistenz
EP2240354B1 (de) Vorrichtung, verfahren und computerprogramm zur kollisionsvermeidung oder zur verminderung der kollisionsschwere infolge einer kollision für fahrzeuge, insbesondere nutzfahrzeuge
EP1926646B1 (de) Verfahren und vorrichtung zum durchführen eines ausweichmanövers
DE102019104974A1 (de) Verfahren sowie System zum Bestimmen eines Fahrmanövers
DE102017115988A1 (de) Modifizieren einer Trajektorie abhängig von einer Objektklassifizierung
EP3479183B1 (de) Verfahren zum betrieb eines kraftfahrzeugs in einer navigationsumgebung und kraftfahrzeug
DE102016205188A1 (de) Fahrunterstützungsvorrichtung
EP3543985A1 (de) Simulieren verschiedener verkehrssituationen für ein testfahrzeug
DE102012222301A1 (de) Verfahren und System zum Steuern eines Host-Fahrzeugs
DE102012203187A1 (de) Verfahren und Vorrichtung zur Prädiktion und Adaption von Bewegungstrajektorien von Kraftfahrzeugen
DE102019204943A1 (de) Verfahren und Vorrichtung zum teleoperierten Fahren eines Fahrzeuges
WO2016180665A1 (de) Verfahren zum steuern einer funktionseinrichtung eines kraftfahrzeugs anhand von fusionierten sensordaten, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
DE102018219376A1 (de) Verfahren zum Auswählen und beschleunigten Ausführen von Handlungsreaktionen
DE102018133457B4 (de) Verfahren und System zum Bereitstellen von Umgebungsdaten
DE112018005794T5 (de) System und Verfahren zum Steuern eines Kraftfahrzeugs zum autonomen Fahren
DE102021101225A1 (de) Autonomes Fahrzeug und Verfahren zu dessen Betrieb
WO2023012243A1 (de) System, verfahren und software zum betreiben eines fahrerassistenzsystems
WO2023061675A1 (de) Verfahren und verarbeitungseinrichtung zum steuern einer fahrassistenzfunktion und fahrassistenzsystem
WO2021069541A1 (de) Verfahren zum vorhersagen eines verhaltens eines zielfahrzeugs
DE102020120773A1 (de) Verfahren zum Ermitteln einer Ausweich-Trajektorie für ein Fahrzeug
WO2016128199A1 (de) Verfahren und system zum durchführen von automatisierten fahrmanövern
DE102018122929A1 (de) Straßenabtastverfahren
DE102019210050B4 (de) Verfahren zur Erhöhung der Sicherheit im Verkehr, Kraftfahrzeug und Computerprogrammprodukt
DE102021213429A1 (de) Verfahren zum Bereitstellen eines vollautonomen Ausweichmanöver-Steuersystems für ein Ego-Fahrzeug

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22777971

Country of ref document: EP

Kind code of ref document: A1