DE102021126820A1 - Method and processing device for controlling a driver assistance function and driver assistance system - Google Patents
Method and processing device for controlling a driver assistance function and driver assistance system Download PDFInfo
- Publication number
- DE102021126820A1 DE102021126820A1 DE102021126820.6A DE102021126820A DE102021126820A1 DE 102021126820 A1 DE102021126820 A1 DE 102021126820A1 DE 102021126820 A DE102021126820 A DE 102021126820A DE 102021126820 A1 DE102021126820 A1 DE 102021126820A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- intervention
- processing device
- vehicle
- vehicle guidance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000012545 processing Methods 0.000 title claims description 30
- 238000011156 evaluation Methods 0.000 claims abstract description 13
- 230000007613 environmental effect Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 8
- 230000004927 fusion Effects 0.000 description 49
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 6
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 6
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 101000802895 Dendroaspis angusticeps Fasciculin-1 Proteins 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0098—Details of control systems ensuring comfort, safety or stability not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0097—Predicting future conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0062—Adapting control system settings
- B60W2050/0075—Automatic parameter input, automatic initialising or calibrating means
- B60W2050/009—Priority selection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/35—Data fusion
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
Abstract
Ein computerimplementiertes Verfahren (2) zum Betreiben einer Fahrassistenzfunktion eines Fahrzeugs, umfasst die Schritte: Empfangen (21) von Umfeldsensordaten von mindestens zwei Umfeldsensoren; Auswerten (22) der Umfeldsensordaten daraufhin, ob ein Eingriff in die Fahrzeugführung erforderlich ist, wobei jeweils eine separate Auswertung auf Basis der Umfeldsensordaten eines jeden der wenigstens zwei Umfeldsensoren vorgenommen wird und eine jeweilige sensorspezifische Entscheidung über den Eingriff in die Fahrzeugführung getroffen wird; Fusionieren (23) der sensorspezifischen Entscheidungen zu einer Gesamtentscheidung über den Eingriff in die Fahrzeugführung; und in Abhängigkeit von der Gesamtentscheidung, Erzeugen (24) eines Steuersignals zum Ausführen des Eingriffs in die Fahrzeugführung.A computer-implemented method (2) for operating a driver assistance function of a vehicle, comprising the steps of: receiving (21) surroundings sensor data from at least two surroundings sensors; Evaluation (22) of the surroundings sensor data as to whether an intervention in the vehicle guidance is necessary, a separate evaluation being carried out on the basis of the surroundings sensor data of each of the at least two surroundings sensors and a respective sensor-specific decision being made about the intervention in the vehicle guidance; Merging (23) the sensor-specific decisions into an overall decision on the intervention in vehicle guidance; and depending on the overall decision, generating (24) a control signal for carrying out the intervention in the vehicle guidance.
Description
Die Erfindung betrifft ein Verfahren und eine Verarbeitungseinrichtung zum Steuern einer Fahrassistenzfunktion eines Fahrzeugs. Darüber hinaus betrifft die Erfindung eine Software mit Programmcode zur Durchführung eines solchen Verfahrens, wenn die Software auf einer softwaregesteuerten Verarbeitungseinrichtung abläuft, sowie ein computerlesbares (Speicher)medium mit einer solchen Software.The invention relates to a method and a processing device for controlling a driver assistance function of a vehicle. In addition, the invention relates to software with program code for carrying out such a method when the software runs on a software-controlled processing device, as well as a computer-readable (storage) medium with such software.
Die Erfindung kann insbesondere im Rahmen eines Fahrassistenzsystems (FAS) eingesetzt werden, wobei die Längs- und/oder Querführung des Fahrzeugs in der Weise geregelt wird, dass eine durch das FAS vorgegebene Fahraufgabe erfüllt wird. Dabei kann das FAS ein wenigstens teilweise automatisiertes Fahren, ggf. bis hin zum vollautomatisierten Fahren, ermöglichen.The invention can be used in particular as part of a driver assistance system (DAS), the longitudinal and/or lateral guidance of the vehicle being controlled in such a way that a driving task specified by the ADAS is fulfilled. The ADAS can enable at least partially automated driving, possibly up to fully automated driving.
Unter dem Begriff „automatisiertes Fahren“ wird im Rahmen des Dokuments ein Fahren mit automatisierter Längs- und/oder Querführung verstanden. Beim automatisierten Fahren kann es sich beispielsweise um ein zeitlich längeres Fahren auf der Autobahn oder um ein zeitlich begrenztes Fahren im Rahmen des Einparkens handeln. Der Begriff „automatisiertes Fahren“ umfasst automatisiertes Fahren mit einem beliebigen Automatisierungsgrad. Beispielhafte Automatisierungsgrade sind assistiertes, teilautomatisiertes, hochautomatisiertes, vollautomatisiertes und autonomes Fahren (mit jeweils zunehmendem Automatisierungsgrad). Die vorstehend genannten fünf Automatisierungsgrade entsprechen den SAE-Leveln 1 bis 5 der Norm SAE J3016 (SAE - Society of Automotive Engineering). Beim assistierten Fahren (SAE-Level 1) führt das System die Längs- oder Querführung in bestimmten Fahrsituationen durch. Beim teilautomatisierten Fahren (SAE-Level 2) übernimmt das System die Längs- und Querführung in bestimmten Fahrsituationen, wobei der Fahrer das System wie beim assistierten Fahren dauerhaft überwachen muss. Beim hochautomatisierten Fahren (SAE-Level 3) übernimmt das System die Längs- und Querführung in bestimmten Fahrsituationen, ohne dass der Fahrer das System dauerhaft überwachen muss; der Fahrer muss aber innerhalb einer gewissen Zeit in der Lage sein, die Fahrzeugführung auf Anforderung durch das System zu übernehmen. Beim vollautomatisierten Fahren (SAE-Level 4) übernimmt das System die Fahrzeugführung in bestimmten Fahrsituationen, selbst wenn der Fahrer auf eine Anforderung zum Eingreifen nicht reagiert, so dass der Fahrer als Rückfallebene entfällt. Beim autonomen Fahren (SAE-Level 5) können vom System alle Aspekte der dynamischen Fahraufgabe unter jeder Fahrbahn- und Umgebungsbedingung durchgeführt werden, welche auch von einem menschlichen Fahrer beherrscht werden. Der SAE-Level 5 entspricht somit einem fahrerlosen Fahren, bei dem das System während der ganzen Fahrt alle Situationen wie ein menschlicher Fahrer automatisch bewältigen kann; ein Fahrer ist generell nicht mehr erforderlich.In the context of the document, the term "automated driving" means driving with automated longitudinal and/or lateral guidance. Automated driving can, for example, involve driving on the freeway for a longer period of time or driving for a limited period of time when parking. The term "automated driving" includes automated driving with any degree of automation. Exemplary degrees of automation are assisted, partially automated, highly automated, fully automated and autonomous driving (with an increasing degree of automation in each case). The five levels of automation mentioned above correspond to
Einige Fahrassistenzfunktionen müssen zuverlässig zur Bewältigung sicherheitsrelevanter Szenarien, wie z.B. einer plötzlichen Bremsung des Vorderfahrzeugs, ausgelegt sein. Bei konventionellen FAS beruht eine Systemreaktion, beispielsweise eine automatische Bremsung auf ein Objekt, auf einem Umfeldmodell, welches auf der Grundlage von Umfeldsensordaten mehrerer Umfeldsensoren ermittelt wird. Üblicherweise erfolgt dabei eine Fusion der verschiedenen Umfeldsensoren, bevor eine Systementscheidung getroffen wird. Zum Beispiel werden mehrere Objektlisten, die jeweils aus den Umfeldsensordaten von einem der Umfeldsensoren berechnet worden sind, zu einer gemeinsamen Objektliste fusioniert. Bei der Objektfusion können die jeweiligen Stärken und Schwächen der einzelnen Umfeldsensoren genutzt bzw. berücksichtigt werden. Die Fahrassistenzfunktion arbeitet dann nur mehr mit dieser möglichst verlässlichen fusionierten Objektliste. Konkret wird z.B. basierend auf der fusionierten Objektliste ein für die Fahrzeugführung unmittelbar relevantes Objekt (bzw. mehrere relevante Objekte) ausgewählt und es wird mit Blick auf das relevante Objekt entschieden, ob eine Systemreaktion, d.h. beispielsweise eine Bremsung, erfolgen soll.Some driver assistance functions must be reliably designed to deal with safety-relevant scenarios, such as sudden braking of the vehicle in front. In conventional ADAS, a system reaction, for example automatic braking to an object, is based on an environment model which is determined on the basis of environment sensor data from a number of environment sensors. A fusion of the various environmental sensors usually takes place before a system decision is made. For example, several object lists, each of which has been calculated from the surroundings sensor data from one of the surroundings sensors, are merged into a common object list. During the object fusion, the respective strengths and weaknesses of the individual environment sensors can be used or taken into account. The driver assistance function then only works with this fused object list that is as reliable as possible. Specifically, based on the merged object list, for example, an object (or several relevant objects) that is directly relevant to driving the vehicle is selected and a decision is made with regard to the relevant object as to whether a system reaction, i.e. braking, for example, should take place.
Bei der Entwicklung und Absicherung derartiger Fahrassistenzfunktionen, insbesondere ab dem SAE-Level 3, stellt sich jedoch die Herausforderung, die aus Gründen der Sicherheit erforderlichen außerordentlich niedrigen Fehlerraten statistisch abzusichern. Beispielsweise wäre es praktisch nahezu unmöglich oder jedenfalls nicht wirtschaftlich, ein bestimmtes sicherheitsrelevantes Szenario millionenfach real auf einem Testgelände einzufahren, um den Nachweis zu erbringen, dass dabei z.B. nur maximal ein Fehler auftritt.However, when developing and validating such driver assistance functions, especially from SAE Level 3, the challenge arises of statistically validating the extraordinarily low error rates required for safety reasons. For example, it would be almost impossible in practice or at least not economical to run a certain safety-relevant scenario millions of times on a test site in order to prove that, for example, only a maximum of one error occurs.
Hiervon ausgehend ist es eine Aufgabe der vorliegenden Erfindung, ein insbesondere hinsichtlich der Möglichkeiten zur statistischen Absicherung sehr geringer Fehlerraten verbessertes Konzept zum Steuern einer Fahrassistenzfunktion anzugeben.Proceeding from this, it is an object of the present invention to specify a concept for controlling a driver assistance function that is improved in particular with regard to the possibilities for statistically safeguarding very low error rates.
Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsformen sind in den abhängigen Ansprüchen angegeben.The object is solved by the subject matter of the independent patent claims. Advantageous embodiments are specified in the dependent claims.
Es wird darauf hingewiesen, dass zusätzliche Merkmale eines von einem unabhängigen Patentanspruch abhängigen Patentanspruchs ohne die Merkmale des unabhängigen Patentanspruchs oder nur in Kombination mit einer Teilmenge der Merkmale des unabhängigen Patentanspruchs eine eigene und von der Kombination sämtlicher Merkmale des unabhängigen Patentanspruchs unabhängige Erfindung bilden können, die zum Gegenstand eines unabhängigen Patentanspruchs, einer Teilungsanmeldung oder einer Nachanmeldung gemacht werden kann. Dies gilt in gleicher Weise für in der Beschreibung erläuterte technische Lehren, die eine von den Merkmalen der unabhängigen Patentansprüche unabhängige Erfindung bilden können.It is pointed out that additional features of a claim dependent on an independent claim without the features of the independent claim or only in combination with a subset of the features of the independent patent claim can form a separate invention independent of the combination of all features of the independent patent claim, which can be made the subject of an independent patent claim, a divisional application or a subsequent application. This applies equally to the technical teachings explained in the description, which can form an invention independent of the features of the independent patent claims.
Ein erster Aspekt der Erfindung betrifft ein computerimplementiertes Verfahren zum Steuern einer Fahrassistenzfunktion eines Fahrzeugs.A first aspect of the invention relates to a computer-implemented method for controlling a driver assistance function of a vehicle.
Dabei kann die Fahrassistenzfunktion eine Funktion eines Fahrassistenzsystem (FAS) eines Fahrzeugs sein. Das Fahrzeug kann insbesondere ein Kraftfahrzeug sein. Unter dem Begriff Kraftfahrzeug soll dabei insbesondere ein Landfahrzeug, das durch Maschinenkraft bewegt wird, ohne an Bahngleise gebunden zu sein, verstanden werden. Ein Kraftfahrzeug in diesem Sinne kann z.B. als Kraftwagen, Kraftrad oder Zugmaschine ausgebildet sein.The driver assistance function can be a function of a driver assistance system (DAS) of a vehicle. The vehicle can in particular be a motor vehicle. The term motor vehicle is to be understood in particular as meaning a land vehicle that is moved by machine power without being tied to railroad tracks. A motor vehicle in this sense can, for example, be designed as a motor vehicle, motorcycle or tractor.
Die Fahrassistenzfunktion kann insbesondere im Rahmen eines wenigstens teilweise automatisierten Fahrens des Fahrzeugs ausgeführt werden. Beispielsweise kann es sich um eine ACC-Funktion (d.h. eine kombinierte Geschwindigkeits- und Abstandsregelung), einen Lenk- und Spurführungsassistenten (LSA), einen Ausweichassistenten (AWA), eine Spurwechselassistenzfunktion (SWA), eine Parkassistenzfunktion oder dergleichen handeln. The driving assistance function can be carried out in particular as part of an at least partially automated driving of the vehicle. For example, it can be an ACC function (i.e. a combined speed and distance control), a steering and lane guidance assistant (LSA), an avoidance assistant (AWA), a lane change assistant function (SWA), a parking assistant function or the like.
Ein Schritt des Verfahrens ist das Empfangen von Umfeldsensordaten von mindestens zwei Umfeldsensoren. Dabei kann es sich bei den Umfeldsensoren oder bei einigen der Umfeldsensoren um verschiedenartige Sensoren, insbesondere um auf unterschiedlichen physikalischen Wirkprinzipien beruhende oder in unterschiedlichen elektromagnetischen Wellenlängenbereichen operierende Sensoren, wie z.B. einerseits eine (optische) Kamera und andererseits einen Radar- oder Lidar-Sensor, handeln.One step of the method is receiving surroundings sensor data from at least two surroundings sensors. The environment sensors or some of the environment sensors can be different types of sensors, in particular sensors based on different physical principles or operating in different electromagnetic wavelength ranges, such as an (optical) camera on the one hand and a radar or lidar sensor on the other .
Ein weiterer Schritt ist das Auswerten der Umfeldsensordaten daraufhin, ob ein Eingriff in die Fahrzeugführung erforderlich ist. Damit ist gemeint, dass ausgewertet wird, ob im Rahmen der Fahrassistenzfunktion aufgrund des durch die jeweiligen Umfeldsensordaten beschriebenen Fahrzeugumfelds eine bestimmte Betätigung einer Längs- und oder Querführungsaktuatorik des Fahrzeugs, wie z.B. eine Bremsung und/oder ein Ausweichmanöver in Reaktion auf ein im Fahrzeugumfeld erfasstes Objekt oder Hindernis, ausgeführt werden soll.A further step is the evaluation of the environmental sensor data to determine whether intervention in vehicle guidance is required. This means that it is evaluated whether, as part of the driver assistance function, based on the vehicle environment described by the respective environment sensor data, a specific actuation of a longitudinal and/or lateral control actuator system of the vehicle, such as braking and/or an evasive maneuver in response to an object detected in the vehicle environment or obstacle to be executed.
Verfahrensgemäß ist dabei vorgesehen, dass jeweils eine separate Auswertung auf Basis der Umfeldsensordaten eines jeden der wenigstens zwei Umfeldsensoren vorgenommen wird und eine jeweilige sensorspezifische Entscheidung über den Eingriff in die Fahrzeugführung getroffen wird. Mit anderen Worten sind auf der Datenverarbeitungsebene mehrere separate logische Kanäle für eine Auswertung der (jeweiligen) Umfeldsensordaten und eine darauf basierende Entscheidungsfindung betreffend die Fahrzeugführung vorgesehen. Diese logischen Kanäle können auch als Einzelsensorkanäle bezeichnet werden. Dabei ist jeder der Einzelsensorkanäle nur einem einzigen Umfeldsensor zugeordnet und nicht etwa bereits mehreren, ggf. verschiedenartigen Umfeldsensoren, deren Umfeldsensordaten bereits vor der Entscheidung des Einzelsensorkanals über den Eingriff in die Fahrzeugführung fusioniert werden.According to the method, it is provided that a separate evaluation is carried out on the basis of the surroundings sensor data of each of the at least two surroundings sensors and a respective sensor-specific decision is made about the intervention in vehicle guidance. In other words, several separate logical channels are provided on the data processing level for an evaluation of the (respective) environment sensor data and a decision-making process based thereon relating to vehicle guidance. These logical channels can also be referred to as individual sensor channels. In this case, each of the individual sensor channels is only assigned to a single environment sensor and not to several, possibly different, environment sensors whose environment sensor data are already merged before the decision of the individual sensor channel about the intervention in the vehicle guidance.
Ein weiterer Schritt ist das Fusionieren der (mindestens zwei) sensorspezifischen Entscheidungen zu einer Gesamtentscheidung über den Eingriff in die Fahrzeugführung. Die Gesamtentscheidung kann insbesondere zum Gegenstand haben, ob ein bestimmter Eingriff in die Fahrzeugführung, wie etwa eine Bremsung oder ein Ausweichmanöver, ausgeführt werden soll oder nicht.A further step is the merging of the (at least two) sensor-specific decisions into an overall decision on the intervention in vehicle guidance. The overall decision can relate in particular to whether or not a specific intervention in vehicle guidance, such as braking or an evasive maneuver, should be carried out.
In einem weiteren Schritt wird in Abhängigkeit von der Gesamtentscheidung ein Steuersignal zum Ausführen des Eingriffs in die Fahrzeugführung erzeugt. Dabei kann auf der Datenverarbeitungsebene z.B. ein Bremstrigger oder ein Ausweichtrigger gesetzt werden. Das Steuersignal kann in der Folge indirekt (d.h. nach einer datentechnischen Weiterverarbeitung) oder direkt an eine Längs- und/oder Querführungsaktuatorik des Fahrzeugs ausgegeben werden, um den Eingriff in die Fahrzeugführung entsprechend der Gesamtentscheidung umzusetzen.In a further step, depending on the overall decision, a control signal for carrying out the intervention in vehicle guidance is generated. For example, a braking trigger or an evasion trigger can be set on the data processing level. The control signal can then be output indirectly (i.e. after further data processing) or directly to a longitudinal and/or lateral control actuator of the vehicle in order to implement the intervention in the vehicle control in accordance with the overall decision.
Die Erfindung beruht auf dem Gedanken, dass eine statistische Absicherung der Performance einer sensorbasierten Fahrerassistenzfunktion erleichtert wird, wenn zunächst unabhängig voneinander mehrere sensorspezifische Entscheidungen über einen Eingriff in die Fahrzeugführung getroffen werden und die mehreren sensorspezifischen Entscheidungen sodann zu einer Gesamtentscheidung fusioniert werden. Beispielsweise können auf der Datenverarbeitungsebene im Rahmen von mehreren, voneinander unabhängigen Einzelsensorkanälen, welche jeweils einem Umfeldsensor zugeordnet sind, die jeweils als relevant erkannten Objekte ausgewählt und auf ihre Kritikalität, d.h. z.B. insbesondere auf die Notwendigkeit, dass das Fahrzeug in Reaktion auf das Objekt bremst, geprüft werden. Sodann kann jeweils ein entsprechender Bremstrigger gesetzt werden. Eine Fusion erfolgt dann erst auf der Ebene dieser sensorspezifischen Bremstrigger entsprechend einer festgelegten Fusionsstrategie, etwa einer „1-out-of-2-Fusionsstrategie“ oder einer „2-out-of-4-Fusionsstrategie“, wie weiter unten ausführlicher erläutert wird.The invention is based on the idea that statistical validation of the performance of a sensor-based driver assistance function is made easier if several sensor-specific decisions about an intervention in vehicle guidance are first made independently of one another and the several sensor-specific decisions are then merged into one overall decision. For example, at the data processing level, within the framework of several independent individual sensor channels, each of which is assigned to an environment sensor, the objects recognized as relevant can be selected and their criticality, ie for example in particular the need for the vehicle to Response to the object brakes, be checked. A corresponding brake trigger can then be set in each case. A fusion then only takes place at the level of these sensor-specific brake triggers according to a defined fusion strategy, such as a "1-out-of-2 fusion strategy" or a "2-out-of-4 fusion strategy", as will be explained in more detail below.
Die Verwendung derartiger Fusionskonzepte ermöglicht es, eine Anforderung an die Fahrassistenzfunktion, wie z.B. eine einzuhaltende maximale Gesamtfehlerrate, auf die mehreren Einzelsensorkanäle herunter zu brechen und sie dadurch in der Praxis gut beherrschbar zu machen. Dieser Vorgang kann auch als eine Dekomposition der Anforderung bezeichnet werden. Wenn z.B. eine 1-out-of-2-Fusionsstrategie verwendet wird und ferner angenommen werden kann, dass die einzelnen Umfeldsensorfehler statistisch unabhängig sind, so lässt sich eine maximale Gesamtfehlerrate (etwa eine Gesamtrate von Falsch-Negativ-Fehlern, d.h. z.B. nicht erfolgten Bremsungen, wenn dies erforderlich gewesen wäre) von 1/1000000 absichern, wenn für jeden der beiden Umfeldsensoren jeweils eine maximale Fehlerrate von 1/1000 nachgewiesen wird. In der Praxis entspricht dies einer sehr deutlichen Reduktion des Absicherungsaufwands, da man lediglich die Performance der Einzelsensoren absichern muss. Dadurch kann z.B. eine Anzahl von auf einem Testgelände zu fahrenden Szenarien drastisch reduziert werden.The use of such fusion concepts makes it possible to break down a requirement on the driver assistance function, such as a maximum overall error rate to be maintained, to the multiple individual sensor channels and thus make it easy to control in practice. This process can also be referred to as a decomposition of the request. If, for example, a 1-out-of-2 fusion strategy is used and it can also be assumed that the individual environment sensor errors are statistically independent, a maximum overall error rate (roughly an overall rate of false negative errors, i.e. e.g. braking not performed, if this had been necessary) of 1/1000000 if a maximum error rate of 1/1000 is proven for each of the two environmental sensors. In practice, this corresponds to a very significant reduction in the effort involved in safeguarding, since you only have to safeguard the performance of the individual sensors. This can e.g. drastically reduce the number of scenarios to be driven on a test site.
Wie vorstehend anhand einer 1-out-of-2-Fusionsstrategie beispielhaft erläutert, ist eine statistische Hochrechnung von empirisch erfassten Fehlerraten bei den vorgeschlagenen Fusionskonzepten sehr einfach machbar. Auch bei anderen Fusionsstrategien, wie z.B. 2-out-of-3 oder 2-out-of-4 lassen sich die Fehlerraten der Gesamtfunktion mittels vergleichsweise einfacher statistischer Verfahren aus den Fehlerraten der Einzelsensorkanäle berechnen. Im Unterschied zum klassischen Sensorfusionsansatz, bei welchem zunächst die Umfeldsensordaten fusioniert werden und auf dieser Grundlage eine Systementscheidung getroffen wird, ist bei der vorgeschlagenen Lösung die Fehlerkorrelation der mehreren Einzelsensorkanäle sehr einfach und verlässlich modellierbar, insbesondere wenn die sensorspezifischen Entscheidungen und die Gesamtentscheidung binäre Signale sind. Demgegenüber müssen bei dem klassischen Fusionskonzept z.B. die zeitlichen Korrelationen von Eingangssignalen bekannt sein.As explained above using a 1-out-of-2 fusion strategy as an example, a statistical extrapolation of empirically recorded error rates can be carried out very easily in the proposed fusion concepts. Even with other fusion strategies, such as 2-out-of-3 or 2-out-of-4, the error rates of the overall function can be calculated from the error rates of the individual sensor channels using comparatively simple statistical methods. In contrast to the classic sensor fusion approach, in which the environmental sensor data are first fused and a system decision is made on this basis, the error correlation of the multiple individual sensor channels can be modeled very easily and reliably in the proposed solution, especially if the sensor-specific decisions and the overall decision are binary signals. In contrast, with the classic fusion concept, the temporal correlations of input signals, for example, must be known.
Ein weiterer Vorteil ist, dass bei der hier vorgeschlagenen Lösung das Gesamtergebnis der Fusion in verlässlicher- und berechenbarerweise besser wird, wenn die Performance einer der Einzelsensorkanäle verbessert wird. Es ist daher möglich, die Einzelsensorkanäle unabhängig voneinander zu optimieren.A further advantage is that with the solution proposed here, the overall result of the fusion improves in a reliable and predictable manner if the performance of one of the individual sensor channels is improved. It is therefore possible to optimize the individual sensor channels independently of one another.
Ferner ermöglicht es die vorgeschlagene Lösung, bestimmte KPls (Key-Performance-Indicators) der Einzelsensorkanäle direkt aus den End-to-End-KPIs der Gesamtfunktion abzuleiten, da hierbei die Reaktion des Fahrzeugs ausschlaggebend ist. Wenn beispielsweise ein KPI zur Bestimmung der Falsch-Positiv Rate der Bremsung des Egofahrzeugs auf Grund eines Vorder-Objekts vorliegt, so ist direkt bekannt auf Grund welchem bzw. welcher Sensoreinzelkanäle ein gewisser Fehler verursacht wurde. Dadurch lassen sich Verbesserung rascher durchführen. Bei einem klassischen Fusionsansatz ist es deutlich schwieriger, insbesondere automatisiert, zu bestimmen, auf Grund welches Einzelsensors das Gesamtergebnis einen Fehler hat.Furthermore, the proposed solution makes it possible to derive certain KPIs (Key Performance Indicators) of the individual sensor channels directly from the end-to-end KPIs of the overall function, since the vehicle's reaction is decisive here. If, for example, there is a KPI for determining the false-positive rate of the braking of the ego vehicle due to an object in front, then it is directly known due to which individual sensor channel(s) a certain error was caused. This allows improvements to be made more quickly. With a classic fusion approach, it is much more difficult to determine, in particular in an automated manner, which individual sensor caused the overall result to have an error.
Hinsichtlich der Gesamtentscheidung wird darauf hingewiesen, dass dieser kein rein binärer Trigger (wie z.B. „bremsen“ oder „nicht bremsen“) sein muss. Vielmehr können gemäß einigen Ausführungsvarianten auch verallgemeinerte und z. B. abgestufte Trigger der Art „Trigger Stufe 1“, „Trigger Stufe 2“ usw. definiert sein, die z.B. einen Grad der Dringlichkeit einer Bremsung widerspiegeln. Erkennen zwei Sensoren die Notwendigkeit einer starken Bremsung („Trigger Stufe 1“), so wird das Fahrzeug beispielweise mit bis zu 7 m/s^2 verzögert. Bestätigen hingegen drei Sensoren die Notwendigkeit einer starken Bremsung („Trigger Stufe 2“), so wird das Fahrzeug beispielsweise mit bis zu 10 m/s^2 verzögert.With regard to the overall decision, it is pointed out that this does not have to be a purely binary trigger (such as “brake” or “do not brake”). Rather, according to some embodiments, generalized and z. For example, graded triggers of the type “
Allgemein lässt sich die hier vorgeschlagene Lösung gut mit einer klassischen, komfortorientierten Fusion kombinieren. Dabei kann z.B. vorgesehen sein, dass ein entsprechend der Gesamtentscheidung gesetzter Bremstrigger in seltenen Notsituationen eine Komfort-Trajektorie überschreibt. Dadurch kann beispielsweise auch eine Reaktionszeit verkürzt werden.In general, the solution proposed here can be easily combined with a classic, comfort-oriented fusion. It can be provided, for example, that a brake trigger set according to the overall decision overwrites a comfort trajectory in rare emergency situations. As a result, a reaction time can also be shortened, for example.
Ein zweiter Erfindungsaspekt ist eine (Daten-)Verarbeitungseinrichtung, die zum Durchführen eines computerimplementierten Verfahrens gemäß dem ersten Erfindungsaspekt eingerichtet ist. Dementsprechend können Ausführungsformen des erfindungsgemäßen Verfahrens den in diesem Dokument beschriebenen Ausführungsformen der erfindungsgemäßen Verarbeitungseinrichtung entsprechen und umgekehrt.A second aspect of the invention is a (data) processing device that is set up to carry out a computer-implemented method according to the first aspect of the invention. Accordingly, embodiments of the method according to the invention can correspond to the embodiments of the processing device according to the invention described in this document and vice versa.
Die Verarbeitungseinrichtung kann einen oder mehrere Prozessoren oder Mikrocontroller umfassen, die mittels eines geeigneten Computerprogramms zum Durchführen des computerimplementierten Verfahrens eingerichtet sind. Es kann sich gemäß einigen Ausführungsformen auch um eine räumlich (z.B. über mehrere beabstandete Prozessoren oder Mikrocontroller) verteilte Verarbeitungseinrichtung handeln.The processing device can include one or more processors or microcontrollers, which are set up using a suitable computer program to carry out the computer-implemented method. It may also be, according to some embodiments a processing device that is spatially distributed (for example, over a number of processors or microcontrollers that are spaced apart).
Gemäß einer Ausführungsform des ersten Erfindungsaspekts und/oder des zweiten Erfindungsaspekts umfasst das Auswerten das Bestimmen auf Basis der jeweiligen Umfeldsensordaten, ob und ggf. welche Objekte und/oder Hindernisse für die Fahrzeugführung relevant sind. Beispielsweise kann dabei jeweils eine Zielobjektauswahl aus einer sensorspezifischen, d.h. auf den jeweiligen Umfeldsensordaten beruhenden und nicht etwa bereits fusionierten, Objektliste vorgenommen werden.According to one embodiment of the first aspect of the invention and/or the second aspect of the invention, the evaluation includes determining, on the basis of the respective surroundings sensor data, whether and, if so, which objects and/or obstacles are relevant for the vehicle guidance. For example, a target object can be selected from a sensor-specific object list, i.e. one based on the respective environmental sensor data and not already merged.
Gemäß einer Ausführungsform wird die Fusion der sensorspezifischen Entscheidungen in der Weise ausgeführt, dass die Gesamtentscheidung getroffen wird, einen bestimmten Eingriff in die Fahrzeugführung auszuführen, wenn wenigstens eine der sensorspezifischen Entscheidungen dahin geht, dass der Eingriff ausgeführt werden soll. Das kann z.B. bedeuten, dass eine Bremsung ausgeführt wird, wenn wenigstens einer der Umfeldsensoren ein kritisches Objekt (d.h. ein Objekt, das eine Bremsung nötig macht) erkannt hat, unabhängig davon, ob weitere Umfeldsensoren dies bestätigen. Falls also z.B. in einem ersten Einzelsensorkanal ein Bremstrigger gesetzt wird, so wird im Ergebnis definitiv gebremst, unabhängig davon, ob über einen zweiten Einzelsensorkanal auch ein Bremstrigger ausgelöst wird oder nicht. Wenn die sensorspezifischen Entscheidungen zweier Umfeldsensoren in dieser Weise fusioniert werden, kann dies auch als eine „1-out-of-2-Fusionsstrategie“ bezeichnet werden, wie weiter oben bereits erwähnt. Im Falle einer höheren Anzahl n beteiligter Umfeldsensoren kann entsprechend auch von einer „1-out-of-n-Fusionsstrategie“ die Rede sein.According to one embodiment, the fusion of the sensor-specific decisions is carried out in such a way that the overall decision is made to carry out a specific intervention in vehicle guidance if at least one of the sensor-specific decisions is that the intervention should be carried out. This can mean, for example, that braking is carried out if at least one of the surroundings sensors has detected a critical object (i.e. an object that makes braking necessary), regardless of whether this is confirmed by other surroundings sensors. If, for example, a brake trigger is set in a first individual sensor channel, the result is definitely braking, regardless of whether a brake trigger is also triggered via a second individual sensor channel or not. If the sensor-specific decisions of two environmental sensors are fused in this way, this can also be referred to as a "1-out-of-2 fusion strategy", as already mentioned above. In the case of a higher number n of environmental sensors involved, a “1-out-of-n fusion strategy” can also be used.
Hierbei ist vorteilhaft, dass es nicht dazu kommen kann, dass eine Fusion eines durch einen ersten Sensor erfassten kritischen Objekts mit einem weiteren, von einem zweiten Sensor erfassten Objekt zu einem unkritischen Objekt führt. „Kritisch“ kann dabei z.B. bedeuten, dass in Reaktion auf das Objekt eine unmittelbare Notbremsung eingeleitet werden muss. Wenn also ein zweiter Umfeldsensor ein weniger kritisches Objekt meldet, das z.B. weiter entfernt ist und sich mit höherer Geschwindigkeit in Fahrtrichtung des Fahrzeugs bewegt, dann wird die Fusion den Zustand des von dem ersten Sensor erfassten Objekts nicht insofern ändern, dass ein unkritisches Objekt resultiert. Bei herkömmlichen Objekt-Fusionsalgorithmen ist dies hingegen nicht ausgeschlossen, weil dabei häufig ein fusioniertes Objekt (z.B. mittels eines Kalman-Filters) getrackt wird, wobei ein Zustand des fusionierten Objekts auf der Grundlage von Zuständen von durch die Einzelsensoren erfassten Objekten aktualisiert wird.It is advantageous here that a fusion of a critical object detected by a first sensor with another object detected by a second sensor cannot lead to a non-critical object. "Critical" can mean, for example, that immediate emergency braking must be initiated in response to the object. So if a second environment sensor reports a less critical object, which is e.g. further away and moving at higher speed in the direction of travel of the vehicle, then the fusion will not change the state of the object detected by the first sensor to the extent that an uncritical object results. In contrast, this cannot be ruled out with conventional object fusion algorithms, because a fused object is often tracked (e.g. using a Kalman filter), with a state of the fused object being updated on the basis of states of objects detected by the individual sensors.
Bei herkömmlichen fusionsbasierten Lösungen kann es ferner dazu kommen, dass Objekte durch die einzelnen Umfeldsensoren zwar an sich korrekt geschätzt werden, aber falsch assoziiert werden, da die Assoziation von Einzelsensorobjekten untereinander bzw. zu einem fusionierten Objekt nicht immer eindeutig ist. Bei der hier vorgeschlagenen Lösung sind Fehler der Fahrassistenzfunktion, die auf derartigen falschen Objektassoziationen bei der Objektfusion resultieren, ausgeschlossen.In conventional fusion-based solutions, it can also happen that objects are correctly estimated per se by the individual surroundings sensors, but are incorrectly associated, since the association of individual sensor objects with one another or with a fused object is not always unambiguous. With the solution proposed here, errors in the driver assistance function that result from such incorrect object associations during object fusion are excluded.
Je nach einer verfügbaren Anzahl von Umfeldsensoren und/oder je nach einer relativen Gewichtung von Falsch-Negativ-Fehlern und Falsch-Positiv-Fehlern bei der Optimierung der Fahrassistenzfunktion können alternativ zu oder neben den beschriebenen 1-out-of-n-Fusionsstrategien weitere Fusionsstrategien zum Einsatz kommen. Beispielsweise werden gemäß einer weiteren Ausführungsform Umfeldsensordaten von wenigstens drei, insbesondere wenigstens vier (vorzugsweise verschiedenartigen) Umfeldsensoren ausgewertet. Dabei wird die Fusion der resultierenden sensorspezifischen Entscheidungen in der Weise ausgeführt, dass die Gesamtentscheidung getroffen wird, einen bestimmten Eingriff in die Fahrzeugführung auszuführen, wenn wenigstens zwei der sensorspezifischen Entscheidungen dahin gehen, dass der Eingriff ausgeführt werden soll (sog. „2-out-of-3-Fusionsstrategie“ bzw. „2-out-of-4-Fusionsstrategie“ oder allgemein „ „2-out-of-n-Fusionsstrategie"). Beispielsweise kann vorgesehen sein, dass das Fahrzeug nur dann ein Bremsmanöver oder z.B. ein Ausweichmanöver nach links ausführt, wenn wenigstens zwei Einzelsensorkanäle zu dem Ergebnis kommen, dass dies aufgrund des von ihnen jeweils erfassten Fahrzeugumfelds erforderlich ist.Depending on an available number of environment sensors and/or depending on a relative weighting of false negative errors and false positive errors when optimizing the driver assistance function, other fusion strategies can be used as an alternative to or in addition to the 1-out-of-n fusion strategies described come into use. For example, according to a further embodiment, surroundings sensor data from at least three, in particular at least four (preferably different types) surroundings sensors are evaluated. The fusion of the resulting sensor-specific decisions is carried out in such a way that the overall decision is made to carry out a specific intervention in vehicle guidance if at least two of the sensor-specific decisions lead to the intervention being carried out (so-called "2-out of-3 fusion strategy" or "2-out-of-4 fusion strategy" or generally "2-out-of-n fusion strategy"). For example, it can be provided that the vehicle only performs a braking maneuver or e.g Executes evasive maneuvers to the left if at least two individual sensor channels come to the conclusion that this is necessary due to the vehicle environment detected by them.
Gemäß einer Ausführungsform sind an einer 2-out-of-3-Fusionsstrategie drei Umfeldsensoren in Form einer Frontkamera, eines Fernbereichsradars (Englisch: Full range radar - FRR) sowie eines Lidar-Sensors beteiligt. Bei einer anderen Ausführungsvariante ist zusätzlich zu den drei vorstehend genannten Umfeldsensoren ein Nahbereichsradar (Englisch: Short range radar - SRR) vorgesehen, wobei mittels der vier Einzelsensorkanäle eine 2-out-of-4-Fusionsstrategie umgesetzt wird.According to one embodiment, three surroundings sensors in the form of a front camera, a full range radar (FRR) and a lidar sensor are involved in a 2-out-of-3 fusion strategy. In another embodiment variant, a short-range radar (SRR) is provided in addition to the three environment sensors mentioned above, with a 2-out-of-4 fusion strategy being implemented using the four individual sensor channels.
Bei einer 2-out-of-n-Fusionsstrategie ist vorteilhaft, dass ein Falsch-Positiv-Fehler in einem einzigen Einzelsensorkanal nicht auf die Gesamtfunktion durchschlägt, sodass z.B. die Häufigkeit unnötiger Bremseingriffe reduziert werden kann. Mit anderen Worten kann durch eine solche Fusionsstrategie eine Falsch-Positiv-Robustheit der Fahrassistenzfunktion verbessert werden.With a 2-out-of-n fusion strategy, it is advantageous that a false positive error in a single individual sensor channel does not affect the overall function, so that, for example, the frequency of unnecessary braking interventions can be reduced. In other words, a false-positive robustness of the driver assistance function can be improved by such a fusion strategy.
Es liegt auch im Rahmen der Erfindung, dass eine oder mehrere 1-out-of-n-Fusionsstrategien und/oder eine oder mehrere 2-out-of-n-Fusionsstrategien mit einer bestimmten jeweiligen Gewichtung miteinander kombiniert werden können, etwa um einen gewünschten Kompromiss zwischen einer Falsch-Negativ-Robustheit und einer Falsch-Positiv-Robustheit der Fahrassistenzfunktion zu erzielen.It is also within the scope of the invention that one or more 1-out-of-n fusion strategies and/or one or more 2-out-of-n fusion strategies with a specific respective weighting can be combined with one another, for example in order to achieve a desired compromise between a false-negative robustness and a false-positive robustness of the driver assistance function.
Als weitere Fusionsstrategien sind auch Rekursionen aus mehreren m-out-of-n-Fusionsstrategien, wie z.B. mehreren 1-out-of-n oder 2-out-of-n-Fusionsstrategien möglich. Beispielsweise kann im Fall von (wenigstens) drei vorhandenen Einzelsensorkanälen zunächst auf zwei der drei Einzelsensorkanäle eine 2-out-of-2-Fusionsstrategie angewendet werden, gefolgt von einer 1-out-of-2-Fusionsstrategie, welche auf das Ergebnis der 2-out-of-2-Fusionsstrategie und einen weiteren der Einzelsensorkanäle angewendet wird. In kompakter Notation kann dies auch geschrieben werden als „1-out-of-(2-out-of-2)“ oder „1oo(2oo2)“.Recursions from several m-out-of-n fusion strategies, such as several 1-out-of-n or 2-out-of-n fusion strategies, are also possible as further fusion strategies. For example, in the case of (at least) three existing individual sensor channels, a 2-out-of-2 fusion strategy can first be applied to two of the three individual sensor channels, followed by a 1-out-of-2 fusion strategy, which is based on the result of the 2- out-of-2 fusion strategy and another of the single sensor channels is applied. In compact notation, this can also be written as "1-out-of-(2-out-of-2)" or "1oo(2oo2)".
Ein dritter Erfindungsaspekt ist ein Fahrassistenzsystem (FAS), welches mindestens zwei (bevorzugt verschiedenartige) Umfeldsensoren und eine Verarbeitungseinrichtung gemäß dem zweiten Erfindungsaspekt umfasst. Dabei ist die Verarbeitungseinrichtung eingerichtet ist, Umfeldsensordaten von den mindestens zwei Umfeldsensoren entsprechend dem Verfahren gemäß dem ersten Erfindungsaspekt zu empfangen, auszuwerten und zu fusionieren und in Abhängigkeit von der Gesamtentscheidung das Steuersignal zum Ausführen des Eingriffs in die Fahrzeugführung zu erzeugen.A third aspect of the invention is a driver assistance system (DAS), which includes at least two (preferably different) surroundings sensors and a processing device according to the second aspect of the invention. The processing device is set up to receive, evaluate and merge surroundings sensor data from the at least two surroundings sensors in accordance with the method according to the first aspect of the invention and to generate the control signal for carrying out the intervention in the vehicle guidance as a function of the overall decision.
Gemäß einer Weiterbildung umfasst das FAS ferner eine Aktuatorik, die eingerichtet ist, in Abhängigkeit von dem Steuersignal den entsprechenden Eingriff in die Fahrzeugführung umzusetzen. Die Aktuatorik kann insbesondere eine Längsführungsaktuatorik, wie z.B. eine Bremseinrichtung und einen Antriebsstrang, und/oder eine Querführungsaktuatorik, wie z.B. eine Lenkung, umfassen.According to one development, the ADAS also includes an actuator system that is set up to implement the appropriate intervention in the vehicle guidance as a function of the control signal. In particular, the actuator system can include a longitudinal control actuator system, such as a braking device and a drive train, and/or a lateral control actuator system, such as a steering system.
Gemäß einer Ausführungsform des dritten Erfindungsaspekts umfassen die mindestens zwei Umfeldsensoren mindestens zwei unterschiedliche Elemente aus der folgenden Liste: Eine Kamera; einen Radar-Sensor; einen Lidar-Sensor; einen Ultraschall-Sensor. Die Kamera kann insbesondere eine optische Kamera, wie z.B. eine optische Frontkamera des Fahrzeugs, sein. Denkbar ist aber auch z.B. der Einsatz einer Infrarotkamera. Bei dem Radar-Sensor kann es sich z.B. um ein Fernbereichsradar (FRR) oder um ein Nahbereichsradar (SRR) handeln.According to one embodiment of the third aspect of the invention, the at least two surroundings sensors include at least two different elements from the following list: a camera; a radar sensor; a lidar sensor; an ultrasonic sensor. In particular, the camera can be an optical camera, such as an optical front camera of the vehicle. The use of an infrared camera, for example, is also conceivable. The radar sensor can be, for example, a long-range radar (FRR) or a short-range radar (SRR).
Bei der hier vorgeschlagenen, auf mehreren unabhängigen Einzelsensorkanälen basierenden Lösung, ist ferner vorteilhaft, dass eine für den jeweiligen Einzelsensor optimierte Bewertung der Kritikalität erfasster Objekte unter Berücksichtigung von spezifischen Stärken und Schwächen des Einzelsensors erfolgen kann. Beispielsweise lassen sich ein Abstand eines Objekts von dem Fahrzeug sowie eine Geschwindigkeit des Objekts mittels einer Kamera nur vergleichsweise ungenau schätzen. Sehr gut hingegen lässt sich mittels einer Kamera eine Spurzuordnung und eine Time-to-Collision (TTC) schätzen. Dementsprechend kann man für diesen Pfad, d.h. auf dem zu der Kamera gehörenden Einzelsensorkanal, eine Zielobjektauswahl im Kamerabild durchführen sowie die Bremstrigger-Auswertung basierend auf der TTC durchführen. Für abstandsmessende Sensoren wie Radar- oder Lidarsensoren wiederum kann die Zielobjektauswahl auf Basis von Abstand und Geschwindigkeit in Kombination mit Kartendaten erfolgen.In the case of the solution proposed here, which is based on a plurality of independent individual sensor channels, it is also advantageous that the criticality of detected objects can be evaluated, optimized for the respective individual sensor, taking into account specific strengths and weaknesses of the individual sensor. For example, a distance of an object from the vehicle and a speed of the object can only be estimated comparatively imprecisely using a camera. On the other hand, a lane assignment and a time-to-collision (TTC) can be estimated very well using a camera. Accordingly, for this path, i.e. on the individual sensor channel belonging to the camera, a target object can be selected in the camera image and the brake trigger evaluation can be carried out based on the TTC. For distance-measuring sensors such as radar or lidar sensors, the target object can be selected on the basis of distance and speed in combination with map data.
Ein vierter Erfindungsaspekt ist ein Computerprogramm, umfassend Befehle, die bei der Ausführung des Computerprogramms durch eine Verarbeitungseinrichtung diese veranlassen, ein Verfahren nach dem ersten Erfindungsaspekt auszuführen. Dabei kann das Computerprogramm auch auf mehrere separate Teilprogramme, aufgeteilt sein, die jeweils auf verschiedenen, ggf. räumlich voneinander entfernten Verarbeitungseinrichtungen (wie z.B. mehreren separaten Prozessoren) ausgeführt werden können.A fourth aspect of the invention is a computer program comprising instructions which, when the computer program is executed by a processing device, cause the latter to carry out a method according to the first aspect of the invention. The computer program can also be divided into a number of separate sub-programs, which can each be executed on different processing devices (such as e.g. a number of separate processors) that may be physically distant from one another.
Beispielsweise kann ein FAS gemäß dem dritten Erfindungsaspekt eine oder mehrere Verarbeitungsvorrichtungen umfassen, auf denen ein Computerprogramm gemäß dem vierten Erfindungsaspekt ausführbar ist.For example, an FAS according to the third aspect of the invention may comprise one or more processing devices on which a computer program according to the fourth aspect of the invention is executable.
Ein fünfter Erfindungsaspekt ist ein computerlesbares Speichermedium, umfassend Befehle, die bei der Ausführung durch eine (ggf. verteilte) Verarbeitungseinrichtung diese veranlassen, ein Verfahren gemäß dem ersten Erfindungsaspekt auszuführen. Mit anderen Worten kann auf dem computerlesbaren Speichermedium ein Computerprogramm gemäß dem vierten Erfindungsaspekt gespeichert sein.A fifth aspect of the invention is a computer-readable storage medium comprising instructions which, when executed by a (possibly distributed) processing device, cause the latter to carry out a method according to the first aspect of the invention. In other words, a computer program according to the fourth aspect of the invention can be stored on the computer-readable storage medium.
Ein sechster Erfindungsaspekt ist ein Fahrzeug mit einem FAS gemäß dem dritten Erfindungsaspekt.A sixth aspect of the invention is a vehicle having an ADAS according to the third aspect of the invention.
Die Erfindung wird nun anhand von Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. Dabei sind die vorstehend oder nachfolgend in der Beschreibung genannten und/oder in den Zeichnungen alleine gezeigten Merkmale und Merkmalskombinationen nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.
-
1 veranschaulicht beispielhaft und schematisch einen im Stand der Technik bekannten Verfahrensablauf zum Steuern einer Fahrassistenzfunktion. -
2 veranschaulicht schematisch einen Verfahrensablauf zum Steuern einer Fahrassistenzfunktion gemäß einem Ausführungsbeispiel. -
3 veranschaulicht schematisch ein Verfahren zum Steuern einer Fahrassistenzfunktion. -
4 veranschaulicht schematisch ein Fahrerassistenzsystem.
-
1 FIG. 12 illustrates, by way of example and schematically, a method sequence known in the prior art for controlling a driver assistance function. -
2 schematically illustrates a method sequence for controlling a driver assistance function according to an embodiment. -
3 FIG. 12 schematically illustrates a method for controlling a driver assistance function. -
4 schematically illustrates a driver assistance system.
Demgegenüber veranschaulicht
Ein Schritt des Verfahrens 2 ist das Empfangen 21 von Umfeldsensordaten von mindestens zwei Umfeldsensoren 11, 12 (entsprechend „Sensor 1“ und „Sensor 2“ in
Ein weiterer Schritt ist das Auswerten 22 der Umfeldsensordaten daraufhin, ob ein Eingriff in die Fahrzeugführung erforderlich ist. Dabei wird jeweils eine separate Auswertung auf Basis der Umfeldsensordaten eines jeden der Umfeldsensoren 11, 12 vorgenommen und es wird eine jeweilige sensorspezifische Entscheidung über den Eingriff in die Fahrzeugführung getroffen.A further step is the
Bei dem Ausführungsbeispiel gemäß
In einem weiteren Schritt 23 erfolgt sodann eine Fusion der sensorspezifischen Entscheidungen zu einer Gesamtentscheidung über den Eingriff in die Fahrzeugführung. Bezogen auf das Ausführungsbeispiel gemäß
Die Fusion der sensorspezifischen Entscheidungen kann gemäß einer 1-out-of-2-Fusionsstrategie ausgeführt, d.h. in der Weise, dass die Gesamtentscheidung getroffen wird, einen bestimmten Eingriff in die Fahrzeugführung auszuführen, wenn wenigstens eine der sensorspezifischen Entscheidungen dahin geht, dass der Eingriff ausgeführt werden soll. Falls z.B. in einem ersten Einzelsensorkanal ein Bremstrigger gesetzt wird, so wird im Ergebnis definitiv gebremst, unabhängig davon, ob über einen zweiten Einzelsensorkanal auch ein Bremstrigger ausgelöst wird oder nicht.The fusion of the sensor-specific decisions can be carried out according to a 1-out-of-2 fusion strategy, i.e. in such a way that the overall decision is made to carry out a specific intervention in the vehicle guidance if at least one of the sensor-specific decisions is such that the intervention should be executed. If, for example, a brake trigger is set in a first individual sensor channel, the result is definitely braking, regardless of whether a brake trigger is also triggered via a second individual sensor channel or not.
Bei weiteren, in den Figuren nicht gesondert dargestellten Ausführungsformen mit mehr als zwei Umfeldsensoren sind auch andere Fusionsstrategien oder eine Kombination mehrerer Fusionsstrategien mit einer jeweiligen Gewichtung denkbar. So können z.B. gemäß einer bevorzugten Ausführungsform an einer 2-out-of-3-Fusionsstrategie drei Umfeldsensoren in Form einer Frontkamera, eines Fernbereichsradars (Englisch: Full range radar - FRR) sowie eines Lidar-Sensors beteiligt sein. Bei einer anderen vorteilhaften Ausführungsvariante ist zusätzlich zu den drei vorstehend genannten Umweltsensoren ein Nahbereichsradar (Englisch: Short range radar - SRR) vorgesehen, wobei mittels der vier Einzelsensorkanäle eine 2-out-of-4-Fusionsstrategie umgesetzt wird.Other fusion strategies or a combination of a plurality of fusion strategies with a respective weighting are also conceivable in further embodiments with more than two environment sensors, which are not shown separately in the figures. For example, according to a preferred embodiment, three environment sensors in the form of a front camera, a full-range radar (FRR) and a lidar sensor can be involved in a 2-out-of-3 fusion strategy. In another advantageous embodiment variant, in addition to the three environmental sensors mentioned above, a short-range radar SRR) is provided, with a 2-out-of-4 fusion strategy being implemented using the four individual sensor channels.
In einem weiteren Schritt 24 wird in Abhängigkeit von der Gesamtentscheidung ein Steuersignal zum Ausführen des Eingriffs in die Fahrzeugführung erzeugt. Dabei kann auf der Datenverarbeitungsebene z.B. ein (Gesamt-)Bremstrigger oder gesetzt werden (vgl. „Bremsen“ in
Claims (10)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021126820.6A DE102021126820A1 (en) | 2021-10-15 | 2021-10-15 | Method and processing device for controlling a driver assistance function and driver assistance system |
PCT/EP2022/075160 WO2023061675A1 (en) | 2021-10-15 | 2022-09-09 | Method and processing device for controlling a driver assistance function, and driver assistance system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021126820.6A DE102021126820A1 (en) | 2021-10-15 | 2021-10-15 | Method and processing device for controlling a driver assistance function and driver assistance system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021126820A1 true DE102021126820A1 (en) | 2023-04-20 |
Family
ID=84044409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021126820.6A Pending DE102021126820A1 (en) | 2021-10-15 | 2021-10-15 | Method and processing device for controlling a driver assistance function and driver assistance system |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102021126820A1 (en) |
WO (1) | WO2023061675A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020208293A1 (en) | 2020-07-02 | 2022-01-05 | Continental Automotive Gmbh | Method and device for autonomous trajectory guidance for an ego vehicle |
DE102020209680B3 (en) | 2020-07-31 | 2022-01-13 | Zf Friedrichshafen Ag | Signal processing path, device for environment recognition and method for validating a driving system that can be operated automatically |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2840007B1 (en) * | 2013-08-22 | 2018-04-04 | Honda Research Institute Europe GmbH | Consistent behaviour generation of a predictive advanced driver assistant system |
DE102015107391A1 (en) * | 2015-05-12 | 2016-11-17 | Valeo Schalter Und Sensoren Gmbh | Method for controlling a functional device of a motor vehicle on the basis of fused sensor data, control device, driver assistance system and motor vehicle |
US11214273B2 (en) * | 2017-06-23 | 2022-01-04 | Nvidia Corporation | Method of using a single controller (ECU) for a fault-tolerant/fail-operational self-driving system |
WO2020205655A1 (en) * | 2019-03-29 | 2020-10-08 | Intel Corporation | Autonomous vehicle system |
-
2021
- 2021-10-15 DE DE102021126820.6A patent/DE102021126820A1/en active Pending
-
2022
- 2022-09-09 WO PCT/EP2022/075160 patent/WO2023061675A1/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020208293A1 (en) | 2020-07-02 | 2022-01-05 | Continental Automotive Gmbh | Method and device for autonomous trajectory guidance for an ego vehicle |
DE102020209680B3 (en) | 2020-07-31 | 2022-01-13 | Zf Friedrichshafen Ag | Signal processing path, device for environment recognition and method for validating a driving system that can be operated automatically |
Also Published As
Publication number | Publication date |
---|---|
WO2023061675A1 (en) | 2023-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3181422B1 (en) | Method and system for automatically guiding a follow vehicle with a scout vehicle | |
DE102016203086B4 (en) | Method and device for driver assistance | |
EP1926646B1 (en) | Method and device for carrying out a deviating manoeuvre | |
EP2240354B1 (en) | Device, method, and computer program for avoiding collisions or minimizing the collision severity in case of a collision, for vehicles, particularly commercial vehicles | |
DE102019104974A1 (en) | Method and system for determining a driving maneuver | |
DE102017115988A1 (en) | Modify a trajectory depending on an object classification | |
DE102016205188A1 (en) | Driving support device | |
DE112017006263T5 (en) | Collision avoidance device for a vehicle and collision avoidance method for this | |
DE102012203187A1 (en) | Method and device for the prediction and adaptation of motion trajectories of motor vehicles | |
EP3543985A1 (en) | Simulation of different traffic situations for a test vehicle | |
DE102012222301A1 (en) | Method and system for controlling a host vehicle | |
DE102016007899B4 (en) | Method for operating a device for traffic situation analysis, motor vehicle and data processing device | |
DE102015213227A1 (en) | Predictive control of a motor vehicle | |
DE102019204943A1 (en) | Method and device for teleoperated driving of a vehicle | |
DE102020131949A1 (en) | SYSTEM AND PROCEDURE FOR LEARNING DRIVER PREFERENCE AND ADAPTING LANE CENTERING CONTROL TO DRIVER BEHAVIOR | |
DE102017208462A1 (en) | Method and device for determining operating data for an automated vehicle | |
DE102017006338B4 (en) | Methods for efficient validation and safe application of autonomous and semi-autonomous vehicles | |
DE102021101225A1 (en) | Autonomous vehicle and method of operating it | |
WO2023012243A1 (en) | System, method and software for operating a driver assistance system | |
DE102023000561A1 (en) | Method and device for controlling the turning process of a vehicle | |
DE102021126820A1 (en) | Method and processing device for controlling a driver assistance function and driver assistance system | |
DE102018133457B4 (en) | Method and system for providing environmental data | |
DE102020120773A1 (en) | Method for determining an avoidance trajectory for a vehicle | |
WO2021069541A1 (en) | Method for predicting the behaviour of a target vehicle | |
DE102018122929A1 (en) | Street scanning method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |