DE102021101717A1 - Method for providing merged data, assistance system and motor vehicle - Google Patents

Method for providing merged data, assistance system and motor vehicle Download PDF

Info

Publication number
DE102021101717A1
DE102021101717A1 DE102021101717.3A DE102021101717A DE102021101717A1 DE 102021101717 A1 DE102021101717 A1 DE 102021101717A1 DE 102021101717 A DE102021101717 A DE 102021101717A DE 102021101717 A1 DE102021101717 A1 DE 102021101717A1
Authority
DE
Germany
Prior art keywords
raw data
assistance system
sensors
data
motor vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021101717.3A
Other languages
German (de)
Inventor
Christopher Kuhn
Goran Petrovic
Markus Hofbauer
Eckehard Steinbach
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Technische Universitaet Muenchen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG, Technische Universitaet Muenchen filed Critical Bayerische Motoren Werke AG
Priority to DE102021101717.3A priority Critical patent/DE102021101717A1/en
Publication of DE102021101717A1 publication Critical patent/DE102021101717A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0059Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0022Gains, weighting coefficients or weighting functions
    • B60W2050/0025Transfer function weighting factor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • B60W2050/0037Mathematical models of vehicle sub-units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • B60W2050/0292Fail-safe or redundant systems, e.g. limp-home or backup systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/20Data confidence level
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/25Data precision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Bereitstellen von Daten (26) für ein Assistenzsystem (20) eines Kraftfahrzeugs (30). Die Erfindung betrifft weiter ein solches Assistenzsystem (20) und ein damit ausgestattetes Kraftfahrzeug (30). In dem Verfahren werden jeweilige Rohdaten von (12) mehreren Sensoren (10) erfasst. Für diese Rohdaten (12) wird jeweils mittels eines dem jeweiligen Sensor (10) zugeordneten trainierten Bewertungsmodells (18) ein Leistungswert (24) vorhergesagt. Diese Leistungswerte (24) geben an, wie gut das Assistenzsystem (20) seine bestimmungsgemäße Funktion basierend auf den jeweiligen Rohdaten (12) voraussichtlich ausüben kann. Die Rohdaten (12) der mehreren Sensoren (10) werden dann gemäß ihren Leistungswerten (24) gewichtet miteinander fusioniert, um die Daten (26) für das Assistenzsystem (20) bereitzustellen.The invention relates to a method for providing data (26) for an assistance system (20) of a motor vehicle (30). The invention further relates to such an assistance system (20) and a motor vehicle (30) equipped with it. In the method, respective raw data from (12) several sensors (10) are recorded. A performance value (24) is predicted for each of these raw data (12) by means of a trained evaluation model (18) assigned to the respective sensor (10). These performance values (24) indicate how well the assistance system (20) can probably carry out its intended function based on the respective raw data (12). The raw data (12) from the multiple sensors (10) are then fused together, weighted according to their performance values (24), in order to provide the data (26) for the assistance system (20).

Description

Die vorliegende Erfindung betrifft ein Verfahren zum Bereitstellen von Daten für ein Assistenzsystem eines Kraftfahrzeugs. Die Erfindung betrifft weiter ein entsprechendes Assistenzsystem sowie ein damit ausgestattetes Kraftfahrzeug.The present invention relates to a method for providing data for an assistance system of a motor vehicle. The invention further relates to a corresponding assistance system and a motor vehicle equipped therewith.

Mit dem Bestreben, die Sicherheit im Straßenverkehr zu verbessern und einen autonomen Fahrbetrieb von Kraftfahrzeugen zu ermöglichen, werden in heutigen Kraftfahrzeugen oftmals eine Vielzahl von Sensoren und zunehmend komplexere Datenverarbeitungsmethoden eingesetzt. Dies kann zwar prinzipiell zu einer Verbesserung führen, jedoch ebenso Probleme mit sich bringen. So können beispielsweise niederqualitative Daten eines Sensors bei der Kombination mit anderen Daten zu einem suboptimalen Ergebnis führen. Zudem ist mit steigender Komplexität der Systeme nicht immer verständlich oder nachvollziehbar, wie das System zu einer bestimmten Entscheidung oder zu einem bestimmten Ergebnis gelangt ist.With the attempt to improve road safety and to enable autonomous driving of motor vehicles, a large number of sensors and increasingly complex data processing methods are often used in today's motor vehicles. In principle, this can lead to an improvement, but it can also cause problems. For example, low-quality data from a sensor can lead to a suboptimal result when combined with other data. In addition, as the complexity of the systems increases, it is not always understandable or comprehensible how the system arrived at a specific decision or a specific result.

Dazu ist beispielsweise in der US 2020 / 0 356 828 A1 ein Verfahren zum Erklären von Fahrverhaltensaktionen eines autonomen Fahrzeugs beschrieben. Darin werden in einem Szenenverständnismodul von einer Vielzahl von Informationsquellen des Fahrzeugs gesammelte Informationen kombiniert. Basierend auf einer daraus erzeugten Zustandsrepräsentation werden ein oder mehrere gewichtete Verhaltensrichtlinien bestimmt. Basierend auf diesen wird eine Fahrverhaltensaktion für das Fahrzeug ausgewählt und durchgeführt. Schließlich werden Informationen bereitgestellt, die anzeigen, warum diese Fahrverhaltensaktion in einem bestimmten Fahrkontext des Fahrzeugs ausgewählt wurde. Auf diese Weise soll ein einfach erklärbares Lernsystem für ein autonomes Fahrzeug unabhängig von einer Anzahl und einem Typ von Sensormodulen und Datenverarbeitungsmethoden des Fahrzeugs bereitgestellt werden. Dabei werden jedoch nicht sämtliche Einflüsse und Optimierungsmöglichkeiten berücksichtigt.A method for explaining driving behavior actions of an autonomous vehicle is described in US 2020/0 356 828 A1, for example. Therein, information collected from a variety of information sources of the vehicle is combined in a scene understanding module. Based on a state representation generated from this, one or more weighted behavioral guidelines are determined. Based on these, a driving behavior action for the vehicle is selected and implemented. Finally, information is provided that indicates why this driving behavior action was selected in a particular driving context of the vehicle. In this way, an easy-to-explain learning system for an autonomous vehicle is to be provided, regardless of the number and type of sensor modules and data processing methods of the vehicle. However, not all influences and optimization possibilities are taken into account.

Eine Fusion bzw. Vorverarbeitung von Sensordaten ist auch in der DE 10 2018 101 505 A1 im Zusammenhang mit einem effizienten Situationsbewusstsein von Wahrnehmungsströmen in autonomen Fahrsystemen beschrieben. In dem dort vorgeschlagenen Verfahren wird ein kombiniertes Koordinatensystem in Reaktion auf ein erstes Koordinatensystem, das auf ein sich bewegendes Objekt zentriert ist, und ein zweites Koordinatensystem, das an einem festen Ort zentriert ist, erzeugt. Das kombinierte Koordinatensystem wird in eine erste Zelle und eine zweite Zelle segmentiert, wobei die erste Zelle einem Objekt zugeordnet ist, das sich innerhalb der Zelle befindet. Der ersten Zelle wird dann in Reaktion auf das erste Objekt ein erstes Risikoniveau zugewiesen, während der zweiten Zelle ein zweites Risikoniveau zugewiesen wird. In Reaktion auf das erste Risikoniveau wird dann ein Steuersignal erzeugt. Im Rahmen dieses Verfahrens kann beispielsweise basierend auf einer von einem Sensorfusions- und vor Verarbeitungsmodul ausgegebenen Sensorausgabe eine Objektklassifizierung, Bildklassifizierung, Ampelklassifizierung, Objektsegmentierung, Bodensegmentierung und ein Objektverfolgungsprozess durchgeführt werden. Letztlich soll dabei der Problematik begegnet werden, dass durch Sensoren eine große Informationsmenge geliefert wird, indem eine Menge von Wahrnehmungsdaten reduziert wird, während die für das autonome Fahren erforderlichen Informationen beibehalten werden.A fusion or pre-processing of sensor data is also in the DE 10 2018 101 505 A1 described in connection with an efficient situational awareness of streams of perception in autonomous driving systems. In the method proposed there, a combined coordinate system is generated in response to a first coordinate system centered on a moving object and a second coordinate system centered on a fixed location. The combined coordinate system is segmented into a first cell and a second cell, with the first cell being associated with an object located within the cell. The first cell is then assigned a first level of risk in response to the first object, while the second cell is assigned a second level of risk. A control signal is then generated in response to the first level of risk. Within the framework of this method, an object classification, image classification, traffic light classification, object segmentation, ground segmentation and an object tracking process can be carried out, for example, based on a sensor output output by a sensor fusion and upstream processing module. Ultimately, the aim is to address the problem that sensors provide a large amount of information by reducing a quantity of perceptual data while retaining the information required for autonomous driving.

Aufgabe der vorliegenden Erfindung ist es, ein besonders zuverlässiges und robustes Funktionieren eines Sensordaten basierten Assistenzsystems in unterschiedlichen Einsatzbedingungen zu ermöglichen.The object of the present invention is to enable a particularly reliable and robust functioning of an assistance system based on sensor data in different operating conditions.

Diese Aufgabe wird erfindungsgemäß durch die Gegenstände der unabhängigen Patentansprüche gelöst. Mögliche Ausgestaltungen und Weiterbildungen der vorliegenden Erfindung sind in den abhängigen Patentansprüchen, in der Beschreibung und in den Figuren offenbart.According to the invention, this object is achieved by the subject matter of the independent patent claims. Possible refinements and developments of the present invention are disclosed in the dependent patent claims, in the description and in the figures.

Das erfindungsgemäße Verfahren dient zum Bereitstellen von Daten für ein oder an ein Assistenzsystem eines Kraftfahrzeugs. Das Verfahren kann dabei für unterschiedliche Arten von Daten und für unterschiedliche Assistenzsysteme, auch als ADAS (englisch: Advanced Driver Assistant System) bezeichnet, angewendet werden. Das Assistenzsystem kann also basierend auf den bereitgestellten Daten je nach Implementierung oder Anwendungsfall unterschiedliche Funktionen oder Ausgaben ausüben, beispielsweise eine Objekterkennung, eine Objektlokalisierung, ein Detektieren eines befahrbaren Freiraums in einer Umgebung des Kraftfahrzeugs, eine Quer- und/oder Längsführung des Kraftfahrzeugs und/oder dergleichen mehr.The method according to the invention serves to provide data for or to an assistance system of a motor vehicle. The method can be used for different types of data and for different assistance systems, also referred to as ADAS (Advanced Driver Assistant System). The assistance system can therefore perform different functions or outputs based on the data provided, depending on the implementation or application, for example object recognition, object localization, detection of a free space that can be driven on in an area surrounding the motor vehicle, lateral and/or longitudinal guidance of the motor vehicle and/or more like that.

In einem Verfahrensschritt des erfindungsgemäßen Verfahrens werden jeweilige Rohdaten, also Messwerte, Sensordaten oder Sensorsignale, von mehreren, insbesondere unterschiedlichen, Sensoren erfasst. Mit anderen Worten werden hier also mittels der mehreren Sensoren jeweilige Rohdaten aufgenommen oder entsprechende Rohdaten, die von mehreren Sensoren stammen, über eine oder mehrere zum Anschließen der Sensoren vorgesehene Datenschnittstellen einer zum Ausführen des erfindungsgemäßen Verfahrens vorgesehenen Einrichtung empfangen.In a method step of the method according to the invention, respective raw data, that is to say measured values, sensor data or sensor signals, are recorded by a number of sensors, in particular different sensors. In other words, the respective raw data is recorded by means of the multiple sensors or corresponding raw data originating from multiple sensors is received via one or more data interfaces provided for connecting the sensors of a device provided for executing the method according to the invention.

In einem weiteren Verfahrensschritt des erfindungsgemäßen Verfahrens wird für diese Rohdaten jeweils mittels eines vorgegebenen, dem jeweiligen Sensor oder jeweils von einem bestimmten Sensor stammenden Rohdatenstrom zugeordneten trainierten Bewertungsmodells ein Leistungswert vorhergesagt. Die Bewertungsmodelle können beispielsweise, insbesondere tiefe, also mehrschichtige, künstliche neuronale Netze sein oder jeweils ein solches umfassen. Die Leistungswerte geben dabei an, wie gut, also etwa wie genau, wie zuverlässig und/oder wie effektiv, das Assistenzsystem seine - je nach Implementierung oder Anwendungsfall vorgegebene - bestimmungsgemäße Funktion basierend auf den jeweiligen Rohdaten voraussichtlich ausüben oder ausführen kann. Die Leistungswerte können letztlich eine nahezu beliebige Metrik sein, die zum Evaluieren einer Leistung oder Effektivität des Assistenzsystems bei bezüglich seiner bestimmungsgemäßen Funktion geeignet, also damit korreliert ist. Beispielsweise kann für den Fall, dass die bestimmungsgemäße Funktion des Assistenzsystems in der Objektdetektion besteht oder die Objektdetektion umfasst, eine sogenannte Intersectionover-Union (loU) als Metrik, also als Leistungswert oder als Basis zum Bestimmen des jeweiligen Leistungswerts verwendet werden.In a further method step of the method according to the invention, a power value is predicted for this raw data in each case by means of a predefined, trained evaluation model assigned to the respective sensor or raw data stream originating from a specific sensor. The evaluation models can be, for example, in particular deep, that is to say multi-layer, artificial neural networks or can each include such a network. The performance values indicate how well, i.e. how precisely, how reliably and/or how effectively, the assistance system can probably exercise or execute its intended function based on the respective raw data, which is specified depending on the implementation or use case. The performance values can ultimately be almost any metric that is suitable for evaluating a performance or effectiveness of the assistance system with regard to its intended function, that is to say is correlated with it. For example, if the intended function of the assistance system is object detection or includes object detection, a so-called intersectionover union (loU) can be used as a metric, i.e. as a performance value or as a basis for determining the respective performance value.

Die Bewertungsmodelle können in einer praktischen Anwendung oder Umsetzung, beispielsweise als Teil des Assistenzsystems, den Sensoren nachgeschaltet oder in die Sensoren integriert sein.In a practical application or implementation, for example as part of the assistance system, the evaluation models can be downstream of the sensors or integrated into the sensors.

In einem weiteren Verfahrensschritt des erfindungsgemäßen Verfahrens werden die Rohdaten der mehreren Sensoren gemäß ihren von den Bewertungsmodellen vorhergesagten oder bestimmten Leistungswerten relativ zueinander gewichtet miteinander fusioniert, also miteinander kombiniert, um die Daten für das Assistenzsystem zu bilden bzw. bereitzustellen. Dieses Fusionieren der Rohdaten kann dabei von der genannten - gegebenenfalls ganz oder teilweise von dem Assistenzsystem separaten - Einrichtung zum Ausführen des erfindungsgemäßen Verfahrens oder von dem Assistenzsystem selbst durchgeführt werden. In letzterem Fall kann das Assistenzsystem also zum zumindest teilweisen Ausführen des erfindungsgemäßen Verfahrens eingerichtet sein, also der genannten Einrichtung entsprechen oder diese zumindest teilweise umfassen.In a further method step of the method according to the invention, the raw data from the multiple sensors are weighted relative to one another according to their performance values predicted or determined by the evaluation models, fused with one another, i.e. combined with one another, in order to form or provide the data for the assistance system. This merging of the raw data can be carried out by the device mentioned—possibly completely or partially separate from the assistance system—for executing the method according to the invention, or by the assistance system itself. In the latter case, the assistance system can be set up for at least partially executing the method according to the invention, that is to say it can correspond to the device mentioned or at least partially include it.

Das Assistenzsystem kann dann die bereitgestellten Daten, also die gewichtet fusionierten Rohdaten, je nach seiner bestimmungsgemäßen Funktion weiterverarbeiten, beispielsweise zum Erzeugen eines entsprechenden Ausgangs- oder Steuersignals für das Kraftfahrzeug.The assistance system can then further process the data provided, ie the weighted fused raw data, depending on its intended function, for example to generate a corresponding output or control signal for the motor vehicle.

Bei dem gewichteten Fusionieren der Rohdaten können die Leistungswerte direkt als entsprechende Gewichte oder Gewichtsfaktoren verwendet werden. Ebenso können die Leistungswerte beispielsweise in vorgegebener Weise normiert werden, um die Gewichte zu bilden. Ebenso können die Gewichte nach einer vorgegebenen Berechnungsvorschrift aus den Leistungswerten berechnet werden. Dies kann beispielsweise abhängig davon sein oder erfolgen, ob die bestimmten Leistungswerte bzw. deren Formate kompatibel mit einer jeweiligen Implementierung der Datenfusion sind und/oder ob darin weitere Einflussfaktoren berücksichtigt werden sollen. Letztlich kann hier eine nahezu beliebige Fusionsstrategie angewendet werden, solange diese unterschiedliche Inputs, also die Rohdaten der mehreren Sensoren, verarbeiten kann und eine individuelle Gewichtung dieser Inputs zulässt, um den jeweiligen Einfluss der Inputs auf ein Ergebnis der Fusion zu beeinflussen.With the weighted merging of the raw data, the power values can be used directly as corresponding weights or weighting factors. Likewise, the power values can be normalized in a predetermined manner, for example, in order to form the weights. Likewise, the weights can be calculated from the power values according to a predetermined calculation rule. For example, this can depend on or take place on whether the power values determined or their formats are compatible with a particular implementation of the data fusion and/or whether other influencing factors are to be taken into account therein. Ultimately, almost any fusion strategy can be applied here, as long as it can process different inputs, i.e. the raw data from the multiple sensors, and allows individual weighting of these inputs in order to influence the respective influence of the inputs on a result of the fusion.

Durch die Gewichtung der Rohdaten gemäß den vorhergesagten Leistungswerten kann ein Einfluss von minderqualitativen, also weniger robusten, weniger genauen, weniger verlässlichen oder allgemein für die bestimmungsgemäße Funktion des Assistenzsystems weniger geeigneten Rohdaten auf letztliche Verarbeitungsergebnisse des Assistenzsystems reduziert werden. Entsprechend können durch Übergewichtung von Rohdaten mit größeren Leistungswerten also robusteren, genaueren, verlässlicheren oder für die bestimmungsgemäße Funktion des Assistenzsystems besser geeigneten Rohdaten letztlich bessere, robustere, zuverlässigere Ergebnisse des Assistenzsystems erzielt werden.By weighting the raw data according to the predicted performance values, the influence of raw data of inferior quality, ie less robust, less accurate, less reliable or generally less suitable for the intended function of the assistance system, on the final processing results of the assistance system can be reduced. Accordingly, better, more robust, more reliable results of the assistance system can ultimately be achieved by overweighting raw data with greater performance values, ie raw data that is more robust, more accurate, more reliable or better suited for the intended function of the assistance system.

Durch die vorliegende Erfindung kann also gleichzeitig eine besonders breite Datenbasis für die jeweilige Funktion des Assistenzsystems verwendet und dynamisch ein Einfluss minderqualitativer Rohdaten begrenzt werden. Dies kann basierend auf der Erkenntnis vorteilhaft sein, dass eine Kombination von qualitativ hochwertigen Rohdaten eines ersten Sensors mit minderqualitativen Rohdaten eines zweiten Sensors für eine Datengrundlage des Assistenzsystems trotz der relativ schlechteren Qualität der Rohdaten des zweiten Sensors ein besseres Ergebnis liefern bzw. zu einer verbesserten Funktionsweise des Assistenzsystems führen kann, als dies auf Grundlage der Rohdaten jedes der Sensoren einzeln oder individuell möglich wäre. Je nach Art oder Funktion des jeweiligen Assistenzsystem kann somit beispielsweise eine verbesserte Sicherheit im Verkehrsgeschehen, ein größerer Autonomiegrad des jeweiligen Kraftfahrzeugs und/oder dergleichen mehr erreicht werden im Vergleich zu herkömmlichen Systemen, in denen ein Assistenzsystem jeweils nur Rohdaten eines einzelnen Sensors verwendet oder Daten qualitätsunabhängig, also gleichberechtigt miteinander kombiniert.The present invention can therefore simultaneously use a particularly broad database for the respective function of the assistance system and dynamically limit the influence of raw data of inferior quality. This can be advantageous based on the knowledge that a combination of high-quality raw data from a first sensor with low-quality raw data from a second sensor for a database of the assistance system can deliver a better result or improve functionality despite the relatively poorer quality of the raw data from the second sensor of the assistance system than would be possible individually based on the raw data of each of the sensors. Depending on the type or function of the respective assistance system, for example, improved safety in traffic, a greater degree of autonomy for the respective motor vehicle and/or the like can be achieved compared to conventional systems in which an assistance system only uses raw data from a single sensor or data that is independent of quality , i.e. combined with each other on an equal footing.

Die vorliegende Erfindung ermöglicht mittels der Bewertungsmodelle eine individuelle Beobachtung oder Überwachung der einzelnen Sensoren, um vorherzusagen, ob die von den einzelnen Sensoren bereitgestellten Rohdaten jeweils bei deren ausschließlicher Verwendung oder mit den übrigen Rohdaten gleichrangiger oder im Vergleich zu diesen sogar Übergewichtung zu einer Verschlechterung der Performanz, also der Leistungsfähigkeit oder Effektivität, des Assistenzsystems führen würden. Dies erlaubt es wiederum, automatisch die entsprechenden Gewichtungen für die individuellen Rohdaten oder Rohdatenströme der einzelnen Sensoren für die nachfolgende Datenfusion anzupassen, beispielsweise um ein vorgegebenes Kriterium zu erfüllen oder zu maximieren. Ein solches Kriterium kann beispielsweise eine Maximierung eines Konfidenzwerts einer Ausgabe des Assistenzsystems sein. Da im Rahmen der vorliegenden Erfindung jeder Sensor bzw. die Rohdaten oder Rohdatenströme der einzelnen Sensoren individuell überwacht, also durch die Bewertungsmodelle bewertet werden, können diese als sogenanntes Watchdog-System, also als Wächtersystem, aufgefasst werden. Im Gegensatz zu herkömmlichen Wächtersystemen kann hier jedoch nicht nur die Funktionstüchtigkeit der Sensoren überwacht werden, sondern auch überprüft oder überwacht werden, ob die von den einzelnen Sensoren bereitgestellten Rohdaten nützlich sind, also von dem Assistenzsystem zum Ausüben seiner bestimmungsgemäßen Funktion nutzbringend bzw. zielführend verwendet werden können.By means of the evaluation models, the present invention enables individual observation or monitoring of the individual sensors in order to predict whether the raw data provided by the individual sensors will lead to a deterioration in performance when they are used exclusively or are of equal priority to the other raw data or even overweight in comparison to them , i.e. the performance or effectiveness, of the assistance system. This in turn makes it possible to automatically adjust the corresponding weightings for the individual raw data or raw data streams from the individual sensors for the subsequent data fusion, for example in order to meet or maximize a predetermined criterion. Such a criterion can be, for example, a maximization of a confidence value of an output from the assistance system. Since each sensor or the raw data or raw data streams of the individual sensors is individually monitored within the scope of the present invention, ie evaluated by the evaluation models, these can be regarded as a so-called watchdog system, ie as a guard system. In contrast to conventional guard systems, not only can the functionality of the sensors be monitored here, but it can also be checked or monitored whether the raw data provided by the individual sensors is useful, i.e. can be used by the assistance system to perform its intended function in a beneficial or targeted manner be able.

Die vorliegende Erfindung berücksichtigt die Erkenntnis, dass grundsätzlich die Verwendung einer möglichst breiten Datengrundlage, also die Verwendung von Rohdaten mehrerer, insbesondere unterschiedlicher, Sensoren oftmals zu einem verbesserten Ergebnis führen kann, unterschiedliche Sensoren jedoch unterschiedliche Stärken und Schwächen bzw. unterschiedliche Vorteile und Nachteile aufweisen können. Beispielsweise können unterschiedliche Arten von Sensoren je nach Umgebungs- oder Einsatzbedingungen unterschiedlich qualitative bzw. unterschiedlich nützliche Rohdaten liefern. Durch die entsprechende Gewichtung der Rohdaten kann zumindest teilweise verhindert werden, dass unter jeweiligen Umgebungs- oder Einsatzbedingungen gegebene Schwächen oder Nachteile eines oder mehrerer individueller Sensoren sich negativ auf eine Gesamtperformanz des Assistenzsystems auswirken.The present invention takes into account the knowledge that, in principle, the use of the broadest possible data basis, i.e. the use of raw data from several, in particular different, sensors can often lead to an improved result, but different sensors can have different strengths and weaknesses or different advantages and disadvantages . For example, different types of sensors can deliver raw data of different quality or usefulness depending on the environmental or application conditions. Appropriate weighting of the raw data can at least partially prevent weaknesses or disadvantages of one or more individual sensors that exist under the respective environmental or operational conditions from having a negative effect on the overall performance of the assistance system.

Als Sensoren können beispielsweise eine oder mehrere Kameras, eine Radareinrichtung, eine Lidareinrichtung, eine Ultraschalleinrichtung und/oder dergleichen mehr verwendet werden. Die Bewertungsmodelle können dann im Rahmen ihres Trainings beispielsweise lernen, dass eine Objektdetektion basierend auf bei niedriger Umgebungshelligkeit aufgenommenen Bildern typischerweise zu einem Fehler, also beispielsweise zu einem sogenannten Disengagement einer autonomen Fahrfunktion des Kraftfahrzeugs, führen kann. Im Einsatz kann das einer entsprechenden Kamera zugeordnete Bewertungsmodell dann derartige Bilder erkennen, sodass durch deren Minder- oder Untergewichtung die Datenfusion Rohdaten anderer Sensoren stärker gewichtet, sodass sich dadurch letztlich auch das Assistenzsystem verstärkt auf die Rohdaten der anderen Sensoren verlässt, um seine bestimmungsgemäße Funktion auszuüben. Derartige andere Sensoren können beispielsweise eine Radar- oder Lidareinrichtung sein oder umfassen, die von reduzierter Umgebungshelligkeit nicht oder zumindest weniger stark beeinträchtigt werden als eine im optischen Bereich funktionierende Kamera.For example, one or more cameras, a radar device, a lidar device, an ultrasound device and/or the like can be used as sensors. As part of their training, the evaluation models can then learn, for example, that object detection based on images recorded with low ambient brightness can typically lead to an error, for example to a so-called disengagement of an autonomous driving function of the motor vehicle. In use, the evaluation model assigned to a corresponding camera can then recognize such images, so that the data fusion weights raw data from other sensors more heavily due to their underweighting or underweighting, so that ultimately the assistance system also relies more heavily on the raw data from the other sensors in order to carry out its intended function . Such other sensors can be or include a radar or lidar device, for example, which is not affected by reduced ambient brightness or is at least less affected than a camera that works in the optical range.

Für jeden Sensor bzw. für jeden Rohdatenstrom der Sensoren kann der jeweilige Leistungswert insbesondere ausschließlich basierend auf den jeweiligen Rohdaten bestimmt bzw. vorhergesagt werden. Dadurch ist eine besonders einfache, robuste und echtzeitfähige Implementierung der vorliegenden Erfindung möglich.For each sensor or for each raw data stream of the sensors, the respective power value can be determined or predicted exclusively based on the respective raw data. As a result, a particularly simple, robust and real-time capable implementation of the present invention is possible.

Da die Gewichtung der Rohdaten vor deren Verwendung oder Verarbeitung durch das Assistenzsystem zum Ausüben von dessen bestimmungsgemäßer Funktion erfolgt, kann durch eine Mindergewichtung von Sensoren bzw. Rohdaten mit relativ niedrigem Leistungswert die entsprechend niedrige Leistung des Assistenzsystems verhindert werden. Es gibt bereits eine Anzahl von Ansätzen, um zu ermitteln, ob ein System zur datenbasierten Entscheidungsfindung, hier also das Assistenzsystem, sicher, also zuverlässig oder konfident genug ist, um vertrauenswürdige Entscheidungen zu treffen, die auch in einem sicherheitsrelevanten Anwendungsfall akzeptiert und automatisch ausgeführt werden können. Der vorliegenden Erfindung liegt dabei die Erkenntnis zugrunde, dass entsprechende Unsicherheiten derartiger Systeme oftmals direkt auf einen jeweiligen Input, hier also die von den Sensoren bereitgestellten Rohdaten, zurückzuführen sind. Anstatt nun die Verarbeitung entsprechend problematischer Inputs durch das jeweilige System zuzulassen, was in korrespondierend unsicherem oder unzuverlässigem Output resultieren kann, wird vorliegend der Ansatz vorgeschlagen, entsprechend problematischen, also minderqualitativen oder unzuverlässigen Input bereits vor der Verarbeitung zum eigentlichen Ausüben der bestimmungsgemäßen Assistenzfunktion des Assistenzsystems, beispielsweise bereits am oder unmittelbar nach dem jeweiligen Sensor, zu erkennen und dessen Einfluss auf einen resultierenden späteren Output des Assistenzsystems bereits im Vorhinein zu begrenzen.Since the raw data is weighted before it is used or processed by the assistance system to perform its intended function, the correspondingly low performance of the assistance system can be prevented by underweighting sensors or raw data with a relatively low performance value. There are already a number of approaches to determine whether a system for data-based decision-making, in this case the assistance system, is secure, i.e. reliable or confident enough to make trustworthy decisions that are also accepted and automatically executed in a security-relevant application be able. The present invention is based on the finding that corresponding uncertainties in such systems are often directly attributable to a respective input, ie in this case the raw data provided by the sensors. Instead of allowing the respective system to process correspondingly problematic inputs, which can result in correspondingly unsafe or unreliable output, the approach proposed here is to process correspondingly problematic, i.e. low-quality or unreliable input even before processing for actually exercising the intended assistance function of the assistance system, for example, already on or immediately after the respective sensor, and to limit its influence on a resulting later output of the assistance system in advance.

Als weiteres Beispiel können beispielsweise eine optische Kamera bzw. die von dieser aufgenommenen Rohbilder durch direkte Sonneneinstrahlung kompromittiert sein. In einer solchen Situation könnten andere Sensoren, wie etwa Radar oder Lider geeignetere Rohdatenquellen darstellen, um dem Assistenzsystem eine sichere und zuverlässige Ausübung seiner bestimmungsgemäßen Funktion zu ermöglichen. Durch Detektion derartiger Probleme oder Gegebenheiten bei oder unmittelbar nach Aufnahme des jeweiligen Kamerabildes können die dem Assistenzsystem bereitgestellten Daten automatisch durch Übergewichtung der von der Kamera verschiedenen Sensoren bzw. der entsprechenden Rohdaten angepasst werden, bis das jeweilige Problem behoben ist, also nicht mehr besteht, in diesem Fall also beispielsweise die Kamera nicht mehr durch die Sonneneinstrahlung beeinträchtigt wird. Auf diese Weise erlaubt es die vorliegende Erfindung also, bevorstehende oder sich anbahnende Unsicherheiten des Assistenzsystems allein basierend auf den Rohdaten vor ihrem Auftreten zu detektieren und zu verhindern, dass das Assistenzsystem tatsächlich diese Unsicherheit erfährt oder ausbildet.As a further example, an optical camera or the raw images recorded by it can be compromised by direct sunlight. In such a situation, other sensors, such as radar or lids, could represent more suitable raw data sources to enable the assistance system to perform its intended function safely and reliably. By detecting such problems or circumstances during or immediately after recording the respective camera image, the data provided to the assistance system can be automatically adjusted by overweighting the sensors different from the camera or the corresponding raw data until the respective problem has been resolved, i.e. no longer exists, in In this case, for example, the camera is no longer affected by solar radiation. In this way, the present invention thus allows imminent or imminent uncertainties in the assistance system to be detected solely based on the raw data before they occur and to prevent the assistance system from actually experiencing or developing this uncertainty.

In einer möglichen Weiterbildung der vorliegenden Erfindung wird das Vorhersagen der Leistungswerte zumindest im Wesentlichen mit der gleichen Frequenz durchgeführt wie das Erfassen der Rohdaten. Die trainierten Bewertungsmodelle können also sämtliche durch den jeweiligen zugeordneten Sensor erfassten Rohdaten bzw. Messwerte verarbeiten und bewerten, um den jeweiligen Leistungswert zu bestimmen bzw. für eine nachfolgende Weiterverarbeitung der jeweiligen Rohdaten vorherzusagen. Dabei können die Rohdaten gebündelt sein, etwa zu einzelnen Bildern, Scans, Sweeps und/oder dergleichen mehr. Es kann dann für jedes derartige Bündel von Rohdaten ein individueller Leistungswert bestimmt werden. Mit anderen Worten wird also beispielsweise nicht für jeden Pixel oder individuellen Messpunkt ein individueller Leistungswert bestimmt, sondern für jedes Bündel von Rohdaten, also etwa jeweils für ein vollständiges Einzelbild. Dadurch ist eine robuste Grundlage für das zuverlässige Vorhersagen der Leistungswerte gegeben.In one possible development of the present invention, the power values are predicted at least essentially with the same frequency as the acquisition of the raw data. The trained evaluation models can therefore process and evaluate all of the raw data or measured values recorded by the respective assigned sensor in order to determine the respective power value or to predict the respective raw data for subsequent further processing. The raw data can be bundled, for example into individual images, scans, sweeps and/or the like. An individual power value can then be determined for each such bundle of raw data. In other words, an individual power value is not determined for each pixel or individual measurement point, but for each bundle of raw data, ie for a complete individual image. This provides a robust basis for reliably predicting performance values.

Die Rohdaten bzw. die Bündel von Rohdaten können dabei je Sensor seriell von dem zugeordneten Bewertungsmodell verarbeitet werden. Ist dies, beispielsweise durch Hardware- oder Ressourcenbeschränkungen, nicht schnell genug, also nicht in Echtzeit möglich, können je Sensor ebenso mehrere gleiche Bewertungsmodelle verwendet werden, die dann zumindest teilweise parallel betrieben werden können. So können die Rohdaten bzw. Bündel von Rohdaten eines Sensors beispielsweise gemäß einer vorgegebenen, sich wiederholenden Reihenfolge den parallelen Bewertungsmodellen zugeführt werden. So kann also jeweils eines der Bewertungsmodelle noch die vorletzten Rohdaten verarbeiten, während die jeweils aktuellen Rohdaten bereits einem weiteren parallelen Bewertungsmodell zugeführt werden. Auf diese Weise können die Leistungswerte umfassend, also vollständig für alle Rohdaten und auch besonders genau und zuverlässig bestimmt werden, da die Bewertungsmodelle nicht maximal komprimiert werden müssen, um individuell eine ausreichende Verarbeitungsgeschwindigkeit für einen Echtzeitbetrieb an dem jeweiligen Sensor zu ermöglichen, womit typischerweise ein Verlust von Genauigkeit verbunden ist. Somit kann letztlich eine verbesserte Leistungsfähigkeit, Zuverlässigkeit und/oder Robustheit des Assistenzsystems erreicht werden. Je nach Art der Sensoren können die Rohdaten bzw. die Bündel von Rohdaten beispielsweise mit einer Frequenz in der Größenordnung von 10 Hz, also beispielsweise 10 Hz, 25 Hz, 30 Hz, 60 Hz oder dergleichen, aufgenommen bzw. erfasst werden. Dies ermöglicht eine für praktische Anwendungen im Straßenverkehr ausreichend kurze Reaktionszeit des Assistenzsystems und kann gleichzeitig einen dafür notwendigen Datenverarbeitungsaufwand auf praktikable Werte begrenzen.The raw data or the bundles of raw data can be processed serially for each sensor by the assigned evaluation model. If this is not fast enough, for example due to hardware or resource restrictions, i.e. not possible in real time, several identical evaluation models can also be used for each sensor, which can then be operated at least partially in parallel. For example, the raw data or bundles of raw data from a sensor can be supplied to the parallel evaluation models in accordance with a predetermined, repetitive sequence. In this way, one of the evaluation models can still process the penultimate raw data, while the current raw data is already being fed to another parallel evaluation model. In this way, the performance values can be determined comprehensively, i.e. completely for all raw data and also particularly precisely and reliably, since the evaluation models do not have to be compressed to the maximum in order to individually enable sufficient processing speed for real-time operation on the respective sensor, which typically involves a loss associated with accuracy. Improved performance, reliability and/or robustness of the assistance system can thus ultimately be achieved. Depending on the type of sensors, the raw data or the bundles of raw data can be recorded or recorded with a frequency of the order of 10 Hz, for example 10 Hz, 25 Hz, 30 Hz, 60 Hz or the like. This enables the assistance system to have a response time that is sufficiently short for practical applications in road traffic and can at the same time limit the amount of data processing required for this to practicable values.

In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung werden die Rohdaten der mehreren Sensoren mittels eines low-Level Datenfusionsverfahrens fusioniert. Grundsätzlich kann zwar ein nahezu beliebiges Verfahren für die Datenfusion verwendet werden, eine low-Level Fusion bietet jedoch den Vorteil, dass Rohdaten besonders früh in einer Datenverarbeitungspipeline gemäß ihrer jeweiligen vorhergesagten Leistungswerten gehandhabt bzw. verarbeitet oder gegebenenfalls verworfen werden können. Dies ermöglicht eine hinsichtlich der bestimmungsgemäßen Funktion des Assistenzsystems besonders effektive und effiziente Zuweisung oder Verwendung jeweils verfügbarer Hardware- oder Berechnungsressourcen. Im fachüblichen Sinne bedeutet eine low-Level Fusion hier, dass zumindest im Wesentlichen unverarbeitete Rohdaten fusioniert werden, die individuellen Rohdaten also vor der Fusion nicht oder nur rudimentär vorverarbeitet werden.In a further possible embodiment of the present invention, the raw data from the multiple sensors are fused using a low-level data fusion method. In principle, almost any method can be used for the data fusion, but a low-level fusion offers the advantage that raw data can be handled or processed particularly early in a data processing pipeline according to their respective predicted performance values or possibly discarded. This enables a particularly effective and efficient allocation or use of available hardware or calculation resources with regard to the intended function of the assistance system. In the technical sense, a low-level fusion means here that at least essentially unprocessed raw data is fused, i.e. the individual raw data are not or only rudimentarily pre-processed before the fusion.

In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung werden die Rohdaten von unterschiedlichen Arten von Sensoren, insbesondere von auf unterschiedlichen physikalischen Messprinzipien basierenden Sensoren, erfasst. Die Sensoren können also beispielsweise eine optische Kamera, ein Lidargerät, ein Radargerät, ein Ultraschallgerät und/oder dergleichen mehr umfassen. Dementsprechend können auch die Rohdaten bzw. Rohdatenströme unterschiedlicher Art sein. Durch die Verwendung derartig unterschiedlicher Sensoren bzw. Rohdaten kann erreicht werden, dass das Assistenzsystem seine bestimmungsgemäße Funktion in unterschiedlichen Umgebungsbedingungen besonders zuverlässig und robust aufrechterhalten bzw. ausführen kann. Da unter derartigen unterschiedlichen Umgebungsbedingungen die unterschiedlichen Arten von Sensoren oftmals signifikant unterschiedliche Performanz bzw. Zuverlässigkeit bieten und dies in der vorliegenden Erfindung inhärent durch die jeweiligen situationsgerecht dynamisch bestimmten Leistungswerte berücksichtigt wird, kann mittels der vorliegenden Erfindung auf besonders einfache und flexible Weise eine optimale Funktionalität des Assistenzsystems sichergestellt werden.In a further possible embodiment of the present invention, the raw data is recorded by different types of sensors, in particular by sensors based on different physical measurement principles. The sensors can thus include, for example, an optical camera, a lidar device, a radar device, an ultrasound device and/or the like. Accordingly, the raw data or raw data streams can also be of different types. By using such different sensors or raw data, it can be achieved that the assistance system performs its intended function in different environmental conditions can be maintained or run particularly reliably and robustly. Since under such different environmental conditions the different types of sensors often offer significantly different performance or reliability and this is inherently taken into account in the present invention by the respective performance values dynamically determined according to the situation, the present invention can be used in a particularly simple and flexible way to achieve optimal functionality of the assistance system are ensured.

In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung werden die Leistungswerte jeweils mit einem vorgegebenen Leistungsschwellenwert verglichen. Rohdaten, deren Leistungswert kleiner als der Leistungsschwellenwert bzw. als der jeweilige Leistungsschwellenwert ist, werden dann verworfen, sodass sie nicht in die Fusion mit den übrigen Rohdaten einfließen. Insbesondere wenn unterschiedliche Arten von Rohdaten bzw. unterschiedliche Arten oder Modelle von Sensoren verwendet werden, können individuelle Leistungsschwellenwerte vorgegeben sein. Ebenso kann jedoch für sämtliche Rohdaten bzw. Sensoren ein gemeinsamer Leistungsschwellenwert vorgegeben sein. Die verworfenen Rohdaten können beispielsweise direkt gelöscht werden oder es kann Ihnen beispielsweise für die Datenfusion ein Gewicht von null zugewiesen werden. In letzterem Fall können die entsprechenden Rohdaten gegebenenfalls noch für andere Zwecke zur Verfügung stehe, also verwendet werden. Durch den vorgegebenen Leistungsschwellenwert, der eine im jeweiligen Anwendungsfall akzeptable Leistung des Assistenzsystems repräsentiert, können Leistungsverschlechterungen des Assistenzsystems oder ein Erzeugen von überdurchschnittlichen Unsicherheiten des Assistenzsystems besonders effektiv vermieden werden. Ebenso können gegebenenfalls komplette Ausfälle des jeweiligen Sensors vorhergesagt bzw. erkannt werden. Generell kann eine Kombination von Rohdaten mehrerer Sensoren zwar zu einem besseren Ergebnis führen als auf Basis der Rohdaten jedes individuellen Sensors erzielbar wäre. Qualitativ zu schlechte Rohdaten eines einzelnen Sensors können aber dennoch bei ihrer Berücksichtigung in der Datenfusion insgesamt zu einer Verschlechterung des Ergebnisses, also der Leistung oder Performanz des Assistenzsystems, führen. Dies wird durch die hier vorgeschlagene Ausgestaltung der vorliegenden Erfindung auf besonders einfache und effektive Weise verhindert.In a further possible embodiment of the present invention, the power values are each compared with a predetermined power threshold value. Raw data whose power value is less than the power threshold value or the respective power threshold value is then discarded so that it does not flow into the fusion with the remaining raw data. In particular, if different types of raw data or different types or models of sensors are used, individual performance threshold values can be specified. However, a common power threshold value can also be specified for all raw data or sensors. For example, the discarded raw data can be deleted directly or assigned a weight of zero for data fusion, for example. In the latter case, the corresponding raw data may also be available for other purposes, i.e. used. Deterioration in the performance of the assistance system or generation of above-average uncertainties in the assistance system can be particularly effectively avoided by the predefined performance threshold value, which represents an acceptable performance of the assistance system in the respective application. If necessary, complete failures of the respective sensor can also be predicted or recognized. In general, a combination of raw data from multiple sensors can lead to a better result than would be achievable on the basis of the raw data from each individual sensor. Raw data from an individual sensor that is of poor quality can, however, lead to a deterioration in the overall result, i.e. the performance or performance of the assistance system, when taken into account in the data fusion. This is prevented in a particularly simple and effective manner by the embodiment of the present invention proposed here.

In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung werden die Leistungswerte mit einem vorgegebenen Schwellenwert verglichen. Falls jeweils die Leistungswerte aller zumindest im Wesentlichen gleichzeitig erfassten Rohdaten kleiner als der vorgegebene Schwellenwert sind oder höchstens diesem entsprechen, wird - beispielsweise durch die genannte Einrichtung zum Ausführen des erfindungsgemäßen Verfahrens - automatisch ein Warnsignal oder eine Aufforderung zur Übernahme einer manuellen Kontrolle ausgegeben. Mit anderen Worten kann in dem Fall, dass keiner der Sensoren gemäß dem vorgegebenen Schwellenwert ausreichend gute Rohdaten bereitstellt, das Assistenzsystem in diesem Sinne seine bestimmungsgemäße Funktion also nicht oder nicht zuverlässig genug ausüben kann, veranlasst werden, dass diese bestimmungsgemäße Funktion bzw. die Kontrolle oder Steuerung des jeweiligen Kraftfahrzeugs durch eine Bedienperson übernommen wird. Eine entsprechende Aufforderung oder ein entsprechendes Signal kann beispielsweise an einen Fahrzeuginsassen bzw. Fahrer des jeweiligen mit dem Assistenzsystem ausgestatteten Kraftfahrzeugs oder an eine fahrzeugexterne Bedienperson, also an einen Teleoperator ausgegeben oder gesendet werden. Die jeweils zumindest im Wesentlichen gleichzeitig erfassten Rohdaten können sämtliche in einem jeweiligen Takt oder Messzyklus der Sensoren, also zu zeitlich zueinander korrespondierenden Zeitpunkten aufgenommenen Rohdaten sein oder umfassen. Durch die hier vorgeschlagene Ausgestaltung der vorliegenden Erfindung kann also der Fall abgesichert werden, dass zu einem bestimmten Zeitpunkt oder während eines bestimmten Zeitfensters für sämtliche Sensoren bzw. sämtliche aktuell verfügbaren Rohdaten unterhalb des vorgegebenen Schwellenwertes liegende Leistungswerte vorhergesagt werden, beispielsweise aufgrund einer hochkomplexen Verkehrssituation, anspruchsvoller bzw. ungünstiger Wetterbedingungen wie etwa starken Schneefalls und/oder dergleichen mehr. Dadurch, dass in diesem Fall die Aufforderung zur Übernahme der manuellen Kontrolle bereits unmittelbar nach dem Bestimmen der Leistungswerte ausgegeben werden kann, kann eine jeweilige Bedienperson die entsprechende Kontrolle gegebenenfalls bereits übernehmen, bevor das Assistenzsystem die entsprechenden Rohdaten tatsächlich verarbeitet, also in der Ausübung seiner bestimmungsgemäßen Funktion tatsächlich versagt hat. Dies ermöglicht eine weiter verbesserte Sicherheit im Betrieb des Assistenzsystems bzw. des Kraftfahrzeugs.In a further possible embodiment of the present invention, the power values are compared with a predetermined threshold value. If the power values of all raw data recorded at least essentially simultaneously are less than the specified threshold value or at most correspond to it, a warning signal or a request to take over a manual control is automatically output - for example by the device mentioned for carrying out the method according to the invention. In other words, in the event that none of the sensors provides sufficiently good raw data according to the specified threshold value, i.e. the assistance system in this sense cannot perform its intended function or cannot perform it reliably enough, this intended function or the control or Control of the respective motor vehicle is taken over by an operator. A corresponding request or a corresponding signal can be output or sent, for example, to a vehicle occupant or driver of the respective motor vehicle equipped with the assistance system or to an operator external to the vehicle, ie to a teleoperator. The raw data recorded at least essentially simultaneously can be or include all raw data recorded in a respective clock or measurement cycle of the sensors, ie at times corresponding to one another in terms of time. The embodiment of the present invention proposed here can thus be safeguarded against the case that at a specific point in time or during a specific time window for all sensors or all currently available raw data power values below the specified threshold value are predicted, for example due to a highly complex traffic situation, more demanding or unfavorable weather conditions such as heavy snowfall and/or the like. Because in this case the request to take over manual control can be issued immediately after the performance values have been determined, a respective operator can possibly already take over the corresponding control before the assistance system actually processes the corresponding raw data, i.e. in the exercise of its intended tasks function has actually failed. This enables further improved safety when operating the assistance system or the motor vehicle.

In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung umfasst das Assistenzsystem ein vorgegebenes Funktionsmodell zum automatisierten Ausüben seiner bestimmungsgemäßen Funktion. Dieses Funktionsmodell ist dazu eingerichtet, also gegebenenfalls darauf trainiert, von mehreren, insbesondere unterschiedlichen, Sensoren stammende Daten zu verarbeiten. Die einzelnen Bewertungsmodelle sind dabei anhand von Rohdaten und anhand von Verarbeitungsergebnissen eines nur mit den Rohdaten des dem jeweiligen Bewertungsmodell zugeordneten Sensors beschickten, aber ansonsten dem vorgegebenen Funktionsmodell entsprechenden Trainingsfunktionsmodells trainiert. In der Anwendung der vorliegenden Erfindung sagen die Bewertungsmodelle effektiv also vorher, was passieren würde, wie sich das Assistenzsystem also verhalten würde, wenn ausschließlich die Rohdaten des dem jeweiligen Bewertungsmodell zugeordneten Sensors verwendet würden. Dadurch können gezielt gerade diejenigen Sensoren oder Rohdaten untergewichtet werden bzw. unberücksichtigt bleiben, die den geringsten positiven Beitrag oder sogar einen negativen Beitrag zur Performance des Assistenzsystems liefern. Zum Trainieren der Bewertungsmodelle können nahezu beliebige bekannte Trainings- oder Regressionsvorhersagemethoden angewendet werden. Dadurch, dass bei dem Trainieren der Bewertungsmodelle Trainingsfunktionsmodelle verwendet werden, die zumindest im Wesentlichen dem letztendlich in der Anwendung verwendeten Funktionsmodell entsprechen, können die Bewertungsmodelle effektiv introspektiv trainiert werden. Die Bewertungsmodelle können also anhand von vorherigen Verarbeitungsergebnissen bzw. einer vorherigen Performanz des jeweiligen Trainingsfunktionsmodells, die sich bei dem Verarbeiten von Rohdaten des jeweiligen Sensors ergeben haben, trainiert werden oder trainiert sein. Anstatt jedoch nur vorherzusagen, dass das Assistenzsystem bei minderqualitativen Rohdaten voraussichtlich versagen wird, kann durch die vorliegende Erfindung verhindert werden, dass das Assistenzsystem überhaupt in einen entsprechenden unsicheren Zustand oder Fehlerzustand gerät, indem die entsprechenden Rohdaten gemäß der Vorhersage der Bewertungsmodelle untergewichtet oder verworfen werden. Wenn das Training der Bewertungsmodelle abgeschlossen ist, können die Trainingsmodelle verworfen werden, da diese nicht für das Ausüben der bestimmungsgemäßen Funktion des Assistenzsystems basierend auf mehreren unterschiedlichen Rohdaten strömen eingerichtet oder trainiert sind. Mittels der abschließend trainierten Bewertungsmodelle kann jeder der mehreren Sensoren individuell überwacht und ein kontinuierlicher Strom von vorhergesagten Leistungswerten zu den entsprechend kontinuierlich erfassten Rohdaten bereitgestellt werden.In a further possible embodiment of the present invention, the assistance system includes a predefined function model for the automated execution of its intended function. This functional model is set up, ie possibly trained, to process data originating from a plurality of, in particular different, sensors. The individual evaluation models are based on raw data and based on processing results of one only with the raw data of the respective Sensor assigned to the evaluation model, but otherwise trained to the training function model corresponding to the predetermined function model. In the application of the present invention, the evaluation models effectively predict what would happen, that is, how the assistance system would behave, if only the raw data of the sensor assigned to the respective evaluation model were used. As a result, precisely those sensors or raw data that make the least positive contribution or even make a negative contribution to the performance of the assistance system can be underweighted or disregarded. Almost any known training or regression prediction method can be used to train the scoring models. Because training function models are used when training the evaluation models, which at least essentially correspond to the function model ultimately used in the application, the evaluation models can be effectively trained introspectively. The evaluation models can therefore be or have been trained using previous processing results or a previous performance of the respective training function model that resulted from the processing of raw data from the respective sensor. However, instead of only predicting that the assistance system is likely to fail in the case of low-quality raw data, the present invention can prevent the assistance system from getting into a corresponding unsafe state or error state by underweighting or discarding the corresponding raw data according to the prediction of the evaluation models. When the training of the evaluation models is complete, the training models can be discarded, since they are not set up or trained for exercising the intended function of the assistance system based on a number of different raw data streams. Using the finally trained evaluation models, each of the multiple sensors can be individually monitored and a continuous stream of predicted performance values can be provided for the corresponding continuously recorded raw data.

In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung sind bzw. werden die Bewertungsmodelle mit Rohdaten von bestimmungsgemäß oder spezifikationsgemäß funktionierenden Sensoren und mit Rohdaten von beschädigten und/oder verschmutzten Sensoren trainiert. Dabei können als Trainingsreferenz Verarbeitungsergebnisse aus dem Verarbeiten von Rohdaten von derartigen Sensoren verwendet werden bzw. verwendet worden sein. Dadurch, dass die Bewertungsmodelle somit auch für beschädigte und/oder verschmutzte Sensoren, also dementsprechend veränderte Rohdaten trainiert sind, können die Leistungswerte im praktischen Einsatz in einer Vielzahl unterschiedlicher Situationen besonders zuverlässig und robust vorhergesagt werden.In a further possible embodiment of the present invention, the evaluation models are or will be trained with raw data from sensors that are functioning as intended or according to specifications and with raw data from damaged and/or soiled sensors. Processing results from the processing of raw data from such sensors can be used or have been used as a training reference. Due to the fact that the evaluation models are also trained for damaged and/or soiled sensors, that is to say correspondingly changed raw data, the performance values can be predicted particularly reliably and robustly in practical use in a large number of different situations.

Die genannten Trainingsverfahren oder Trainingsmethoden können Teil des erfindungsgemäßen Verfahrens sein oder unabhängig von diesem, also vor einem praktischen Einsatz in einem Kraftfahrzeug, durchgeführt werden. Ebenso können die genannten Trainingsverfahren oder Trainingsmethoden jeweils einen eigenen Aspekt der vorliegenden Erfindung bilden.The training procedures or training methods mentioned can be part of the method according to the invention or can be carried out independently of it, ie before practical use in a motor vehicle. Likewise, the training procedures or training methods mentioned can each form a separate aspect of the present invention.

Ein weiterer Aspekt der vorliegenden Erfindung ist ein Assistenzsystem für ein Kraftfahrzeug. Das erfindungsgemäße Assistenzsystem weist mehrere Bewertungsmodelle zum Vorhersagen von Leistungswerten für mittels mehrerer Sensoren erfasste Rohdaten, eine Fusionseinheit zum automatischen Fusionieren der Rohdaten, ein Funktionsmodell zum Ausüben einer bestimmungsgemäßen Assistenzfunktion des Assistenzsystems und eine Datenschnittstelle zum Ausgeben eines aus dem Verarbeiten der fusionierten Rohdaten resultierenden Ergebnissignals auf. Das erfindungsgemäße Assistenzsystem ist dabei zum automatischen oder teilautomatischen Ausführen wenigstens einer Variante des erfindungsgemäßen Verfahrens eingerichtet. Das erfindungsgemäße Assistenzsystem sowie dessen Komponenten können dementsprechend insbesondere dem im Zusammenhang mit dem erfindungsgemäßen Verfahren genannten Assistenzsystem bzw. den dort genannten Komponenten entsprechen. Die genannten mehreren Sensoren können dabei ebenfalls Teil des Assistenzsystems oder von diesem separate Einrichtungen sein, die in einem praktischen Einsatz des Assistenzsystems in dem jeweiligen Kraftfahrzeug mit dem Assistenzsystem verbunden werden oder verbunden sein können. Insbesondere sofern die Sensoren von dem Assistenzsystem separat sind, kann das Assistenzsystem eine oder mehrere entsprechende Eingangsschnittstellen zum Erfassen der von den Sensoren bereitgestellten Rohdaten aufweisen.Another aspect of the present invention is an assistance system for a motor vehicle. The assistance system according to the invention has several evaluation models for predicting performance values for raw data recorded by means of several sensors, a fusion unit for automatically merging the raw data, a functional model for exercising an intended assistance function of the assistance system and a data interface for outputting a result signal resulting from the processing of the fused raw data. The assistance system according to the invention is set up for the automatic or semi-automatic execution of at least one variant of the method according to the invention. The assistance system according to the invention and its components can accordingly correspond in particular to the assistance system mentioned in connection with the method according to the invention or the components mentioned there. The number of sensors mentioned can likewise be part of the assistance system or devices separate from it, which are or can be connected to the assistance system in practical use of the assistance system in the respective motor vehicle. In particular if the sensors are separate from the assistance system, the assistance system can have one or more corresponding input interfaces for acquiring the raw data provided by the sensors.

Zum Ausführen des erfindungsgemäßen Verfahrens kann das Assistenzsystem mit entsprechenden Datenverarbeitungsmitteln ausgestattet sein. Dazu kann das Assistenzsystem insbesondere einen computerlesbaren Datenspeicher sowie eine damit verbundene Prozessoreinrichtung, beispielsweise einen Mikrochip, einen Mikroprozessor oder einen Mikrocontroller, aufweisen. In dem Datenspeicher kann dann einen Betriebs- oder Computerprogramm gespeichert sein, das die Verfahrensschritte oder Abläufe des erfindungsgemäßen Verfahrens repräsentiert, also codiert oder implementiert, und mittels der Prozessoreinrichtung ausführbar ist, um das entsprechende Verfahren auszuführen oder dessen Ausführung zu veranlassen.To carry out the method according to the invention, the assistance system can be equipped with appropriate data processing means. For this purpose, the assistance system can in particular have a computer-readable data memory and a processor device connected thereto, for example a microchip, a microprocessor or a microcontroller. An operating or computer program can then be stored in the data memory, which represents, ie encodes or implements, the method steps or sequences of the method according to the invention and can be executed by means of the processor device practicable to carry out the relevant method or cause it to be carried out.

Ein weiterer Aspekt der vorliegenden Erfindung ist ein Kraftfahrzeug, das mehrere Sensoren, insbesondere unterschiedlicher Art, zum Aufnehmen von Rohdaten und ein mit diesen verbundenes oder diese umfassendes Assistenzsystem gemäß der vorliegenden Erfindung aufweist. Das erfindungsgemäße Kraftfahrzeug kann insbesondere das im Zusammenhang mit dem erfindungsgemäßen Verfahren und/oder im Zusammenhang mit dem erfindungsgemäßen Assistenzsystem genannte Kraftfahrzeug sein.Another aspect of the present invention is a motor vehicle that has multiple sensors, in particular of different types, for recording raw data and an assistance system that is connected to them or includes them, according to the present invention. The motor vehicle according to the invention can in particular be the motor vehicle mentioned in connection with the method according to the invention and/or in connection with the assistance system according to the invention.

Weitere Merkmale der Erfindung können sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung ergeben. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung und/oder in den Figuren allein gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.Further features of the invention can result from the claims, the figures and the description of the figures. The features and feature combinations mentioned above in the description and the features and feature combinations shown below in the description of the figures and/or in the figures alone can be used not only in the combination specified in each case, but also in other combinations or on their own, without going beyond the scope of the invention to leave.

Die Zeichnung zeigt in:

  • 1 eine schematische Darstellung zum Veranschaulichen eines Trainingsprozesses eines Bewertungsmodells;
  • 2 eine schematische Darstellung zum Veranschaulichen eines Verfahrens zum Bereitstellen von fusionierten Daten für ein Assistenzsystem; und
  • 3 eine schematische Darstellung eines Kraftfahrzeugs mit einem solchen Assistenzsystem.
The drawing shows in:
  • 1 a schematic representation for illustrating a training process of an evaluation model;
  • 2 a schematic representation to illustrate a method for providing merged data for an assistance system; and
  • 3 a schematic representation of a motor vehicle with such an assistance system.

In den Figuren sind gleiche und funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.In the figures, identical and functionally identical elements are provided with the same reference symbols.

1 zeigt eine schematische Darstellung zum Veranschaulichen eines Trainingsprozesses eines Modells zum Unterstützen eines zumindest teilweise automatisierten Betriebs insbesondere eines Fahrzeugs. Darin werden mittels eines Sensors 10 aus einer jeweiligen Umgebung Signale empfangen und als aufgenommene Rohdaten 12 bereitgestellt. Diese Rohdaten 12 werden als Input oder Eingangsdaten einem Trainingsfunktionsmodell 14 zugeführt. Je nach konkretem Anwendungsfall kann das jeweilige Trainingsfunktionsmodell 14 für unterschiedliche bestimmungsgemäße Funktionen eingerichtet oder trainiert sein. Beispielsweise kann das Trainingsfunktionsmodell 14 ein Objektdetektionsmodell sein oder umfassen. Das Trainingsfunktionsmodell 14 ist bzw. wird hier spezifisch für den jeweiligen Sensor 10, also mit den von genau diesem oder einem funktionell entsprechenden Sensor 10 bereitgestellten Rohdaten 12 trainiert. 1 shows a schematic representation to illustrate a training process of a model for supporting at least partially automated operation, in particular of a vehicle. A sensor 10 is used therein to receive signals from a particular environment and provide them as recorded raw data 12 . These raw data 12 are supplied to a training function model 14 as input or input data. Depending on the specific application, the respective training function model 14 can be set up or trained for different intended functions. For example, the training function model 14 may be or include an object detection model. The training function model 14 is or is trained here specifically for the respective sensor 10, that is to say with the raw data 12 provided by this sensor or a functionally corresponding sensor 10.

Nachdem das Trainingsfunktionsmodell 14 trainiert ist, werden diesem weiter die mittels des jeweiligen Sensors 10 aufgenommenen Rohdaten 12 zum Verarbeiten zugeführt. Dabei resultierende Verarbeitungsergebnisse 16, die eine Performanz, also eine Genauigkeit, Effektivität, Zuverlässigkeit, Konfidenz und/oder dergleichen mehr, des Trainingsfunktionsmodells 14 bei dem Verarbeiten der jeweiligen Rohdaten 12 angeben, werden aufgezeichnet bzw. bereitgestellt. Die entsprechenden Rohdaten 12 und das jeweils zugehörige Verarbeitungsergebnis 16 werden dann als Trainingsdaten einem dem jeweiligen Sensor 10 zugeordneten Bewertungsmodell 18 zugeführt. Anhand dieser Trainingsdaten wird das Bewertungsmodell 18 darauf trainiert, allein aus den jeweiligen Rohdaten 12 einen Leistungswert 24 (siehe 2) vorherzusagen, der die Performanz des Trainingsfunktionsmodells 14 bei dem Verarbeiten dieser Rohdaten 12 angibt.After the training function model 14 has been trained, the raw data 12 recorded by means of the respective sensor 10 is fed to it for processing. The processing results 16 resulting from this, which indicate a performance, ie an accuracy, effectiveness, reliability, confidence and/or the like, of the training function model 14 when the respective raw data 12 is processed are recorded or made available. The corresponding raw data 12 and the respectively associated processing result 16 are then supplied as training data to an evaluation model 18 assigned to the respective sensor 10 . Based on this training data, the evaluation model 18 is trained to generate a performance value 24 (see 2 ) that indicates the performance of the training function model 14 in processing this raw data 12 .

Dieser Trainingsprozesses wird für mehrere, insbesondere unterschiedliche, Sensoren 10 mit einem jeweils zugeordneten Trainingsfunktionsmodell 14 und einem jeweils zugeordneten Bewertungsmodell 18 durchgeführt.This training process is carried out for a plurality of, in particular different, sensors 10 with a respectively assigned training function model 14 and a respectively assigned evaluation model 18 .

2 zeigt eine schematische Darstellung zum Veranschaulichen einer praktischen Anwendung der so trainierten Bewertungsmodelle 18. Dazu ist schematisch ein Assistenzsystem 20, insbesondere für ein Fahrzeug, dargestellt. Das Assistenzsystem 20 kann mehrere Sensoren 10 umfassen oder entsprechende Schnittstellen zum Anschließen mehrerer Sensoren 10 bzw. zum Erfassen der von diesen bereitgestellten Rohdaten 12 aufweisen. Je Sensor 10, je Sensorart oder je entsprechender Schnittstelle kann das Assistenzsystem 20 ein für den jeweiligen Sensor 10 bzw. eine entsprechende Sensorart, also anhand der von diesem oder einem solchen Sensor 10 bereitgestellten Rohdaten 12, trainiert sein. Beispielhaft umfasst das Assistenzsystem 20 hier zwei separate Sensoren 10 mit einem jeweils zugeordneten Bewertungsmodell 18. Ebenso können jedoch weitere Sensoren 10 bzw. weitere Bewertungsmodelle 18 vorgesehen sein. Sind dabei mehrere Sensoren 10 derselben Art vorgesehen, so kann für diese jeweils ein eigenes Bewertungsmodell 18 oder ein gemeinsames Bewertungsmodell 18 vorgesehen sein, dem dann beispielsweise die Rohdaten 12 mehrerer oder aller Sensoren 10 derselben Art zugeführt werden können. 2 shows a schematic representation to illustrate a practical application of the evaluation models 18 trained in this way. An assistance system 20, in particular for a vehicle, is represented schematically for this purpose. The assistance system 20 can include a plurality of sensors 10 or have corresponding interfaces for connecting a plurality of sensors 10 or for acquiring the raw data 12 provided by them. For each sensor 10, each sensor type or each corresponding interface, the assistance system 20 can be trained for the respective sensor 10 or a corresponding sensor type, ie using the raw data 12 provided by this or such a sensor 10. By way of example, the assistance system 20 here includes two separate sensors 10 each with an associated evaluation model 18. However, further sensors 10 or further evaluation models 18 can also be provided. If several sensors 10 of the same type are provided, a separate evaluation model 18 or a common evaluation model 18 can be provided for each of them, to which the raw data 12 of several or all sensors 10 of the same type can then be fed, for example.

Weiter umfasst das Assistenzsystem 20 eine Fusionseinheit 22. Diese Fusionseinheit 22 ist dazu eingerichtet, die Rohdaten 12 der verschiedenen Sensoren 10 miteinander zu fusionieren. Der Fusionseinheit 22 werden jedoch nicht als Eingangsdaten nicht nur die Rohdaten 12, sondern auch die jeweils dafür durch die Bewertungsmodelle 18 vorhergesagten Leistungswerte 24 zugeführt. Die Fusionseinheit 22 führt dann eine gewichtete Fusion der Rohdaten 12 durch, wobei die individuellen Gewichtungen der Rohdaten 12 durch die jeweiligen zugeordneten Leistungswerte 24 gegeben oder bestimmt sind. Als Output liefert die Fusionseinheit 22 dann entsprechend fusionierte Daten 26.Next includes the assistance system 20 a fusion unit 22. This fusion unit 22 is set up to the raw data 12 of the various Sensors 10 to merge together. However, not only the raw data 12 but also the power values 24 predicted for them by the evaluation models 18 are not fed to the fusion unit 22 as input data. The fusion unit 22 then carries out a weighted fusion of the raw data 12, the individual weightings of the raw data 12 being given or determined by the respective associated power values 24. The fusion unit 22 then supplies correspondingly fused data 26 as output.

Weiter umfasst das Assistenzsystem 20 ein Funktionsmodell 28, das zum Ausüben einer bestimmungsgemäßen Assistenzfunktion des Assistenzsystems 20 eingerichtet bzw. trainiert ist. Das Funktionsmodell 28 kann also ebenfalls ein, insbesondere tiefes, künstliches neuronales Netz sein oder umfassen. Das Funktionsmodell 28 kann insbesondere von der gleichen Art sein, also für die gleiche Funktion eingerichtet oder trainiert sein wie die Trainingsfunktionsmodelle 14. Im Gegensatz zu diesen ist das Funktionsmodell 28 jedoch darauf trainiert, diese Funktion basierend auf den fusionierten Daten 26, letztlich also basierend auf Daten von mehreren, insbesondere unterschiedlichen, Sensoren 10 auszuüben. Dementsprechend werden die fusionierten Daten 26 dem Funktionsmodell 28 als Eingangsdaten zugeführt. Das Funktionsmodell 28 verarbeitet dann diese fusionierten Daten 26 und kann ein entsprechendes Ergebnissignal erzeugen, das dann beispielsweise von dem Assistenzsystem 20 ausgegeben werden kann, wie hier schematisch durch einen entsprechenden Pfeil angedeutet ist.Assistance system 20 also includes a functional model 28 that is set up or trained to exercise an intended assistance function of assistance system 20 . The functional model 28 can also be or include an artificial neural network, in particular a deep artificial neural network. The functional model 28 can in particular be of the same type, i.e. it can be set up or trained for the same function as the training function models 14. In contrast to these, however, the functional model 28 is trained to use this function based on the merged data 26, ultimately based on Data from several, in particular different, sensors 10 exercise. Accordingly, the merged data 26 is supplied to the functional model 28 as input data. The functional model 28 then processes this merged data 26 and can generate a corresponding result signal, which can then be output by the assistance system 20, for example, as indicated here schematically by a corresponding arrow.

3 zeigt eine schematische Darstellung eines Kraftfahrzeugs 30, das mit einem solchen Assistenzsystem 20 ausgestattet ist. Das Kraftfahrzeug 30 umfasst hier beispielhaft drei Sensoren 10, die beispielsweise eine optische Kamera, eine Lidar- oder Radareinrichtung und eine Ultraschalleinrichtung sein oder umfassen können. Diese Sensoren 10 sind hier an das Assistenzsystem 20 über eine Eingangsschnittstelle 32 angebunden. Zum Verarbeiten der über die Eingangsschnittstelle 32 erfassten Rohdaten 12 der Sensoren 10 umfasst das Assistenzsystem 20 einen computerlesbaren Datenspeicher 34 und einen damit verbundenen Prozessor 36. In dem Datenspeicher 34 können beispielsweise die Bewertungsmodelle 18, die Fusionseinheit 22 und das Funktionsmodell 28 sowie ein entsprechendes Betriebs- oder Computerprogramm gespeichert sein, die mittels des Prozessors 36 ausführbar sind, um die bestimmungsgemäße Funktion des Assistenzsystems 20 zu realisieren. 3 shows a schematic representation of a motor vehicle 30, which is equipped with such an assistance system 20. Motor vehicle 30 includes three sensors 10 here, for example, which can be or include, for example, an optical camera, a lidar or radar device, and an ultrasonic device. Here, these sensors 10 are connected to the assistance system 20 via an input interface 32 . For processing the raw data 12 of the sensors 10 recorded via the input interface 32, the assistance system 20 comprises a computer-readable data memory 34 and a processor 36 connected thereto. or computer program can be stored, which can be executed by the processor 36 in order to implement the intended function of the assistance system 20.

Das Assistenzsystem 20 kann beispielsweise dazu eingerichtet sein, das Kraftfahrzeug 30 oder wenigstens eine Fahrzeugeinrichtung 38 des Kraftfahrzeugs 30 basierend auf den fusionierten Daten 26 automatisch zu steuern.The assistance system 20 can be set up, for example, to automatically control the motor vehicle 30 or at least one vehicle device 38 of the motor vehicle 30 based on the merged data 26 .

Für den Fall, dass keiner der Sensoren 10 dafür brauchbare Rohdaten 12 liefert, die Leistungswerte 24 für sämtliche Sensoren 10 bzw. deren Rohdaten 12 also beispielsweise unterhalb eines vorgegebenen Schwellenwertes liegenden, kann das Assistenzsystem 20 dazu eingerichtet sein, über eine Ausgangsschnittstelle 40 zur Absicherung ein Anforderungssignal 42 auszugeben. Durch das Anforderungssignal 42 kann das Assistenzsystem 20 eine manuelle Kontrollübernahme der Steuerung seiner bestimmungsgemäßen Funktion bzw. des Kraftfahrzeugs 30 insgesamt durch eine Bedienperson anfordern. Dabei kann es sich beispielsweise um einen Fahrer 44 des Kraftfahrzeugs 30 oder einen hier ebenfalls schematisch angedeuteten fahrzeugexternen Teleoperator 46 handeln.In the event that none of the sensors 10 supplies raw data 12 that can be used for this purpose, i.e. the performance values 24 for all sensors 10 or their raw data 12 are, for example, below a predefined threshold value, the assistance system 20 can be set up to use an output interface 40 to safeguard Request signal 42 to issue. The assistance system 20 can use the request signal 42 to request manual control of the control of its intended function or of the motor vehicle 30 as a whole by an operator. This can be, for example, a driver 44 of motor vehicle 30 or a vehicle-external teleoperator 46, which is also indicated schematically here.

Insgesamt zeigen die beschriebenen Beispiele wie problematische Sensordaten anhand einer sensorspezifischen Performancevorhersage detektiert werden können, um eine besonders zuverlässige und robuste Assistenzfunktionalität in unterschiedlichen Einsatzbedingungen zu ermöglichen.Overall, the examples described show how problematic sensor data can be detected using a sensor-specific performance prediction in order to enable a particularly reliable and robust assistance functionality in different operating conditions.

BezugszeichenlisteReference List

1010
Sensorsensor
1212
Rohdatenraw data
1414
Trainingsfunktionsmodelltraining function model
1616
Verarbeitungsergebnisprocessing result
1818
Bewertungsmodellscoring model
2020
Assistenzsystemassistance system
2222
Fusionseinheitfusion unit
2424
Leistungswerteperformance values
2626
fusionierte Datenmerged data
2828
Funktionsmodellfunctional model
3030
Kraftfahrzeugmotor vehicle
3232
Eingangsschnittstelleinput interface
3434
Datenspeicherdata storage
3636
Prozessorprocessor
3838
Fahrzeugeinrichtungin-vehicle equipment
4040
Ausgangsschnittstelleoutput interface
4242
Anforderungssignalrequest signal
4444
Fahrerdriver
4646
Teleoperatorteleoperator

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • DE 102018101505 A1 [0004]DE 102018101505 A1 [0004]

Claims (10)

Verfahren zum Bereitstellen von Daten (26) für ein Assistenzsystem (20) eines Kraftfahrzeugs (30), bei dem -jeweilige Rohdaten (12) von mehreren Sensoren (10) erfasst werden, - für diese Rohdaten (12) jeweils mittels eines vorgegebenen, dem jeweiligen Sensor (10) zugeordneten trainierten Bewertungsmodells (18) ein Leistungswert (24) vorhergesagt wird, wobei die Leistungswerte (24) angeben, wie gut das Assistenzsystem (20) seine bestimmungsgemäße Funktion basierend auf den jeweiligen Rohdaten (12) voraussichtlich ausüben kann, und - die Rohdaten (12) der mehreren Sensoren (10) gemäß ihren Leistungswerten (24) gewichtet miteinander fusioniert werden, um die Daten (26) für das Assistenzsystem (20) bereitzustellen.Method for providing data (26) for an assistance system (20) of a motor vehicle (30), in which - respective raw data (12) are recorded by several sensors (10), - a performance value (24) is predicted for each of these raw data (12) by means of a predetermined, trained evaluation model (18) assigned to the respective sensor (10), the performance values (24) indicating how well the assistance system (20) is functioning as intended can probably exercise based on the respective raw data (12), and - the raw data (12) from the plurality of sensors (10) are weighted according to their performance values (24) and merged with one another in order to provide the data (26) for the assistance system (20). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Vorhersagen der Leistungswerte (24) zumindest im Wesentlichen mit der gleichen Frequenz durchgeführt wird wie das Erfassen der Rohdaten (12).procedure after claim 1 , characterized in that the power values (24) are predicted at least essentially at the same frequency as the acquisition of the raw data (12). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Rohdaten (12) der mehreren Sensoren (10) mittels eines low-level Datenfusionsverfahrens fusioniert werden.Method according to one of the preceding claims, characterized in that the raw data (12) from the plurality of sensors (10) are fused using a low-level data fusion method. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Rohdaten (12) von unterschiedlichen Arten von Sensoren (10), insbesondere von auf unterschiedlichen physikalischen Messprinzipien basierenden Sensoren (10), erfasst werden.Method according to one of the preceding claims, characterized in that the raw data (12) are recorded by different types of sensors (10), in particular by sensors (10) based on different physical measurement principles. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Leistungswerte (24) jeweils mit einem vorgegebenen Leistungsschwellenwert verglichen werden und Rohdaten (12), deren Leistungswert (24) kleiner als der Leistungsschwellenwert ist, verworfen werden, sodass sie nicht in die Fusion mit den übrigen Rohdaten (12) einfließen.Method according to one of the preceding claims, characterized in that the power values (24) are each compared with a predetermined power threshold value and raw data (12) whose power value (24) is less than the power threshold value is discarded so that they are not included in the fusion with flow into the remaining raw data (12). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Leistungswerte (24) mit einem vorgegebenen Schwellenwert verglichen werden und falls jeweils die Leistungswerte (24) aller zumindest im Wesentlichen gleichzeitig erfassten Rohdaten (12) kleiner als der vorgegebene Schwellenwert sind automatisch eine Aufforderung zu Übernahme einer manuellen Kontrolle ausgegeben wird.Method according to one of the preceding claims, characterized in that the power values (24) are compared with a specified threshold value and if the power values (24) of all raw data (12) recorded at least substantially simultaneously are smaller than the specified threshold value, a request is automatically made Taking over a manual control is issued. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Assistenzsystem (20) ein vorgegebenes Funktionsmodell (28) zum automatisierten Ausüben seiner bestimmungsgemäßen Funktion umfasst, das dazu eingerichtet ist, von mehreren Sensoren (10) stammende Daten (26) zu verarbeiten, und die einzelnen Bewertungsmodelle (18) anhand von Rohdaten (12) und anhand von Verarbeitungsergebnissen (16) eines nur mit Rohdaten (12) des dem jeweiligen Bewertungsmodell (18) zugeordneten Sensors (10) beschickten, aber ansonsten dem vorgegebenen Funktionsmodell (28) entsprechenden Trainingsfunktionsmodells (14) trainiert sind.Method according to one of the preceding claims, characterized in that the assistance system (20) comprises a predefined functional model (28) for the automated exercise of its intended function, which is set up to process data (26) originating from a plurality of sensors (10), and the individual evaluation models (18) based on raw data (12) and based on processing results (16) of a training function model that is only loaded with raw data (12) from the sensor (10) assigned to the respective evaluation model (18) but otherwise corresponds to the specified function model (28). (14) are trained. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bewertungsmodelle (18) mit Rohdaten (12) von bestimmungsgemäß funktionierenden Sensoren (10) und von beschädigten und/oder verschmutzten Sensoren (10) trainiert sind.Method according to one of the preceding claims, characterized in that the evaluation models (18) are trained with raw data (12) from sensors (10) functioning as intended and from damaged and/or soiled sensors (10). Assistenzsystem (20) für ein Kraftfahrzeug (30), aufweisend mehrere Bewertungsmodelle (18) zum Vorhersagen von Leistungswerten (24) für mittels mehrerer Sensoren (10) erfasste Rohdaten (12), eine Fusionseinheit (22) zum automatischen Fusionieren der Rohdaten (12), ein Funktionsmodell (28) zum Ausüben einer bestimmungemäßen Assistenzfunktion des Assistenzsystems (20) und eine Datenschnittstelle (40) zum Ausgeben eines aus dem Verarbeiten der fusionierten Rohdaten (12) resultierenden Ergebnissignals, wobei das Assistenzsystem (20) zum automatischen Ausführen eines Verfahrens nach einem der vorhergehenden Ansprüche eingerichtet ist.Assistance system (20) for a motor vehicle (30), having several evaluation models (18) for predicting performance values (24) for raw data (12) recorded by means of several sensors (10), a fusion unit (22) for automatically merging the raw data (12) , a functional model (28) for performing a specific assistance function of the assistance system (20) and a data interface (40) for outputting a result signal resulting from the processing of the merged raw data (12), the assistance system (20) for automatically executing a method according to one of the preceding claims is set up. Kraftfahrzeug (30), aufweisend mehrere Sensoren (10) zum Aufnehmen von Rohdaten (12) und ein mit diesen verbundenes Assistenzsystem (20) nach Anspruch 9.Motor vehicle (30), having a plurality of sensors (10) for recording raw data (12) and an assistance system (20) connected to them claim 9 .
DE102021101717.3A 2021-01-27 2021-01-27 Method for providing merged data, assistance system and motor vehicle Pending DE102021101717A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021101717.3A DE102021101717A1 (en) 2021-01-27 2021-01-27 Method for providing merged data, assistance system and motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021101717.3A DE102021101717A1 (en) 2021-01-27 2021-01-27 Method for providing merged data, assistance system and motor vehicle

Publications (1)

Publication Number Publication Date
DE102021101717A1 true DE102021101717A1 (en) 2022-07-28

Family

ID=82320825

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021101717.3A Pending DE102021101717A1 (en) 2021-01-27 2021-01-27 Method for providing merged data, assistance system and motor vehicle

Country Status (1)

Country Link
DE (1) DE102021101717A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2604478A1 (en) 2011-12-13 2013-06-19 Delphi Technologies, Inc. Method for recognising function errors of a multi-sensor assembly
DE102018101505A1 (en) 2017-01-31 2018-08-02 GM Global Technology Operations LLC EFFICIENT SITUATION AWARENESS OF PERCEPTIONS IN AUTONOMOUS DRIVING SYSTEMS
US20180239991A1 (en) 2015-05-15 2018-08-23 Airfusion, Inc. Portable apparatus and method for decision support for real time automated multisensor data fusion and analysis
US20200356828A1 (en) 2019-05-08 2020-11-12 GM Global Technology Operations LLC Explainable learning system & methods for autonomous driving
DE102019208890A1 (en) 2019-06-19 2020-12-24 Robert Bosch Gmbh Method for at least partially automated driving of a motor vehicle
DE102019215902A1 (en) 2019-10-16 2021-05-20 Robert Bosch Gmbh Method for determining a quality level of data sets from sensors

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2604478A1 (en) 2011-12-13 2013-06-19 Delphi Technologies, Inc. Method for recognising function errors of a multi-sensor assembly
US20180239991A1 (en) 2015-05-15 2018-08-23 Airfusion, Inc. Portable apparatus and method for decision support for real time automated multisensor data fusion and analysis
DE102018101505A1 (en) 2017-01-31 2018-08-02 GM Global Technology Operations LLC EFFICIENT SITUATION AWARENESS OF PERCEPTIONS IN AUTONOMOUS DRIVING SYSTEMS
US20200356828A1 (en) 2019-05-08 2020-11-12 GM Global Technology Operations LLC Explainable learning system & methods for autonomous driving
DE102019208890A1 (en) 2019-06-19 2020-12-24 Robert Bosch Gmbh Method for at least partially automated driving of a motor vehicle
DE102019215902A1 (en) 2019-10-16 2021-05-20 Robert Bosch Gmbh Method for determining a quality level of data sets from sensors

Similar Documents

Publication Publication Date Title
DE102008013366B4 (en) Method for providing information for driver assistance systems
WO2018177484A1 (en) Method and system for predicting sensor signals from a vehicle
WO2014118178A1 (en) Creation of an environment model for a vehicle
WO2021121695A1 (en) Method, apparatus and system for detecting abnormal operating states of a device
DE102014106506A1 (en) Method for carrying out a diagnosis of a camera system of a motor vehicle, camera system and motor vehicle
DE102017217444A1 (en) Method and system for updating a control model for automatic control of at least one mobile unit
DE102018215753A1 (en) Device and method for determining a trajectory of a vehicle
DE102020206755A1 (en) REDUNDANCY INFORMATION FOR OBJECT INTERFACE FOR HIGHLY AND FULLY AUTOMATED DRIVING
DE102017214531A1 (en) Method and device for operating a motor vehicle in an automated driving operation and motor vehicle
DE102019206349A1 (en) Method and computer program product for recognizing signal signs for traffic control of lane-bound vehicles and signal sign recognition system and lane-bound vehicle, in particular rail vehicle
DE102021004426A1 (en) Method for training an autonomous driving function
EP4022535A1 (en) Classification of ai modules
DE102021101717A1 (en) Method for providing merged data, assistance system and motor vehicle
DE102018205146A1 (en) Test method for high-resolution headlamps using AI
DE102022103324A1 (en) System and method for detecting inconsistencies in automated vehicle perception systems.
DE102021201539A1 (en) Generation of training data for a machine learning algorithm
EP3772017A1 (en) Rail signal detection for autonomous railway vehicles
DE102017207958B4 (en) A method of generating training data for a machine learning based pattern recognition method for a motor vehicle, motor vehicle, method of operating a computing device, and system
DE102021214334B3 (en) Vehicle data system and method for determining relevant or transferable vehicle data of an environment detection sensor
DE102019111608A1 (en) Method for determining the proper movement of a motor vehicle, electronic computing device and electronic vehicle guidance system
EP3644582B1 (en) Method, device and central device for detecting a concept shift in the data and / or feature distribution of input data
DE102022207617B3 (en) Method and monitoring device for controlling at least one vehicle function of a vehicle
DE102020117812A1 (en) Method for providing a device for predicting errors when processing image data, device for predicting segmentation errors and motor vehicle
WO2023131603A1 (en) Method for optimizing the environment sensing for a driving assistance system by means of an additional reference sensor system
DE102022125229A1 (en) SYSTEM AND METHOD FOR AUTOMATICALLY ACTIVATING A WINDSCREEN WIPER OF A VEHICLE

Legal Events

Date Code Title Description
R163 Identified publications notified
R081 Change of applicant/patentee

Owner name: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, DE

Free format text: FORMER OWNER: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, 80809 MUENCHEN, DE

R081 Change of applicant/patentee

Owner name: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, DE

Free format text: FORMER OWNERS: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, 80809 MUENCHEN, DE; TECHNISCHE UNIVERSITAET MUENCHEN, KOERPERSCHAFT DES OEFFENTLICHEN RECHTS, 80333 MUENCHEN, DE