DE102021101717A1 - Method for providing merged data, assistance system and motor vehicle - Google Patents
Method for providing merged data, assistance system and motor vehicle Download PDFInfo
- Publication number
- DE102021101717A1 DE102021101717A1 DE102021101717.3A DE102021101717A DE102021101717A1 DE 102021101717 A1 DE102021101717 A1 DE 102021101717A1 DE 102021101717 A DE102021101717 A DE 102021101717A DE 102021101717 A1 DE102021101717 A1 DE 102021101717A1
- Authority
- DE
- Germany
- Prior art keywords
- raw data
- assistance system
- sensors
- data
- motor vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000013210 evaluation model Methods 0.000 claims abstract description 44
- 238000012549 training Methods 0.000 claims description 29
- 230000004927 fusion Effects 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 14
- 238000007500 overflow downdraw method Methods 0.000 claims description 2
- 238000000053 physical method Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 45
- 230000000875 corresponding effect Effects 0.000 description 26
- 238000001514 detection method Methods 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/005—Handover processes
- B60W60/0059—Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/029—Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0022—Gains, weighting coefficients or weighting functions
- B60W2050/0025—Transfer function weighting factor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0028—Mathematical models, e.g. for simulation
- B60W2050/0037—Mathematical models of vehicle sub-units
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
- B60W2050/0215—Sensor drifts or sensor failures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/029—Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
- B60W2050/0292—Fail-safe or redundant systems, e.g. limp-home or backup systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/20—Data confidence level
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/25—Data precision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/35—Data fusion
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Bereitstellen von Daten (26) für ein Assistenzsystem (20) eines Kraftfahrzeugs (30). Die Erfindung betrifft weiter ein solches Assistenzsystem (20) und ein damit ausgestattetes Kraftfahrzeug (30). In dem Verfahren werden jeweilige Rohdaten von (12) mehreren Sensoren (10) erfasst. Für diese Rohdaten (12) wird jeweils mittels eines dem jeweiligen Sensor (10) zugeordneten trainierten Bewertungsmodells (18) ein Leistungswert (24) vorhergesagt. Diese Leistungswerte (24) geben an, wie gut das Assistenzsystem (20) seine bestimmungsgemäße Funktion basierend auf den jeweiligen Rohdaten (12) voraussichtlich ausüben kann. Die Rohdaten (12) der mehreren Sensoren (10) werden dann gemäß ihren Leistungswerten (24) gewichtet miteinander fusioniert, um die Daten (26) für das Assistenzsystem (20) bereitzustellen.The invention relates to a method for providing data (26) for an assistance system (20) of a motor vehicle (30). The invention further relates to such an assistance system (20) and a motor vehicle (30) equipped with it. In the method, respective raw data from (12) several sensors (10) are recorded. A performance value (24) is predicted for each of these raw data (12) by means of a trained evaluation model (18) assigned to the respective sensor (10). These performance values (24) indicate how well the assistance system (20) can probably carry out its intended function based on the respective raw data (12). The raw data (12) from the multiple sensors (10) are then fused together, weighted according to their performance values (24), in order to provide the data (26) for the assistance system (20).
Description
Die vorliegende Erfindung betrifft ein Verfahren zum Bereitstellen von Daten für ein Assistenzsystem eines Kraftfahrzeugs. Die Erfindung betrifft weiter ein entsprechendes Assistenzsystem sowie ein damit ausgestattetes Kraftfahrzeug.The present invention relates to a method for providing data for an assistance system of a motor vehicle. The invention further relates to a corresponding assistance system and a motor vehicle equipped therewith.
Mit dem Bestreben, die Sicherheit im Straßenverkehr zu verbessern und einen autonomen Fahrbetrieb von Kraftfahrzeugen zu ermöglichen, werden in heutigen Kraftfahrzeugen oftmals eine Vielzahl von Sensoren und zunehmend komplexere Datenverarbeitungsmethoden eingesetzt. Dies kann zwar prinzipiell zu einer Verbesserung führen, jedoch ebenso Probleme mit sich bringen. So können beispielsweise niederqualitative Daten eines Sensors bei der Kombination mit anderen Daten zu einem suboptimalen Ergebnis führen. Zudem ist mit steigender Komplexität der Systeme nicht immer verständlich oder nachvollziehbar, wie das System zu einer bestimmten Entscheidung oder zu einem bestimmten Ergebnis gelangt ist.With the attempt to improve road safety and to enable autonomous driving of motor vehicles, a large number of sensors and increasingly complex data processing methods are often used in today's motor vehicles. In principle, this can lead to an improvement, but it can also cause problems. For example, low-quality data from a sensor can lead to a suboptimal result when combined with other data. In addition, as the complexity of the systems increases, it is not always understandable or comprehensible how the system arrived at a specific decision or a specific result.
Dazu ist beispielsweise in der US 2020 / 0 356 828 A1 ein Verfahren zum Erklären von Fahrverhaltensaktionen eines autonomen Fahrzeugs beschrieben. Darin werden in einem Szenenverständnismodul von einer Vielzahl von Informationsquellen des Fahrzeugs gesammelte Informationen kombiniert. Basierend auf einer daraus erzeugten Zustandsrepräsentation werden ein oder mehrere gewichtete Verhaltensrichtlinien bestimmt. Basierend auf diesen wird eine Fahrverhaltensaktion für das Fahrzeug ausgewählt und durchgeführt. Schließlich werden Informationen bereitgestellt, die anzeigen, warum diese Fahrverhaltensaktion in einem bestimmten Fahrkontext des Fahrzeugs ausgewählt wurde. Auf diese Weise soll ein einfach erklärbares Lernsystem für ein autonomes Fahrzeug unabhängig von einer Anzahl und einem Typ von Sensormodulen und Datenverarbeitungsmethoden des Fahrzeugs bereitgestellt werden. Dabei werden jedoch nicht sämtliche Einflüsse und Optimierungsmöglichkeiten berücksichtigt.A method for explaining driving behavior actions of an autonomous vehicle is described in US 2020/0 356 828 A1, for example. Therein, information collected from a variety of information sources of the vehicle is combined in a scene understanding module. Based on a state representation generated from this, one or more weighted behavioral guidelines are determined. Based on these, a driving behavior action for the vehicle is selected and implemented. Finally, information is provided that indicates why this driving behavior action was selected in a particular driving context of the vehicle. In this way, an easy-to-explain learning system for an autonomous vehicle is to be provided, regardless of the number and type of sensor modules and data processing methods of the vehicle. However, not all influences and optimization possibilities are taken into account.
Eine Fusion bzw. Vorverarbeitung von Sensordaten ist auch in der
Aufgabe der vorliegenden Erfindung ist es, ein besonders zuverlässiges und robustes Funktionieren eines Sensordaten basierten Assistenzsystems in unterschiedlichen Einsatzbedingungen zu ermöglichen.The object of the present invention is to enable a particularly reliable and robust functioning of an assistance system based on sensor data in different operating conditions.
Diese Aufgabe wird erfindungsgemäß durch die Gegenstände der unabhängigen Patentansprüche gelöst. Mögliche Ausgestaltungen und Weiterbildungen der vorliegenden Erfindung sind in den abhängigen Patentansprüchen, in der Beschreibung und in den Figuren offenbart.According to the invention, this object is achieved by the subject matter of the independent patent claims. Possible refinements and developments of the present invention are disclosed in the dependent patent claims, in the description and in the figures.
Das erfindungsgemäße Verfahren dient zum Bereitstellen von Daten für ein oder an ein Assistenzsystem eines Kraftfahrzeugs. Das Verfahren kann dabei für unterschiedliche Arten von Daten und für unterschiedliche Assistenzsysteme, auch als ADAS (englisch: Advanced Driver Assistant System) bezeichnet, angewendet werden. Das Assistenzsystem kann also basierend auf den bereitgestellten Daten je nach Implementierung oder Anwendungsfall unterschiedliche Funktionen oder Ausgaben ausüben, beispielsweise eine Objekterkennung, eine Objektlokalisierung, ein Detektieren eines befahrbaren Freiraums in einer Umgebung des Kraftfahrzeugs, eine Quer- und/oder Längsführung des Kraftfahrzeugs und/oder dergleichen mehr.The method according to the invention serves to provide data for or to an assistance system of a motor vehicle. The method can be used for different types of data and for different assistance systems, also referred to as ADAS (Advanced Driver Assistant System). The assistance system can therefore perform different functions or outputs based on the data provided, depending on the implementation or application, for example object recognition, object localization, detection of a free space that can be driven on in an area surrounding the motor vehicle, lateral and/or longitudinal guidance of the motor vehicle and/or more like that.
In einem Verfahrensschritt des erfindungsgemäßen Verfahrens werden jeweilige Rohdaten, also Messwerte, Sensordaten oder Sensorsignale, von mehreren, insbesondere unterschiedlichen, Sensoren erfasst. Mit anderen Worten werden hier also mittels der mehreren Sensoren jeweilige Rohdaten aufgenommen oder entsprechende Rohdaten, die von mehreren Sensoren stammen, über eine oder mehrere zum Anschließen der Sensoren vorgesehene Datenschnittstellen einer zum Ausführen des erfindungsgemäßen Verfahrens vorgesehenen Einrichtung empfangen.In a method step of the method according to the invention, respective raw data, that is to say measured values, sensor data or sensor signals, are recorded by a number of sensors, in particular different sensors. In other words, the respective raw data is recorded by means of the multiple sensors or corresponding raw data originating from multiple sensors is received via one or more data interfaces provided for connecting the sensors of a device provided for executing the method according to the invention.
In einem weiteren Verfahrensschritt des erfindungsgemäßen Verfahrens wird für diese Rohdaten jeweils mittels eines vorgegebenen, dem jeweiligen Sensor oder jeweils von einem bestimmten Sensor stammenden Rohdatenstrom zugeordneten trainierten Bewertungsmodells ein Leistungswert vorhergesagt. Die Bewertungsmodelle können beispielsweise, insbesondere tiefe, also mehrschichtige, künstliche neuronale Netze sein oder jeweils ein solches umfassen. Die Leistungswerte geben dabei an, wie gut, also etwa wie genau, wie zuverlässig und/oder wie effektiv, das Assistenzsystem seine - je nach Implementierung oder Anwendungsfall vorgegebene - bestimmungsgemäße Funktion basierend auf den jeweiligen Rohdaten voraussichtlich ausüben oder ausführen kann. Die Leistungswerte können letztlich eine nahezu beliebige Metrik sein, die zum Evaluieren einer Leistung oder Effektivität des Assistenzsystems bei bezüglich seiner bestimmungsgemäßen Funktion geeignet, also damit korreliert ist. Beispielsweise kann für den Fall, dass die bestimmungsgemäße Funktion des Assistenzsystems in der Objektdetektion besteht oder die Objektdetektion umfasst, eine sogenannte Intersectionover-Union (loU) als Metrik, also als Leistungswert oder als Basis zum Bestimmen des jeweiligen Leistungswerts verwendet werden.In a further method step of the method according to the invention, a power value is predicted for this raw data in each case by means of a predefined, trained evaluation model assigned to the respective sensor or raw data stream originating from a specific sensor. The evaluation models can be, for example, in particular deep, that is to say multi-layer, artificial neural networks or can each include such a network. The performance values indicate how well, i.e. how precisely, how reliably and/or how effectively, the assistance system can probably exercise or execute its intended function based on the respective raw data, which is specified depending on the implementation or use case. The performance values can ultimately be almost any metric that is suitable for evaluating a performance or effectiveness of the assistance system with regard to its intended function, that is to say is correlated with it. For example, if the intended function of the assistance system is object detection or includes object detection, a so-called intersectionover union (loU) can be used as a metric, i.e. as a performance value or as a basis for determining the respective performance value.
Die Bewertungsmodelle können in einer praktischen Anwendung oder Umsetzung, beispielsweise als Teil des Assistenzsystems, den Sensoren nachgeschaltet oder in die Sensoren integriert sein.In a practical application or implementation, for example as part of the assistance system, the evaluation models can be downstream of the sensors or integrated into the sensors.
In einem weiteren Verfahrensschritt des erfindungsgemäßen Verfahrens werden die Rohdaten der mehreren Sensoren gemäß ihren von den Bewertungsmodellen vorhergesagten oder bestimmten Leistungswerten relativ zueinander gewichtet miteinander fusioniert, also miteinander kombiniert, um die Daten für das Assistenzsystem zu bilden bzw. bereitzustellen. Dieses Fusionieren der Rohdaten kann dabei von der genannten - gegebenenfalls ganz oder teilweise von dem Assistenzsystem separaten - Einrichtung zum Ausführen des erfindungsgemäßen Verfahrens oder von dem Assistenzsystem selbst durchgeführt werden. In letzterem Fall kann das Assistenzsystem also zum zumindest teilweisen Ausführen des erfindungsgemäßen Verfahrens eingerichtet sein, also der genannten Einrichtung entsprechen oder diese zumindest teilweise umfassen.In a further method step of the method according to the invention, the raw data from the multiple sensors are weighted relative to one another according to their performance values predicted or determined by the evaluation models, fused with one another, i.e. combined with one another, in order to form or provide the data for the assistance system. This merging of the raw data can be carried out by the device mentioned—possibly completely or partially separate from the assistance system—for executing the method according to the invention, or by the assistance system itself. In the latter case, the assistance system can be set up for at least partially executing the method according to the invention, that is to say it can correspond to the device mentioned or at least partially include it.
Das Assistenzsystem kann dann die bereitgestellten Daten, also die gewichtet fusionierten Rohdaten, je nach seiner bestimmungsgemäßen Funktion weiterverarbeiten, beispielsweise zum Erzeugen eines entsprechenden Ausgangs- oder Steuersignals für das Kraftfahrzeug.The assistance system can then further process the data provided, ie the weighted fused raw data, depending on its intended function, for example to generate a corresponding output or control signal for the motor vehicle.
Bei dem gewichteten Fusionieren der Rohdaten können die Leistungswerte direkt als entsprechende Gewichte oder Gewichtsfaktoren verwendet werden. Ebenso können die Leistungswerte beispielsweise in vorgegebener Weise normiert werden, um die Gewichte zu bilden. Ebenso können die Gewichte nach einer vorgegebenen Berechnungsvorschrift aus den Leistungswerten berechnet werden. Dies kann beispielsweise abhängig davon sein oder erfolgen, ob die bestimmten Leistungswerte bzw. deren Formate kompatibel mit einer jeweiligen Implementierung der Datenfusion sind und/oder ob darin weitere Einflussfaktoren berücksichtigt werden sollen. Letztlich kann hier eine nahezu beliebige Fusionsstrategie angewendet werden, solange diese unterschiedliche Inputs, also die Rohdaten der mehreren Sensoren, verarbeiten kann und eine individuelle Gewichtung dieser Inputs zulässt, um den jeweiligen Einfluss der Inputs auf ein Ergebnis der Fusion zu beeinflussen.With the weighted merging of the raw data, the power values can be used directly as corresponding weights or weighting factors. Likewise, the power values can be normalized in a predetermined manner, for example, in order to form the weights. Likewise, the weights can be calculated from the power values according to a predetermined calculation rule. For example, this can depend on or take place on whether the power values determined or their formats are compatible with a particular implementation of the data fusion and/or whether other influencing factors are to be taken into account therein. Ultimately, almost any fusion strategy can be applied here, as long as it can process different inputs, i.e. the raw data from the multiple sensors, and allows individual weighting of these inputs in order to influence the respective influence of the inputs on a result of the fusion.
Durch die Gewichtung der Rohdaten gemäß den vorhergesagten Leistungswerten kann ein Einfluss von minderqualitativen, also weniger robusten, weniger genauen, weniger verlässlichen oder allgemein für die bestimmungsgemäße Funktion des Assistenzsystems weniger geeigneten Rohdaten auf letztliche Verarbeitungsergebnisse des Assistenzsystems reduziert werden. Entsprechend können durch Übergewichtung von Rohdaten mit größeren Leistungswerten also robusteren, genaueren, verlässlicheren oder für die bestimmungsgemäße Funktion des Assistenzsystems besser geeigneten Rohdaten letztlich bessere, robustere, zuverlässigere Ergebnisse des Assistenzsystems erzielt werden.By weighting the raw data according to the predicted performance values, the influence of raw data of inferior quality, ie less robust, less accurate, less reliable or generally less suitable for the intended function of the assistance system, on the final processing results of the assistance system can be reduced. Accordingly, better, more robust, more reliable results of the assistance system can ultimately be achieved by overweighting raw data with greater performance values, ie raw data that is more robust, more accurate, more reliable or better suited for the intended function of the assistance system.
Durch die vorliegende Erfindung kann also gleichzeitig eine besonders breite Datenbasis für die jeweilige Funktion des Assistenzsystems verwendet und dynamisch ein Einfluss minderqualitativer Rohdaten begrenzt werden. Dies kann basierend auf der Erkenntnis vorteilhaft sein, dass eine Kombination von qualitativ hochwertigen Rohdaten eines ersten Sensors mit minderqualitativen Rohdaten eines zweiten Sensors für eine Datengrundlage des Assistenzsystems trotz der relativ schlechteren Qualität der Rohdaten des zweiten Sensors ein besseres Ergebnis liefern bzw. zu einer verbesserten Funktionsweise des Assistenzsystems führen kann, als dies auf Grundlage der Rohdaten jedes der Sensoren einzeln oder individuell möglich wäre. Je nach Art oder Funktion des jeweiligen Assistenzsystem kann somit beispielsweise eine verbesserte Sicherheit im Verkehrsgeschehen, ein größerer Autonomiegrad des jeweiligen Kraftfahrzeugs und/oder dergleichen mehr erreicht werden im Vergleich zu herkömmlichen Systemen, in denen ein Assistenzsystem jeweils nur Rohdaten eines einzelnen Sensors verwendet oder Daten qualitätsunabhängig, also gleichberechtigt miteinander kombiniert.The present invention can therefore simultaneously use a particularly broad database for the respective function of the assistance system and dynamically limit the influence of raw data of inferior quality. This can be advantageous based on the knowledge that a combination of high-quality raw data from a first sensor with low-quality raw data from a second sensor for a database of the assistance system can deliver a better result or improve functionality despite the relatively poorer quality of the raw data from the second sensor of the assistance system than would be possible individually based on the raw data of each of the sensors. Depending on the type or function of the respective assistance system, for example, improved safety in traffic, a greater degree of autonomy for the respective motor vehicle and/or the like can be achieved compared to conventional systems in which an assistance system only uses raw data from a single sensor or data that is independent of quality , i.e. combined with each other on an equal footing.
Die vorliegende Erfindung ermöglicht mittels der Bewertungsmodelle eine individuelle Beobachtung oder Überwachung der einzelnen Sensoren, um vorherzusagen, ob die von den einzelnen Sensoren bereitgestellten Rohdaten jeweils bei deren ausschließlicher Verwendung oder mit den übrigen Rohdaten gleichrangiger oder im Vergleich zu diesen sogar Übergewichtung zu einer Verschlechterung der Performanz, also der Leistungsfähigkeit oder Effektivität, des Assistenzsystems führen würden. Dies erlaubt es wiederum, automatisch die entsprechenden Gewichtungen für die individuellen Rohdaten oder Rohdatenströme der einzelnen Sensoren für die nachfolgende Datenfusion anzupassen, beispielsweise um ein vorgegebenes Kriterium zu erfüllen oder zu maximieren. Ein solches Kriterium kann beispielsweise eine Maximierung eines Konfidenzwerts einer Ausgabe des Assistenzsystems sein. Da im Rahmen der vorliegenden Erfindung jeder Sensor bzw. die Rohdaten oder Rohdatenströme der einzelnen Sensoren individuell überwacht, also durch die Bewertungsmodelle bewertet werden, können diese als sogenanntes Watchdog-System, also als Wächtersystem, aufgefasst werden. Im Gegensatz zu herkömmlichen Wächtersystemen kann hier jedoch nicht nur die Funktionstüchtigkeit der Sensoren überwacht werden, sondern auch überprüft oder überwacht werden, ob die von den einzelnen Sensoren bereitgestellten Rohdaten nützlich sind, also von dem Assistenzsystem zum Ausüben seiner bestimmungsgemäßen Funktion nutzbringend bzw. zielführend verwendet werden können.By means of the evaluation models, the present invention enables individual observation or monitoring of the individual sensors in order to predict whether the raw data provided by the individual sensors will lead to a deterioration in performance when they are used exclusively or are of equal priority to the other raw data or even overweight in comparison to them , i.e. the performance or effectiveness, of the assistance system. This in turn makes it possible to automatically adjust the corresponding weightings for the individual raw data or raw data streams from the individual sensors for the subsequent data fusion, for example in order to meet or maximize a predetermined criterion. Such a criterion can be, for example, a maximization of a confidence value of an output from the assistance system. Since each sensor or the raw data or raw data streams of the individual sensors is individually monitored within the scope of the present invention, ie evaluated by the evaluation models, these can be regarded as a so-called watchdog system, ie as a guard system. In contrast to conventional guard systems, not only can the functionality of the sensors be monitored here, but it can also be checked or monitored whether the raw data provided by the individual sensors is useful, i.e. can be used by the assistance system to perform its intended function in a beneficial or targeted manner be able.
Die vorliegende Erfindung berücksichtigt die Erkenntnis, dass grundsätzlich die Verwendung einer möglichst breiten Datengrundlage, also die Verwendung von Rohdaten mehrerer, insbesondere unterschiedlicher, Sensoren oftmals zu einem verbesserten Ergebnis führen kann, unterschiedliche Sensoren jedoch unterschiedliche Stärken und Schwächen bzw. unterschiedliche Vorteile und Nachteile aufweisen können. Beispielsweise können unterschiedliche Arten von Sensoren je nach Umgebungs- oder Einsatzbedingungen unterschiedlich qualitative bzw. unterschiedlich nützliche Rohdaten liefern. Durch die entsprechende Gewichtung der Rohdaten kann zumindest teilweise verhindert werden, dass unter jeweiligen Umgebungs- oder Einsatzbedingungen gegebene Schwächen oder Nachteile eines oder mehrerer individueller Sensoren sich negativ auf eine Gesamtperformanz des Assistenzsystems auswirken.The present invention takes into account the knowledge that, in principle, the use of the broadest possible data basis, i.e. the use of raw data from several, in particular different, sensors can often lead to an improved result, but different sensors can have different strengths and weaknesses or different advantages and disadvantages . For example, different types of sensors can deliver raw data of different quality or usefulness depending on the environmental or application conditions. Appropriate weighting of the raw data can at least partially prevent weaknesses or disadvantages of one or more individual sensors that exist under the respective environmental or operational conditions from having a negative effect on the overall performance of the assistance system.
Als Sensoren können beispielsweise eine oder mehrere Kameras, eine Radareinrichtung, eine Lidareinrichtung, eine Ultraschalleinrichtung und/oder dergleichen mehr verwendet werden. Die Bewertungsmodelle können dann im Rahmen ihres Trainings beispielsweise lernen, dass eine Objektdetektion basierend auf bei niedriger Umgebungshelligkeit aufgenommenen Bildern typischerweise zu einem Fehler, also beispielsweise zu einem sogenannten Disengagement einer autonomen Fahrfunktion des Kraftfahrzeugs, führen kann. Im Einsatz kann das einer entsprechenden Kamera zugeordnete Bewertungsmodell dann derartige Bilder erkennen, sodass durch deren Minder- oder Untergewichtung die Datenfusion Rohdaten anderer Sensoren stärker gewichtet, sodass sich dadurch letztlich auch das Assistenzsystem verstärkt auf die Rohdaten der anderen Sensoren verlässt, um seine bestimmungsgemäße Funktion auszuüben. Derartige andere Sensoren können beispielsweise eine Radar- oder Lidareinrichtung sein oder umfassen, die von reduzierter Umgebungshelligkeit nicht oder zumindest weniger stark beeinträchtigt werden als eine im optischen Bereich funktionierende Kamera.For example, one or more cameras, a radar device, a lidar device, an ultrasound device and/or the like can be used as sensors. As part of their training, the evaluation models can then learn, for example, that object detection based on images recorded with low ambient brightness can typically lead to an error, for example to a so-called disengagement of an autonomous driving function of the motor vehicle. In use, the evaluation model assigned to a corresponding camera can then recognize such images, so that the data fusion weights raw data from other sensors more heavily due to their underweighting or underweighting, so that ultimately the assistance system also relies more heavily on the raw data from the other sensors in order to carry out its intended function . Such other sensors can be or include a radar or lidar device, for example, which is not affected by reduced ambient brightness or is at least less affected than a camera that works in the optical range.
Für jeden Sensor bzw. für jeden Rohdatenstrom der Sensoren kann der jeweilige Leistungswert insbesondere ausschließlich basierend auf den jeweiligen Rohdaten bestimmt bzw. vorhergesagt werden. Dadurch ist eine besonders einfache, robuste und echtzeitfähige Implementierung der vorliegenden Erfindung möglich.For each sensor or for each raw data stream of the sensors, the respective power value can be determined or predicted exclusively based on the respective raw data. As a result, a particularly simple, robust and real-time capable implementation of the present invention is possible.
Da die Gewichtung der Rohdaten vor deren Verwendung oder Verarbeitung durch das Assistenzsystem zum Ausüben von dessen bestimmungsgemäßer Funktion erfolgt, kann durch eine Mindergewichtung von Sensoren bzw. Rohdaten mit relativ niedrigem Leistungswert die entsprechend niedrige Leistung des Assistenzsystems verhindert werden. Es gibt bereits eine Anzahl von Ansätzen, um zu ermitteln, ob ein System zur datenbasierten Entscheidungsfindung, hier also das Assistenzsystem, sicher, also zuverlässig oder konfident genug ist, um vertrauenswürdige Entscheidungen zu treffen, die auch in einem sicherheitsrelevanten Anwendungsfall akzeptiert und automatisch ausgeführt werden können. Der vorliegenden Erfindung liegt dabei die Erkenntnis zugrunde, dass entsprechende Unsicherheiten derartiger Systeme oftmals direkt auf einen jeweiligen Input, hier also die von den Sensoren bereitgestellten Rohdaten, zurückzuführen sind. Anstatt nun die Verarbeitung entsprechend problematischer Inputs durch das jeweilige System zuzulassen, was in korrespondierend unsicherem oder unzuverlässigem Output resultieren kann, wird vorliegend der Ansatz vorgeschlagen, entsprechend problematischen, also minderqualitativen oder unzuverlässigen Input bereits vor der Verarbeitung zum eigentlichen Ausüben der bestimmungsgemäßen Assistenzfunktion des Assistenzsystems, beispielsweise bereits am oder unmittelbar nach dem jeweiligen Sensor, zu erkennen und dessen Einfluss auf einen resultierenden späteren Output des Assistenzsystems bereits im Vorhinein zu begrenzen.Since the raw data is weighted before it is used or processed by the assistance system to perform its intended function, the correspondingly low performance of the assistance system can be prevented by underweighting sensors or raw data with a relatively low performance value. There are already a number of approaches to determine whether a system for data-based decision-making, in this case the assistance system, is secure, i.e. reliable or confident enough to make trustworthy decisions that are also accepted and automatically executed in a security-relevant application be able. The present invention is based on the finding that corresponding uncertainties in such systems are often directly attributable to a respective input, ie in this case the raw data provided by the sensors. Instead of allowing the respective system to process correspondingly problematic inputs, which can result in correspondingly unsafe or unreliable output, the approach proposed here is to process correspondingly problematic, i.e. low-quality or unreliable input even before processing for actually exercising the intended assistance function of the assistance system, for example, already on or immediately after the respective sensor, and to limit its influence on a resulting later output of the assistance system in advance.
Als weiteres Beispiel können beispielsweise eine optische Kamera bzw. die von dieser aufgenommenen Rohbilder durch direkte Sonneneinstrahlung kompromittiert sein. In einer solchen Situation könnten andere Sensoren, wie etwa Radar oder Lider geeignetere Rohdatenquellen darstellen, um dem Assistenzsystem eine sichere und zuverlässige Ausübung seiner bestimmungsgemäßen Funktion zu ermöglichen. Durch Detektion derartiger Probleme oder Gegebenheiten bei oder unmittelbar nach Aufnahme des jeweiligen Kamerabildes können die dem Assistenzsystem bereitgestellten Daten automatisch durch Übergewichtung der von der Kamera verschiedenen Sensoren bzw. der entsprechenden Rohdaten angepasst werden, bis das jeweilige Problem behoben ist, also nicht mehr besteht, in diesem Fall also beispielsweise die Kamera nicht mehr durch die Sonneneinstrahlung beeinträchtigt wird. Auf diese Weise erlaubt es die vorliegende Erfindung also, bevorstehende oder sich anbahnende Unsicherheiten des Assistenzsystems allein basierend auf den Rohdaten vor ihrem Auftreten zu detektieren und zu verhindern, dass das Assistenzsystem tatsächlich diese Unsicherheit erfährt oder ausbildet.As a further example, an optical camera or the raw images recorded by it can be compromised by direct sunlight. In such a situation, other sensors, such as radar or lids, could represent more suitable raw data sources to enable the assistance system to perform its intended function safely and reliably. By detecting such problems or circumstances during or immediately after recording the respective camera image, the data provided to the assistance system can be automatically adjusted by overweighting the sensors different from the camera or the corresponding raw data until the respective problem has been resolved, i.e. no longer exists, in In this case, for example, the camera is no longer affected by solar radiation. In this way, the present invention thus allows imminent or imminent uncertainties in the assistance system to be detected solely based on the raw data before they occur and to prevent the assistance system from actually experiencing or developing this uncertainty.
In einer möglichen Weiterbildung der vorliegenden Erfindung wird das Vorhersagen der Leistungswerte zumindest im Wesentlichen mit der gleichen Frequenz durchgeführt wie das Erfassen der Rohdaten. Die trainierten Bewertungsmodelle können also sämtliche durch den jeweiligen zugeordneten Sensor erfassten Rohdaten bzw. Messwerte verarbeiten und bewerten, um den jeweiligen Leistungswert zu bestimmen bzw. für eine nachfolgende Weiterverarbeitung der jeweiligen Rohdaten vorherzusagen. Dabei können die Rohdaten gebündelt sein, etwa zu einzelnen Bildern, Scans, Sweeps und/oder dergleichen mehr. Es kann dann für jedes derartige Bündel von Rohdaten ein individueller Leistungswert bestimmt werden. Mit anderen Worten wird also beispielsweise nicht für jeden Pixel oder individuellen Messpunkt ein individueller Leistungswert bestimmt, sondern für jedes Bündel von Rohdaten, also etwa jeweils für ein vollständiges Einzelbild. Dadurch ist eine robuste Grundlage für das zuverlässige Vorhersagen der Leistungswerte gegeben.In one possible development of the present invention, the power values are predicted at least essentially with the same frequency as the acquisition of the raw data. The trained evaluation models can therefore process and evaluate all of the raw data or measured values recorded by the respective assigned sensor in order to determine the respective power value or to predict the respective raw data for subsequent further processing. The raw data can be bundled, for example into individual images, scans, sweeps and/or the like. An individual power value can then be determined for each such bundle of raw data. In other words, an individual power value is not determined for each pixel or individual measurement point, but for each bundle of raw data, ie for a complete individual image. This provides a robust basis for reliably predicting performance values.
Die Rohdaten bzw. die Bündel von Rohdaten können dabei je Sensor seriell von dem zugeordneten Bewertungsmodell verarbeitet werden. Ist dies, beispielsweise durch Hardware- oder Ressourcenbeschränkungen, nicht schnell genug, also nicht in Echtzeit möglich, können je Sensor ebenso mehrere gleiche Bewertungsmodelle verwendet werden, die dann zumindest teilweise parallel betrieben werden können. So können die Rohdaten bzw. Bündel von Rohdaten eines Sensors beispielsweise gemäß einer vorgegebenen, sich wiederholenden Reihenfolge den parallelen Bewertungsmodellen zugeführt werden. So kann also jeweils eines der Bewertungsmodelle noch die vorletzten Rohdaten verarbeiten, während die jeweils aktuellen Rohdaten bereits einem weiteren parallelen Bewertungsmodell zugeführt werden. Auf diese Weise können die Leistungswerte umfassend, also vollständig für alle Rohdaten und auch besonders genau und zuverlässig bestimmt werden, da die Bewertungsmodelle nicht maximal komprimiert werden müssen, um individuell eine ausreichende Verarbeitungsgeschwindigkeit für einen Echtzeitbetrieb an dem jeweiligen Sensor zu ermöglichen, womit typischerweise ein Verlust von Genauigkeit verbunden ist. Somit kann letztlich eine verbesserte Leistungsfähigkeit, Zuverlässigkeit und/oder Robustheit des Assistenzsystems erreicht werden. Je nach Art der Sensoren können die Rohdaten bzw. die Bündel von Rohdaten beispielsweise mit einer Frequenz in der Größenordnung von 10 Hz, also beispielsweise 10 Hz, 25 Hz, 30 Hz, 60 Hz oder dergleichen, aufgenommen bzw. erfasst werden. Dies ermöglicht eine für praktische Anwendungen im Straßenverkehr ausreichend kurze Reaktionszeit des Assistenzsystems und kann gleichzeitig einen dafür notwendigen Datenverarbeitungsaufwand auf praktikable Werte begrenzen.The raw data or the bundles of raw data can be processed serially for each sensor by the assigned evaluation model. If this is not fast enough, for example due to hardware or resource restrictions, i.e. not possible in real time, several identical evaluation models can also be used for each sensor, which can then be operated at least partially in parallel. For example, the raw data or bundles of raw data from a sensor can be supplied to the parallel evaluation models in accordance with a predetermined, repetitive sequence. In this way, one of the evaluation models can still process the penultimate raw data, while the current raw data is already being fed to another parallel evaluation model. In this way, the performance values can be determined comprehensively, i.e. completely for all raw data and also particularly precisely and reliably, since the evaluation models do not have to be compressed to the maximum in order to individually enable sufficient processing speed for real-time operation on the respective sensor, which typically involves a loss associated with accuracy. Improved performance, reliability and/or robustness of the assistance system can thus ultimately be achieved. Depending on the type of sensors, the raw data or the bundles of raw data can be recorded or recorded with a frequency of the order of 10 Hz, for example 10 Hz, 25 Hz, 30 Hz, 60 Hz or the like. This enables the assistance system to have a response time that is sufficiently short for practical applications in road traffic and can at the same time limit the amount of data processing required for this to practicable values.
In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung werden die Rohdaten der mehreren Sensoren mittels eines low-Level Datenfusionsverfahrens fusioniert. Grundsätzlich kann zwar ein nahezu beliebiges Verfahren für die Datenfusion verwendet werden, eine low-Level Fusion bietet jedoch den Vorteil, dass Rohdaten besonders früh in einer Datenverarbeitungspipeline gemäß ihrer jeweiligen vorhergesagten Leistungswerten gehandhabt bzw. verarbeitet oder gegebenenfalls verworfen werden können. Dies ermöglicht eine hinsichtlich der bestimmungsgemäßen Funktion des Assistenzsystems besonders effektive und effiziente Zuweisung oder Verwendung jeweils verfügbarer Hardware- oder Berechnungsressourcen. Im fachüblichen Sinne bedeutet eine low-Level Fusion hier, dass zumindest im Wesentlichen unverarbeitete Rohdaten fusioniert werden, die individuellen Rohdaten also vor der Fusion nicht oder nur rudimentär vorverarbeitet werden.In a further possible embodiment of the present invention, the raw data from the multiple sensors are fused using a low-level data fusion method. In principle, almost any method can be used for the data fusion, but a low-level fusion offers the advantage that raw data can be handled or processed particularly early in a data processing pipeline according to their respective predicted performance values or possibly discarded. This enables a particularly effective and efficient allocation or use of available hardware or calculation resources with regard to the intended function of the assistance system. In the technical sense, a low-level fusion means here that at least essentially unprocessed raw data is fused, i.e. the individual raw data are not or only rudimentarily pre-processed before the fusion.
In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung werden die Rohdaten von unterschiedlichen Arten von Sensoren, insbesondere von auf unterschiedlichen physikalischen Messprinzipien basierenden Sensoren, erfasst. Die Sensoren können also beispielsweise eine optische Kamera, ein Lidargerät, ein Radargerät, ein Ultraschallgerät und/oder dergleichen mehr umfassen. Dementsprechend können auch die Rohdaten bzw. Rohdatenströme unterschiedlicher Art sein. Durch die Verwendung derartig unterschiedlicher Sensoren bzw. Rohdaten kann erreicht werden, dass das Assistenzsystem seine bestimmungsgemäße Funktion in unterschiedlichen Umgebungsbedingungen besonders zuverlässig und robust aufrechterhalten bzw. ausführen kann. Da unter derartigen unterschiedlichen Umgebungsbedingungen die unterschiedlichen Arten von Sensoren oftmals signifikant unterschiedliche Performanz bzw. Zuverlässigkeit bieten und dies in der vorliegenden Erfindung inhärent durch die jeweiligen situationsgerecht dynamisch bestimmten Leistungswerte berücksichtigt wird, kann mittels der vorliegenden Erfindung auf besonders einfache und flexible Weise eine optimale Funktionalität des Assistenzsystems sichergestellt werden.In a further possible embodiment of the present invention, the raw data is recorded by different types of sensors, in particular by sensors based on different physical measurement principles. The sensors can thus include, for example, an optical camera, a lidar device, a radar device, an ultrasound device and/or the like. Accordingly, the raw data or raw data streams can also be of different types. By using such different sensors or raw data, it can be achieved that the assistance system performs its intended function in different environmental conditions can be maintained or run particularly reliably and robustly. Since under such different environmental conditions the different types of sensors often offer significantly different performance or reliability and this is inherently taken into account in the present invention by the respective performance values dynamically determined according to the situation, the present invention can be used in a particularly simple and flexible way to achieve optimal functionality of the assistance system are ensured.
In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung werden die Leistungswerte jeweils mit einem vorgegebenen Leistungsschwellenwert verglichen. Rohdaten, deren Leistungswert kleiner als der Leistungsschwellenwert bzw. als der jeweilige Leistungsschwellenwert ist, werden dann verworfen, sodass sie nicht in die Fusion mit den übrigen Rohdaten einfließen. Insbesondere wenn unterschiedliche Arten von Rohdaten bzw. unterschiedliche Arten oder Modelle von Sensoren verwendet werden, können individuelle Leistungsschwellenwerte vorgegeben sein. Ebenso kann jedoch für sämtliche Rohdaten bzw. Sensoren ein gemeinsamer Leistungsschwellenwert vorgegeben sein. Die verworfenen Rohdaten können beispielsweise direkt gelöscht werden oder es kann Ihnen beispielsweise für die Datenfusion ein Gewicht von null zugewiesen werden. In letzterem Fall können die entsprechenden Rohdaten gegebenenfalls noch für andere Zwecke zur Verfügung stehe, also verwendet werden. Durch den vorgegebenen Leistungsschwellenwert, der eine im jeweiligen Anwendungsfall akzeptable Leistung des Assistenzsystems repräsentiert, können Leistungsverschlechterungen des Assistenzsystems oder ein Erzeugen von überdurchschnittlichen Unsicherheiten des Assistenzsystems besonders effektiv vermieden werden. Ebenso können gegebenenfalls komplette Ausfälle des jeweiligen Sensors vorhergesagt bzw. erkannt werden. Generell kann eine Kombination von Rohdaten mehrerer Sensoren zwar zu einem besseren Ergebnis führen als auf Basis der Rohdaten jedes individuellen Sensors erzielbar wäre. Qualitativ zu schlechte Rohdaten eines einzelnen Sensors können aber dennoch bei ihrer Berücksichtigung in der Datenfusion insgesamt zu einer Verschlechterung des Ergebnisses, also der Leistung oder Performanz des Assistenzsystems, führen. Dies wird durch die hier vorgeschlagene Ausgestaltung der vorliegenden Erfindung auf besonders einfache und effektive Weise verhindert.In a further possible embodiment of the present invention, the power values are each compared with a predetermined power threshold value. Raw data whose power value is less than the power threshold value or the respective power threshold value is then discarded so that it does not flow into the fusion with the remaining raw data. In particular, if different types of raw data or different types or models of sensors are used, individual performance threshold values can be specified. However, a common power threshold value can also be specified for all raw data or sensors. For example, the discarded raw data can be deleted directly or assigned a weight of zero for data fusion, for example. In the latter case, the corresponding raw data may also be available for other purposes, i.e. used. Deterioration in the performance of the assistance system or generation of above-average uncertainties in the assistance system can be particularly effectively avoided by the predefined performance threshold value, which represents an acceptable performance of the assistance system in the respective application. If necessary, complete failures of the respective sensor can also be predicted or recognized. In general, a combination of raw data from multiple sensors can lead to a better result than would be achievable on the basis of the raw data from each individual sensor. Raw data from an individual sensor that is of poor quality can, however, lead to a deterioration in the overall result, i.e. the performance or performance of the assistance system, when taken into account in the data fusion. This is prevented in a particularly simple and effective manner by the embodiment of the present invention proposed here.
In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung werden die Leistungswerte mit einem vorgegebenen Schwellenwert verglichen. Falls jeweils die Leistungswerte aller zumindest im Wesentlichen gleichzeitig erfassten Rohdaten kleiner als der vorgegebene Schwellenwert sind oder höchstens diesem entsprechen, wird - beispielsweise durch die genannte Einrichtung zum Ausführen des erfindungsgemäßen Verfahrens - automatisch ein Warnsignal oder eine Aufforderung zur Übernahme einer manuellen Kontrolle ausgegeben. Mit anderen Worten kann in dem Fall, dass keiner der Sensoren gemäß dem vorgegebenen Schwellenwert ausreichend gute Rohdaten bereitstellt, das Assistenzsystem in diesem Sinne seine bestimmungsgemäße Funktion also nicht oder nicht zuverlässig genug ausüben kann, veranlasst werden, dass diese bestimmungsgemäße Funktion bzw. die Kontrolle oder Steuerung des jeweiligen Kraftfahrzeugs durch eine Bedienperson übernommen wird. Eine entsprechende Aufforderung oder ein entsprechendes Signal kann beispielsweise an einen Fahrzeuginsassen bzw. Fahrer des jeweiligen mit dem Assistenzsystem ausgestatteten Kraftfahrzeugs oder an eine fahrzeugexterne Bedienperson, also an einen Teleoperator ausgegeben oder gesendet werden. Die jeweils zumindest im Wesentlichen gleichzeitig erfassten Rohdaten können sämtliche in einem jeweiligen Takt oder Messzyklus der Sensoren, also zu zeitlich zueinander korrespondierenden Zeitpunkten aufgenommenen Rohdaten sein oder umfassen. Durch die hier vorgeschlagene Ausgestaltung der vorliegenden Erfindung kann also der Fall abgesichert werden, dass zu einem bestimmten Zeitpunkt oder während eines bestimmten Zeitfensters für sämtliche Sensoren bzw. sämtliche aktuell verfügbaren Rohdaten unterhalb des vorgegebenen Schwellenwertes liegende Leistungswerte vorhergesagt werden, beispielsweise aufgrund einer hochkomplexen Verkehrssituation, anspruchsvoller bzw. ungünstiger Wetterbedingungen wie etwa starken Schneefalls und/oder dergleichen mehr. Dadurch, dass in diesem Fall die Aufforderung zur Übernahme der manuellen Kontrolle bereits unmittelbar nach dem Bestimmen der Leistungswerte ausgegeben werden kann, kann eine jeweilige Bedienperson die entsprechende Kontrolle gegebenenfalls bereits übernehmen, bevor das Assistenzsystem die entsprechenden Rohdaten tatsächlich verarbeitet, also in der Ausübung seiner bestimmungsgemäßen Funktion tatsächlich versagt hat. Dies ermöglicht eine weiter verbesserte Sicherheit im Betrieb des Assistenzsystems bzw. des Kraftfahrzeugs.In a further possible embodiment of the present invention, the power values are compared with a predetermined threshold value. If the power values of all raw data recorded at least essentially simultaneously are less than the specified threshold value or at most correspond to it, a warning signal or a request to take over a manual control is automatically output - for example by the device mentioned for carrying out the method according to the invention. In other words, in the event that none of the sensors provides sufficiently good raw data according to the specified threshold value, i.e. the assistance system in this sense cannot perform its intended function or cannot perform it reliably enough, this intended function or the control or Control of the respective motor vehicle is taken over by an operator. A corresponding request or a corresponding signal can be output or sent, for example, to a vehicle occupant or driver of the respective motor vehicle equipped with the assistance system or to an operator external to the vehicle, ie to a teleoperator. The raw data recorded at least essentially simultaneously can be or include all raw data recorded in a respective clock or measurement cycle of the sensors, ie at times corresponding to one another in terms of time. The embodiment of the present invention proposed here can thus be safeguarded against the case that at a specific point in time or during a specific time window for all sensors or all currently available raw data power values below the specified threshold value are predicted, for example due to a highly complex traffic situation, more demanding or unfavorable weather conditions such as heavy snowfall and/or the like. Because in this case the request to take over manual control can be issued immediately after the performance values have been determined, a respective operator can possibly already take over the corresponding control before the assistance system actually processes the corresponding raw data, i.e. in the exercise of its intended tasks function has actually failed. This enables further improved safety when operating the assistance system or the motor vehicle.
In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung umfasst das Assistenzsystem ein vorgegebenes Funktionsmodell zum automatisierten Ausüben seiner bestimmungsgemäßen Funktion. Dieses Funktionsmodell ist dazu eingerichtet, also gegebenenfalls darauf trainiert, von mehreren, insbesondere unterschiedlichen, Sensoren stammende Daten zu verarbeiten. Die einzelnen Bewertungsmodelle sind dabei anhand von Rohdaten und anhand von Verarbeitungsergebnissen eines nur mit den Rohdaten des dem jeweiligen Bewertungsmodell zugeordneten Sensors beschickten, aber ansonsten dem vorgegebenen Funktionsmodell entsprechenden Trainingsfunktionsmodells trainiert. In der Anwendung der vorliegenden Erfindung sagen die Bewertungsmodelle effektiv also vorher, was passieren würde, wie sich das Assistenzsystem also verhalten würde, wenn ausschließlich die Rohdaten des dem jeweiligen Bewertungsmodell zugeordneten Sensors verwendet würden. Dadurch können gezielt gerade diejenigen Sensoren oder Rohdaten untergewichtet werden bzw. unberücksichtigt bleiben, die den geringsten positiven Beitrag oder sogar einen negativen Beitrag zur Performance des Assistenzsystems liefern. Zum Trainieren der Bewertungsmodelle können nahezu beliebige bekannte Trainings- oder Regressionsvorhersagemethoden angewendet werden. Dadurch, dass bei dem Trainieren der Bewertungsmodelle Trainingsfunktionsmodelle verwendet werden, die zumindest im Wesentlichen dem letztendlich in der Anwendung verwendeten Funktionsmodell entsprechen, können die Bewertungsmodelle effektiv introspektiv trainiert werden. Die Bewertungsmodelle können also anhand von vorherigen Verarbeitungsergebnissen bzw. einer vorherigen Performanz des jeweiligen Trainingsfunktionsmodells, die sich bei dem Verarbeiten von Rohdaten des jeweiligen Sensors ergeben haben, trainiert werden oder trainiert sein. Anstatt jedoch nur vorherzusagen, dass das Assistenzsystem bei minderqualitativen Rohdaten voraussichtlich versagen wird, kann durch die vorliegende Erfindung verhindert werden, dass das Assistenzsystem überhaupt in einen entsprechenden unsicheren Zustand oder Fehlerzustand gerät, indem die entsprechenden Rohdaten gemäß der Vorhersage der Bewertungsmodelle untergewichtet oder verworfen werden. Wenn das Training der Bewertungsmodelle abgeschlossen ist, können die Trainingsmodelle verworfen werden, da diese nicht für das Ausüben der bestimmungsgemäßen Funktion des Assistenzsystems basierend auf mehreren unterschiedlichen Rohdaten strömen eingerichtet oder trainiert sind. Mittels der abschließend trainierten Bewertungsmodelle kann jeder der mehreren Sensoren individuell überwacht und ein kontinuierlicher Strom von vorhergesagten Leistungswerten zu den entsprechend kontinuierlich erfassten Rohdaten bereitgestellt werden.In a further possible embodiment of the present invention, the assistance system includes a predefined function model for the automated execution of its intended function. This functional model is set up, ie possibly trained, to process data originating from a plurality of, in particular different, sensors. The individual evaluation models are based on raw data and based on processing results of one only with the raw data of the respective Sensor assigned to the evaluation model, but otherwise trained to the training function model corresponding to the predetermined function model. In the application of the present invention, the evaluation models effectively predict what would happen, that is, how the assistance system would behave, if only the raw data of the sensor assigned to the respective evaluation model were used. As a result, precisely those sensors or raw data that make the least positive contribution or even make a negative contribution to the performance of the assistance system can be underweighted or disregarded. Almost any known training or regression prediction method can be used to train the scoring models. Because training function models are used when training the evaluation models, which at least essentially correspond to the function model ultimately used in the application, the evaluation models can be effectively trained introspectively. The evaluation models can therefore be or have been trained using previous processing results or a previous performance of the respective training function model that resulted from the processing of raw data from the respective sensor. However, instead of only predicting that the assistance system is likely to fail in the case of low-quality raw data, the present invention can prevent the assistance system from getting into a corresponding unsafe state or error state by underweighting or discarding the corresponding raw data according to the prediction of the evaluation models. When the training of the evaluation models is complete, the training models can be discarded, since they are not set up or trained for exercising the intended function of the assistance system based on a number of different raw data streams. Using the finally trained evaluation models, each of the multiple sensors can be individually monitored and a continuous stream of predicted performance values can be provided for the corresponding continuously recorded raw data.
In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung sind bzw. werden die Bewertungsmodelle mit Rohdaten von bestimmungsgemäß oder spezifikationsgemäß funktionierenden Sensoren und mit Rohdaten von beschädigten und/oder verschmutzten Sensoren trainiert. Dabei können als Trainingsreferenz Verarbeitungsergebnisse aus dem Verarbeiten von Rohdaten von derartigen Sensoren verwendet werden bzw. verwendet worden sein. Dadurch, dass die Bewertungsmodelle somit auch für beschädigte und/oder verschmutzte Sensoren, also dementsprechend veränderte Rohdaten trainiert sind, können die Leistungswerte im praktischen Einsatz in einer Vielzahl unterschiedlicher Situationen besonders zuverlässig und robust vorhergesagt werden.In a further possible embodiment of the present invention, the evaluation models are or will be trained with raw data from sensors that are functioning as intended or according to specifications and with raw data from damaged and/or soiled sensors. Processing results from the processing of raw data from such sensors can be used or have been used as a training reference. Due to the fact that the evaluation models are also trained for damaged and/or soiled sensors, that is to say correspondingly changed raw data, the performance values can be predicted particularly reliably and robustly in practical use in a large number of different situations.
Die genannten Trainingsverfahren oder Trainingsmethoden können Teil des erfindungsgemäßen Verfahrens sein oder unabhängig von diesem, also vor einem praktischen Einsatz in einem Kraftfahrzeug, durchgeführt werden. Ebenso können die genannten Trainingsverfahren oder Trainingsmethoden jeweils einen eigenen Aspekt der vorliegenden Erfindung bilden.The training procedures or training methods mentioned can be part of the method according to the invention or can be carried out independently of it, ie before practical use in a motor vehicle. Likewise, the training procedures or training methods mentioned can each form a separate aspect of the present invention.
Ein weiterer Aspekt der vorliegenden Erfindung ist ein Assistenzsystem für ein Kraftfahrzeug. Das erfindungsgemäße Assistenzsystem weist mehrere Bewertungsmodelle zum Vorhersagen von Leistungswerten für mittels mehrerer Sensoren erfasste Rohdaten, eine Fusionseinheit zum automatischen Fusionieren der Rohdaten, ein Funktionsmodell zum Ausüben einer bestimmungsgemäßen Assistenzfunktion des Assistenzsystems und eine Datenschnittstelle zum Ausgeben eines aus dem Verarbeiten der fusionierten Rohdaten resultierenden Ergebnissignals auf. Das erfindungsgemäße Assistenzsystem ist dabei zum automatischen oder teilautomatischen Ausführen wenigstens einer Variante des erfindungsgemäßen Verfahrens eingerichtet. Das erfindungsgemäße Assistenzsystem sowie dessen Komponenten können dementsprechend insbesondere dem im Zusammenhang mit dem erfindungsgemäßen Verfahren genannten Assistenzsystem bzw. den dort genannten Komponenten entsprechen. Die genannten mehreren Sensoren können dabei ebenfalls Teil des Assistenzsystems oder von diesem separate Einrichtungen sein, die in einem praktischen Einsatz des Assistenzsystems in dem jeweiligen Kraftfahrzeug mit dem Assistenzsystem verbunden werden oder verbunden sein können. Insbesondere sofern die Sensoren von dem Assistenzsystem separat sind, kann das Assistenzsystem eine oder mehrere entsprechende Eingangsschnittstellen zum Erfassen der von den Sensoren bereitgestellten Rohdaten aufweisen.Another aspect of the present invention is an assistance system for a motor vehicle. The assistance system according to the invention has several evaluation models for predicting performance values for raw data recorded by means of several sensors, a fusion unit for automatically merging the raw data, a functional model for exercising an intended assistance function of the assistance system and a data interface for outputting a result signal resulting from the processing of the fused raw data. The assistance system according to the invention is set up for the automatic or semi-automatic execution of at least one variant of the method according to the invention. The assistance system according to the invention and its components can accordingly correspond in particular to the assistance system mentioned in connection with the method according to the invention or the components mentioned there. The number of sensors mentioned can likewise be part of the assistance system or devices separate from it, which are or can be connected to the assistance system in practical use of the assistance system in the respective motor vehicle. In particular if the sensors are separate from the assistance system, the assistance system can have one or more corresponding input interfaces for acquiring the raw data provided by the sensors.
Zum Ausführen des erfindungsgemäßen Verfahrens kann das Assistenzsystem mit entsprechenden Datenverarbeitungsmitteln ausgestattet sein. Dazu kann das Assistenzsystem insbesondere einen computerlesbaren Datenspeicher sowie eine damit verbundene Prozessoreinrichtung, beispielsweise einen Mikrochip, einen Mikroprozessor oder einen Mikrocontroller, aufweisen. In dem Datenspeicher kann dann einen Betriebs- oder Computerprogramm gespeichert sein, das die Verfahrensschritte oder Abläufe des erfindungsgemäßen Verfahrens repräsentiert, also codiert oder implementiert, und mittels der Prozessoreinrichtung ausführbar ist, um das entsprechende Verfahren auszuführen oder dessen Ausführung zu veranlassen.To carry out the method according to the invention, the assistance system can be equipped with appropriate data processing means. For this purpose, the assistance system can in particular have a computer-readable data memory and a processor device connected thereto, for example a microchip, a microprocessor or a microcontroller. An operating or computer program can then be stored in the data memory, which represents, ie encodes or implements, the method steps or sequences of the method according to the invention and can be executed by means of the processor device practicable to carry out the relevant method or cause it to be carried out.
Ein weiterer Aspekt der vorliegenden Erfindung ist ein Kraftfahrzeug, das mehrere Sensoren, insbesondere unterschiedlicher Art, zum Aufnehmen von Rohdaten und ein mit diesen verbundenes oder diese umfassendes Assistenzsystem gemäß der vorliegenden Erfindung aufweist. Das erfindungsgemäße Kraftfahrzeug kann insbesondere das im Zusammenhang mit dem erfindungsgemäßen Verfahren und/oder im Zusammenhang mit dem erfindungsgemäßen Assistenzsystem genannte Kraftfahrzeug sein.Another aspect of the present invention is a motor vehicle that has multiple sensors, in particular of different types, for recording raw data and an assistance system that is connected to them or includes them, according to the present invention. The motor vehicle according to the invention can in particular be the motor vehicle mentioned in connection with the method according to the invention and/or in connection with the assistance system according to the invention.
Weitere Merkmale der Erfindung können sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung ergeben. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung und/oder in den Figuren allein gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.Further features of the invention can result from the claims, the figures and the description of the figures. The features and feature combinations mentioned above in the description and the features and feature combinations shown below in the description of the figures and/or in the figures alone can be used not only in the combination specified in each case, but also in other combinations or on their own, without going beyond the scope of the invention to leave.
Die Zeichnung zeigt in:
-
1 eine schematische Darstellung zum Veranschaulichen eines Trainingsprozesses eines Bewertungsmodells; -
2 eine schematische Darstellung zum Veranschaulichen eines Verfahrens zum Bereitstellen von fusionierten Daten für ein Assistenzsystem; und -
3 eine schematische Darstellung eines Kraftfahrzeugs mit einem solchen Assistenzsystem.
-
1 a schematic representation for illustrating a training process of an evaluation model; -
2 a schematic representation to illustrate a method for providing merged data for an assistance system; and -
3 a schematic representation of a motor vehicle with such an assistance system.
In den Figuren sind gleiche und funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.In the figures, identical and functionally identical elements are provided with the same reference symbols.
Nachdem das Trainingsfunktionsmodell 14 trainiert ist, werden diesem weiter die mittels des jeweiligen Sensors 10 aufgenommenen Rohdaten 12 zum Verarbeiten zugeführt. Dabei resultierende Verarbeitungsergebnisse 16, die eine Performanz, also eine Genauigkeit, Effektivität, Zuverlässigkeit, Konfidenz und/oder dergleichen mehr, des Trainingsfunktionsmodells 14 bei dem Verarbeiten der jeweiligen Rohdaten 12 angeben, werden aufgezeichnet bzw. bereitgestellt. Die entsprechenden Rohdaten 12 und das jeweils zugehörige Verarbeitungsergebnis 16 werden dann als Trainingsdaten einem dem jeweiligen Sensor 10 zugeordneten Bewertungsmodell 18 zugeführt. Anhand dieser Trainingsdaten wird das Bewertungsmodell 18 darauf trainiert, allein aus den jeweiligen Rohdaten 12 einen Leistungswert 24 (siehe
Dieser Trainingsprozesses wird für mehrere, insbesondere unterschiedliche, Sensoren 10 mit einem jeweils zugeordneten Trainingsfunktionsmodell 14 und einem jeweils zugeordneten Bewertungsmodell 18 durchgeführt.This training process is carried out for a plurality of, in particular different,
Weiter umfasst das Assistenzsystem 20 eine Fusionseinheit 22. Diese Fusionseinheit 22 ist dazu eingerichtet, die Rohdaten 12 der verschiedenen Sensoren 10 miteinander zu fusionieren. Der Fusionseinheit 22 werden jedoch nicht als Eingangsdaten nicht nur die Rohdaten 12, sondern auch die jeweils dafür durch die Bewertungsmodelle 18 vorhergesagten Leistungswerte 24 zugeführt. Die Fusionseinheit 22 führt dann eine gewichtete Fusion der Rohdaten 12 durch, wobei die individuellen Gewichtungen der Rohdaten 12 durch die jeweiligen zugeordneten Leistungswerte 24 gegeben oder bestimmt sind. Als Output liefert die Fusionseinheit 22 dann entsprechend fusionierte Daten 26.Next includes the assistance system 20 a
Weiter umfasst das Assistenzsystem 20 ein Funktionsmodell 28, das zum Ausüben einer bestimmungsgemäßen Assistenzfunktion des Assistenzsystems 20 eingerichtet bzw. trainiert ist. Das Funktionsmodell 28 kann also ebenfalls ein, insbesondere tiefes, künstliches neuronales Netz sein oder umfassen. Das Funktionsmodell 28 kann insbesondere von der gleichen Art sein, also für die gleiche Funktion eingerichtet oder trainiert sein wie die Trainingsfunktionsmodelle 14. Im Gegensatz zu diesen ist das Funktionsmodell 28 jedoch darauf trainiert, diese Funktion basierend auf den fusionierten Daten 26, letztlich also basierend auf Daten von mehreren, insbesondere unterschiedlichen, Sensoren 10 auszuüben. Dementsprechend werden die fusionierten Daten 26 dem Funktionsmodell 28 als Eingangsdaten zugeführt. Das Funktionsmodell 28 verarbeitet dann diese fusionierten Daten 26 und kann ein entsprechendes Ergebnissignal erzeugen, das dann beispielsweise von dem Assistenzsystem 20 ausgegeben werden kann, wie hier schematisch durch einen entsprechenden Pfeil angedeutet ist.
Das Assistenzsystem 20 kann beispielsweise dazu eingerichtet sein, das Kraftfahrzeug 30 oder wenigstens eine Fahrzeugeinrichtung 38 des Kraftfahrzeugs 30 basierend auf den fusionierten Daten 26 automatisch zu steuern.The
Für den Fall, dass keiner der Sensoren 10 dafür brauchbare Rohdaten 12 liefert, die Leistungswerte 24 für sämtliche Sensoren 10 bzw. deren Rohdaten 12 also beispielsweise unterhalb eines vorgegebenen Schwellenwertes liegenden, kann das Assistenzsystem 20 dazu eingerichtet sein, über eine Ausgangsschnittstelle 40 zur Absicherung ein Anforderungssignal 42 auszugeben. Durch das Anforderungssignal 42 kann das Assistenzsystem 20 eine manuelle Kontrollübernahme der Steuerung seiner bestimmungsgemäßen Funktion bzw. des Kraftfahrzeugs 30 insgesamt durch eine Bedienperson anfordern. Dabei kann es sich beispielsweise um einen Fahrer 44 des Kraftfahrzeugs 30 oder einen hier ebenfalls schematisch angedeuteten fahrzeugexternen Teleoperator 46 handeln.In the event that none of the
Insgesamt zeigen die beschriebenen Beispiele wie problematische Sensordaten anhand einer sensorspezifischen Performancevorhersage detektiert werden können, um eine besonders zuverlässige und robuste Assistenzfunktionalität in unterschiedlichen Einsatzbedingungen zu ermöglichen.Overall, the examples described show how problematic sensor data can be detected using a sensor-specific performance prediction in order to enable a particularly reliable and robust assistance functionality in different operating conditions.
BezugszeichenlisteReference List
- 1010
- Sensorsensor
- 1212
- Rohdatenraw data
- 1414
- Trainingsfunktionsmodelltraining function model
- 1616
- Verarbeitungsergebnisprocessing result
- 1818
- Bewertungsmodellscoring model
- 2020
- Assistenzsystemassistance system
- 2222
- Fusionseinheitfusion unit
- 2424
- Leistungswerteperformance values
- 2626
- fusionierte Datenmerged data
- 2828
- Funktionsmodellfunctional model
- 3030
- Kraftfahrzeugmotor vehicle
- 3232
- Eingangsschnittstelleinput interface
- 3434
- Datenspeicherdata storage
- 3636
- Prozessorprocessor
- 3838
- Fahrzeugeinrichtungin-vehicle equipment
- 4040
- Ausgangsschnittstelleoutput interface
- 4242
- Anforderungssignalrequest signal
- 4444
- Fahrerdriver
- 4646
- Teleoperatorteleoperator
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- DE 102018101505 A1 [0004]DE 102018101505 A1 [0004]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021101717.3A DE102021101717A1 (en) | 2021-01-27 | 2021-01-27 | Method for providing merged data, assistance system and motor vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021101717.3A DE102021101717A1 (en) | 2021-01-27 | 2021-01-27 | Method for providing merged data, assistance system and motor vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021101717A1 true DE102021101717A1 (en) | 2022-07-28 |
Family
ID=82320825
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021101717.3A Pending DE102021101717A1 (en) | 2021-01-27 | 2021-01-27 | Method for providing merged data, assistance system and motor vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021101717A1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2604478A1 (en) | 2011-12-13 | 2013-06-19 | Delphi Technologies, Inc. | Method for recognising function errors of a multi-sensor assembly |
DE102018101505A1 (en) | 2017-01-31 | 2018-08-02 | GM Global Technology Operations LLC | EFFICIENT SITUATION AWARENESS OF PERCEPTIONS IN AUTONOMOUS DRIVING SYSTEMS |
US20180239991A1 (en) | 2015-05-15 | 2018-08-23 | Airfusion, Inc. | Portable apparatus and method for decision support for real time automated multisensor data fusion and analysis |
US20200356828A1 (en) | 2019-05-08 | 2020-11-12 | GM Global Technology Operations LLC | Explainable learning system & methods for autonomous driving |
DE102019208890A1 (en) | 2019-06-19 | 2020-12-24 | Robert Bosch Gmbh | Method for at least partially automated driving of a motor vehicle |
DE102019215902A1 (en) | 2019-10-16 | 2021-05-20 | Robert Bosch Gmbh | Method for determining a quality level of data sets from sensors |
-
2021
- 2021-01-27 DE DE102021101717.3A patent/DE102021101717A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2604478A1 (en) | 2011-12-13 | 2013-06-19 | Delphi Technologies, Inc. | Method for recognising function errors of a multi-sensor assembly |
US20180239991A1 (en) | 2015-05-15 | 2018-08-23 | Airfusion, Inc. | Portable apparatus and method for decision support for real time automated multisensor data fusion and analysis |
DE102018101505A1 (en) | 2017-01-31 | 2018-08-02 | GM Global Technology Operations LLC | EFFICIENT SITUATION AWARENESS OF PERCEPTIONS IN AUTONOMOUS DRIVING SYSTEMS |
US20200356828A1 (en) | 2019-05-08 | 2020-11-12 | GM Global Technology Operations LLC | Explainable learning system & methods for autonomous driving |
DE102019208890A1 (en) | 2019-06-19 | 2020-12-24 | Robert Bosch Gmbh | Method for at least partially automated driving of a motor vehicle |
DE102019215902A1 (en) | 2019-10-16 | 2021-05-20 | Robert Bosch Gmbh | Method for determining a quality level of data sets from sensors |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102008013366B4 (en) | Method for providing information for driver assistance systems | |
WO2018177484A1 (en) | Method and system for predicting sensor signals from a vehicle | |
WO2014118178A1 (en) | Creation of an environment model for a vehicle | |
WO2021121695A1 (en) | Method, apparatus and system for detecting abnormal operating states of a device | |
DE102014106506A1 (en) | Method for carrying out a diagnosis of a camera system of a motor vehicle, camera system and motor vehicle | |
DE102017217444A1 (en) | Method and system for updating a control model for automatic control of at least one mobile unit | |
DE102018215753A1 (en) | Device and method for determining a trajectory of a vehicle | |
DE102020206755A1 (en) | REDUNDANCY INFORMATION FOR OBJECT INTERFACE FOR HIGHLY AND FULLY AUTOMATED DRIVING | |
DE102017214531A1 (en) | Method and device for operating a motor vehicle in an automated driving operation and motor vehicle | |
DE102019206349A1 (en) | Method and computer program product for recognizing signal signs for traffic control of lane-bound vehicles and signal sign recognition system and lane-bound vehicle, in particular rail vehicle | |
DE102021004426A1 (en) | Method for training an autonomous driving function | |
EP4022535A1 (en) | Classification of ai modules | |
DE102021101717A1 (en) | Method for providing merged data, assistance system and motor vehicle | |
DE102018205146A1 (en) | Test method for high-resolution headlamps using AI | |
DE102022103324A1 (en) | System and method for detecting inconsistencies in automated vehicle perception systems. | |
DE102021201539A1 (en) | Generation of training data for a machine learning algorithm | |
EP3772017A1 (en) | Rail signal detection for autonomous railway vehicles | |
DE102017207958B4 (en) | A method of generating training data for a machine learning based pattern recognition method for a motor vehicle, motor vehicle, method of operating a computing device, and system | |
DE102021214334B3 (en) | Vehicle data system and method for determining relevant or transferable vehicle data of an environment detection sensor | |
DE102019111608A1 (en) | Method for determining the proper movement of a motor vehicle, electronic computing device and electronic vehicle guidance system | |
EP3644582B1 (en) | Method, device and central device for detecting a concept shift in the data and / or feature distribution of input data | |
DE102022207617B3 (en) | Method and monitoring device for controlling at least one vehicle function of a vehicle | |
DE102020117812A1 (en) | Method for providing a device for predicting errors when processing image data, device for predicting segmentation errors and motor vehicle | |
WO2023131603A1 (en) | Method for optimizing the environment sensing for a driving assistance system by means of an additional reference sensor system | |
DE102022125229A1 (en) | SYSTEM AND METHOD FOR AUTOMATICALLY ACTIVATING A WINDSCREEN WIPER OF A VEHICLE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R081 | Change of applicant/patentee |
Owner name: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, DE Free format text: FORMER OWNER: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, 80809 MUENCHEN, DE |
|
R081 | Change of applicant/patentee |
Owner name: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, DE Free format text: FORMER OWNERS: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, 80809 MUENCHEN, DE; TECHNISCHE UNIVERSITAET MUENCHEN, KOERPERSCHAFT DES OEFFENTLICHEN RECHTS, 80333 MUENCHEN, DE |