DE102023005203A1 - Sensor fusion method - Google Patents
Sensor fusion method Download PDFInfo
- Publication number
- DE102023005203A1 DE102023005203A1 DE102023005203.5A DE102023005203A DE102023005203A1 DE 102023005203 A1 DE102023005203 A1 DE 102023005203A1 DE 102023005203 A DE102023005203 A DE 102023005203A DE 102023005203 A1 DE102023005203 A1 DE 102023005203A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- machine learning
- sensor data
- learning model
- main
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title description 3
- 238000010801 machine learning Methods 0.000 claims abstract description 56
- 238000001514 detection method Methods 0.000 claims abstract description 48
- 238000000034 method Methods 0.000 claims abstract description 34
- 230000004927 fusion Effects 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims abstract description 12
- 238000004458 analytical method Methods 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 description 11
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 238000007405 data analysis Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 210000002023 somite Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/04—Traffic conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/20—Data confidence level
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/35—Data fusion
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Sensorfusion, wobei ein Fahrzeug (1) seine Umgebung mittels wenigstens eines ersten (2.1) und eines zweiten Sensors (2.2) erfasst, wobei der erste und zweite Sensor (2.1, 2.2) einen sich zumindest teilweise überlappenden Erfassungsbereich (3) aufweisen, und wobei eine Recheneinheit (4) ein Maschinenlernmodell zur Verarbeitung von den Sensoren (2.1, 2.2) erzeugter Sensordaten ausführt. Das erfindungsgemäß Verfahren ist gekennzeichnet durch die folgenden von der Recheneinheit (4) ausgeführten Verfahrensschritte:a) Festlegung eines der Sensoren (2.1, 2.2) als Hauptsensor, wobei die Recheneinheit (4) die aus einer Analyse der vom Hauptsensor generierten Sensordaten gewonnenen Erkenntnisse zum Ansteuern einer Fahrzeugfunktion verwendet, und wobei die Recheneinheit (4) die Sensordaten des Hauptsensors unter Einsatz des Maschinenlernmodells analysiert;b) Festlegen wenigstens eines vom Hauptsensor abweichenden Sensors (2.1, 2.2) als Nebensensor;c) Zuführen von dem wenigstens einen Nebensensor erzeugten Sensordaten dem Maschinenlernmodell;d) Auswahl eines relevanten Informationsbereichs (5) aus den vom Hauptsensor erzeugten Sensordaten in Abhängigkeit der von dem wenigstens einen Nebensensor generierten Sensordaten durch das Maschinenlernmodell; unde) Analysieren des dem relevanten Informationsbereich (5) zugeordneten Teils der Sensordaten des Hauptsensors zur Gewinnung der Erkenntnisse durch das Maschinenlernmodell.The invention relates to a method for sensor fusion, wherein a vehicle (1) detects its surroundings using at least a first (2.1) and a second sensor (2.2), the first and second sensors (2.1, 2.2) having an at least partially overlapping detection area ( 3), and wherein a computing unit (4) executes a machine learning model for processing sensor data generated by the sensors (2.1, 2.2). The method according to the invention is characterized by the following method steps carried out by the computing unit (4): a) determining one of the sensors (2.1, 2.2) as the main sensor, the computing unit (4) using the knowledge gained from an analysis of the sensor data generated by the main sensor to control a vehicle function, and wherein the computing unit (4) analyzes the sensor data of the main sensor using the machine learning model; b) defining at least one sensor (2.1, 2.2) that deviates from the main sensor as a secondary sensor; ;d) selection of a relevant information area (5) from the sensor data generated by the main sensor depending on the sensor data generated by the at least one secondary sensor by the machine learning model; ande) analyzing the part of the sensor data of the main sensor assigned to the relevant information area (5) to obtain the insights through the machine learning model.
Description
Die Erfindung betrifft ein Verfahren zur Sensorfusion nach der im Oberbegriff von Anspruch 1 näher definierten Art.The invention relates to a method for sensor fusion according to the type defined in more detail in the preamble of
Mit zunehmender Digitalisierung werden auch vermehrt Assistenzsysteme in Fahrzeuge integriert. Dies erlaubt es vielfältige Sicherheits- und Komfortfunktionen bereitzustellen. So ist es möglich ein Fahrzeug zumindest teilautomatisiert oder gar auch autonom zu steuern. Dies erfordert eine Erfassung der Umgebung durch das Fahrzeug mittels einer Umfeldsensorik.With increasing digitalization, more and more assistance systems are being integrated into vehicles. This makes it possible to provide a variety of safety and comfort functions. This makes it possible to control a vehicle at least partially automated or even autonomously. This requires the vehicle to detect the surroundings using environmental sensors.
Mit Hilfe der Umfeldsensorik ist das Fahrzeug dazu in der Lage statische und dynamische Umgebungsobjekte sowie den Fahrbahnverlauf zu erkennen. Dies erlaubt es situationsgerecht Steuerungsbefehle zum sicheren Steuern des Fahrzeugs zu bestimmen. Das Fahrzeug kann hierzu die verschiedensten Sensoren aufweisen, wie eine oder mehrere Mono- und/oder Stereokameras, Ultraschallsensoren, Radarsensoren, LiDARe und dergleichen. Jeder Sensortyp weist dabei für unterschiedliche Einsatzrandbedingungen eine unterschiedliche Erfassungsgüte auf. Bilder aus am Fahrzeug angebrachten Kameras erlauben eine besonders differenzierte Erfassung und Analyse des Fahrzeugumfelds. Bei widrigen Sichtverhältnissen, beispielsweise bei einer tiefstehenden Sonne, Nebel, Dunkelheit und dergleichen, ist die Sicht jedoch eingeschränkt. Die Detektionsreichweite von einem LiDAR kann durch starken Regen reduziert sein und dergleichen. Um dennoch das Umfeld des Fahrzeugs situationsunabhängig angemessen erfassen zu können, werden daher die Sensordaten unterschiedlicher Sensoren miteinander fusioniert.With the help of environmental sensors, the vehicle is able to detect static and dynamic surrounding objects as well as the course of the road. This makes it possible to determine control commands for safe control of the vehicle depending on the situation. For this purpose, the vehicle can have a wide variety of sensors, such as one or more mono and/or stereo cameras, ultrasonic sensors, radar sensors, LiDARe and the like. Each sensor type has a different detection quality for different operating conditions. Images from cameras attached to the vehicle allow particularly differentiated recording and analysis of the vehicle's surroundings. However, in adverse visibility conditions, for example when the sun is low, fog, darkness and the like, visibility is restricted. The detection range of a LiDAR can be reduced due to heavy rain and the like. In order to be able to adequately capture the vehicle's surroundings regardless of the situation, the sensor data from different sensors are merged with one another.
Das Fusionieren der Sensordaten erfolgt dabei meist auf der sogenannten Objektebene. Dabei werden die über die Informationen eines Sensors erkannten Objekte mit den Informationen der anderen Sensoren fusioniert. Dieser Ansatz ist allerdings ineffizient und kann Probleme erzeugen. Zudem wird für jeden Sensortyp eine eigene Methodik zur Objekterkennung benötigt, was den Einsatz einer vergleichsweise leistungsfähigen Rechenhardware erfordert.The sensor data is usually merged at the so-called object level. The objects detected using the information from one sensor are merged with the information from the other sensors. However, this approach is inefficient and can create problems. In addition, each type of sensor requires its own methodology for object recognition, which requires the use of comparatively powerful computing hardware.
Zur Sensordatenverarbeitung kann dabei auch Künstliche Intelligenz, insbesondere in Form von künstlichen neuronalen Netzen, eingesetzt werden.Artificial intelligence, particularly in the form of artificial neural networks, can also be used for sensor data processing.
Aus der
Der vorliegenden Erfindung liegt die Aufgabe zugrunde ein verbessertes Verfahren zur Sensorfusion anzugeben, welches sich durch eine gesteigerte Effizienz und verbesserte Detektionszuverlässigkeit auszeichnet.The present invention is based on the object of specifying an improved method for sensor fusion, which is characterized by increased efficiency and improved detection reliability.
Erfindungsgemäß wird diese Aufgabe durch ein Verfahren zur Sensorfusion mit den Merkmalen des Anspruchs 1 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich aus den hiervon abhängigen Ansprüchen.According to the invention, this object is achieved by a method for sensor fusion with the features of
Ein gattungsgemäßes Verfahren zur Sensorfusion, wobei ein Fahrzeug seine Umgebung mittels wenigstens eines ersten und eines zweiten Sensors erfasst, wobei der erste und zweite Sensor einen sich zumindest teilweise überlappenden Erfassungsbereich aufweisen, und wobei eine Recheneinheit ein Maschinenlernmodell zur Verarbeitung von den Sensoren erzeugter Sensordaten ausführt, wird erfindungsgemäß weitergebildet durch die folgenden von der Recheneinheit ausgeführten Verfahrensschritte:
- a) Festlegung eines der Sensoren als Hauptsensor, wobei die Recheneinheit die aus einer Analyse der vom Hauptsensor generierten Sensordaten gewonnenen Erkenntnisse zum Ansteuern einer Fahrzeugfunktion verwendet, und wobei die Recheneinheit die Sensordaten des Hauptsensors unter Einsatz des Maschinenlernmodells analysiert;
- b) Festlegen wenigstens eines vom Hauptsensor abweichenden Sensors als Nebensensor;
- c) Zuführen von dem wenigstens einen Nebensensor erzeugten Sensordaten dem Maschinenlernmodell;
- d) Auswahl eines relevanten Informationsbereichs aus den vom Hauptsensor erzeugten Sensordaten in Abhängigkeit der von dem wenigstens einen Nebensensor generierten Sensordaten durch das Maschinenlernmodell; und
- e) Analysieren des dem relevanten Informationsbereich zugeordneten Teils der Sensordaten des Hauptsensors zur Gewinnung der Erkenntnisse durch das Maschinenlernmodell.
- a) determining one of the sensors as the main sensor, wherein the computing unit uses the knowledge gained from an analysis of the sensor data generated by the main sensor to control a vehicle function, and wherein the computing unit analyzes the sensor data of the main sensor using the machine learning model;
- b) defining at least one sensor that deviates from the main sensor as a secondary sensor;
- c) supplying sensor data generated by the at least one secondary sensor to the machine learning model;
- d) selecting a relevant information area from the sensor data generated by the main sensor depending on the sensor data generated by the at least one secondary sensor by the machine learning model; and
- e) analyzing the part of the sensor data of the main sensor assigned to the relevant information area to obtain the insights by the machine learning model.
Das erfindungsgemäße Verfahren zur Sensorfusion ermöglicht es somit die Fusion der verschiedenen Sensoren nicht erst auf Objektebene durchzuführen, sondern bereits vorher auf Basis der vorliegenden Rohdaten. Dies erhöht die Effizienz bei der Sensordatenfusionierung, da die von den verschiedenen Sensoren generierten Sensordaten nicht erst im Einzelnen für eine Objekterkennung analysiert werden müssen.The sensor fusion method according to the invention therefore makes it possible to carry out the fusion of the various sensors not only at the object level, but rather beforehand on the basis of the available raw data. This increases the efficiency of sensor data fusion, since the sensor data generated by the various sensors does not have to be analyzed in detail for object detection.
Hierzu wird einer der Sensoren des Fahrzeugs als Hauptsensor ausgewählt. Das Maschinenlernmodell ermittelt basierend auf den vom Hauptsensor generierten Sensordaten die für die weitere Verarbeitung im Fahrzeug durch Fahrerassistenzsysteme relevanten Informationen. Hierbei kann es sich beispielsweise um Steuerungsbefehle zur zumindest teilautomatisierten oder gar autonomen Steuerung des Fahrzeugs handeln. Das Fahrzeug kann somit insbesondere automatisiert einen Eingriff in die Längs- und/oder Querführung vornehmen. Besonders vorteilhaft wird dasjenige Sensorsystem bzw. derjenige Sensortyp als Hauptsensor ausgewählt, der die umfangreichste Erfassung und Bewertung des Umfelds des Fahrzeugs in der jeweiligen Situation erlaubt.To do this, one of the vehicle's sensors is selected as the main sensor. Based on the sensor data generated by the main sensor, the machine learning model determines the information relevant for further processing in the vehicle by driver assistance systems. These can, for example, be control commands for at least partially automated or even autonomous control of the vehicle. The vehicle can therefore, in particular, carry out an automated intervention in the longitudinal and/or transverse guidance. It is particularly advantageous to select the sensor system or sensor type as the main sensor that allows the most comprehensive detection and evaluation of the vehicle's surroundings in the respective situation.
Zumindest einer der weiteren Sensoren des Fahrzeugs mit einem zumindest teilweise überlappenden Erfassungsbereich zum Hauptsensor, bevorzugt so viele weitere Sensoren wie möglich, werden dann als Nebensensor bestimmt. Das Maschinenlernmodell ermittelt dann aus den von den Nebensensoren generierten Sensordaten relevante Bereiche der Sensordaten bzw. in den Sensordaten des Hauptsensors, die für die weitere Analyse besonders tief bzw. umfangreich verarbeitet bzw. analysiert werden sollen. Umgangssprachlich ausgedrückt versetzen die Nebensensoren das Maschinenlernmodell dazu in die Lage den Fokus auf genau denjenigen für die aktuelle Fahrsituation relevanten Teilbereich des vom Hauptsensor erfassten Ausschnitts des Umfelds zu legen. Somit müssen nicht alle vom Hauptsensor generierten Daten entsprechend umfangreich analysiert werden, sondern nur die jeweils relevanten. Hierdurch lässt sich der notwendige Verarbeitungsaufwand zur Erkennung und Bewertung des Umfelds für das Fahrzeug reduzieren, was letztendlich die Effizienz verbessert.At least one of the further sensors of the vehicle with an at least partially overlapping detection range to the main sensor, preferably as many further sensors as possible, are then determined as a secondary sensor. The machine learning model then determines relevant areas of the sensor data from the sensor data generated by the secondary sensors or in the sensor data of the main sensor, which should be processed or analyzed particularly deeply or extensively for further analysis. To put it colloquially, the secondary sensors enable the machine learning model to focus on exactly that part of the area of the environment detected by the main sensor that is relevant to the current driving situation. This means that not all data generated by the main sensor needs to be analyzed extensively, but only the relevant data. This allows the processing effort required to detect and evaluate the environment for the vehicle to be reduced, which ultimately improves efficiency.
Beispielsweise kann eine Frontkamera des Fahrzeugs als Hauptsensor ausgewählt werden. Eine eventbasierte Kamera und ein oder mehrere Mikrofone können als Nebensensoren fungieren. Unter Analyse von den entsprechenden Nebensensoren generierte Sensordaten ist das Maschinenlernmodell dazu in der Lage ein weiteres Fahrzeug im Umfeld des Egofahrzeugs zu erkennen. Beispielsweise können durch ein Mikrofonarray entsprechend vom weiteren Fahrzeug abgegebene Motorengeräusche relativ gegenüber dem Egofahrzeug verortet werden. Aufgrund der bekannten Einbaulage der jeweiligen Sensoren am Fahrzeug kann das Maschinenlernmodell so ermitteln, in welchem Bildausschnitt von der als Hauptsensor ausgewählten Frontkamera das jeweilige weitere Fahrzeug vorliegen wird. Entsprechend analysiert das Maschinenlernmodell nur diesen Ausschnitt des Kamerabilds im Detail.For example, a front camera of the vehicle can be selected as the main sensor. An event-based camera and one or more microphones can act as secondary sensors. By analyzing sensor data generated by the corresponding secondary sensors, the machine learning model is able to recognize another vehicle in the vicinity of the ego vehicle. For example, engine noises emitted by the other vehicle can be located relative to the ego vehicle using a microphone array. Due to the known installation position of the respective sensors on the vehicle, the machine learning model can determine in which image section from the front camera selected as the main sensor the respective additional vehicle will be present. Accordingly, the machine learning model only analyzes this section of the camera image in detail.
Das Maschinenlernmodell kann insbesondere auf den Einsatz von sogenannten transformerbasierten Lernmodellen aufbauen. Eine solche Transformerarchitektur setzt insbesondere einen sogenannten Aufmerksamkeitsmechanismus, auch als „attention mechanism“ bezeichnet, ein. Diese ermöglichen die Einspeisung von Daten die die Relevanz von anderen Informationen quantifizieren und somit implizit eine umgangssprachliche Fokussierung auf einen Teil der Eingabedaten. Dadurch wird bei der anschließenden Verarbeitung durch ein Modell des maschinellen Lernens eine implizite Sensorfusion durchgeführt, die zur Folge hat, dass Teile der Eingabedaten des Hauptsensors durch Informationen anderer Sensoren gewichtet werden.The machine learning model can be based in particular on the use of so-called transformer-based learning models. Such a transformer architecture in particular uses a so-called attention mechanism, also referred to as an “attention mechanism”. These enable the input of data that quantifies the relevance of other information and thus implicitly a colloquial focus on part of the input data. As a result, during subsequent processing by a machine learning model, an implicit sensor fusion is carried out, which results in parts of the main sensor's input data being weighted by information from other sensors.
Zur Festlegung des relevanten Teilbereichs der Sensordaten des Hauptsensors kann nicht nur der entsprechende Bereich aus den Sensordaten ausgeschnitten werden, sondern auch ein Konfidenzwert für relevante Bereiche bestimmt werden, wobei diejenigen Bereiche als interessanter Teilbereich bestimmt werden, deren Konfidenzwert über einer vorher festgelegten Konfidenzwertschwelle liegt. Die jeweiligen Konfidenzwerte werden dabei vom Maschinenlernmodell in Abhängigkeit der von den Nebensensoren generierten Sensordaten bestimmt. Ein für die Sensordaten des Hauptsensors ermittelter relevanter Teilbereich kann zusammenhängend sein oder auch in separate Unterabschnitte unterteilt sein.To determine the relevant sub-area of the sensor data of the main sensor, not only can the corresponding area be cut out of the sensor data, but a confidence value can also be determined for relevant areas, with those areas being determined as an interesting sub-area whose confidence value is above a predetermined confidence value threshold. The respective confidence values are determined by the machine learning model depending on the sensor data generated by the secondary sensors. A relevant sub-area determined for the sensor data of the main sensor can be contiguous or can also be divided into separate subsections.
Damit das Maschinenlernmodell dazu in die Lage versetzt wird die ihm zugewiesenen Aufgaben zu übernehmen, wurde das Maschinenlernmodell vor der eigentlichen Betriebsphase, beispielsweise durch den Fahrzeughersteller, trainiert. Die Trainingsdaten können in umfangreichen Testkampagnen generiert worden sein. Es kann sich insbesondere um überwachtes Lernen handeln. Ein solcher Trainingsdatensatz beschreibt für verschiedene Sensorsysteme welche Teilbereiche der Sensordaten des Hauptsensors relevant sind. Zudem kann ein Trainingsdatensatz Anweisungen enthalten, wie entsprechende Daten vorzugsweise verarbeitet werden sollen. Ferner kann ein Trainingsdatensatz auch eine Vorgabe enthalten, welches Sensorsystem als Hauptsensor und als Nebensensor fungieren soll.In order to enable the machine learning model to take on the tasks assigned to it, the machine learning model was trained before the actual operating phase, for example by the vehicle manufacturer. The training data may have been generated in extensive test campaigns. In particular, it can be supervised learning. Such a training data set describes which subareas of the sensor data of the main sensor are relevant for different sensor systems. In addition, a training data set can contain instructions on how the corresponding data should preferably be processed should. Furthermore, a training data set can also contain a specification as to which sensor system should function as the main sensor and as the secondary sensor.
Zur Veranschaulichung sei hier beispielhaft eine Trainingskampagne beschrieben, die zur Entwicklungszeit durchgeführt wird:
- Im Fahrzeug seien fünf verschiedene Sensoren verbaut, die in unterschiedlicher Konfiguration ihre jeweiligen Sensordaten erfassen können. Beispielsweise sind ein LiDAR sowie eine jeweilige Time-Of-Flight- und Infrarot-Kamera vorgesehen. Die Trainingskampagne besteht aus einer Vielzahl an Szenarien. Diese Szenarien setzen sich zusammen aus einer Kombination unterschiedlicher Sensoreinstellungen und Szenarien-Eigenschaften sowie dem Szenarien-Label. Die Sensoreinstellungen definieren die unterschiedlichen Konfigurationen, die ein Sensor im Fahrzeug annehmen kann. Beispielsweise sind dies für eine Kamera: Kamerawinkel, Tiefenmessung, Beleuchtung, Schärfe, Auflösung, etc. Die Szenarien-Eigenschaften sind beispielsweise:
- Geschwindigkeit, Licht- und Sichtbedingungen, Fahrbahnzustand, Fahrwerksdämpfung, Beladung und dergleichen. Auf Basis der Kombination unterschiedlicher Sensor- und Szenarien-Eigenschaften können die jeweiligen Szenarien-Label in der Trainingskampagne vergeben und somit die Sensor-Fusion optimiert werden. Szenarien-Label können hierbei beispielsweise lauten: „Kurvenlagen-Güte“, „ESP-Eingriff“, „Unfallvermeidung“, „Geschwindigkeitsreduktion“, „Ausweichmanöver“. In einer konkreten Sensor- und Szenarien-Eigenschaftskombination ergeben sich beispielsweise während des Trainings Trefferquoten für die Label-Korrektheit (supervised learning) wie „Kurvenlagen-Güte [80%]“, „ESP-Eingriff [90%]“, „Unfallvermeidung [10%]“, „Geschwindigkeitsreduktion [20%]“, „Ausweichmanöver [98%]“. Je höher die Genauigkeit bzw. Trefferquote ist, desto besser ist die Sensorfusion, aus der abgeleitet werden kann, welche die optimale Verknüpfung der Sensor-Eingangsdaten im späteren Serienbetrieb ist.
- Five different sensors are installed in the vehicle, which can record their respective sensor data in different configurations. For example, a LiDAR as well as a respective time-of-flight and infrared camera are provided. The training campaign consists of a variety of scenarios. These scenarios are made up of a combination of different sensor settings and scenario properties as well as the scenario label. The sensor settings define the different configurations that a sensor can assume in the vehicle. For example, for a camera these are: camera angle, depth measurement, lighting, sharpness, resolution, etc. The scenario properties are, for example:
- Speed, light and visibility conditions, road condition, chassis damping, load and the like. Based on the combination of different sensor and scenario properties, the respective scenario labels can be assigned in the training campaign and the sensor fusion can thus be optimized. Scenario labels can be, for example: “Curving quality”, “ESP intervention”, “Accident avoidance”, “Speed reduction”, “Avoidance maneuvers”. In a specific sensor and scenario property combination, for example, hit rates for label correctness (supervised learning) arise during training such as “curve position quality [80%]”, “ESP intervention [90%]”, “accident avoidance [10 %]", "Speed reduction [20%]", "Evasion maneuver [98%]". The higher the accuracy or hit rate, the better the sensor fusion, from which it can be derived which is the optimal combination of the sensor input data in later series operation.
Eine vorteilhafte Weiterbildung des erfindungsgemäßen Verfahrens sieht ferner vor, dass die Recheneinheit den vom relevanten Informationsbereich abweichenden Teil der Sensordaten des Hauptsensors vor einer Analyse durch das Maschinenlernmodell verwirft. Wie bereits erwähnt, lässt sich der interessante Teilbereich der Sensordaten des Hauptsensors ausschneiden bzw. entfernen. Somit wird die von der Recheneinheit zu verarbeitende Datenmenge reduziert, was die Effizienz bei der Durchführung des erfindungsgemäßen Verfahrens noch weiter erhöht.An advantageous development of the method according to the invention further provides that the computing unit discards the part of the sensor data of the main sensor that deviates from the relevant information area before analysis by the machine learning model. As already mentioned, the interesting section of the sensor data from the main sensor can be cut out or removed. The amount of data to be processed by the computing unit is thus reduced, which further increases the efficiency in carrying out the method according to the invention.
Entsprechend einer weiteren vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens werden die von dem wenigstens einen Nebensensor generierten Sensordaten vor einer Verarbeitung durch das Maschinenlernmodell aufbereitet. Hierdurch wird die Datenqualität der entsprechenden Sensordaten erhöht. Beispielsweise kann durch entsprechende Vorverarbeitungsalgorithmen Rauschen entfernt werden, spezielle Filter eingesetzt werden und dergleichen. Dies erhöht die Zuverlässigkeit, dass relevante Informationen aus den von den Nebensensoren generierten Sensordaten erhalten werden können. Entsprechend können die dem interessanten Teilbereich der Sensordaten des Hauptsensors zugeordneten Daten aufbereitet werden.According to a further advantageous embodiment of the method according to the invention, the sensor data generated by the at least one secondary sensor are processed before processing by the machine learning model. This increases the data quality of the corresponding sensor data. For example, noise can be removed using appropriate preprocessing algorithms, special filters can be used, and the like. This increases the reliability that relevant information can be obtained from the sensor data generated by the secondary sensors. The data assigned to the interesting subarea of the sensor data of the main sensor can be prepared accordingly.
Eine weitere vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahrens sieht ferner vor, dass die von dem wenigstens einen Nebensensor generierten Sensordaten vor einer Verarbeitung durch das Maschinenlernmodell normiert werden. Dies verbessert die Recheneffizienz noch weiter. So können die von verschiedenen Sensorsystemen generierten Sensordaten insbesondere auf ein einheitliches Format gebracht werden, in dasselbe Koordinatensystem übertragen werden und dergleichen. Somit lässt sich verhindern, dass aufgrund unterschiedlicher Einheitensysteme, Längenverhältnisse und dergleichen Fehler beim Referenzieren der jeweiligen Daten aufeinander entstehen.A further advantageous embodiment of the method according to the invention further provides that the sensor data generated by the at least one secondary sensor are standardized before processing by the machine learning model. This improves computing efficiency even further. In particular, the sensor data generated by different sensor systems can be brought into a uniform format, transferred to the same coordinate system, and the like. This makes it possible to prevent errors from occurring when referencing the respective data to one another due to different unit systems, length ratios and the like.
Entsprechend einer weiteren vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens wird wenigstens ein Erfassungsparameter des Hauptsensors in Abhängigkeit von durch eine Analyse der Sensordaten wenigstens eines Nebensensors gewonnener Erkenntnisse angepasst. Aus den vom Maschinenlernmodell durch Analyse der Sensordaten der Nebensensoren gewonnenen Erkenntnisse lässt sich auch ableiten, dass beispielsweise eine jeweilige Einsatzrandbedingung vorliegt, bei der die Erfassungsgüte des Hauptsensors gesteigert werden kann, wenn spezielle Erfassungsparameter für den Hauptsensor eingestellt werden. Analog zu vorigen Ausführungen kann das Maschinenlernmodell in der Entwicklungsphase entsprechend trainiert worden sein, solche Zusammenhänge zu erkennen. So können verschiedene Testszenarien durchgeführt werden, wobei jeweils für unterschiedliche Erfassungsrandbedingungen ein Satz an verschiedenen Erfassungsparametern eingestellt wird und jeweilige Erfassungen der Umgebung durchgeführt werden. Das Maschinenlernmodell erlernt hierdurch zu erkennen, für welche Erfassungsrandbedingungen mit welchen Erfassungsparametern die jeweils am besten zu verwertenden Ergebnisse erzielt werden können. Handelt es sich bei dem Hauptsensor um eine Kamera, so kann beispielsweise die Blendenöffnung, die Belichtungszeit, die ISO-Empfindlichkeit, die Brennweite und dergleichen für eine Aufnahme variiert werden.According to a further advantageous embodiment of the method according to the invention, at least one detection parameter of the main sensor is adapted depending on knowledge gained through an analysis of the sensor data of at least one secondary sensor. From the knowledge gained by the machine learning model by analyzing the sensor data of the secondary sensors, it can also be deduced that, for example, there is a particular operating condition in which the detection quality of the main sensor can be increased if special detection parameters are set for the main sensor. Analogous to previous statements, the machine learning model may have been trained in the development phase to recognize such relationships. In this way, different test scenarios can be carried out, with a set of different detection parameters being set for different detection boundary conditions and respective detections of the environment being carried out. The machine learning model thereby learns to recognize for which detection boundary conditions and with which detection parameters the best results can be achieved. Is this the main sensor? a camera, for example the aperture, exposure time, ISO sensitivity, focal length and the like can be varied for a shot.
Eine weitere vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahrens sieht ferner vor, dass das Maschinenlernmodell von wenigstens zwei Nebensensoren generierte Sensordaten zur Auswahl des relevanten Informationsbereichs berücksichtigt, wobei den Nebensensoren in Abhängigkeit der aktuellen Erfassungsbedingungen eine Relevanzgewichtung zugeordnet wird, und das Maschinenlernmodell von Nebensensoren mit hoher Relevanzgewichtung generierte Sensordaten für die Auswahl des relevanten Informationsbereichs priorisiert. Wie auch der Hauptsensor verfügen auch die jeweiligen Nebensensoren über von unterschiedlichen Einsatzrandbedingungen abhängige Erfassungsgüten. Wird zur Bestimmung des relevanten Informationsbereichs in den vom Hauptsensor generierten Sensordaten ein solcher Nebensensor verwendet, der bei den aktuellen Einsatzrandbedingungen eine verminderte Erfassungsgüte aufweist, so können Fehler entstehen. Liegt beispielsweise gerade Starkregen vor, so könnte von einem LiDAR-Sensor ein zu kurzer Abstandswert geliefert werden. Für unterschiedliche Einsatzrandbedingungen liegen dann verschiedene Relevanzgewichtungen für die unterschiedlichen Sensortypen vor. Diese Relevanzgewichtungen lassen sich beispielsweise über eine heuristische Formel oder ebenfalls unter Einsatz von Künstlicher Intelligenz den jeweiligen Nebensensoren zuordnen. Das Maschinenlernmodell berücksichtigt dann die Sensordaten der Nebensensoren entsprechend der jeweiligen Relevanzgewichtung. Dies erhöht die Zuverlässigkeit, dass der relevante Informationsbereich für die Sensordaten des Hauptsensors korrekt bestimmt wird.A further advantageous embodiment of the method according to the invention further provides that the machine learning model takes into account sensor data generated by at least two secondary sensors to select the relevant information area, with the secondary sensors being assigned a relevance weighting depending on the current detection conditions, and the machine learning model sensor data generated by secondary sensors with a high relevance weighting prioritized for selecting the relevant information area. Like the main sensor, the respective secondary sensors also have detection qualities that depend on different operating conditions. If such a secondary sensor is used to determine the relevant information area in the sensor data generated by the main sensor, which has a reduced detection quality under the current operating conditions, errors can arise. For example, if there is currently heavy rain, a LiDAR sensor could provide a distance value that is too short. There are then different relevance weightings for the different sensor types for different operational conditions. These relevance weights can be assigned to the respective secondary sensors, for example, using a heuristic formula or using artificial intelligence. The machine learning model then takes into account the sensor data from the secondary sensors according to the respective relevance weighting. This increases the reliability that the relevant information range for the sensor data of the main sensor is correctly determined.
Entsprechend einer weiteren vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens wird in Schritt a) derjenige Sensor als Hauptsensor festgelegt, der für die aktuellen Erfassungsrandbedingungen die höchste Erfassungsgüte aufweist. Dies erhöht die Zuverlässigkeit, dass relevante Objekte vom Maschinenlernmodell erkannt werden. Analog zu vorigen Ausführungen im Zusammenhang mit den Nebensensoren, kann auch hier eine heuristische Formel und/oder Künstliche Intelligenz eingesetzt werden, um zu bestimmen, welcher Sensor bei den aktuellen Erfassungsrandbedingungen die höchste Erfassungsgüte aufweist.According to a further advantageous embodiment of the method according to the invention, in step a) the sensor which has the highest detection quality for the current detection boundary conditions is defined as the main sensor. This increases the reliability that relevant objects are recognized by the machine learning model. Analogous to previous statements in connection with the secondary sensors, a heuristic formula and/or artificial intelligence can also be used here to determine which sensor has the highest detection quality given the current detection boundary conditions.
Eine weitere vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahrens sieht ferner vor, dass die Erfassungsgüte der einzelnen Sensoren über der Zeit nachverfolgt wird und bei einer Verschlechterung der Erfassungsgüte eines spezifischen Sensors eine Warnmeldung an einen Fahrzeuginsassen ausgegeben wird. Das Maschinenlernmodell ist somit dazu in der Lage einen Abnutzungsgrad der unterschiedlichen Sensoren des Fahrzeugs zu erfassen. Ist die Degradation eines spezifischen Sensors so weit fortgeschritten, dass keine zuverlässige Umgebungserfassung mehr möglich ist, kann eine entsprechende Warnmeldung ausgegeben werden. Diese Warnmeldung kann visuell, akustisch und/oder haptisch erfolgen. Beispielsweise kann eine Warnleuchte im Fahrzeuginnenraum aufblinken, auf einer Anzeigevorrichtung ein Hinweistext angezeigt werden, ein Warnton erklingen und/oder ein von der fahrzeugführenden Person berührtes Fahrzeugelement, beispielsweise ein Sitz und/oder das Lenkrad, vibrieren. Hierdurch lässt sich dem Fahrzeuginsassen, insbesondere der fahrzeugführenden Person, vermitteln, dass der entsprechende Sensor ausgetauscht werden sollte. Die Wartung des Fahrzeugs kann beispielsweise in einer Vertragswerkstatt des Fahrzeugherstellers erfolgen. Über eine entsprechende Mensch-Maschine Schnittstelle des Fahrzeugs kann eine Funktion bereitgestellt werden entsprechende Werkstatttermine direkt aus dem Fahrzeug heraus zu buchen.A further advantageous embodiment of the method according to the invention further provides that the detection quality of the individual sensors is tracked over time and if the detection quality of a specific sensor deteriorates, a warning message is issued to a vehicle occupant. The machine learning model is therefore able to record the degree of wear of the vehicle's different sensors. If the degradation of a specific sensor has progressed to such an extent that reliable environmental detection is no longer possible, a corresponding warning message can be issued. This warning message can be visual, acoustic and/or tactile. For example, a warning light in the vehicle interior can flash, an advisory text can be displayed on a display device, a warning tone can sound and/or a vehicle element touched by the person driving the vehicle, for example a seat and/or the steering wheel, can vibrate. This makes it possible to convey to the vehicle occupant, in particular the person driving the vehicle, that the corresponding sensor should be replaced. The vehicle can be serviced, for example, in an authorized workshop of the vehicle manufacturer. A function can be provided via a corresponding human-machine interface in the vehicle to book corresponding workshop appointments directly from the vehicle.
Entsprechend einer weiteren vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens hält die Recheneinheit wenigstens zwei sich durch ihren Komplexitätsgrad unterscheidende Maschinenlernmodelle vor und setzt das weniger komplexe Maschinenlernmodell zur Analyse der Sensordaten des Hauptsensors ein, wenn in Abhängigkeit der Sensordaten des wenigstens einen Nebensensors kein relevanter Informationsbereich in den vom Hauptsensor generierten Sensordaten identifizierbar ist. Hierdurch lässt sich die Effizienz in der Datenverarbeitung durch die Recheneinheit noch weiter erhöhen. Handelt es sich bei den Maschinenlernmodellen beispielsweise um künstliche neuronale Netze, so können sich diese durch ihre Tiefe unterscheiden. Die verschiedenen künstlichen neuronalen Netze verfügen also über eine unterschiedliche Anzahl an Neuronen. Je mehr Neuronen ein künstliches neuronales Netz umfasst, desto höher ist auch der Komplexitätsgrad. Mit Zunahme des Komplexitätsgrads steigt auch der zur Ausführung des entsprechenden Maschinenlernmodells erforderliche Rechenaufwand. Wird also ein künstliches neuronales Netz mit weniger Neuronen bzw. einer geringeren Tiefe zur Datenanalyse verwendet, so sinkt auch der erforderliche Rechenaufwand und damit der Energieverbrauch der Recheneinheit.According to a further advantageous embodiment of the method according to the invention, the computing unit maintains at least two machine learning models that differ in their degree of complexity and uses the less complex machine learning model to analyze the sensor data of the main sensor if, depending on the sensor data of the at least one secondary sensor, there is no relevant information area in the main sensor generated sensor data can be identified. This allows the efficiency of data processing by the computing unit to be increased even further. For example, if the machine learning models are artificial neural networks, they can differ in their depth. The different artificial neural networks therefore have a different number of neurons. The more neurons an artificial neural network contains, the higher the level of complexity. As the level of complexity increases, the computational effort required to execute the corresponding machine learning model also increases. If an artificial neural network with fewer neurons or a smaller depth is used for data analysis, the required computing effort and thus the energy consumption of the computing unit also decreases.
Eine weitere vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahrens sieht ferner vor, dass wenigstens ein dritter Sensor einen zum Hauptsensor abweichenden Erfassungsbereich aufweist, ein vom Hauptsensor erfasstes und durch die Recheneinheit in den Sensordaten des Hauptsensors identifiziertes Objekt durch die Recheneinheit nachverfolgt wird und die Recheneinheit den dritten Sensor als neuen Hauptsensor festlegt, wenn die Recheneinheit einen Übertritt des Objekts aus dem Erfassungsbereich des Hauptsensors in den Erfassungsbereich des dritten Sensors prädiziert. Hierdurch lässt sich die Effizienz des erfindungsgemäßen Verfahrens zur Sensorfusion noch weiter steigern. So kann für die jeweilige Einsatzrandbedingung zeitnah der jeweils passende Sensor als Hauptsensor ausgewählt werden. Verlässt also ein relevantes Objekt den Erfassungsbereich des aktuellen Hauptsensors und betritt den Erfassungsbereich eines besagten dritten Sensors, so kann zeitnah der jeweilige Sensor als neuer Hauptsensor ausgewählt werden, sodass das entsprechende relevante Objekt unter einer ausreichenden Erfassungsgüte weiterhin durch das Maschinenlernmodell bzw. die Recheneinheit nachverfolgt werden kann.A further advantageous embodiment of the method according to the invention further provides that at least a third sensor has a detection range that deviates from the main sensor, an object detected by the main sensor and identified by the computing unit in the sensor data of the main sensor by the computing unit is tracked and the computing unit determines the third sensor as the new main sensor when the computing unit predicts that the object will pass from the detection range of the main sensor into the detection range of the third sensor. This allows the efficiency of the sensor fusion method according to the invention to be increased even further. In this way, the appropriate sensor can be quickly selected as the main sensor for the respective operating conditions. If a relevant object leaves the detection range of the current main sensor and enters the detection range of a said third sensor, the respective sensor can be promptly selected as the new main sensor, so that the corresponding relevant object can continue to be tracked by the machine learning model or the computing unit with sufficient detection quality can.
Generell ist es auch möglich, dass, je nach Einsatzrandbedingung, mehrere Sensoren des Fahrzeugs gleichzeitig als Hauptsensor und/oder Nebensensor fungieren. In general, it is also possible for several sensors in the vehicle to function simultaneously as the main sensor and/or secondary sensor, depending on the operating conditions.
Beispielsweise können gleichzeitig eine in Richtung der Fahrzeuglängsachse ausgerichtete Frontkamera und eine einen Versatz hierzu aufweisende und seitlich von der Mittelachse des Fahrzeugs weggerichtete eventbasierte Kamera als zwei Hauptsensoren fungieren. Dabei überwacht die Frontkamera ein erstes Objekt und die eventbasierte Kamera ein zweites Objekt. Gleichzeitig kann die eventbasierte Kamera dabei als Nebensensor für die mittig positionierte und ausgerichtete Frontkamera fungieren und umgekehrt.For example, a front camera aligned in the direction of the vehicle's longitudinal axis and an event-based camera that is offset therefrom and directed laterally away from the center axis of the vehicle can function as two main sensors at the same time. The front camera monitors a first object and the event-based camera monitors a second object. At the same time, the event-based camera can function as a secondary sensor for the centrally positioned and aligned front camera and vice versa.
Weitere vorteilhafte Ausgestaltungen des erfindungsgemäßen Verfahrens zur Sensorfusion ergeben sich auch aus dem Ausführungsbeispiel, welches nachfolgend unter Bezugnahme auf die Figur näher beschrieben wird.
Dabei zeigt 1 eine Draufsicht auf ein das erfindungsgemäße Verfahren ausführendes Fahrzeug in einer Fahrsituation.
- This shows
1 a top view of a vehicle carrying out the method according to the invention in a driving situation.
In einem weiteren (nicht dargestellten) Beispiel setzt ein zumindest teilautomatisiertes Fahrzeug ein kamerabasiertes System zur Umgebungserfassung ein. Außerdem sind in den Scheinwerfern des Fahrzeugs Infrarotsensoren zur adaptiven Ansteuerung der Scheinwerfer verbaut. Bei der Fahrt auf einer Landstraße wird ein vorausfahrendes Fahrzeug aufgrund seiner dem Hintergrund sehr ähnlichen Farbe zunächst nicht vom kamerabasierten System erkannt. Da allerdings die Information der Infrarotsensoren die Wärmesignatur des vorausfahrenden Fahrzeugs wahrnehmen kann und diese dem Maschinenlernmodell zugeführt wird, ist das Maschinenlernmodell durch Bestimmung des relevanten Informationsbereichs 5 dazu in der Lage dem Kamerasystem mitzuteilen, welcher Kamerabildausschnitt für die weitere Datenanalyse relevant ist. Mit anderen Worten wird der Fokus auf den relevanten Informationsbereich 5 gelenkt.In a further example (not shown), an at least partially automated vehicle uses a camera-based system to detect the environment. In addition, infrared sensors are installed in the vehicle's headlights for adaptive headlight control. When driving on a country road, a vehicle in front is not initially recognized by the camera-based system due to its color being very similar to the background. However, since the information from the infrared sensors can detect the heat signature of the vehicle in front and this is fed to the machine learning model, the machine learning model is able to tell the camera system which camera image section is relevant for further data analysis by determining the
In einem letzten (ebenfalls nicht dargestellten) Beispiel überwacht ein zumindest teilautomatisiert gesteuertes Fahrzeug ebenfalls seine Umgebung mittels eines kamerabasierten Systems. Ferner verfügt das Fahrzeug über eine eventbasierte Kamera, die es erlaubt, mit höherer temporaler Auflösung und höherer dynamischer Bandbreite (englisch: dynamic range) Kamerabilder zu erfassen. Das Fahrzeug fährt mit hoher Geschwindigkeit auf den Ausgang eines Tunnels zu. Die Frontkamera kann den starken Kontrast aufgrund des Helligkeitsunterschieds zwischen dem Inneren und Äußeren des Tunnels nicht abbilden und so außerhalb des Tunnels befindliche Fahrzeuge nicht ohne weiteres erkennen. Da die eventbasierte Kamera eine höhere dynamische Bandbreite aufweist, kann diese das entgegenkommende Fahrzeug jedoch bereits wahrnehmen. Unter entsprechender Datenanalyse durch das Maschinenlernmodell kann somit ein entsprechender Bildausschnitt für die Frontkamera bestimmt werden und gegebenenfalls die Fokussierung der Frontkamera angepasst werden. Sobald sich die Lichtverhältnisse für die Frontkamera verbessern ist dann das entgegenkommende Fahrzeug wesentlich schneller erkennbar.In a final example (also not shown), an at least partially automated vehicle also monitors its surroundings using a camera-based system. The vehicle also has an event-based camera that allows camera images to be captured with higher temporal resolution and higher dynamic range. The vehicle is driving towards the exit of a tunnel at high speed. The front camera cannot image the strong contrast due to the difference in brightness between the inside and outside of the tunnel and therefore cannot easily detect vehicles outside the tunnel. However, since the event-based camera has a higher dynamic bandwidth, it can already detect the oncoming vehicle. With appropriate data analysis by the machine learning model, a corresponding image section can be determined for the front camera and, if necessary, the focusing of the front camera can be adjusted. As soon as the lighting conditions improve for the front camera, the oncoming vehicle can be seen much more quickly.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- WO 2016/100814 A1 [0006]WO 2016/100814 A1 [0006]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102023005203.5A DE102023005203A1 (en) | 2023-12-16 | 2023-12-16 | Sensor fusion method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102023005203.5A DE102023005203A1 (en) | 2023-12-16 | 2023-12-16 | Sensor fusion method |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102023005203A1 true DE102023005203A1 (en) | 2024-03-14 |
Family
ID=90054861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102023005203.5A Pending DE102023005203A1 (en) | 2023-12-16 | 2023-12-16 | Sensor fusion method |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102023005203A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016100814A1 (en) | 2014-12-19 | 2016-06-23 | United Technologies Corporation | Multi-modal sensor data fusion for perception systems |
-
2023
- 2023-12-16 DE DE102023005203.5A patent/DE102023005203A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016100814A1 (en) | 2014-12-19 | 2016-06-23 | United Technologies Corporation | Multi-modal sensor data fusion for perception systems |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2951804B1 (en) | Creating a model for the surroundings of a vehicle | |
DE102016219455A1 (en) | Motor vehicle, method and active infrastructure for checking an environment detection of a motor vehicle | |
WO2012152268A2 (en) | Redundant object detection for driver assistance systems | |
DE102015224192A1 (en) | Recognition of an open space | |
WO2018206213A1 (en) | Method and apparatus for the spatially resolved detection of an object outside a vehicle with the aid of a sensor installed in a vehicle | |
DE102011014081A1 (en) | Method for detecting a turning maneuver | |
DE102018133457B4 (en) | Method and system for providing environmental data | |
DE102019217428A1 (en) | Method for operating a driver assistance system, driver assistance system and vehicle | |
DE102022205084B3 (en) | Method, computer program and device for perceiving the environment in the vehicle and corresponding vehicle | |
DE102020211970A1 (en) | Method for controlling a vehicle | |
DE102014219876A1 (en) | Method and device for supporting an automatic parking process of a motor vehicle | |
DE102010003375B4 (en) | Environment evaluation system in a vehicle with sensor means for detecting objects in the vicinity of the vehicle | |
DE102016002232A1 (en) | Method for operating a motor vehicle | |
DE102019217723A1 (en) | DRIVING SAFETY CONTROL SYSTEM USING AMBIENT NOISE AND CONTROL METHOD THEREFOR | |
DE102017206344A1 (en) | Driver assistance system for a vehicle | |
DE102018212266A1 (en) | Adaptation of an evaluable scanning range of sensors and adapted evaluation of sensor data | |
DE102016217079A1 (en) | Method and device for operating a first vehicle | |
DE102023005203A1 (en) | Sensor fusion method | |
EP4053593A1 (en) | Processing of sensor data in a means of transport | |
DE102018205146A1 (en) | Test method for high-resolution headlamps using AI | |
DE102021005731A1 (en) | Method for operating sensor-based environmental monitoring of a vehicle | |
DE102020213862A1 (en) | Method and environment detection system for providing environment data | |
DE102020213661A1 (en) | Method for analyzing the surroundings of a motor vehicle | |
DE102019004842A1 (en) | Method for operating an at least partially automated vehicle | |
DE102019215359A1 (en) | Method for outputting a signal for a vehicle to drive onto a priority road |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R230 | Request for early publication |