DE102021214105A1 - Device for fusing sensor data - Google Patents
Device for fusing sensor data Download PDFInfo
- Publication number
- DE102021214105A1 DE102021214105A1 DE102021214105.6A DE102021214105A DE102021214105A1 DE 102021214105 A1 DE102021214105 A1 DE 102021214105A1 DE 102021214105 A DE102021214105 A DE 102021214105A DE 102021214105 A1 DE102021214105 A1 DE 102021214105A1
- Authority
- DE
- Germany
- Prior art keywords
- quality
- sensor data
- sensor
- merged
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
- G06V10/811—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft eine Vorrichtung zum Fusionieren von Sensordaten eines ersten Sensors und eines zweiten Sensors, aufweisend eine Datenschnittstelle mit der erste Sensordaten des ersten Sensors, eine erste Güte der ersten Sensordaten, zweite Sensordaten des zweiten Sensors und eine zweite Güte der zweiten Sensordaten eingelesen werden können. Die Vorrichtung ist ferner eingerichtet, fusionierte Sensordaten aus den ersten Sensordaten und den zweiten Sensordaten zu erzeugen und eingerichtet, aus der ersten Güte und der zweiten Güte eine fusionierte Güte zu ermitteln.The invention relates to a device for merging sensor data from a first sensor and a second sensor, having a data interface with which first sensor data from the first sensor, a first quality of the first sensor data, second sensor data from the second sensor and a second quality of the second sensor data can be read . The device is also set up to generate merged sensor data from the first sensor data and the second sensor data and set up to determine a merged quality from the first quality and the second quality.
Description
Die Erfindung betrifft eine Vorrichtung zum Fusionieren von Sensordaten sowie ein Fahrzeug mit einer solchen Vorrichtung.The invention relates to a device for fusing sensor data and a vehicle with such a device.
Stand der TechnikState of the art
Es sind Sensoren bekannt, deren Sensordaten in Fahrzeugen mit Fahrerassistenzsystemen beziehungsweise mit Vorrichtungen zum automatisierten Ausführen von Fahrfunktionen zur Steuerung des Fahrerassistenzsystems beziehungsweise der Vorrichtung zum automatisierten Ausführen von Fahrfunktionen genutzt werden. Dabei ist es notwendig, potentiell gefährliche Situationen zu erkennen. Insbesondere kann es notwendig sein, zu erkennen, inwieweit aktuell den vorliegenden Sensordaten vertraut werden sollte oder ob die aktuell vorliegenden Sensordaten gegebenenfalls fehlerbehaftet sind. Ferner ist es notwendig, sofern mehr als ein Sensor genutzt werden soll, die Sensordaten zu fusionieren. Auch hier ist es notwendig, abzuschätzen, inwieweit den fusionierten Sensordaten vertraut werden sollte.Sensors are known whose sensor data are used in vehicles with driver assistance systems or with devices for the automated execution of driving functions to control the driver assistance system or the device for the automated execution of driving functions. It is necessary to recognize potentially dangerous situations. In particular, it may be necessary to recognize the extent to which the currently available sensor data should be trusted or whether the currently available sensor data may contain errors. Furthermore, if more than one sensor is to be used, it is necessary to merge the sensor data. Here, too, it is necessary to assess the extent to which the merged sensor data should be trusted.
Offenbarung der ErfindungDisclosure of Invention
Eine Aufgabe der Erfindung ist es, eine verbesserte Vorrichtung zum Fusionieren von Sensordaten anzugeben. Eine weitere Aufgabe der Erfindung ist es, ein Fahrzeug mit einer solchen Vorrichtung anzugeben.An object of the invention is to specify an improved device for fusing sensor data. A further object of the invention is to specify a vehicle with such a device.
Diese Aufgaben werden mit den Gegenständen der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen sind in den abhängigen Patentansprüchen angegeben.These objects are solved with the subject matter of the independent patent claims. Advantageous developments are specified in the dependent patent claims.
Eine Vorrichtung zum Fusionieren von Sensordaten eines ersten Sensors und eines zweiten Sensors weist eine Datenschnittstelle auf, mit der erste Sensordaten des ersten Sensors, eine erste Güte der ersten Sensordaten, zweite Sensordaten des zweiten Sensors und eine zweite Güte der zweiten Sensordaten eingelesen werden können. Die Vorrichtung ist ferner eingerichtet, fusionierte Sensordaten aus den ersten Sensordaten und den zweiten Sensordaten zu erzeugen. Darüber hinaus ist die Vorrichtung eingerichtet, aus der ersten Güte und der zweiten Güte eine fusionierte Güte zu ermitteln.A device for merging sensor data from a first sensor and a second sensor has a data interface with which first sensor data from the first sensor, a first quality of the first sensor data, second sensor data from the second sensor and a second quality of the second sensor data can be read. The device is also set up to generate merged sensor data from the first sensor data and the second sensor data. In addition, the device is set up to determine a merged quality from the first quality and the second quality.
Die fusionierte Güte gibt also an, wie zuverlässig die fusionierten Sensordaten sind. Die fusionierte Güte beinhaltet also ein Maß dafür, inwieweit sich ein Fahrerassistenzsystem beziehungsweise eine Vorrichtung zum automatisierten Ausführen von Fahrfunktionen auf die fusionierten Sensordaten verlassen darf.The merged quality therefore indicates how reliable the merged sensor data is. The merged quality thus contains a measure of the extent to which a driver assistance system or a device for the automated execution of driving functions may rely on the merged sensor data.
In einer Ausführungsform umfasst die erste Güte eine Wahrscheinlichkeit für eine Korrektheit der ersten Sensordaten. Die zweite Güte umfasst eine Wahrscheinlichkeit für eine Korrektheit der zweiten Sensordaten. Bei der Ermittlung der fusionierten Güte wird eine Wahrscheinlichkeit für eine Korrektheit der fusionierten Sensordaten ermittelt. Je wahrscheinlicher die fusionierten Sensordaten korrekt sind, desto mehr darf sich ein Fahrerassistenzsystem beziehungsweise eine Vorrichtung zum automatisierten Ausführen von Fahrfunktionen auf die fusionierten Sensordaten verlassen.In one embodiment, the first quality includes a probability that the first sensor data is correct. The second quality includes a probability that the second sensor data is correct. When determining the merged quality, a probability of correctness of the merged sensor data is determined. The more likely it is that the merged sensor data is correct, the more a driver assistance system or a device for the automated execution of driving functions can rely on the merged sensor data.
In einer Ausführungsform umfassen die ersten Sensordaten und die zweiten Sensordaten erkannte Objekte. Die erste Güte umfasst eine erste Wahrscheinlichkeit für einen falsch positiven Wert für ein erkanntes Objekt der ersten Sensordaten und eine zweite Wahrscheinlichkeit für einen falsch negativen Wert für ein nicht-erkanntes Objekt der ersten Sensordaten. Die zweite Güte umfasst eine dritte Wahrscheinlichkeit für einen falsch positiven Wert für ein erkanntes Objekt der zweiten Sensordaten und eine vierte Wahrscheinlichkeit für einen falsch negativen Wert für ein nicht-erkanntes Objekt der zweiten Sensordaten. Dies ermöglicht die Fusion von auf Objekterkennung basierenden Sensordaten inklusive der Betrachtung der Wahrscheinlichkeiten für falsch positive erkannte Objekte und für falsch negativ erkannte Objektfreiheit innerhalb der fusionierten Sensordaten.In one embodiment, the first sensor data and the second sensor data include detected objects. The first quality includes a first probability of a false positive value for a recognized object in the first sensor data and a second probability of a false negative value for a non-recognized object in the first sensor data. The second quality includes a third probability of a false positive value for a recognized object in the second sensor data and a fourth probability of a false negative value for a non-recognized object in the second sensor data. This enables the fusion of sensor data based on object recognition, including the consideration of the probabilities for false positive recognized objects and for false negative recognized object freedom within the merged sensor data.
In einer Ausführungsform ist die Vorrichtung eingerichtet, einzulesen, welcher erste Parameter die erste Güte der ersten Sensordaten am stärksten negativ beeinflusst hat und welcher zweite Parameter die zweite Güte der zweiten Sensordaten am stärksten negativ beeinflusst hat. Ferner ist die Vorrichtung eingerichtet, bei der Ermittlung der fusionierten Güte zu berücksichtigen ob der erste Parameter und der zweite Parameter unterschiedlich oder gleich sind. Dadurch kann berücksichtigt werden, dass eine fusionierte Güte gegebenenfalls schlechter ist, wenn der erste Parameter und der zweite Parameter identisch sind, die beiden Sensoren also vom selben Parameter negativ beeinflusst wurden. Ferner kann vorgesehen sein, dass mehrere erste Parameter und mehrere zweite Parameter betrachtet werden, die jeweils den stärksten Einfluss auf die ersten Güte des ersten Sensors beziehungsweise die zweite Güte des zweiten Sensors haben, und berücksichtigt wird, ob einer der ersten Parameter identisch zu einem der zweiten Parameter identisch ist. Beispielsweise können für jeden Sensor drei Parameter ausgewertet werden, wobei die drei Parameter den stärksten, den zweitstärksten und den drittstärksten Einfluss auf den jeweiligen Sensor haben.In one embodiment, the device is set up to read in which first parameter has had the most negative influence on the first quality of the first sensor data and which second parameter has had the most negative influence on the second quality of the second sensor data. Furthermore, the device is set up to take into account whether the first parameter and the second parameter are different or the same when determining the merged quality. As a result, it can be taken into account that a merged quality may be worse if the first parameter and the second parameter are identical, ie the two sensors were negatively influenced by the same parameter. Furthermore, it can be provided that several first parameters and several second parameters are considered, which each have the strongest influence on the first quality of the first sensor or the second quality of the second sensor, and it is taken into account whether one of the first parameters is identical to one of the second parameter is identical. For example, three parameters can be evaluated for each sensor, with the three parameters having the strongest, the second strongest and the third strongest influence on the respective sensor.
Der oder die Parameter können aus den folgenden Parametern ausgewählt sein:
- - Umgebungsparameter wie beispielsweise Wetterbedingungen, Beleuchtungsstärken und Tageszeit,
- - Straßenbedingungen wie eine Reflektivität der Straßenoberfläche (beispielsweise durch einen Wasserfilm) oder Wasserbenetzung mit daraus folgender Gischt, die Kamera- und/oder Lidar-Messungen beeinträchtigen kann,
- - Straßengeometrie und -topologie, beispielsweise die Art der Straße (Autobahn, Schnellstraße, Landstraße allgemein und Ortsstraße) oder der Straßenverlauf (gerade, kurvig),
- - Dynamische Konditionen wie Radar- oder LIDAR-Störungen aufgrund der Sensorik anderer Fahrzeuge oder hohe Verkehrsdichte, da hierdurch die Bewertung der Fahrsituation komplexer wird.
- - environmental parameters such as weather conditions, illuminance and time of day,
- - Road conditions such as road surface reflectivity (e.g. from a water film) or water wetting with consequent spray, which may affect camera and/or lidar measurements,
- - Road geometry and topology, for example the type of road (motorway, expressway, country road in general and local road) or the course of the road (straight, winding),
- - Dynamic conditions such as radar or LIDAR interference due to the sensors of other vehicles or high traffic density, as this makes the assessment of the driving situation more complex.
In einer Ausführungsform wird bei der Ermittlung der fusionierten Güte ein Korrelationsfaktor des ersten Parameters und des zweiten Parameters berücksichtigt. Dies kann insbesondere dann vorteilhaft sein, wenn der erste Parameter und der zweite Parameter korrelieren. Beispielsweise könnte der erste Parameter ein Wetter umfassen und der zweite Parameter eine Gischt. Wenn der erste Parameter dabei Regen umfasst, ist eine Wahrscheinlichkeit für eine Gischt deutlich erhöht, so dass der erste Parameter und der zweite Parameter korrelieren, selbst wenn sie nicht identisch sind.In one embodiment, a correlation factor of the first parameter and the second parameter is taken into account when determining the merged quality. This can be particularly advantageous when the first parameter and the second parameter correlate. For example, the first parameter could include weather and the second parameter could include spray. If the first parameter thereby includes rain, a probability of a spray is significantly increased, so that the first parameter and the second parameter correlate even if they are not identical.
In einer Ausführungsform wird bei der Ermittlung der fusionierten Güte berücksichtigt, ob der erste Parameter die zweite Güte der zweiten Sensordaten negativ beeinflusst und ob der zweite Parameter die erste Güte der ersten Sensordaten negativ beeinflusst. Für den Fall, dass der erste Parameter die zweite Güte der zweiten Sensordaten negativ beeinflusst oder der zweite Parameter die erste Güte der ersten Sensordaten negativ beeinflusst, wird die fusionierte Güte reduziert.In one embodiment, when determining the merged quality, it is taken into account whether the first parameter negatively influences the second quality of the second sensor data and whether the second parameter negatively influences the first quality of the first sensor data. In the event that the first parameter negatively affects the second quality of the second sensor data or the second parameter negatively affects the first quality of the first sensor data, the merged quality is reduced.
In einer Ausführungsform umfasst die erste Güte zumindest zwei räumlich unterschiedliche Gütewerte für verschiedene Messrichtungen des ersten Sensors. Die zweite Güte umfasst zumindest zwei räumlich unterschiedliche Gütewerte für verschiedene Messrichtungen des zweiten Sensors. Bei der Ermittlung der fusionierten Güte werden die erste Güte und die zweite Güte hinsichtlich der räumlich unterschiedlichen Gütewerte ausgewertet und das Ergebnis der Auswertung berücksichtigt.In one embodiment, the first quality includes at least two spatially different quality values for different measurement directions of the first sensor. The second quality includes at least two spatially different quality values for different measurement directions of the second sensor. When determining the merged quality, the first quality and the second quality are evaluated with regard to the spatially different quality values and the result of the evaluation is taken into account.
In einer Ausführungsform ist die Vorrichtung in einem ersten Sensorgehäuse des ersten Sensors angeordnet.In one embodiment, the device is arranged in a first sensor housing of the first sensor.
Die Erfindung betrifft ferner ein Fahrzeug mit einer solchen Vorrichtung zum Fusionieren von Sensordaten und einer Vorrichtung zum automatisierten Ausführen einer Fahrfunktion. Die Vorrichtung zum automatisierten Ausführen der Fahrfunktion umfasst eine Steuereinheit. Die Vorrichtung zum Fusionieren von Sensordaten gibt die fusionierten Sensordaten und die fusionierte Güte an die Steuereinheit aus. Die Steuereinheit berücksichtigt die fusionierten Sensordaten und die fusionierte Güte beim automatisierten Ausführen der Fahrfunktion berücksichtigt.The invention also relates to a vehicle having such a device for fusing sensor data and a device for automatically executing a driving function. The device for automatically executing the driving function includes a control unit. The device for merging sensor data outputs the fused sensor data and the fused quality to the control unit. The control unit takes into account the merged sensor data and the merged quality when automatically executing the driving function.
Ausführungsbeispiele der Erfindung werden anhand der folgenden Zeichnungen erläutert. In der schematischen Zeichnung zeigen:
-
1 eine Vorrichtung zum Fusionieren von Sensordaten; -
2 eine weitere Vorrichtung zum Fusionieren von Sensordaten; -
3 erste Sensordaten, zweite Sensordaten und fusionierte Sensordaten; und -
4 ein Fahrzeug.
-
1 a device for fusing sensor data; -
2 another device for fusing sensor data; -
3 first sensor data, second sensor data, and fused sensor data; and -
4 a vehicle.
Der erste Sensor 120 weist ein erstes Sensorelement 121, eine erste Sensorelektronik 122, eine erste Sensorschnittstelle 123 sowie ein erstes Sensorgehäuse 124 auf. Der zweite Sensor 120 weist ein zweites Sensorelement 131, eine zweite Sensorelektronik 132, eine zweite Sensorschnittstelle 133 sowie ein zweites Sensorgehäuse 134 auf. Der erste Sensor 120 und/oder der zweite Sensor 130 können dabei insbesondere Kameras, LIDAR-Vorrichtungen und/oder RADAR-Vorrichtungen umfassen.
Sowohl in
Sowohl für die Vorrichtung 100 zum Fusionieren von Sensordaten der
Dabei kann beispielsweise ein erster Wahrscheinlichkeitswert p_1 für die Korrektheit der ersten Sensordaten und ein zweiter Wahrscheinlichkeitswert p_2 für die Korrektheit der ersten Sensordaten vorgesehen sein. Als fusionierte Güte kann dann beispielsweise der kleineren der beiden Wahrscheinlichkeitswerte p_1 oder p_2 gewählt werden. Alternativ könnte als fusionierte Güte ein Mittelwert aus p_1 und p_2 gewählt werden.For example, a first probability value p_1 for the correctness of the first sensor data and a second probability value p_2 for the correctness of the first sensor data can be provided. For example, the smaller of the two probability values p_1 or p_2 can then be selected as the merged quality. Alternatively, a mean value from p_1 and p_2 could be selected as the merged quality.
Sowohl für die Vorrichtung 100 zum Fusionieren von Sensordaten der
Wird beispielsweise ein Objekt mittels beider Sensoren 120, 130 an einer bestimmten Stelle ermittelt, enthalten die fusionierten Sensordaten ein Objekt an dieser Stelle. Die fusionierte Güte kann dann dahingehend berechnet werden, wie groß die Wahrscheinlichkeit ist, dass beide Sensoren an dieser Stelle ein Objekt fälschlicherweise erkennen, beispielsweise mittels der Formel 1 - p_1_fp * p_2_fp. Wird beispielsweise nur mittels des ersten Sensors 120 ein Objekt an einer bestimmten Stelle ermittelt, mittels des zweiten Sensors130 jedoch nicht, kann vorgesehen sein, dass die fusionierten Sensordaten das Objekt beinhalten und die Güte mittels der Formel 1- p_1_fp berechnet wird. Alternativ kann vorgesehen sein, dass die fusionierten Sensordaten das Objekt nicht beinhalten und die Güte mittels der Formel 1- p_2_fn berechnet wird. Analog kann vorgegangen werden, wenn das Objekt mittels des zweiten Sensors 130 an einer bestimmten Stelle ermittelt wird, mittels des ersten Sensors 120 jedoch nicht. Die fusionierten Sensordaten können dann das Objekt beinhalten und die Güte mittels der Formel 1- p_2_fp berechnet werden. Alternativ kann vorgesehen sein, dass die fusionierten Sensordaten das Objekt nicht beinhalten und die Güte mittels der Formel 1-p_1_fn berechnet wird. Wird an einer bestimmten Stelle mittels beiden Sensoren 120, 130 kein Objekt ermittelt, enthalten die fusionierten Sensordaten kein Objekt an dieser Stelle. Die fusionierte Güte kann dann dahingehend berechnet werden, wie groß die Wahrscheinlichkeit ist, dass beide Sensoren an dieser Stelle fälschlicherweise kein Objekt erkennen, beispielsweise mittels der Formel 1 - p_1_fn * p_2_fn.If, for example, an object is determined at a specific location using both
Sowohl für die Vorrichtung 100 zum Fusionieren von Sensordaten der
Dadurch kann berücksichtigt werden, dass eine fusionierte Güte gegebenenfalls schlechter ist, wenn der erste Parameter und der zweite Parameter identisch sind, die beiden Sensoren 120, 130 also vom selben Parameter negativ beeinflusst wurden. Ferner kann vorgesehen sein, dass mehrere erste Parameter und mehrere zweite Parameter betrachtet werden, die jeweils den stärksten Einfluss auf die ersten Güte des ersten Sensors 120 beziehungsweise die zweite Güte des zweiten Sensors 130 haben, und berücksichtigt wird, ob einer der ersten Parameter identisch zu einem der zweiten Parameter identisch ist. Beispielsweise können für jeden Sensor drei Parameter ausgewertet werden, wobei die drei Parameter den stärksten, den zweitstärksten und den drittstärksten Einfluss auf den jeweiligen Sensor haben.As a result, it can be taken into account that a merged quality may be worse if the first parameter and the second parameter are identical, ie the two
Der oder die Parameter können aus den folgenden Parametern ausgewählt sein:
- - Umgebungsparameter wie beispielsweise Wetterbedingungen, Beleuchtungsstärken und Tageszeit,
- - Straßenbedingungen wie eine Reflektivität der Straßenoberfläche (beispielsweise durch einen Wasserfilm) oder Wasserbenetzung mit daraus folgender Gischt, die Kamera- und/oder Lidar-Messungen beeinträchtigen kann,
- - Straßengeometrie und -topologie, beispielsweise die Art der Straße (Autobahn, Schnellstraße, Landstraße allgemein und Ortsstraße) oder der Straßenverlauf (gerade, kurvig),
- - Dynamische Konditionen wie Radar- oder LIDAR-Störungen aufgrund der Sensorik anderer Fahrzeuge oder hohe Verkehrsdichte, da hierdurch die Bewertung der Fahrsituation komplexer wird.
- - environmental parameters such as weather conditions, illuminance and time of day,
- - Road conditions such as road surface reflectivity (e.g. from a water film) or water wetting with consequent spray, which may affect camera and/or lidar measurements,
- - Road geometry and topology, for example the type of road (motorway, expressway, country road in general and local road) or the course of the road (straight, winding),
- - Dynamic conditions such as radar or LIDAR interference due to the sensors of other vehicles or high traffic density, as this makes the assessment of the driving situation more complex.
Sowohl für die Vorrichtung 100 zum Fusionieren von Sensordaten der
Sowohl für die Vorrichtung 100 zum Fusionieren von Sensordaten der
Sowohl für die Vorrichtung 100 zum Fusionieren von Sensordaten der
Es kann vorgesehen sein, dass mehr als zwei Messrichtungen für die Sensoren 120, 130 vorgesehen sind. Ferner kann vorgesehen sein, dass die Messrichtungen ein zweidimensionales Raster aufspannen. Dies kann beispielsweise beinhalten, dass ein Blickfeld des erstem Sensors 120 beziehungsweise des zweiten Sensors 130 jeweils in ein Raster unterteilt wird und für jeden Punkt des Rasters eine Information über ein gegebenenfalls erkanntes Objekt und einen Abstand des Objekts ermittelt wird. Die Richtungen der erkannten Objekte ergeben sich aus der Anordnung der Punkte des Rasters. Ferner kann für jeden Punkt des Rasters eine erste Güte und eine zweite Güte angegeben werden. Die fusionierten Sensordaten können dann Daten über die erkannten Objekte sowohl des ersten Sensors 120 als auch des zweiten Sensors 130 mit den zugehörigen Abständen beinhalten und die fusionierte Güte jeweils wie oben beschrieben für die verschiedenen Messrichtungen ermittelt werden. Daraus ergibt sich eine Übersicht der fusionierten Güten der verschiedenen Messrichtungen. Dies kann beispielsweise als Messgenauigkeitskarte bezeichnet werden.Provision can be made for more than two measurement directions for the
Sowohl für das erste Raster 151 als auch für das zweite Raster 152 ist jedem Bereich 155, 156, 157 eine Güte zugeordnet, wobei die Güte jeweils eine Prozentzahl umfasst, die eine Wahrscheinlichkeit beinhaltet, dass die Sensordaten in diesem Bereich 155, 156, 157 falsch sind. Dies bedeutet insbesondere, dass für die Bereiche, in denen jeweils ein Objekt 161, 162, 163 vorhanden ist, eine Wahrscheinlichkeit für ein falsch positives Ergebnis und für die Bereiche, in denen jeweils kein Objekt vorhanden ist, eine Wahrscheinlichkeit für ein falsch negatives Ergebnis angegeben ist. Für das dritte Raster 153 der fusionierten Sensordaten ist für jeden Bereich auch jeweils eine Wahrscheinlichkeit für ein falsch positives Ergebnis beziehungsweise ein falsch negatives Ergebnis angegeben. Im ersten Bereich 155 beträgt die Wahrscheinlichkeit für ein falsch positives Ergebnis im ersten Raster 151 und im zweiten Raster beispielhaft 10 Prozent. Eine Wahrscheinlichkeit für ein falsch positives Ergebnis des ersten Bereichs 155 der fusionierten Sensordaten beträgt also p_1_fp * p_2_fp, was einem Prozent entspricht. Die fusionierten Sensordaten sind also bezüglich des ersten Bereichs 155 relativ sicher. In den dritten Bereichen 157 ist jeweils eine Wahrscheinlichkeit für ein falsch negatives Ergebnis der dritten Bereiche 157 der fusionierten Sensordaten angegeben, wobei diese mittels der Formel p_1_fn * p_2_fn berechnet sind. In den zweiten Bereichen 156 hingegen werden die Wahrscheinlichkeiten für falsch positive Ergebnisse jeweils für den Sensor übernommen, mit dem das Objekt 162, 163 erkannt wurde. Somit ist die Wahrscheinlichkeit für falsch positive Ergebnisse in den zweiten Bereichen 156 deutlich größer als im ersten Bereich 155 beziehungsweise deutlich größer als die Wahrscheinlichkeit für ein falsch negatives Ergebnis in den dritten Bereichen 157.A quality is assigned to each
Wird bei der Fusion der Sensordaten jedoch erkannt, dass der erste Sensor 120 und der zweite Sensor 130 durch den gleichen Parameter beziehungsweise gleiche Parameter beziehungsweise korrelierende Parameter negativ beeinflusst werden, kann vorgesehen sein, im ersten Bereich 155 die Wahrscheinlichkeit für ein falsch positives Ergebnis mit einem vorbestimmten Wert zu multiplizieren und beispielsweise auf den fünffachen Wert zu erhöhen und den dritten Bereichen 157 die Wahrscheinlichkeiten für die falsch negativen Ergebnisse ebenfalls mit einem vorbestimmten Wert zu multiplizieren und beispielsweise auf den fünffachen Wert zu erhöhen.However, if it is recognized during the fusion of the sensor data that the
Obwohl die Erfindung im Detail durch die bevorzugten Ausführungsbeispiele beschrieben wurde, ist die Erfindung nicht auf die offenbarten Beispiele eingeschränkt und andere Variationen hieraus können vom Fachmann abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen.Although the invention has been described in detail by the preferred embodiments, the invention is not limited to the disclosed examples and other variations can be derived therefrom by those skilled in the art without departing from the scope of the invention.
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021214105.6A DE102021214105A1 (en) | 2021-12-10 | 2021-12-10 | Device for fusing sensor data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021214105.6A DE102021214105A1 (en) | 2021-12-10 | 2021-12-10 | Device for fusing sensor data |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021214105A1 true DE102021214105A1 (en) | 2023-06-15 |
Family
ID=86498260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021214105.6A Pending DE102021214105A1 (en) | 2021-12-10 | 2021-12-10 | Device for fusing sensor data |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021214105A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019215902A1 (en) | 2019-10-16 | 2021-05-20 | Robert Bosch Gmbh | Method for determining a quality level of data sets from sensors |
-
2021
- 2021-12-10 DE DE102021214105.6A patent/DE102021214105A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019215902A1 (en) | 2019-10-16 | 2021-05-20 | Robert Bosch Gmbh | Method for determining a quality level of data sets from sensors |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19650863C1 (en) | Method of detecting distance sensor vertical adjustment error | |
EP1612580A1 (en) | Object recognition method for vehicles | |
DE102016214045A1 (en) | Method and device for determining a roadway model for a vehicle environment | |
DE102019132150A1 (en) | Method for automatically calibrating an environment sensor, in particular a lidar sensor, of a vehicle on the basis of occupancy cards and computing device | |
EP3667359A1 (en) | Method for determining the misalignment of at least one sensor within a set of sensors | |
DE102017207441A1 (en) | Method for checking a digital environment map for a driver assistance system of a motor vehicle, computing device, driver assistance system and motor vehicle | |
DE102020118318A1 (en) | Method and device for identifying a traffic junction on the basis of trajectory data | |
DE102017208692A1 (en) | Method for providing training data for a functional test of a recognition device and database system | |
DE102021214105A1 (en) | Device for fusing sensor data | |
DE102023001750A1 (en) | Method and system for measuring vehicle distance, vehicle and program product | |
DE102019208507A1 (en) | Method for determining the degree of overlap between an object and a lane | |
EP3759517A1 (en) | Method and device for estimating the height of a reflector of a vehicle | |
DE102022108842A1 (en) | Online validation of LIDAR-LIDAR alignment and LIDAR-vehicle alignment | |
DE102018211240A1 (en) | Method for classifying an object's relevance | |
DE102019211006B4 (en) | Evaluation of sensor data from a vehicle | |
WO2021239326A1 (en) | Method for estimating an intrinsic speed | |
WO2022063900A1 (en) | Method for fusing environment-related parameters | |
DE102019003238B4 (en) | Vehicle location by map comparison taking into account a street profile | |
DE102022200151A1 (en) | sensor | |
DE102016223290A1 (en) | Method and device for calibrating a sensor for a vehicle | |
DE102019132151A1 (en) | Method for calibrating an environment sensor of a vehicle on the basis of data from a reference environment sensor, taking into account occupancy cards, computing device and sensor system | |
DE112020001870T5 (en) | In-vehicle system, externality detection sensor, electronic control device | |
EP3871006A1 (en) | Rain detection by means of an environment sensor for capturing the environment of a vehicle point by point, in particular by means of a lidar-based environment sensor | |
DE102019213776A1 (en) | Method for calibrating sensors and detecting decalibration | |
DE102022131849A1 (en) | Method for providing driving side information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |