DE102021104662A1 - Verfahren zur Bestimmung einer fusionierten Sensor-Detektionsbedingung - Google Patents

Verfahren zur Bestimmung einer fusionierten Sensor-Detektionsbedingung Download PDF

Info

Publication number
DE102021104662A1
DE102021104662A1 DE102021104662.9A DE102021104662A DE102021104662A1 DE 102021104662 A1 DE102021104662 A1 DE 102021104662A1 DE 102021104662 A DE102021104662 A DE 102021104662A DE 102021104662 A1 DE102021104662 A1 DE 102021104662A1
Authority
DE
Germany
Prior art keywords
detection condition
data
sensor
determining
sensor system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021104662.9A
Other languages
English (en)
Inventor
Roman Gansch
Andreas Heyl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102021104662.9A priority Critical patent/DE102021104662A1/de
Priority to US17/651,978 priority patent/US20220277569A1/en
Priority to CN202210188718.2A priority patent/CN114954504A/zh
Publication of DE102021104662A1 publication Critical patent/DE102021104662A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/04Monitoring the functioning of the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/20Road profile, i.e. the change in elevation or curvature of a plurality of continuous road segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es wird Verfahren zur Bestimmung einer bewerteten Detektionsbedingung für eine Bewertung von Sensordaten mit den folgenden Schritten vorgeschlagen: Bereitstellen eines ersten Integritätswerts der Detektionsbedingung, basierend auf einer ersten Grundlage für die Bestimmung der Detektionsbedingung;Bereitstellen eines zweiten Integritätswerts der Detektionsbedingung, basierend auf einer zweiten Grundlage für die Bestimmung der Detektionsbedingung;Bestimmen eines Gesamtintegritätswerts für die Detektionsbedingung basierend auf dem ersten Integritätswert und dem zweiten Integritätswert;Zuordnen des Gesamtintegritätswerts zur Detektionsbedingung, zur Bestimmung der bewerteten Detektionsbedingung.

Description

  • Stand der Technik
  • Die Automatisierung des Fahrens geht einher mit der Ausstattung von Fahrzeugen mit immer umfangreicheren und leistungsfähigeren Sensorsystemen zur Umfelderfassung. Teilweise decken Fahrzeugsensoren 360° des Umfeldes und unterschiedliche Reichweiten redundant, durch mehrere Sensoren und Sensor-Modalitäten, ab. Als Sensor-Modalitäten kommen beispielsweise Video-, Radar-, Lidar-, Ultraschall- und Mikrophon-Sensoren zum Einsatz.
  • Sensordaten werden zur Repräsentation eines Umfelds des Fahrzeugs zu einem abgesicherten Umfeldmodell fusioniert. Anforderungen an Umfang und Qualität des Umfeldmodells hängen wiederrum von den darauf realisierten Fahrfunktionen ab. Im fahrerlosen Fahrzeug werden auf Basis des Umfeldmodells z.B. vollumfängliche Fahrentscheidungen getroffen und die Aktuatoren entsprechend angesteuert.
  • Der Normentwurf ISO/PAS 21448 (Road vehicles - Safety of the Intended Functionality (SOTIF)) behandelt ein Problem, dass im Sicherheitskonzept für die Umfeldwahrnehmung in autonomen Systemen (ADAS, AD) die Performance bzw. die Fähigkeiten und Unzulänglichkeiten der verwendeten exterozeptiven Sensoren berücksichtigt werden müssen. Sicherheitskritische Auswirkung solcher Sensorunzulänglichkeiten, die vermieden werden müssen, sind z.B. Falschmessungen, False Positives (FP) oder False Negatives (FN), die wiederum zu „Triggering Conditions“ führen können. Dabei behandelt ISO/PAS 21448 Prozesse, mit denen Auslöser während der Entwicklung identifiziert und dann ins Produkt mitigiert werden können.
  • Offenbarung der Erfindung
  • Vorteilhaft wäre dagegen ein Verfahren, mit dem während des Betriebs des zumindest teilweise automatisierten Fahrzeugs Auslöser von Unzulänglichkeiten zuverlässig entdeckt und, insbesondere sensorübergreifend, im Sicherheitskonzept berücksichtigt werden können.
  • Die Erfindung basiert darauf, explizites Wissen über eine Vielzahl von aktuell herrschenden, Sensorsysteme beeinträchtigende Detektionsbedingungen im Umfeld des Sensorsystems und/oder eines zumindest teilautomatisierten Fahrzeugs, während des Betriebs, in einem strukturierten und einfach nutzbaren Format zu bestimmen und für eine Fusion von Sensordaten bereitzustellen. Das so bereitgestellte Wissen über die Detektionsbedingungen, kann anschließend systemübergreifend für alle exterozeptiven Sensoren zur Bewertung der Konfidenz von spezifischen Sensorinformationen in der aktuellen Situation genutzt werden, auf Basis derer wiederum das Gewicht dieser Information in der Fusion angepasst werden kann. Damit kann die Sicherheitsintegrität (Verlässlichkeit, SOTIF) des Fusionsergebnisses erhöht und negative Auswirkung von einzelnen Unzulänglichkeiten vermieden werden, woraus eine Erhöhung der Robustheit der Umfelderfassung, sowie eine schnellere Erzeugung von Hypothesen über das Umfeld resultieren kann.
  • Gemäß Aspekten der Erfindung wird ein Verfahren zur Bestimmung einer bewerteten Detektionsbedingung zur Fusion von Sensordaten, ein Verfahren zur Fusion von Daten eines ersten Sensorsystems und eines zweiten Sensorsystems, ein Verfahren zur Bereitstellung eines Steuersignals, eine Bewertungs-Vorrichtung, eine Verwendung einer Bewertungs-Vorrichtung, ein Computerprogramm, und ein maschinenlesbares Speichermedium, gemäß den Merkmalen der unabhängigen Ansprüche vorgeschlagen. Vorteilhafte Ausgestaltungen sind Gegenstand der abhängigen Ansprüche sowie der nachfolgenden Beschreibung.
  • In dieser gesamten Beschreibung der Erfindung ist die Abfolge von Verfahrensschritten so dargestellt, dass das Verfahren leicht nachvollziehbar ist. Der Fachmann wird aber erkennen, dass viele der Verfahrensschritte auch in einer anderen Reihenfolge durchlaufen werden können und zu dem gleichen oder einem entsprechenden Ergebnis führen. In diesem Sinne kann die Reihenfolge der Verfahrensschritte entsprechend geändert werden. Einige Merkmale sind mit Zählwörtern versehen, um die Lesbarkeit zu verbessern oder die Zuordnung eindeutiger zu machen, dies impliziert aber nicht ein Vorhandensein bestimmter Merkmale.
  • Gemäß einem Aspekt der Erfindung wird ein Verfahren zur Bestimmung einer bewerteten Detektionsbedingung für eine Bewertung von Sensordaten mit den folgenden Schritten vorgeschlagen:
    • In einem Schritt wird ein erster Integritätswert der Detektionsbedingung, basierend auf einer ersten Grundlage für die Bestimmung der Detektionsbedingung bereitgestellt. In einem weiteren Schritt wird ein zweiter Integritätswert der Detektionsbedingung, basierend auf einer zweiten Grundlage für die Bestimmung der Detektionsbedingung, bereitgestellt. In einem weiteren Schritt wird ein Gesamtintegritätswert für die Detektionsbedingung, basierend auf dem ersten Integritätswert und dem zweiten Integritätswert, bereitgestellt. In einem weiteren Schritt wird der Gesamtintegritätswert zur Detektionsbedingung zugeordnet, um die bewertete Detektionsbedingung zu bestimmen.
  • Dabei kann ein Integritätswert einen Wert angeben, der eine Verlässlichkeit eines Datums eines Sensorsystems und/oder einer anderen Datenquelle, als jeweilige Grundlage für die Bestimmung der Detektionsbedingung, in Bezug auf elektrische und/oder technische Fehler, die auf eine Hardware und/oder eine Software zurückzuführen sind, bestimmt. Der entsprechende Integritätswert bzw. Gesamtintegritätswert kann verwendet werden, um Daten unterschiedlicher Sensorsysteme für eine Fusion zur Bestimmung eines Umfelds der jeweiligen Sensorsysteme zu verwenden, indem die Daten der Sensorsysteme entsprechend bewertet werden. Mit anderen Worten kann der Gesamtintegritätswert als ein Maß für eine Zuverlässigkeit der bestimmten Detektionsbedingung angesehen werden.
  • Der jeweilige Integritätswert kann mittels eines ASIL-Wertes (automotiv savety integrity level) bestimmt werden, die von Sensorsystemen als Metadaten gemeinsam mit den Sensordaten bereitgestellt werden können, um in einem empfangenden Modul diese Metadaten entsprechend eines Sicherheitskonzeptes zu berücksichtigen.
  • Der Gesamtintegritätswert kann einen Grad einer Absicherung, eine Verlässlichkeit einer Detektionsfunktion bzw. eine Güte eines Ergebnisses charakterisieren, der sich beispielsweise aus einer Redundanz der Informationen und den einzelnen ASIL-Werten der jeweiligen Sensorsysteme ergibt.
  • Detektionsbedingungen können Bedingungen sein, die das Umfeld einer mobilen Plattform betreffen und Sensorsysteme zur Repräsentation eines Umfelds der mobilen Plattform bezüglich einer Repräsentation des Umfelds beeinflussen können. Wie beispielsweise Wetterverhältnisse, Lichtverhältnisse, Temperatur, Reflexionen ausgesandter Signale, Lichteinstrahlung, Beschaffenheit des Umfelds, störende Bilder, störende Oberflächen, andere Verkehrsteilnehmer, dynamische Verdeckungen, störende Strahlungen aus statischen Quellen oder aus dynamische Quellen, wie Verkehrsteilnehmern, eine Komplexität des Umfeldes, wobei die Detektionsbedingungen als Grundlage aus internen oder externen Sensordaten, geographische Daten wie beispielsweise Kartendaten oder Infrastrukturdaten, bereitgestellte Daten anderer Verkehrsteilnehmer V2V Daten, abgeleitet werden können.
  • Eine Vielzahl von Detektionsbedingungen kann die von Sensorsystemen bereitgestellten Daten beeinträchtigen:
    • Globale Detektionsbedingungen kann die von Sensorsystemen bereitgestellten Daten beeinträchtigen, wie beispielsweise:
      • - Wetterverhältnisse, z.B. Regen bzw. Regendichte und/oder Schnee bzw. Schneedichte und/oder Nebel bzw. Nebel-dichte, etc.;
      • - Lichtverhältnisse, die abhängig von einer Tageszeit sein können und/oder abhängig von einer Bedeckung des Himmels, etc.;
      • - Nähe zu einer störenden Radar-Strahlungsquelle, wie beispielsweise z.B. Flughafen, Militärgelände); und
      • - Außentemperaturen.
  • Zonen-bezogene Detektionsbedingungen kann die von Sensorsystemen bereitgestellten Daten beeinträchtigen, wie beispielsweise:
    • - Zonen mit Tendenz zu Reflektionen, wie z.B. Tunnelwände und/oder Brücken und/oder Leitplanken und/oder Metallzäune und/oder Fensterfronten, etc.;
    • - Straße in Abhängigkeit von Wasserbelag und/oder Regenmengen; und
    • - Schatten durch dynamische oder statische Objekte, z.B. Gebäude je nach Sonnenstand.
  • Relative und/oder lokale Detektionsbedingungen kann die von Sensorsystemen bereitgestellten Daten beeinträchtigen, wie beispielsweise:
    • - Verdeckungen durch Objekte, z.B. durch Gebäude; Bäume; Stromkästen, etc.;
    • - Verdeckungen durch Straßentopografie, z.B. Kurven; Hügelkuppen;
    • - Reflektierende Objekte, wie z.B. Verkehrsschilder, die Lidar-Systeme beeinflussen können, Stahlplatten, die Radar-Systeme beeinflussen können und beispielsweise auf einem Untergrund platziert sind;
    • - Straßenbeschaffenheit, wie z.B. Schlaglöcher; Kanten, etc.;
    • - Blendungen durch tiefstehende Sonne oder deren Reflektionen;
    • - Bilder auf Litfaßsäulen, Werbetafeln, Schildern; und
    • - Material/Textur von anderen Verkehrsteilnehmern.
  • Weiterhin können dynamische Detektionsbedingungen die von Sensorsystemen bereitgestellten Daten beeinträchtigen, wie beispielsweise:
    • - Dynamische Verdeckungen, wie z.B. durch andere Verkehrsteilnehmer;
    • - Störungen durch Radar und/oder Lidar anderer Verkehrsteilnehmer; und
    • - eine herrschende Verkehrsdichte, die entsprechend der resultierenden Komplexität Sensor-Messung und/oder deren Interpretation bei vielfältigen und/oder sich „überschneidenden“ Objekten beeinträchtigen kann, etc.
  • Die Detektionsbedingungen können die jeweils auf unterschiedlichen Grundlagen basieren und ein Umfeld einer mobilen Plattform betreffen. Eine Grundlage für eine Bestimmung von Detektionsbedingung kann entweder einzeln bereitgestellt werden oder mittels einer Kombination beispielsweise aus folgenden Quellen ermittelt werden: Sensordaten können eine Grundlage für die Bestimmung von
  • Detektionsbedingung sein:
    • - Dedizierte Sensoren für die Bestimmung der jeweiligen Detektionsbedingung, wie z.B. ein Regensensor oder ein Helligkeitssensor;
    • - explizite Mustererkennung mittels einzelner exterozeptiven Sensoren, wie z.B. typische Regen-Reflektionsmuster die mit Lidar-System bestimmt werden können;
    • - Mustererkennung und -interpretation durch Auswertung von Daten eines oder mehrerer Sensoren, beispielsweise mittels künstliche Intelligenz bzw. MLM; und
    • - Evidenzen, die implizit aus der Bewertung von Ergebnissen von Sensordatenverarbeitung, wie bei Pro-Processing oder Fusion ermittelt werden, wie z.B. hohes Rauschen.
  • Kartendaten können eine Grundlage für die Bestimmung von Detektionsbedingung sein:
    • - statische und/oder dynamische Kartendaten;
    • - Numerische und/oder analytische Auswertung von Karten-Topographie, wie z.B. eine Bestimmung von Schattenflächen, abhängig vom Sonnenstand und/oder Sichtbereichen hinter einem Hügelkamm, etc.;
    • - Explizit markierte Zonen oder Objekte, d. h. „Points-of-interest“, wie z.B. Tunnel, Fensterfronten; andere reflektierende Objekte; Werbetafeln mit Bildern; Verkehrsschilder mit Ausrichtungswinkel; etc.; und
    • - Crowdsourcing (typische Effekte, Auslöser).
  • Infrastruktur-Daten können eine Grundlage für die Bestimmung von Detektionsbedingung sein:
    • Infrastruktur-Daten, wie z.B. Leitsysteme; Road Side Units; V2I;
      • - Sensordaten, wie oben aufgeführt, die aus Infrastruktur-Sensorsystemen bereitgestellt werden;
      • - Lokale Informationen, z.B. eine Reflektivität eines lokalen Straßenabschnitts bei Nässe; eine Position von reflektierenden Objekten; etc.;
      • - Informationen über Verkehrsdichte; Bestückung von Fahrzeugen im Umfeld mit und konkrete Ausrichtung von Lidar-Systemen und/oder Radar Systemen;
      • - Informationen anderer Verkehrsteilnehmer (V2V);
      • - Informationen über Fahrzeuge: Bestückung mit und konkrete Ausrichtung von Lidar-Systemen und/oder Radar Systemen; und
      • - Andere Verkehrsteilnehmer, insbesondere ohne AD-Funktionalität: Vom AV lesbarer „Marker“, z.B. Piktogramm, QRC Code, Radar-reflektierendes Kleidungsstück, etc. mit Informationen.
  • Dadurch, dass bei dem Verfahren Detektionsbedingungen mit verschiedenen Grundlagen bestimmt werden und mit einem Gesamtintegritätswert bewertet werden, können die jeweiligen Detektionsbedingungen abgesichert für weitere Verfahren zur Bestimmung eines Umfelds einer mobilen Plattform und/oder eines Sensorsystems bereitgestellt werden, um in entsprechend sicherheitskritischen Funktionen genutzt werden zu können.
  • Mittels der bewerteten Detektionsbedingung können Auslöser von Unzulänglichkeiten von Daten unterschiedlicher Sensorsysteme, die einer zumindest teilautomatisierten mobilen Plattform bereitgestellt werden, zuverlässig entdeckt und insbesondere Sensor übergreifend, für ein Sicherheitskonzept berücksichtigt werden.
  • Gemäß einem Aspekt wird vorgeschlagen, dass das Verfahren zur Bestimmung der bewerteten Detektionsbedingung die folgenden Schritte aufweist:
    • In einem Schritt wird ein erster Konfidenzwert der Detektionsbedingung bereitgestellt, wobei die Detektionsbedingung auf der ersten Grundlage für die Bestimmung der Detektionsbedingung basiert. In einem weiteren Schritt wird ein zweiter Konfidenzwert der Detektionsbedingung bereitgestellt, wobei die Detektionsbedingung auf der zweiten Grundlage für die Bestimmung der Detektionsbedingung basiert. In einem weiteren Schritt wird ein Gesamt-Konfidenz-Wert der Detektionsbedingung bestimmt, der auf dem ersten Konfidenzwert und dem zweiten Konfidenzwert basiert. In einem weiteren Schritt werden der Gesamtintegritätswert und der Gesamt-Konfidenz-Wert zu der Detektionsbedingung, zur Bestimmung der bewerteten Detektionsbedingung, zugeordnet.
  • Dabei kann der Konfidenzwert angeben wie wahrscheinlich es ist, dass die Detektionsbedingung korrekt bestimmt wurde.
  • Dadurch, dass bei dem Verfahren Detektionsbedingungen mit verschiedenen Grundlagen bestimmt werden und mit einem Gesamtintegritätswert und einem Gesamt-Konfidenzwert bewertet werden, können die jeweiligen Detektionsbedingungen abgesichert und bewertet für weitere Verfahren zur Bestimmung eines Umfelds einer mobilen Plattform und/oder eines Sensorsystems bereitgestellt werden.
  • Gemäß einem Aspekt wird vorgeschlagen, dass das Bestimmen des Gesamt-Konfidenz-Werts auf einer probabilistischen Kombination des ersten Konfidenzwerts und des zweiten Konfidenzwerts basiert.
  • Mit der probabilistischen Kombination der Konfidenzwerte kann der Gesamt-Konfidenz-Wert bestimmt werden, der eine Wahrscheinlichkeit angeben kann, dass die, basierend auf unterschiedlichen Grundlagen, bestimmte Detektionsbedingung korrekt bestimmt wurde. Mit einem Gesamt-Konfidenz-Wert kann somit eine bestimmte Detektionsbedingung, beispielsweise für eine Fusion von Daten von Sensorsystemen, bewertet und/oder gewichtet werden.
  • Gemäß einem Aspekt wird vorgeschlagen, dass das Bestimmen des Gesamtintegritätswerts auf einer arithmetischen Funktion des ersten Integritätswerts und des zweiten Integritätswerts basiert.
  • Beispielsweise können die jeweiligen ASIL-Werte (automotiv savety integrity level) des ersten Integritätswerts und des zweiten Integritätswerts addiert werden, um den Gesamtintegritätswert einfach zu bestimmen.
  • Gemäß einem Aspekt wird vorgeschlagen, dass die Detektionsbedingung zumindest eine globale Detektionsbedingung umfasst und/oder zumindest eine zonenbezogene Detektionsbedingung umfasst und/oder zumindest eine lokale Detektionsbedingung umfasst und/oder zumindest eine dynamische Detektionsbedingung umfasst.
  • Durch die Berücksichtigung einer Vielzahl von Detektionsbedingungen kann ein Signal eines Sensorsystems in Bezug auf eine Richtigkeit der daraus abgeleiteten Umfeldgröße eines Sensorsystems und/oder einer mobilen Plattform bewertet werden.
  • Gemäß einem Aspekt wird vorgeschlagen, dass eine Grundlage für die jeweilige Detektionsbedingung auf Daten zumindest eines für die Detektionsbedingung dedizierten Sensors basiert und/oder auf einer Mustererkennung für die Detektionsbedingung von Daten zumindest eines exterozeptiver Sensors basiert und/oder auf einer Mustererkennung für die Detektionsbedingung von Daten zumindest zweier exterozeptiver Sensoren basiert und/oder auf einer Bewertung von Ergebnissen einer Datenverarbeitung zumindest eines Sensors basiert und/oder auf zumindest einer Detektionsbedingung basiert, die geographischen Daten zugeordnet ist, und eine Umgebung eines entsprechenden Sensors näher beschreibt und/oder auf einer Auswertung von Karten-Topographien basiert und/oder auf Daten basiert, die von Verkehrsteilnehmern in der Umgebung des entsprechenden Sensors bereitgestellt wird.
  • Durch die Berücksichtigung einer Vielzahl von Grundlagen für die jeweilige Detektionsbedingung kann ein Signal eines Sensorsystems in Bezug auf eine Richtigkeit der daraus abgeleiteten Umfeldgröße eines Sensorsystems und/oder einer mobilen Plattform bewertet werden.
  • Gemäß einem Aspekt wird vorgeschlagen, dass die Bestimmung der bewerteten Detektionsbedingung Konfidenzwerte und/oder Integritätswerte der Detektionsbedingung ausschließt, deren jeweilige Grundlage eine kritische Abhängigkeit von der jeweiligen Detektionsbedingung aufweist.
  • Damit kann ausgeschlossen bzw. vermindert werden, dass kritische Abhängigkeiten, bzw. negativen Einflüsse, bei der Bestimmung der Detektionsbedingungen vermieden werden, d.h. dass z.B. kein Sensorsystem für die Bestimmung einer Detektionsbedingung genutzt wird, dass negative Einflüsse auf die Fähigkeit dieses Sensorsystems bezüglich der Bestimmung dieser Detektionsbedingung hat.
  • Gemäß einem Aspekt wird vorgeschlagen, dass die bewertete Detektionsbedingung räumlich einer Repräsentation eines Umfeldes eines Sensorsystems zugeordnet wird. Da die bewertete Detektionsbedingung an unterschiedlichen Orten im Umfeld eines Sensorsystems und/oder einer mobilen Plattform verschieden sein können, kann durch eine Zuordnung der jeweils dort herrschenden bewerteten Detektionsbedingung zu räumlichen Koordinaten das Verfahren und den damit bereitgestellten Informationsgehalt verbessern, so dass Informationen über das Umfeld eines Sensorsystems und/oder einer mobilen Plattform, die von einem Sensorsystem bereitgestellt werden, räumlich aufgelöst bewertet werden.
  • Dazu kann um das Sensorsystem und/oder die mobile Plattform herum ein System aus Gitterzellen definiert werden, wobei der jeweiligen Gitterzelle eine jeweilige bewertete Detektionsbedingung zugeordnet werden, die für den Ort der Gitterzelle spezifisch ist. Solche räumlich aufgelösten bewerteten Detektionsbedingung können auf diese Weise anderen Anwendungen und/oder Modulen und/oder Systemen, z. B. zur Generierung eines Umfelds des Sensorsystems bzw. einer mobilen Plattform, in Form einer entsprechenden dreidimensionalen Matrix strukturiert und mit einem einfach nutzbaren Format bereitgestellt werden. D. h. durch eine solche strukturierte Matrix mit den jeweils räumlich zugeordneten bewerteten Detektionsbedingung können Gewichtungsfaktoren für eine Fusion von Daten von Sensorsystemen leicht generiert werden.
  • Es wird ein Verfahren zur Fusion von Daten eines ersten Sensorsystems und eines zweiten Sensorsystems vorgeschlagen, das die folgenden Schritte aufweist:
    • In einem Schritt wird zumindest eine bewertete Detektionsbedingung für das erste Sensorsystem und/oder das zweite Sensorsystem nach einem der oben beschriebenen Verfahren bestimmt. In einem weiteren Schritt werden die Daten des ersten Sensorsystems und des zweiten Sensorsystems, basierend auf der zumindest einer bewerteten Detektionsbedingung, zur Fusion der Daten des ersten Sensorsystems und des zweiten Sensorsystems bewertet, um eine Repräsentation eines Umfelds zumindest eines der beiden Sensorsysteme zu bestimmen.
  • Dabei kann das erste Sensorsystem vom gleichen Typ wie das zweite Sensorsystem sein.
  • Daten von Sensorsystemen können zur Repräsentation eines Umfelds eines Fahrzeugs in verschiedenen Schritten verarbeitet werden, wobei die Daten mit jedem Verarbeitungsschritt weiter abstrahiert werden, und letztlich zu einem abgesicherten Umfeldmodell zusammengefügt bzw. fusioniert werden können. Dabei können die gängigen Algorithmen für unterschiedliche Sensor-Modalitäten zur Objekt-Detektion, Objekt-Klassifikation, Objekt-Tracking, Distanz-Berechnung, etc. anfällig gegenüber Eingangsdaten sein, die insbesondere aufgrund von Detektionsbedingungen, bei denen sie bestimmt wurden, nicht korrekt sind.
  • Typische Verfahren zur Objektdetektion und Objektklassifikation können in diesen Fällen, durch falsch-positive und falsch-negative Bestimmungen von umfeldbezogenen Bestimmungsgrößen, falsche Bestimmungen verursachen.
  • Mit der zumindest einen bewerteten Detektionsbedingung, kann ein Sensorfusionssystem Informationen über die Detektionsbedingung nutzen, um die Daten von unterschiedlichen Sensorsystemen entsprechend der aktuellen Situation bezüglich der Detektionsbedingungen zu gewichten. Wenn dann z.B. ein Sensorsystem, basierend auf der bewerteten Detektionsbedingung, Objekte im Umfeld nicht oder nur schlecht erkennen kann, kann eine Nicht-Detektion des Objekts durch dieses Sensorsystem nicht dazu führen, dass die durch andere Sensorsysteme aufgestellte Objekthypothese nach Detektion dieses Objekts in ihrer Wahrscheinlichkeit, das Objekt korrekt detektiert zu haben, reduziert wird. Dies kann dadurch erreicht werden, dass eine Wichtung des schlecht erkennenden Sensorsystems in der Fusion entsprechend reduziert wird.
  • Gemäß einem Aspekt wird vorgeschlagen, dass bei dem Verfahren zur Fusion von Daten die Daten des ersten Sensorsystems und die Daten des zweiten Sensorsystems basierend auf der zumindest einen bewerteten Detektionsbedingung zur Repräsentation des Umfelds gewichtet werden.
  • Es wird ein Verfahren vorgeschlagen, das basierend auf einer, gemäß einem der oben beschriebenen Verfahren, bestimmten bewerteten Detektionsbedingung, ein Steuersignal zur Ansteuerung eines zumindest teilautomatisierten Fahrzeugs bereitstellt; und/oder basierend auf der bewerteten Detektionsbedingung ein Warnsignal zur Warnung eines Fahrzeuginsassen bereitstellt.
  • Der Begriff „basierend auf“ ist in Bezug auf das Merkmal, dass ein Steuersignal basierend auf einer bewerteten Detektionsbedingung bereitgestellt wird, breit zu verstehen. Er ist so zu verstehen, dass die bewertete Detektionsbedingung, für jedwede Bestimmung oder Berechnung eines Steuersignals herangezogen wird, wobei das nicht ausschließt, dass auch noch andere Eingangsgrößen für diese Bestimmung des Steuersignals herangezogen werden. Dies gilt entsprechend für die Bereitstellung eines Warnsignals.
  • Hochautomatisierte Systeme können beispielsweise mit einem solchen Steuersignal einen Übergang in einen sicheren Zustand einleiten, indem beispielsweise bei einem zumindest teilautomatisierten Fahrzeug ein langsames Anhalten auf einem Seitenstreifen durchgeführt wird.
  • Es wird eine Bewertungs-Vorrichtung für zumindest eine Detektionsbedingung vorgeschlagen, die auf einer Vielzahl von Grundlagen für die Bestimmung der Detektionsbedingung basiert, wobei die Bewertung-Vorrichtung mit einer Berechnungseinheit eingerichtet ist, eines der oben beschriebenen Verfahren zur Bestimmung einer bewerteten Detektionsbedingung durchzuführen.
  • Eine solche Bewertungs-Vorrichtung kann zur sicheren Bestimmung und Bereitstellung von explizitem Wissen über aktuell herrschende Detektionsbedingungen im Umfeld eines zumindest teilautomatisierten Fahrzeugs, die Sensorsysteme beeinträchtigen können, verwendet werden.
  • Es wird eine Verwendung einer Bewertungs-Vorrichtung, wie sie oben beschrieben ist, zur Fusion von Daten eines ersten Sensorsystems und eines zweiten Sensorsystems, zur Bestimmung einer Repräsentation eines Umfelds zumindest eines der beiden Sensorsysteme, vorgeschlagen.
  • Wie schon weiter oben erläutert, kann durch eine solche Bewertung-Vorrichtung eine Fusion von Daten von Sensorsystemen ein zuverlässiges Ergebnis generieren, um eine Repräsentation eines Umfelds eines Sensorsystems und/oder einer zumindest teilautomatisierten Plattform zu bestimmen.
  • Gemäß einem Aspekt wird ein Computerprogramm angegeben, das Befehle umfasst, die bei der Ausführung des Computerprogramms durch einen Computer diesen veranlassen, eines der oben beschriebenen Verfahren auszuführen. Ein solches Computerprogramm ermöglicht den Einsatz des beschriebenen Verfahrens in unterschiedlichen Systemen.
  • Es wird ein maschinenlesbares Speichermedium angegeben, auf dem das oben beschriebene Computerprogramm gespeichert ist. Mittels eines solchen maschinenlesbaren Speichermediums ist das oben beschriebene Computerprogramm transportabel.
  • Ausführungsbeispiele
  • Ausführungsbeispiele der Erfindung werden mit Bezug auf die 1 und 2 dargestellt und im Folgenden näher erläutert. Es zeigen:
    • 1 ein um einen Sensor angeordnetes dreidimensionales Gitter zur räumlichen Zuordnung von bewerteten Detektionsbedingungen; und
    • 2 eine Skizze eines Datenflusses zur Bestimmung von bewerteten Detektionsbedingungen und deren Nutzung zur Fusion von Sensordaten.
  • Die 1 skizziert schematisch ein dreidimensionales Gitter 110 zur räumlichen Zuordnung von bewerteten Detektionsbedingungen zu den jeweiligen Gitterzellen 120, mit denen das Umfeld eines Sensorsystems 100 oder einer mobilen Plattform, wie beispielsweise eines Fahrzeugs, strukturiert ist. Durch diese Struktur mit den Gitterzellen 120 können bewertete Detektionsbedingungen, abhängig von räumlichen Koordinaten leicht abgebildet werden.
  • Die gestrichelten Linien, die von dem Sensorsystem 100 ausgehen, skizzieren einen Blickwinkel des Sensorsystems 100. Beispielsweise kann das dreidimensionale Gitter Zellen einer Größe von 10×10×10cm3 aufweisen.
  • Die Informationen über die aktuell herrschenden bewerteten Detektionsbedingungen können räumlich um ein Fahrzeug, das mit einer solchen Sensorsystem 100 ausgerüstet ist, assoziiert werden und in dieser Form anderen Systemen/Modulen bereitgestellt werden.
  • Die 2 skizziert schematisch Datenflüsse zur Bestimmung von bewerteten Detektionsbedingungen und deren Nutzung zur Fusion von Sensordaten zur Bestimmung eines Umfelds eines Sensorsystems und/oder einer mobilen Plattform.
  • Daten von Sensorsystemen für Umweltbedingungen 212 des Umfeldes, Daten über Umweltbedingungen 214 des Umfeldes, Daten von Sensorsystemen zur Bestimmung des Umfeldes 312 und Daten für das Umfeld 314, wie beispielsweise topographische Informationen und/oder Karteninformationen und/oder Informationen, die durch andere mobile Plattform zur Verfügung gestellt werden (V2X), stellen Eingangsdaten für die Bewertung-Vorrichtung für Detektionsbedingungen 210 dar.
  • Die Bewertungsvorrichtung für Detektionsbedingungen 210 stellt bewertete Detektionsbedingungen für eine Bewertung von Sensordaten einem System 220 bereit, das damit Gewichtungsfaktoren für eine Fusion von Sensordaten unterschiedlicher Sensorsysteme für ein Sensordaten-Fusionssystem 310 bestimmt und bereitstellt. Dabei fusioniert das Sensordaten-Fusionssystem 310 Daten von den Sensorsystemen zur Bestimmung des Umfeldes 312 und den Daten für das Umfeld 314.
  • D. h. mit anderen Worten aktuell herrschende Bedingungen im Umfeld von Sensorsystemen und/oder mobilen Plattformen werden aus verschiedenen Sensordaten und/oder Datenquellen über Umweltbedingungen und/oder Umfeldmodelle als Grundlagen für die Bestimmung von Detektionsbedingungen zusammengeführt, um bewertete Detektionsbedingungen zu bestimmen. Mit diesen bewerteten Detektionsbedingungen können Gewichte bestimmt werden, um Daten aus verschiedenen Sensorsystemen, z.B. bezogen auf spezifische Perzeptionscharakteristika und/oder Datenquellen für ein Umfeld eines Sensorsystems und/oder einer mobilen Plattform mit einer der entsprechend bestimmten Gewichtung, zu fusionieren um ein Umfeldmodell des Sensorsystems und/oder der mobilen Plattform zu bestimmen.

Claims (15)

  1. Verfahren zur Bestimmung einer bewerteten Detektionsbedingung für eine Bewertung von Sensordaten, aufweisend: Bereitstellen eines ersten Integritätswerts der Detektionsbedingung, basierend auf einer ersten Grundlage für die Bestimmung der Detektionsbedingung; Bereitstellen eines zweiten Integritätswerts der Detektionsbedingung, basierend auf einer zweiten Grundlage für die Bestimmung der Detektionsbedingung; Bestimmen eines Gesamtintegritätswerts für die Detektionsbedingung basierend auf dem ersten Integritätswert und dem zweiten Integritätswert; Zuordnen des Gesamtintegritätswerts zur Detektionsbedingung, zur Bestimmung der bewerteten Detektionsbedingung.
  2. Verfahren gemäß Anspruch 1, aufweisend: Bereitstellen eines ersten Konfidenzwerts der Detektionsbedingung, die auf der ersten Grundlage für die Bestimmung der Detektionsbedingung basiert; Bereitstellen eines zweiten Konfidenzwerts der Detektionsbedingung, die auf der zweiten Grundlage für die Bestimmung der Detektionsbedingung basiert; Bestimmen eines Gesamt-Konfidenz-Werts der Detektionsbedingung, basierend auf dem ersten Konfidenzwert und dem zweiten Konfidenzwert; Zuordnen des Gesamtintegritätswerts und der Gesamt-Konfidenz-Werts zur Detektionsbedingung, zur Bestimmung der bewerteten Detektionsbedingung.
  3. Verfahren gemäß Anspruch 2, wobei das Bestimmen des Gesamt-Konfidenz-Werts auf einer probabilistischen Kombination des ersten Konfidenzwerts und des zweiten Konfidenzwerts basiert.
  4. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei das Bestimmen des Gesamtintegritätswerts auf einer arithmetischen Funktion des ersten Integritätswerts und des zweiten Integritätswerts basiert.
  5. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei die Detektionsbedingung zumindest eine globale Detektionsbedingung umfasst und/oder zumindest eine zonenbezogene Detektionsbedingung umfasst und/oder zumindest eine lokale Detektionsbedingung umfasst und/oder zumindest eine dynamische Detektionsbedingung umfasst.
  6. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei eine Grundlage für die jeweilige Detektionsbedingung auf Daten zumindest eines für die Detektionsbedingung dedizierten Sensors (212) basiert und/oder auf einer Mustererkennung für die Detektionsbedingung von Daten zumindest eines exterozeptiver Sensors (312) basiert und/oder auf einer Mustererkennung für die Detektionsbedingung von Daten zumindest zweier exterozeptiver Sensoren (312) basiert und/oder auf einer Bewertung von Ergebnissen einer Datenverarbeitung zumindest eines Sensors (312) basiert und/oder auf zumindest einer Detektionsbedingung basiert, die geographischen Daten (314) zugeordnet ist, und eine Umgebung eines entsprechenden Sensors näher beschreibt und/oder auf einer Auswertung von Karten-Topographien (314) basiert und/oder auf Daten basiert, die von Verkehrsteilnehmern (314) in der Umgebung des entsprechenden Sensors bereitgestellt wird.
  7. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei die Bestimmung der bewerteten Detektionsbedingung Konfidenzwerte und/oder Integritätswerte der Detektionsbedingung ausschließt, deren jeweilige Grundlage eine kritische Abhängigkeit von der jeweiligen Detektionsbedingung aufweist.
  8. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei die bewertete Detektionsbedingung räumlich einer Repräsentation eines Umfeldes (110) eines Sensorsystems (100) zugeordnet wird.
  9. Verfahren zur Fusion von Daten eines ersten Sensorsystems und eines zweiten Sensorsystems, aufweisend: Bestimmung zumindest einer bewerteten Detektionsbedingung gemäß einem der Ansprüche 1 bis 8 für das erste Sensorsystem und/oder das zweite Sensorsystem; Bewerteten der Daten des ersten Sensorsystems und des zweiten Sensorsystems, basierend auf der zumindest einer bewerteten Detektionsbedingung, zur Fusion der Daten des ersten Sensorsystems und des zweiten Sensorsystems, um eine Repräsentation eines Umfelds zumindest eines der beiden Sensorsysteme zu bestimmen.
  10. Verfahren gemäß Anspruch 9, wobei die Daten des ersten Sensorsystems und die Daten des zweiten Sensorsystems basierend auf der zumindest einen bewerteten Detektionsbedingung zur Repräsentation des Umfelds gewichtet werden.
  11. Verfahren, das basierend auf einer gemäß einem der Ansprüche 1 bis 8 bestimmten bewerteten Detektionsbedingung, ein Steuersignal zur Ansteuerung eines zumindest teilautomatisierten Fahrzeugs bereitstellt; und/oder basierend auf der bewerteten Detektionsbedingung ein Warnsignal zur Warnung eines Fahrzeuginsassen bereitstellt.
  12. Bewertungs-Vorrichtung (210) für zumindest eine Detektionsbedingung, die auf einer Vielzahl von Grundlagen für die Bestimmung der Detektionsbedingung basiert, wobei die Bewertungs-Vorrichtung (210) mit einer Berechnungseinheit eingerichtet ist, ein Verfahren gemäß einem der Ansprüche 1 bis 8 durchzuführen.
  13. Verwendung einer Bewertungs-Vorrichtung (210) gemäß Anspruch 12, zur Fusion von Daten eines ersten Sensorsystems und eines zweiten Sensorsystems, zur Bestimmung einer Repräsentation eines Umfelds zumindest eines der beiden Sensorsysteme.
  14. Computerprogramm, umfassend Befehle, die bei der Ausführung des Computerprogramms durch einen Computer diesen veranlassen, das Verfahren nach einem der Ansprüche 1 bis 11 auszuführen.
  15. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 14 gespeichert ist.
DE102021104662.9A 2021-02-26 2021-02-26 Verfahren zur Bestimmung einer fusionierten Sensor-Detektionsbedingung Pending DE102021104662A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102021104662.9A DE102021104662A1 (de) 2021-02-26 2021-02-26 Verfahren zur Bestimmung einer fusionierten Sensor-Detektionsbedingung
US17/651,978 US20220277569A1 (en) 2021-02-26 2022-02-22 Method for determining a fused sensor detection condition
CN202210188718.2A CN114954504A (zh) 2021-02-26 2022-02-28 用于确定传感器探测条件的方法、融合数据的方法、提供信号的方法以及评估设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021104662.9A DE102021104662A1 (de) 2021-02-26 2021-02-26 Verfahren zur Bestimmung einer fusionierten Sensor-Detektionsbedingung

Publications (1)

Publication Number Publication Date
DE102021104662A1 true DE102021104662A1 (de) 2022-09-01

Family

ID=82799444

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021104662.9A Pending DE102021104662A1 (de) 2021-02-26 2021-02-26 Verfahren zur Bestimmung einer fusionierten Sensor-Detektionsbedingung

Country Status (3)

Country Link
US (1) US20220277569A1 (de)
CN (1) CN114954504A (de)
DE (1) DE102021104662A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022122833A1 (de) 2022-09-08 2024-03-14 ASFINAG Maut Service GmbH Verfahren zum Betreiben eines Systems zum infrastrukturgestützten Assistieren eines Kraftfahrzeugs
DE102022211631A1 (de) 2022-11-04 2024-05-08 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bestimmen einer räumlich aufgelösten Bewertung einer Detektionsbedingung

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7266477B2 (en) * 2005-06-22 2007-09-04 Deere & Company Method and system for sensor signal fusion
US10831190B2 (en) * 2017-08-22 2020-11-10 Huawei Technologies Co., Ltd. System, method, and processor-readable medium for autonomous vehicle reliability assessment
JP6981224B2 (ja) * 2017-12-18 2021-12-15 トヨタ自動車株式会社 車両制御装置、方法およびプログラム
US11640172B2 (en) * 2020-12-03 2023-05-02 Mitsubishi Electric Cornoration Vehicle controls based on reliability values calculated from infrastructure information

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022122833A1 (de) 2022-09-08 2024-03-14 ASFINAG Maut Service GmbH Verfahren zum Betreiben eines Systems zum infrastrukturgestützten Assistieren eines Kraftfahrzeugs
DE102022211631A1 (de) 2022-11-04 2024-05-08 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bestimmen einer räumlich aufgelösten Bewertung einer Detektionsbedingung

Also Published As

Publication number Publication date
US20220277569A1 (en) 2022-09-01
CN114954504A (zh) 2022-08-30

Similar Documents

Publication Publication Date Title
CN109522784B (zh) 用于区分可越过物体与不可越过物体的装置和方法
DE102020112314A1 (de) Verifizierung von fahrzeugbildern
DE102018100469A1 (de) Generierten von simulierten sensordaten zum trainieren und überprüfen von erkennungsmodellen
CN111382768A (zh) 多传感器数据融合方法和装置
CN108091141B (zh) 车牌识别系统
JP6962604B2 (ja) 極限状況でフォールトトレランス及びフラクチュエーションロバスト性のある、自動車間通信基盤の協業的なブラインドスポット警報方法及び装置
EP3511740B1 (de) Verfahren, system und computerprogrammprodukt zur bestimmung einer blockade eines sensors mehrerer sensoren eines ego-fahrzeugs
DE102020117376A1 (de) Generierung eines fahrzeugbildes
DE102021104662A1 (de) Verfahren zur Bestimmung einer fusionierten Sensor-Detektionsbedingung
DE102019216989B4 (de) Fahrzeugsensorvalidierungssystem und Verfahren zur Objektvalidierung
US12027052B2 (en) Computer-implemented method for determining similarity values of traffic scenarios
EP3904833B1 (de) Vorrichtung und verfahren zur auswertung von signalen von umfelderfassungssensoren für eine trajektorienregelung und/oder -steuerung eines automatisiert betreibbaren fahrzeuges
DE102021128041A1 (de) Verbesserung eines neuronalen fahrzeugnetzwerks
CN117056153A (zh) 校准和验证驾驶员辅助系统和/或自动驾驶系统的方法、系统和计算机程序产品
CN113935143A (zh) 通过自主车辆的增加的严重性等级估计碰撞概率
WO2022063900A1 (de) VERFAHREN ZUR FUSION VON UMFELDBEZOGENEN BESTIMMUNGSGRÖßEN
Mishra et al. ADAS technology: a review on challenges, legal risk mitigation and solutions
CN114664085A (zh) 危险路段的提醒方法、装置、电子设备及介质
CN112612288B (zh) 一种用于自动驾驶车辆误/漏识别的预期功能安全风险评估方法
CN114495421A (zh) 智能化开放式道路施工作业监测预警方法及系统
DE102020213133A1 (de) Verfahren und Vorrichtung zum Bewerten einer Eigenlokalisierung eines physikalischen Systems mittels Sensordaten
Schwalb Analysis of safety of the intended use (sotif)
US11555928B2 (en) Three-dimensional object detection with ground removal intelligence
Jung et al. Intelligent hybrid fusion algorithm with vision patterns for generation of precise digital road maps in self-driving vehicles
DE102022211631A1 (de) Verfahren zum Bestimmen einer räumlich aufgelösten Bewertung einer Detektionsbedingung