DE102019212892A1 - Erkennung von Detektorfehlern - Google Patents

Erkennung von Detektorfehlern Download PDF

Info

Publication number
DE102019212892A1
DE102019212892A1 DE102019212892.0A DE102019212892A DE102019212892A1 DE 102019212892 A1 DE102019212892 A1 DE 102019212892A1 DE 102019212892 A DE102019212892 A DE 102019212892A DE 102019212892 A1 DE102019212892 A1 DE 102019212892A1
Authority
DE
Germany
Prior art keywords
result data
detectors
detector
plausibility check
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019212892.0A
Other languages
English (en)
Inventor
Alexander Lengsfeld
Marcel Brueckner
Philip Lenz
Roland Klinnert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102019212892.0A priority Critical patent/DE102019212892A1/de
Publication of DE102019212892A1 publication Critical patent/DE102019212892A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

Offenbart ist ein Verfahren zum Erkennen von Detektorfehlern von Detektoren durch ein Steuergerät, wobei Ergebnisdaten mindestens einer Situation, insbesondere in Form von detektierten Merkmalen und/oder Objekten innerhalb eines Umfelds, von mindestens zwei Detektoren empfangen werden, eine Plausibilisierung der empfangenen Ergebnisdaten der mindestens zwei Detektoren basierend auf einem Vergleich der Ergebnisdaten der mindestens zwei Detektoren durchgeführt wird, bei einer durch die Plausibilisierung der Ergebnisdaten festgestellten Unstimmigkeit ein Detektorfehler festgestellt wird. Des Weiteren sind eine Übergabeanordnung ein Steuergerät, ein Computerprogramm sowie ein maschinenlesbares Speichermedium offenbart.

Description

  • Die Erfindung betrifft ein Verfahren zum Erkennen von Detektorfehlern von Detektoren durch ein Steuergerät. Des Weiteren betrifft die Erfindung ein derartiges Steuergerät, ein Computerprogramm sowie ein maschinenlesbares Speichermedium.
  • Stand der Technik
  • Automatisiert betreibbare Fahrzeuge weisen üblicherweise eine kamerabasierte oder LIDAR-basierte Umfeldwahrnehmung auf. Die Umfeldwahrnehmung weist verschiedene Detektoren, wie beispielsweise eine Objekterkennung oder eine Merkmalserkennung, auf. Bei einer kamerabasierten Umfeldwahrnehmung werden üblicherweise Grauwertstrukturen des Kamerabildes ausgewertet, wodurch Fahrzeuge, Fußgänger, Fahrspurmarkierungen, freie Flächen und dergleichen identifiziert werden können.
  • Bestehende Ansätze zur Anomaliedetektion bewerten oftmals bildbasiert auftretende Unstimmigkeiten in den sensorbasiert ermittelten Messdaten, welche von den jeweiligen Detektoren zum Erstellen von Ergebnisdaten genutzt werden. Hierbei werden die gleichen Daten verwendet wie der zu bewertende Detektor. Weitere Ansätze der Anomaliedetektion versuchen Ähnlichkeiten eines Bildes in Bezug auf die zugrundeliegenden Trainingsdaten zu bewerten und Rückschlüsse daraus zu ziehen. Des Weiteren sind Verfahren bekannt, bei welchen die erkannten Objekte mit bereits bekannten Objekten plausibilisiert werden, um nicht-plausible Ergebnisdaten zu unterdrücken.
  • Die bekannten Ansätze zur Anomaliedetektion verwenden oftmals die gleichen zugrundliegenden Daten zur Anomaliedetektion und nutzen lediglich orthogonale Detektoren, um falsche oder fehlende Detektionen zu erkennen. Bei als fehlerhaft erkannten Detektionen bzw. Ergebnisdaten wird üblicherweise das System abgeschaltet. Hierdurch kann ein Fahrzeug aufgrund eines Fehlers in der Umfeldwahrnehmung in einen sicheren Zustand versetzt werden.
  • Darüber hinaus sind die bekannten Verfahren zur Anomaliedetektion üblicherweise auf eine Fehlerklasse optimiert, wodurch sie entweder Fehldetektionen bzw. sogenannte Falsepositive-Ergebnisse oder fehlende Detektionen bzw. sogenannte Falsenegative-Ergebnisse erkennen können.
  • Offenbarung der Erfindung
  • Die der Erfindung zugrundeliegende Aufgabe kann darin gesehen werden, ein Verfahren zum Erkennen von Detektorfehlern vorzuschlagen, welches einen reduzierten Bedarf an Rechenleistung aufweist und Ergebnisdaten im Hinblick auf Falsepositive-Ergebnisse und Falsenegative-Ergebnisse prüfen kann.
  • Diese Aufgabe wird mittels des jeweiligen Gegenstands der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von jeweils abhängigen Unteransprüchen.
  • Nach einem Aspekt der Erfindung wird ein Verfahren zum Erkennen von Detektorfehlern von Detektoren durch ein Steuergerät bereitgestellt. Beispielsweise kann das Steuergerät in ein Fahrzeug integriert sein, welches automatisiert oder teilautomatisiert betreibbar ist. Das Verfahren kann darüber hinaus für eine Visualisierung, beispielsweise bei Einparksystemen oder bei Überwachungssystemen, eingesetzt werden und ist nicht auf den automobilen Einsatzbereich beschränkt. Vielmehr kann das Verfahren auch im maritimen Einsatzbereich oder im stationären Einsatz verwendet werden.
  • In einem Schritt werden Ergebnisdaten mindestens einer Situation, insbesondere in Form von detektierten Merkmalen und/oder Objekten innerhalb eines Umfelds, von mindestens zwei Detektoren empfangen werden. In einem automobilen Einsatzbereich kann die Situation als eine Verkehrssituation ausgeführt sein, wobei das Umfeld beispielhaft als ein Fahrzeugumfeld ausgeführt sein kann. Das Umfeld kann vorzugsweise ein durch Sensoren überwachter bzw. abgetasteter Bereich sein. Hierbei werden die Ergebnisse der jeweiligen Detektoren empfangen. Die Detektoren können beispielsweise softwarebasierte Detektoren sein, welche Objekte oder Merkmale in empfangenen Messdaten identifizieren und in Form von Ergebnisdaten extrahieren können. Die Ergebnisdaten der Detektoren können anschließend über eine Schnittstelle anderen Komponenten oder Modulen des Fahrzeugs bereitgestellt werden. Das Steuergerät kann vorzugsweise auf eine derartige Schnittstelle zugreifen und die Ergebnisdaten empfangen. Vorzugsweise können die jeweiligen Detektoren unterschiedliche Merkmale oder Objekte extrahieren oder als redundante Detektoren ausgestaltet sein.
  • In einem weiteren Schritt wird eine Plausibilisierung der empfangenen Ergebnisdaten der mindestens zwei Detektoren basierend auf einem Vergleich der Ergebnisdaten der mindestens zwei Detektoren durchgeführt. Durch den Vergleich können Ergebnisse von zwei oder mehr Detektoren für eine Plausibilisierung der Ergebnisdaten eingesetzt werden.
  • Anschließend wird bei einer durch die Plausibilisierung der Ergebnisdaten der mindestens zwei Detektoren festgestellten Unstimmigkeit ein Detektorfehler festgestellt. Im Umkehrschluss kann eine unbeeinträchtigte Funktionsfähigkeit bestätigt werden, wenn die Plausibilisierung ohne festgestellte Unstimmigkeiten durchgeführt wird.
  • Nach einem weiteren Aspekt der Erfindung wird ein Steuergerät bereitgestellt, wobei das Steuergerät dazu eingerichtet ist, das Verfahren auszuführen. Das Steuergerät kann beispielsweise ein fahrzeugseitiges Steuergerät oder ein fahrzeugexternes Steuergerät sein. Beispielsweise kann das Steuergerät mit einer Fahrzeugsteuerung zum Ausführen von automatisierten Fahrfunktionen verbindbar oder in eine derartige Fahrzeugsteuerung integriert sein. Ein extern ausgestaltetes Steuergerät kann beispielsweise eine fahrzeugexterne Servereinheit sein, welche auf einer Cloud-Technologie basiert.
  • Darüber hinaus wird nach einem Aspekt der Erfindung ein Computerprogramm bereitgestellt, welches Befehle umfasst, die bei der Ausführung des Computerprogramms durch einen Computer oder ein Steuergerät diesen veranlassen, das erfindungsgemäße Verfahren auszuführen. Gemäß einem weiteren Aspekt der Erfindung wird ein maschinenlesbares Speichermedium bereitgestellt, auf dem das erfindungsgemäße Computerprogramm gespeichert ist.
  • Das Fahrzeug kann hierbei gemäß der BASt Norm assistiert, teilautomatisiert, hochautomatisiert und/oder vollautomatisiert bzw. fahrerlos betreibbar sein.
  • Die Messdaten des Fahrzeugumfelds können durch mindestens einen Sensor gesammelt werden. Der mindestens eine Sensor einer Umfeldsensorik kann beispielsweise ein LIDAR-Sensor, Radarsensor, Ultraschallsensor, Kamerasensor, GNSS-Sensor und dergleichen sein. Die für das Verfahren eingesetzten Ergebnisdaten der Detektoren resultieren aus einer Verarbeitung der Messdaten der Umfeldsensorik und liegen vorzugsweise in einer komprimierten Form vor. Hierdurch wird nicht die speicherintensive Menge an rohen Messdaten für das Verfahren eingesetzt, sodass das Steuergerät auch mit einer verringerten Rechenleistung betreibbar ist.
  • Das Verfahren kann auf zweidimensionalen oder dreidimensionalen Ergebnisdaten der Detektoren basieren, welcher die Ergebnisdaten aus Messdaten eines Kamerasensors oder eines anderen Sensors bezieht. Da die rohen Messdaten der Umfeldsensorik nicht berücksichtigt werden, ist das Verfahren somit sensorunabhängig betreibbar. Insbesondere können unterschiedliche Sensoren zur Datenaggregation genutzt werden, solange eine spezifizierte Schnittstelle mit den Ergebnisdaten befüllt werden kann.
  • Durch das Verfahren können Schwächen bereits bekannter Verfahren zur Anomaliedetektion beseitigt werden. Beispielsweise kann das Verfahren, im Gegensatz zu positionsbasierten oder statischen Verfahren, auch Detektorfehler bei Sonderfahrzeugen, bei besonders schmalen Fahrzeugen, breiten Fahrzeugen, kleinen Fahrzeugen und dergleichen detektieren.
  • Der Ansatz des Verfahrens verwendet orthogonale Daten zur Ausreißerdetektion auf Schnittstellenebene. Das ermöglicht eine Prüfung einer Gesamtsituation des Umfelds des Fahrzeugs zu plausibilisieren. Insbesondere können eine oder mehrere Verkehrssituationen gleichzeitig oder nacheinander im Hinblick auf Detektorfehler überprüft werden. Es können sogenannte Falsenegative-Ergebnisse bzw. fehlende Detektionen erkannt werden. Darüber hinaus ermöglicht das Verfahren eine gleichzeitige Prüfung eines einzelnen Bildes bzw. einer Verkehrssituation auf Fehldetektionen bzw. sogenannte Falsepositive-Ergebnisse oder auf die Falsenegative-Ergebnisse in einem einzelnen Prozess.
  • Als Ergebnis kann eine Position der Anomalie bzw. des Detektorfehlers eingegrenzt werden. Basierend auf dem Ort des Detektorfehlers innerhalb der Verkehrssituation kann eine Funktion mit einer Notfallinformation, wie beispielsweise einer neuen Objekthypothese erzeugt werden, um eine vollstände Deaktivierung des Fahrzeugs oder der Umfeldwahrnehmung durch die Umfeldsensorik zu verhindern.
  • Darüber hinaus kann das Verfahren eine benötigte Rechenzeit reduzieren, da eine datenreduzierte Schnittstelle im Verhältnis zu den unkomprimierten Messdaten für eine Anomaliedetektion genutzt wird.
  • Gemäß einem Ausführungsbeispiel werden durch die Plausibilisierung geometrische und/oder zeitliche Unstimmigkeiten zwischen den Ergebnisdaten der mindestens zwei Detektoren ermittelt. Hierdurch können Anomalien in den Ergebnisdaten mindestens eines Detektors auf zwei unterschiedlichen und voneinander unabhängigen Ebenen untersucht werden. Geometrische Unstimmigkeiten können dann auftreten, wenn beispielsweise ein Objektdetektor an einer Position ein Fahrzeug oder einen Fußgänger detektiert, an welcher laut einem Freiflächendetektor eine freie Asphaltfläche befinden sollte. Hierbei können Ergebnisdaten von weiteren Detektoren zusätzlich herangezogen werden, um die Anomalie auf einen Detektor oder eine Verkehrssituation zu beschränken. Zeitliche Unstimmigkeiten können beispielsweise ermittelt werden, wenn sich Änderungen der Verkehrssituation und der detektierten Merkmale bei einem Befahren einer Trajektorie durch das Fahrzeug je nach Detektor unterschiedlich schnell erfolgen.
  • Nach einer weiteren Ausführungsform werden durch die Plausibilisierung Falsepositive-Ergebnisse und/oder Falsenegative-Ergebnisse innerhalb einer Verkehrssituation detektiert. Falsepositive-Ergebnisse können fehlerhaft detektierte Objekte sein. Derartige Objekte werden beispielsweise an einer falschen Position und/oder mit einer fehlerhaften Abmessung detektiert.
  • Beispielsweise kann anhand eines Detektors zum Identifizieren von Fahrspuren eine Unterbrechung der Fahrspuren wegen einem Fahrzeug detektiert werden, wobei an der Unterbrechung ein Objekt klassifiziert bzw. vermutet wird. Ein weiterer Detektor kann hierbei das Objekt an einer abweichenden Position detektieren. Die Abweichungen in dem erkannten Ort des Objekts können durch die Plausibilisierung erkannt und für eine Korrektur oder eine Generierung von Warnungen eingesetzt werden. Analog hierzu kann ein Objekt, welches durch einen Objektdetektor nicht erkannt wurde, basierend auf den Ergebnisdaten von weiteren Detektoren erkannt werden. Derartige nachträgliche bzw. durch Auswerten der Ergebnisdaten der alternativen Detektoren ermittelte Objekte können in Form einer neuen Objekthypothese markiert werden.
  • Gemäß einem weiteren Ausführungsbeispiel werden bei einer detektierten Fehldetektion von mindestens einem Detektor korrigierte Ergebnisdaten oder alternative Ergebnisdaten generiert. Die korrigierten oder alternativen Ergebnisdaten können in Form von Notfallinformationen bereitgestellt werden. Eine derartige Notfallinformation bzw. Notfallklassifizierung kann eine vollständige Deaktivierung des Objektdetektors oder der Umfeldsensorik verhindern.
  • Nach einem weiteren Ausführungsbeispiel wird die Plausibilisierung durch einen auf maschinellem Lernen basierenden Klassifikator ausgeführt. Das Verfahren kann zur Detektion der Detektorfehler bzw. zur Plausibilisierung Ergebnisdaten mit einer entsprechenden Groundtruth als Eingangsdaten für ein Anlernen des Klassifikators nutzen. Ein derartiger Klassifikator kann beispielsweise als eine sogenannte zwei-Klassen Support Vector Machine oder als ein neuronales Netz ausgestaltet sein.
  • Ein derart trainierter Klassifikator kann im realen Einsatz für jedes Einzelbild bzw. jede Verkehrssituation mögliche Falsepositive-Ergebnisse und Falsenegative-Ergebnisse detektieren. Durch den Einsatz eines derartigen Klassifikators zum Plausibilisieren der Ergebnisdaten erzeugt das Verfahren keine zusätzliche Verzögerung bzw. Latenz aufgrund von geringen Anforderungen an eine Rechenleistung.
  • Nach einer weiteren Ausführungsform ist der Klassifikator als ein sequenzbasierter Klassifikator ausgeführt, wobei die empfangenen Ergebnisdaten der Detektoren in definierten Sequenzen plausibilisiert werden. Als eine zusätzliche Erweiterung können auch in Sequenzen vorliegende Ergebnisdaten ausgewertet werden. Hierfür können N vorangegangene Zustände als Eingangsmerkmale für den Klassifikator verwendet werden. Ein derartiger sequenzbasierter Klassifikator kann in Form von Recurrent Neural Networks oder als ein sogenanntes Hidden Markov Model ausgestaltet sein.
  • Gemäß einer weiteren Ausführungsform werden die Ergebnisdaten von mindestens einem als ein Objektdetektor, als ein Fahrspurmarkierungsdetektor oder als ein Freiflächendetektor ausgestalteten Detektor empfangen. Hierdurch können mehrere parallel und unabhängig voneinander ermittelte Ergebnisdatenquellen zum Plausibilisieren von detektierten Merkmalen und Objekten herangezogen werden. Hierzu können vorzugsweise die geometrischen und ergänzend auch zeitlichen Relationen zwischen den einzelnen Ergebnisdaten ausgewertet und verglichen werden.
  • Nach einem weiteren Ausführungsbeispiel werden Position und Ausdehnung von ermittelten Objekten mit Positionen und Ausdehnungen von detektierten Fahrspuren und/oder Freiflächen auf einer Fahrbahnoberfläche verglichen und im Hinblick auf Überschneidungen verglichen. Auf Basis von gegebenen Sensorschnittstellen bildbasierter Detektoren, wie beispielsweise Objektdetektoren bzw. Fahrzeugdetektionen, Spurmarkierungsdetektoren LANE, Freiflächenerkennungen FS und dergleichen, können Detektorfehler eines Detektors erkannt werden.
  • Beispielsweise kann durch die Freiflächenerkennung eine Überlagerung bzw. Verdeckung einer Fahrbahnoberfläche durch Fahrzeuge festgestellt werden. Die entsprechenden Informationen über die Position und Ausdehnung der Überlagerung können mit den Ergebnisdaten des Objektdetektors verglichen werden, um eine Plausibilisierung der Ergebnisdaten zu ermöglichen.
  • Darüber hinaus können ermittelte Fahrspurmarkierungen und Fahrbahnmarkierungen von Fahrzeugen oder Objekten verdeckt bzw. abgeschirmt werden, sodass aus diesen Ergebnisdaten ebenfalls Informationen über eine Position und Ausdehnung eines Objekts herleitbar sind. Durch den Einsatz von Ergebnisdaten verschiedener Detektoren können unabhängig Vergleichswerte für eine Plausibilisierung von Objektdetektionen bereitgestellt werden.
  • Gemäß einem weiteren Ausführungsbeispiel werden die Ergebnisdaten der Detektoren vor einer Plausibilisierung normalisiert. Die Normalisierung kann im Rahmen einer Vorverarbeitung der Ergebnisdaten erfolgen. Durch diese Maßnahme können die Ergebnisdaten in ein Format und Koordinatensystem konvertiert werden, welche eine Vergleichbarkeit der unterschiedlichen Ergebnisdaten ermöglichen.
  • Im Folgenden werden anhand von stark vereinfachten schematischen Darstellungen bevorzugte Ausführungsbeispiele der Erfindung näher erläutert. Hierbei zeigen
    • 1 eine schematische Darstellung einer Verkehrssituation zum Veranschaulichen eines erfindungsgemäßen Verfahrens
    • 2 eine schematische Darstellung einer weiteren Verkehrssituation zum Veranschaulichen des erfindungsgemäßen Verfahrens und
    • 3 ein Ablaufdiagramm zum Veranschaulichen des Verfahrens gemäß einem Ausführungsbeispiel.
  • Die 1 zeigt eine schematische Darstellung einer Verkehrssituation 1 zum Veranschaulichen eines erfindungsgemäßen Verfahrens 2. Die Verkehrssituation 1 ist aus einer Ego-Perspektive eines Fahrzeugs 4 dargestellt.
  • Das Fahrzeug 4 ist beispielsweise als ein automatisiert betriebenes Fahrzeug ausgestaltet und weist eine Umfeldsensorik 6 auf. Die Umfeldsensorik 6 dient zur Umfeldwahrnehmung einer Fahrzeugumgebung U und kann Kamerasensoren, LIDAR-Sensoren, Radarsensoren und dergleichen aufweisen.
  • Die Umfeldsensorik 6 des Fahrzeugs 4 ist datenleitend mit einem Steuergerät 8 verbunden. Darüber hinaus weist das Fahrzeug 4 ein maschinenlesbares Speichermedium 10 auf, auf welchem ein Computerprogramm gespeichert ist. Das Computerprogramm umfasst Befehle, welche bei der Ausführung des Computerprogramms durch das Steuergerät 8 dieses veranlassen, das Verfahren 2 auszuführen.
  • In der dargestellten Verkehrssituation 1 sind Ergebnisdaten von drei unterschiedlichen Detektoren dargestellt. Die Detektoren sind bildbasierte Detektoren und sind als ein Objektdetektor, ein Spurmarkierungsdetektor und als ein Freiflächenerkennungsdetektor ausgestaltet. Die Detektoren werten Messdaten der Umfeldsensorik 6 aus und erzeugten Ergebnisdaten. Die Ergebnisdaten sind in Form von erkannten Objekten 12, in Form von erkannten Freiflächen 14 und als erkannte Fahrspurmarkierungen 16 ausgeprägt.
  • In der dargestellten Verkehrssituation 1 wird ein vorausfahrendes Fahrzeug 18 von einem Objektdetektor nicht erkannt. Basierend auf der ermittelten Freifläche 14 sowie den ermittelten Fahrspurmarkierungen 16 kann durch das Steuergerät 8 eine Überdeckung 20 der Freifläche 14 sowie der Fahrspurmarkierungen 16 festgestellt werden. Eine derartige Überdeckung 20 deutete auf ein Objekt hin, welches in Form einer alternativen Objekthypothese 22 durch das Steuergerät 8 eingeführt wird.
  • Die Überdeckung 20 wird durch endende Fahrspurmarkierungen 16 sowie eine Grenze der Freifläche 14 identifiziert. Das Steuergerät 8 kann dieses Fehlverhalten bzw. diesen Detektorfehler des Objektdetektors erkennen und eine alternative Objekthypothese 22 erzeugen. Die Objekthypothese 22 wird auf Basis der verfügbaren Ergebnisdaten zur Klassifikation erzeugt und kann durch eine beispielsweise semantische Segmentierung, verfeinert werden.
  • In 2 ist eine schematische Darstellung einer weiteren Verkehrssituation 1 zum Veranschaulichen des erfindungsgemäßen Verfahrens 2 gezeigt. Im Unterscheid zum in 1 dargestellten Ausführungsbeispiel, wird hier eine Verkehrssituation 1 veranschaulicht, bei welcher eine fehlerhafte Detektion eines Objekts erkannt wird. Ein vorausfahrendes Fahrzeug 18 wird von dem Objektdetektor an einer fehlerhaften bzw. versetzten Position erkannt.
  • Das entsprechende fehlerhaft identifizierte Objekt 24 wird durch das Steuergerät 8 als ungültig markiert. Die Detektion der fehlerhaften Objekte 24 kann hierbei gleichzeitig bzw. parallel zu einer Erkennung von fehlenden Detektionen erfolgen.
  • Eine entsprechende Plausibilisierung kann durch einen Abgleich der ermittelten Fahrspuren 16 sowie der ermittelten Freiflächen 14 erfolgen, welche um Bereich des Fahrzeugs 18 enden.
  • Zum Korrigieren der Falsepositive-Ergebnisse, wird hier ebenfalls eine alternative Objekthypothese 22 durch das Steuergerät 8 generiert.
  • Die 3 zeigt ein Ablaufdiagramm zum Veranschaulichen des Verfahrens 2 gemäß einem Ausführungsbeispiel.
  • In einem Schritt 26 werden Ergebnisdaten 12, 14, 16 eines Objektdetektors 32, eines Freiflächendetektors 34 und einer Fahrspurerkennung 36 durch das Steuergerät 8 empfangen.
  • Die Ergebnisdaten 12, 14, 16 können in einem weiteren Schritt 27 vorbereitet bzw. vorverarbeitet werden. Beispielsweise können die Ergebnisdaten 12, 14, 16 normalisiert werden, wodurch eine Vergleichbarkeit der Ergebnisdaten 12, 14, 16 ermöglicht wird.
  • Anschließend werden die Ergebnisdaten 12, 14, 16 einem Klassifikator 28 zugeführt. Der Klassifikator 28 kann basierend auf den Eingangsdaten bewerten, ob in der vorliegenden Verkehrssituation 1 ein Falsepositive-Ergebnis FP und/oder ein Falsenegative-Ergebnis FN aufgetreten ist.
  • Der Klassifikator 28 kann beispielsweise als eine sogenannte zwei-Klassen SVM oder als ein neuronales Netz ausgeführt sein. Insbesondere kann der Klassifikator 28 im Vorfeld angelernt sein.
  • Durch den Klassifikator 28 kann eine Plausibilisierung der empfangenen Ergebnisdaten der Detektoren 32, 34, 36 basierend auf einem Vergleich der Ergebnisdaten 12, 14, 16 der Detektoren 32, 34, 36 durchgeführt werden.
  • Anschließend kann bei einer durch die Plausibilisierung 28 der Ergebnisdaten 12, 14, 16 festgestellten Unstimmigkeit ein Detektorfehler 29 festgestellt werden.
  • Optional können in einem weiteren Schritt 30 korrigierte Ergebnisdaten 24 oder alternative Ergebnisdaten 22 generiert werden.

Claims (12)

  1. Verfahren (2) zum Erkennen von Detektorfehlern (29) von Detektoren (32, 34, 36) durch ein Steuergerät, wobei - Ergebnisdaten (12, 14, 16) mindestens einer Situation (1), insbesondere in Form von detektierten Merkmalen und/oder Objekten innerhalb eines Umfelds (U), von mindestens zwei Detektoren (32, 34, 36) empfangen (26) werden, - eine Plausibilisierung (28) der empfangenen Ergebnisdaten (12, 14, 16) der mindestens zwei Detektoren (32, 34, 36) basierend auf einem Vergleich der Ergebnisdaten (12, 14, 16) der mindestens zwei Detektoren (32, 34, 36) durchgeführt wird, - bei einer durch die Plausibilisierung (28) der Ergebnisdaten (12, 14, 16) der mindestens zwei Detektoren (32, 34, 36) festgestellten Unstimmigkeit ein Detektorfehler (29) festgestellt wird.
  2. Verfahren nach Anspruch 1, wobei durch die Plausibilisierung geometrische und/oder zeitliche Unstimmigkeiten zwischen den Ergebnisdaten (12, 14, 16) der mindestens zwei Detektoren (32, 34, 36) ermittelt werden.
  3. Verfahren nach Anspruch 1 oder 2, wobei durch die Plausibilisierung Falsepositive-Ergebnisse (FP) und/oder Falsenegative-Ergebnisse (FN) innerhalb einer Verkehrssituation (1) detektiert werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei bei einer detektierten Fehldetektion (29) von mindestens einem Detektor (32, 34, 36) korrigierte Ergebnisdaten (12, 14, 16) oder alternative Ergebnisdaten (12, 14, 16) generiert werden.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei die Plausibilisierung durch einen auf maschinellem Lernen basierenden Klassifikator (28) ausgeführt wird.
  6. Verfahren nach Anspruch 5, wobei der Klassifikator (28) als ein sequenzbasierter Klassifikator ausgeführt ist und die empfangenen Ergebnisdaten (12, 14, 16) der Detektoren (32, 34, 36) in definierten Sequenzen plausibilisiert werden.
  7. Verfahren nach einem der Ansprüche 1 bis 6, wobei die Ergebnisdaten (12, 14, 16) von mindestens einem als ein Objektdetektor (32), ein Fahrspurmarkierungsdetektor (36) oder als ein Freiflächendetektor (34) ausgestalteten Detektor (32, 34, 36) empfangen werden.
  8. Verfahren nach Anspruch 7, wobei Position und Ausdehnung von ermittelten Objekten (18) mit Positionen und Ausdehnungen von detektierten Fahrspuren (16) und/oder Freiflächen (14) auf einer Fahrbahnoberfläche verglichen und im Hinblick auf Überschneidungen verglichen werden.
  9. Verfahren nach einem der Ansprüche 1 bis 8, wobei die Ergebnisdaten (12, 14, 16) der Detektoren (32, 34, 36) vor einer Plausibilisierung normalisiert (27) werden.
  10. Steuergerät (8), welches dazu eingerichtet ist, das Verfahren (2) gemäß einem der vorhergehenden Ansprüche auszuführen.
  11. Computerprogramm, welches Befehle umfasst, die bei der Ausführung des Computerprogramms durch einen Computer oder ein Steuergerät (8) diesen veranlassen, das Verfahren (2) gemäß einem der Ansprüche 1 bis 9 auszuführen.
  12. Maschinenlesbares Speichermedium (10), auf welchem das Computerprogramm gemäß Anspruch 11 gespeichert ist.
DE102019212892.0A 2019-08-28 2019-08-28 Erkennung von Detektorfehlern Pending DE102019212892A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019212892.0A DE102019212892A1 (de) 2019-08-28 2019-08-28 Erkennung von Detektorfehlern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019212892.0A DE102019212892A1 (de) 2019-08-28 2019-08-28 Erkennung von Detektorfehlern

Publications (1)

Publication Number Publication Date
DE102019212892A1 true DE102019212892A1 (de) 2021-03-04

Family

ID=74564816

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019212892.0A Pending DE102019212892A1 (de) 2019-08-28 2019-08-28 Erkennung von Detektorfehlern

Country Status (1)

Country Link
DE (1) DE102019212892A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022103324A1 (de) 2021-03-25 2022-09-29 Ivex System und Verfahren zur Erkennung von Inkonsistenzen in Wahrnehmungssystemen von automatisierten Fahrzeugen.

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10335601B4 (de) * 2003-08-04 2016-01-14 Robert Bosch Gmbh Verfahren zur Objektklassifizierung unter Verwendung einer 3D-Modelldatenbank
US20180314921A1 (en) * 2017-05-01 2018-11-01 Mentor Graphics Development (Deutschland) Gmbh Training of machine learning sensor data classification system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10335601B4 (de) * 2003-08-04 2016-01-14 Robert Bosch Gmbh Verfahren zur Objektklassifizierung unter Verwendung einer 3D-Modelldatenbank
US20180314921A1 (en) * 2017-05-01 2018-11-01 Mentor Graphics Development (Deutschland) Gmbh Training of machine learning sensor data classification system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022103324A1 (de) 2021-03-25 2022-09-29 Ivex System und Verfahren zur Erkennung von Inkonsistenzen in Wahrnehmungssystemen von automatisierten Fahrzeugen.

Similar Documents

Publication Publication Date Title
AT521607B1 (de) Verfahren und Vorrichtung zum Testen eines Fahrerassistenzsystem
DE102008013366B4 (de) Verfahren zur Bereitstellung von Information für Fahrerassistenzsysteme
EP2951804B1 (de) Erstellen eines umfeldmodells für ein fahrzeug
EP2402827B1 (de) Verfahren und Vorrichtung für eine Funktionsprüfung einer Objekt-Erkennungseinrichtung eines Kraftwagens
DE102017107264A1 (de) Sichtbasierte regenerkennung unter verwendung des tiefen lernens
WO2018188877A1 (de) Fusion von daten mehrerer sensoren zur objekterkennung
DE102014106506A1 (de) Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102018127059A1 (de) Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102016207463A1 (de) Verfahren und Vorrichtung zum Betreiben wenigstens eines Fahrzeugs in Bezug auf wenigstens ein passierbares Objekt in der Umgebung des wenigstens einen Fahrzeugs
DE102018103803A1 (de) System und verfahren für das erkennen einer fehlerhaften sensorinstallation innerhalb eines fahrzeugs, um die mit der objekterkennung verbundenen gefahren zu verringern
EP3729213B1 (de) Verhaltensmodell eines umgebungssensors
DE102021204687A1 (de) Verfahren zur Szeneninterpretation eines Umfelds eines Fahrzeugs
DE102020206755A1 (de) Redundanzinformationen für objektschnittstelle für hoch und vollautomatisiertes fahren
WO2019211293A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines egofahrzeugs mit wenigstens einem umfeldsensor zum erfassen eines umfelds des egofahrzeugs, computer-lesbares medium, system, und fahrzeug
DE102019212892A1 (de) Erkennung von Detektorfehlern
DE102017208692A1 (de) Verfahren zum Bereitstellen von Trainingsdaten für eine Funktionsprüfung einer Erkennungseinrichtung sowie Datenbanksystem
DE102019214111A1 (de) Klassifikation von statischen und dynamischen Objekten
DE102018125712A1 (de) Fahrunterstützungsverfahrens für ein Fahrzeug
DE102019220607A1 (de) Verwendung von ultraschallbasierten Subsystemen zur 360° Umfelderfassung
DE102018215136B4 (de) Verfahren zum Auswählen eines Bildausschnitts eines Sensors
DE102021209670B4 (de) Konzept zum Überwachen einer Datenfusionsfunktion eines Infrastruktursystems
WO2023131603A1 (de) Verfahren zur optimierung der umfeldwahrnehmung für ein fahrunterstützungssystem mittels zusätzlicher referenzsensorik
DE102018217219B4 (de) Verfahren zum Ermitteln einer dreidimensionalen Position eines Objekts
DE102021209817A1 (de) Verfahren zur mehrstufigen Fusion von Messdaten
WO2023143800A1 (de) Verfahren zur detektion von geisterobjekten in sensormessungen

Legal Events

Date Code Title Description
R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000