DE102018201849A1 - Verfahren zur Reduzierung der Fehlerrate in einem Objekterkennungssystem - Google Patents

Verfahren zur Reduzierung der Fehlerrate in einem Objekterkennungssystem Download PDF

Info

Publication number
DE102018201849A1
DE102018201849A1 DE102018201849.9A DE102018201849A DE102018201849A1 DE 102018201849 A1 DE102018201849 A1 DE 102018201849A1 DE 102018201849 A DE102018201849 A DE 102018201849A DE 102018201849 A1 DE102018201849 A1 DE 102018201849A1
Authority
DE
Germany
Prior art keywords
target area
detection
detected
recognition system
detection step
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018201849.9A
Other languages
English (en)
Inventor
Cristian Burca
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Continental Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH filed Critical Continental Automotive GmbH
Priority to DE102018201849.9A priority Critical patent/DE102018201849A1/de
Publication of DE102018201849A1 publication Critical patent/DE102018201849A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Die Erfindung bezieht sich auf ein Verfahren zur Reduzierung der Fehlerrate in einem Objekterkennungssystem (2), umfassend folgende Schritte:- Erfassen eines Objekts (O) mittels eines Sensors (4) in einem ersten Erfassungsschritt (S10);- Bestimmen eines örtlichen Zielbereichs (ZB), in dem das Objekt (O) in einem zweiten, zeitlich nachfolgenden Erfassungsschritt erwartet wird (S11);- Prüfen, ob das Objekt (O) im zweiten Erfassungsschritt in dem örtlichen Zielbereich (ZB) erfasst wurde (S12); und- Anpassen einer Kenngröße (S13), die ein Maß dafür ist, ob es sich bei dem erkannten Objekt (O) um eine Fehldetektion handelt, in Abhängigkeit des Prüfungsergebnisses.

Description

  • Die Erfindung betrifft ein Verfahren zur Reduzierung der Fehlerrate in einem Objekterkennungssystem und ein Objekterkennungssystem.
  • Für die Anwendung im Bereich des autonomen oder teilautonomen Fahrens besteht eine wesentliche Anforderung an die dort verwendeten Sensoren bzw. Sensorsysteme zur Umgebungserfassung darin, dass die Informationen, die durch diese bereitgestellt werden, der realen Umgebungssituation möglichst nahe kommen. Um eine höhere Genauigkeit und eine bessere Verlässlichkeit der Sensorinformationen zu erhalten, werden die von den Sensoren bereitgestellten Informationen häufig gefiltert bzw. einer Nachverarbeitung (sog. post-processing) unterzogen.
  • Derartige Filterung bzw. Nachbearbeitung ist jedoch kritisch, da dabei unerwünschte Auswirkungen auf die vom Sensorsystem bereitgestellten Informationen auftreten können. Eine starke Filterwirkung bewirkt vorteilhafter Weise, dass Fehldetektionen (sog. „false positives“, d.h. es wird ein Objekt detektiert obwohl keines existent ist) reduziert werden. Jedoch führt eine derartig starke Filterwirkung auch dazu, dass Objekte, die real existieren, durch das Objekterkennungssystem nicht detektiert werden (sog. „false negatives“), da diese durch die Filterung eliminiert werden.
  • Ein weiteres Problem von Sensoren zur Objekterfassung, insbesondere von Radarsensoren, besteht darin, dass abhängig von der Umgebungssituation Geisterobjekte erfasst werden, die real nicht existent sind und aus Reflexionen metallischer Objekte herrühren. Ein typischer Fall, in dem derartige Geisterobjekte auftreten, ist das Fahren in der Nähe einer Leitplanke, beispielsweise auf der Autobahn. Das Objekterkennungssystem erfasst dabei Objekte, die in Wirklichkeit aus Reflexionen anderer Fahrzeuge oder des eigenen Fahrzeugs an der Leitplanke herrühren.
  • Ausgehend hiervon ist es Aufgabe der Erfindung, ein Verfahren anzugeben, mittels dem eine verlässliche und effektive Reduzierung der Fehlerrate in einem Objekterkennungssystem möglich ist.
  • Die Aufgabe wird durch ein Verfahren mit den Merkmalen des unabhängigen Patentanspruchs 1 gelöst. Bevorzugte Ausführungsformen sind Gegenstand der Unteransprüche. Ein Objekterkennungssystem ist Gegenstand des nebengeordneten Patentanspruchs 14 und ein Fahrzeug mit einem Objekterkennungssystem ist Gegenstand des nebengeordneten Patentanspruchs 15.
  • Gemäß einem ersten Aspekt bezieht sich die Erfindung auf ein Verfahren zur Reduzierung der Fehlerrate in einem Objekterkennungssystem. Das Verfahren umfasst dabei die folgenden Schritte:
  • Zunächst wird mittels eines die Umgebung erfassenden Sensors in einem ersten Erfassungsschritt ein Objekt erfasst. Das Objekterkennungssystem ist vorzugsweise dazu ausgebildet, anhand mehrerer Erfassungsschritte, die zeitlich nacheinander vollzogen werden, ein Objekt zu tracken, d.h. nachzuverfolgen. In anderen Worten kann das Objekterkennungssystem eine Zuordnung von in unterschiedlichen Erfassungsschritten detektierten Objekten vornehmen, d.h. es ist möglich, mehrere in einem ersten Erfassungsschritt erkannte Objekte mit in zeitlich nachfolgenden Erfassungsschritten erkannten Objekten jeweils zu korrelieren und damit festzustellen, welches Objekt sich in welche Richtung bewegt hat.
  • Anschließend wird ein örtlicher Zielbereich bestimmt, in dem das Objekt in einem zweiten, zeitlich nachfolgenden Erfassungsschritt erwartet wird. Dieser örtliche Zielbereich ist vorzugsweise eine in der Horizontalen oder im Wesentlichen in der Horizontalen liegende Fläche, die vorzugsweise größer gewählt ist als das erfasste Objekt, um sicherzustellen, dass das Objekt bei Veränderung der Bewegungsrichtung bzw. der Bewegungsgeschwindigkeit oder auch aufgrund von Schätzungs- oder Auflösungsungenauigkeiten im zweiten Erfassungsschritt in diesem Zielbereich zu liegen kommt. Falls der die Umgebung erfassende Sensor eine dreidimensionale Auflösung bietet, kann der örtliche Zielbereich auch durch einen dreidimensionalen Bereich im Raum gebildet werden.
  • Nach dem Vollziehen des zweiten Erfassungsschritts wird überprüft, ob das Objekt in diesem zweiten Erfassungsschritt in dem vorher festgelegten, örtlichen Zielbereich erfasst wurde. Insbesondere kann überprüft werden, ob das Objekt vollständig innerhalb, vollständig außerhalb oder nur teilweise außerhalb des örtlichen Zielbereichs liegt.
  • Abhängig vom Ergebnis dieses Prüfschritts wird eine Kenngröße angepasst, die ein Maß dafür ist, ob es sich bei dem erkannten Objekt um eine Fehldetektion handelt. Die Kenngröße kann insbesondere ein Wahrscheinlichkeitswert sein oder zur Ermittlung eines Wahrscheinlichkeitswerts herangezogen werden, der angibt, mit welcher Wahrscheinlichkeit das jeweilige Objekt real existiert oder es sich um eine Fehldetektion handelt. Es versteht sich, dass bei mehreren im Erfassungsbereich des zumindest einen Sensors erfassten Objekten eine eindeutige Zuordnung zwischen der Kenngröße und einem bestimmten Objekt besteht, d.h. jedem erfassten Objekt ist eine separate Kenngröße zugeordnet.
  • Der wesentliche Vorteil des erfindungsgemäßen Verfahrens besteht darin, dass durch das Schätzen des örtlichen Zielbereichs und das Prüfen, ob das Objekt anschließend in diesem örtlichen Zielbereich detektiert wird, überprüft werden kann, ob sich das Objekt so verhält, wie es zu erwarten ist oder nicht. Da Fehldetektionen, insbesondere Geisterobjekte kein deterministisches Verhalten zeigen, können diese mit dem erfindungsgemäßen Verfahren erkannt und gezielt unterdrückt werden, ohne die false-negative-Rate wesentlich zu erhöhen.
  • Gemäß einem Ausführungsbeispiel wird der örtliche Zielbereich basierend auf Informationen bezüglich der geographischen Position des erfassten Objekts im ersten Erfassungsschritt, Informationen zur Bewegungsrichtung und Geschwindigkeit des erfassten Objekts und Informationen zur Bewegungsrichtung und Geschwindigkeit des Objekterkennungssystems bestimmt. Vorzugsweise wird die örtliche Lage des Zielbereichs, in dem das Objekt in einem nachfolgenden Erfassungsschritt erwartet wird, basierend auf der geographischen Position des erfassten Objekts im ersten Erfassungsschritt und vorzugsweise auch der Geschwindigkeit, mit der sich das Objekterkennungssystem bewegt, bestimmt. Die Form, Ausrichtung und Größe des örtlichen Zielbereichs wird vorzugsweise durch Informationen zur Bewegungsrichtung und Geschwindigkeit des erfassten Objekts beeinflusst. Damit ist es möglich, den örtlichen Zielbereich derart zu definieren, dass das Objekt für den Fall, dass es sich nicht um eine Fehldetektion handelt, mit hoher Wahrscheinlichkeit im Zielbereich liegt, auch wenn es beispielsweise seine Geschwindigkeit oder seine Bewegungsrichtung ändert.
  • Gemäß einem Ausführungsbeispiel erfolgt das Bestimmen eines örtlichen Zielbereichs basierend auf einem Zielbereichsfenster, in dem das erfasste Objekt im zweiten Erfassungsschritt zumindest teilweise, vorzugsweise vollständig zu liegen hat. Das Zielbereichsfenster kann einen zweidimensionalen Flächenbereich (x-y-Ebene) oder einen dreidimensionalen Raumbereich definieren. Aufgrund einer definierten Grenze des Zielbereichsfensters kann festgestellt werden, ob das im zweiten Erfassungsschritt erfasste Objekt den Zielbereich trifft oder nicht.
  • Gemäß einem Ausführungsbeispiel wird die Form des Zielbereichsfensters basierend auf der Geschwindigkeit und/oder der Bewegungsrichtung des erfassten Objekts angepasst. Dadurch kann beispielsweise bei einer hohen Geschwindigkeit des erfassten Objekts das Zielbereichsfenster eine längliche Form haben, wobei die Längsachse des Zielbereichsfensters in Richtung oder im Wesentlichen in Bewegungsrichtung des erfassten Objekts ausgerichtet ist, wohingegen bei einer geringeren Geschwindigkeit des erfassten Objekts das Zielbereichsfenster in Längsrichtung und Querrichtung gleiche oder im Wesentlichen gleiche Dimensionen hat und insbesondere kreisförmig ist. Dies ermöglicht eine situationsabhängige Anpassung des Zielbereichsfensters an die charakteristischen Eigenschaften des erfassten Objekts.
  • Gemäß einem Ausführungsbeispiel wird der örtliche Zielbereich, insbesondere die Form, Lage und/oder Größe des Zielbereichsfensters basierend auf der Zeitdifferenz zwischen zwei zeitlich aufeinanderfolgenden Erfassungsschritten bestimmt. Insbesondere wird die Objekterfassung basierend auf einer Taktfrequenz vollzogen, die die zeitliche Abfolge der Erfassungsschritte bestimmt und Einfluss darauf hat, wie groß die Positionsänderung eines erfassten Objekts zwischen zwei aufeinanderfolgenden Erfassungsschritten sein kann. Durch die Berücksichtigung dieser Taktfrequenz wird erreicht, dass abhängig vom zeitlichen Abstand zwischen zwei zeitlich unmittelbar aufeinanderfolgenden Erfassungsschritten ein situationsgerechter örtlicher Zielbereich gewählt wird.
  • Gemäß einem Ausführungsbeispiel wird der örtliche Zielbereich basierend auf Informationen hinsichtlich eines maximalen Beschleunigungswerts und eines maximalen Verzögerungswerts bestimmt, beispielsweise basierend auf in einer Speichereinheit abgelegten Informationen, die insbesondere durch Messzyklen ermittelt worden sind. Durch die Ermittlung des maximalen Beschleunigungs- bzw. Verzögerungswerts lässt sich die nötige Ausdehnung des örtlichen Zielbereichs bzw. des Zielbereichsfensters in Bewegungslängsrichtung des Objekts bestimmen.
  • Gemäß einem Ausführungsbeispiel wird die Form des Zielbereichsfensters durch Bestimmen der räumlichen Ausrichtung des Objekts, insbesondere der Ausrichtung der Längsachse des Objekts und der möglichen Änderung der räumlichen Ausrichtung des Objekts in zeitlich aufeinanderfolgenden Erfassungsschritten bestimmt. Die räumliche Ausrichtung des Objekts kann insbesondere aus der Bewegungsrichtung des Objekts oder aber dem Verhältnis der räumlichen Abmessungen (Länge zu Breite) etc. ermittelt werden. Die mögliche Änderung der räumlichen Ausrichtung des Objekts und damit das Ändern der Bewegungsrichtung lässt sich geschwindigkeitsabhängig dadurch bestimmen, welchen Lenkwinkel ein Fahrzeug bei bestimmten Geschwindigkeiten einnehmen kann, um seine Richtung zu ändern. Der real fahrbare Kurvenradius wird nämlich umso kleiner je größer die Geschwindigkeit des erfassten Objekts ist.
  • Gemäß einem Ausführungsbeispiel wird der im zweiten Erfassungsschritt durch das Objekterfassungssystem erfassbare Bereich bestimmt und eine Anpassung der Kenngröße unterbleibt dann, wenn zumindest ein Teilbereich des Zielbereichs nicht innerhalb des erfassbaren Bereichs liegt. Der theoretisch mögliche Erfassungsbereich des Objekterfassungssystems kann beispielsweise durch im Erfassungsbereich befindliche Objekte, beispielsweise Gebäude, Säulen, Bäume etc. eingeschränkt sein, d.h. der reale Erfassungsbereich ist kleiner als der theoretisch mögliche. Um zu verhindern, dass ein Objekt als Fehldetektion eingestuft wird, obwohl dieses lediglich aufgrund von Verdeckungseffekten zeitweise nicht sichtbar ist, kann der reale Erfassungsbereich ermittelt und die Kenngrößen lediglich der Objekte angepasst werden, die in dem jeweiligen Erfassungsschritt überhaupt erfassbar waren.
  • Gemäß einem Ausführungsbeispiel werden Charakteristika des Objekterkennungssystems, insbesondere die Charakteristika des zumindest einen Sensors berücksichtigt, um beispielsweise den örtlichen Zielbereich basierend darauf anzupassen bzw. die Charakteristika bei der Überprüfung, ob ein Objekt in dem geschätzten Zielbereich liegt, zu berücksichtigen. Derartige Sensorcharakteristika können beispielsweise die Entfernungsabhängigkeit, die Richtungsabhängigkeit, die Geschwindigkeitsabhängigkeit oder entfernungsbedingte, richtungsbedingte oder geschwindigkeitsbedingte Fehler oder Toleranzen des Objekterkennungssystems sein. Dadurch lässt sich das Verfahren an charakteristische Eigenschaften des Sensors anpassen.
  • Gemäß einem Ausführungsbeispiel wird die Objekterkennung durch eine Auswerteeinheit vollzogen, die als weitere Daten ausschließlich Bewegungsinformationen hinsichtlich der Bewegungsrichtung und Bewegungsgeschwindigkeit des Objekterkennungssystems erhält. Dadurch kann die Reduktion der Fehldetektionsrate auf einer sehr niedrigen Hierarchiestufe vollzogen werden und nicht von einem dem Objekterkennungssystems übergeordneten System.
  • Gemäß einem Ausführungsbeispiel wird basierend auf der angepassten Kenngröße, insbesondere dem angepassten Wahrscheinlichkeitswert, eine Auswertung vorgenommen, ob es sich bei dem erkannten Objekt um eine Fehldetektion handelt oder nicht. Beispielsweise kann ein Schwellwert vorgegeben sein, bei dessen Überschreitung bzw. Unterschreitung die Detektion als Fehldetektion eingestuft wird. Dadurch lässt sich auf technisch einfache Weise eine Entscheidung bezüglich der jeweiligen Detektionen treffen.
  • Gemäß einem Ausführungsbeispiel werden zusätzliche, die Erfassungssituation charakterisierende Informationen ermittelt und basierend auf diesen zusätzlichen Informationen wird geprüft, bei welchen Erfassungssituationen Falschdetektionen auftreten. Dies kann entweder in der Auswerteeinheit selbst oder einer nebengeordneten bzw. übergeordneten Auswerteeinheit vorgenommen werden. Dadurch lassen sich Situationen erkennen, in denen häufig Fehldetektionen auftreten und Entscheidungsschwellen dynamisch anpassen.
  • Gemäß einem Ausführungsbeispiel erfolgt die Ermittlung, bei welchen Erfassungssituationen Falschdetektionen auftreten, basierend auf einem maschinellen Lernalgorithmus. Dadurch wird die Genauigkeit des Objekterkennungssystems weiter verbessert, da das System aufgrund von in der Vergangenheit gesammelten Informationen entscheiden kann, wann das Risiko für Fehldetektionen erhöht ist.
  • Gemäß einem weiteren Aspekt betrifft die Erfindung ein Objekterkennungssystem. Das Objekterkennungssystem umfasst zumindest einen Sensor, der zur Erfassung von Umgebungsinformationen ausgebildet ist. Ferner weist das Objekterkennungssystem eine Auswerteeinheit auf, die zur iterativen Erfassung von Objekten in zeitlich aufeinanderfolgenden Erfassungsschritten basierend auf den Umgebungsinformationen ausgebildet ist. Die Auswerteeinheit weist Mittel zur Bestimmung eines örtlichen Zielbereichs auf, in dem ein in einem ersten Erfassungsschritt erfasstes Objekt in einem zweiten, zeitlich nachfolgenden Erfassungsschritt erwartet wird. Die Auswerteeinheit ist ferner konfiguriert, um zu prüfen, ob das Objekt im zweiten Erfassungsschritt in dem örtlichen Zielbereich erfasst wurde. Zudem ist die Auswerteeinheit dazu ausgebildet, in Abhängigkeit des Prüfungsergebnisses eine Kenngröße anzupassen, die ein Maß dafür ist, ob es sich bei dem erkannten Objekt um eine Fehldetektion handelt oder nicht.
  • Unter „Fehldetektion“ im Sinne der vorliegenden Erfindung werden insbesondere Detektionen verstanden, die angeben, dass ein Objekt an einer gewissen räumlichen Position vorhanden ist, es sich aber tatsächlich um ein real nicht vorhandenes „Geisterobjekt“ handelt, sog. „false positive“.
  • Die Ausdrücke „näherungsweise“, „im Wesentlichen“ oder „etwa“ bedeuten im Sinne der Erfindung Abweichungen vom jeweils exakten Wert um +/- 10%, bevorzugt um +/- 5% und/oder Abweichungen in Form von für die Funktion unbedeutenden Änderungen.
  • Weiterbildungen, Vorteile und Anwendungsmöglichkeiten der Erfindung ergeben sich auch aus der nachfolgenden Beschreibung von Ausführungsbeispielen und aus den Figuren. Dabei sind alle beschriebenen und/oder bildlich dargestellten Merkmale für sich oder in beliebiger Kombination grundsätzlich Gegenstand der Erfindung, unabhängig von ihrer Zusammenfassung in den Ansprüchen oder deren Rückbeziehung. Auch wird der Inhalt der Ansprüche zu einem Bestandteil der Beschreibung gemacht.
  • Die Erfindung wird im Folgenden anhand der Figuren an Ausführungsbeispielen näher erläutert. Es zeigen:
    • 1 beispielhaft und schematisch ein Blockdiagramm eines ein Objekterkennungssystem aufweisenden Fahrzeugs;
    • 2 beispielhaft eine schematische Darstellung eines erfassten Objekts im Erfassungsbereich eines Objekterkennungssystems;
    • 3 beispielhaft eine schematische Darstellung eines erfassten und über mehrere Erfassungsschritte (Ziffern 1 und 2) nachverfolgten Objekts im Erfassungsbereich eines Objekterkennungssystems und ein Zielbereichsfenster, in dem das Objekt im nächsten Erfassungsschritt geschätzt wird;
    • 4 beispielhaft eine schematische Darstellung eines erfassten und über mehrere Erfassungsschritte (Ziffern 1 bis 3) nachverfolgten Objekts, wobei das Objekt gemäß Erfassungsschritt 3 im zuvor geschätzten Zielbereichsfenster liegt;
    • 5 beispielhaft eine schematische Darstellung eines erfassten Objekts, das außerhalb des geschätzten Zielbereichsfenster liegt;
    • 6 beispielhaft ein das Verfahren zur Reduzierung der Objekterkennungs-Fehlerrate veranschaulichendes Blockdiagramm;
    • 7 beispielhaft eine schematische Darstellung eines erfassten und über mehrere Erfassungsschritte nachverfolgten Objekts, wobei die den jeweiligen Objektpositionen zugeordneten Zielbereichsfenster in Lage, Form und Größe unterschiedlich sind; und
    • 8 beispielhaft eine schematische Darstellung eines aufgrund von Verdeckung durch ein Objekt eingeschränkten Erfassungsbereichs.
  • 1 zeigt ein grob schematisches Blockdiagramm eines Fahrzeugs 1 mit einem Objekterkennungssystem 2. Das Objekterkennungssystem 2 kann insbesondere dazu ausgebildet sein, stationäre oder bewegte Objekte O wie beispielsweise weitere Fahrzeuge, Personen, Gegenstände bzw. Gebäude etc. zu erfassen und ggf. auch zu klassifizieren.
  • Das Objekterkennungssystem 2 weist hierzu zumindest einen Sensor 4 auf, mittels dem Umgebungsinformationen in einem Erfassungsbereich EB erfassbar sind. Es versteht sich, dass mehrere Sensoren 4 zu einem Sensorsystem verknüpft sein können, um den Erfassungsbereich EB zu vergrößern, die Erfassungsgenauigkeit zu verfeinern oder eine Redundanz im Fehlerfall zu schaffen.
  • Zudem weist das Fahrzeug 1 eine Sensorik 5 auf, mittels der Informationen zur Fahrzeugbewegung, d.h. zur Trajektorie, auf der sich das Fahrzeug 1 bewegt, erfassbar sind. Die Sensorik 5 kann dabei zumindest einen Lagesensor und vorzugsweise zumindest einen Beschleunigungssensor umfassen. Durch die Sensorik 5 ist es möglich, die Eigenbewegung des Fahrzeugs 1 bei dem nachfolgend näher beschriebenen Verfahren zur Reduzierung der Fehldetektionsrate zu berücksichtigen.
  • Die Auswerteeinheit 3 kann mit einer Speichereinheit 6 verbunden sein, in der Informationen zu den in unterschiedlichen Erfassungsschritten erfassten Objekten abgespeichert werden können.
  • Basierend auf den 2 und 3 wird nachfolgend das grundsätzliche Verfahren zur Fehlerratenreduzierung näher beschrieben.
  • Das erfindungsgemäße Verfahren beruht auf einer Ortung eines Objekts O oder mehrerer Objekte im Erfassungsbereich EB des Objekterkennungssystems 2 über mehrere Erfassungsschritte hinweg und einer Schätzung eines dem jeweiligen Erfassungsschritt zugeordneten örtlichen Zielbereichs ZB, in dem sich das Objekt O in dem jeweiligen Erfassungsschritt befinden soll.
  • 2 zeigt in einer Draufsichtdarstellung (x-y-Ebene) beispielhaft ein Fahrzeug 1 mit einem Objekterkennungssystem 2, das sich auf einer von einer Leitplanke 6.1 begrenzten Straße 6 bewegt. Die Bewegungsrichtung BR des Fahrzeugs ist durch einen Pfeil gekennzeichnet. Das Objekterkennungssystem 2 weist beispielhaft einen sich nach vorne hin in Fahrtrichtung erstreckenden Erfassungsbereich EB auf. In diesem Erfassungsbereich ist ein Objekt O zu erkennen, das beispielhaft seitlich neben der Straße 6, insbesondere hinter der Leitplanke 6.1 detektiert wird.
  • Die 2 veranschaulicht schematisch die Lage eines Objekts O, wie sie mittels des Objekterkennungssystems 2 erfasst wird. Da das Objekterkennungssystem 2 Fehldetektionen aufweisen kann, d.h. ein Objekt an einer örtlichen Position erfasst, an der in Realität kein derartiges Objekt vorhanden ist (sog. Geisterobjekt), führt das Objekterkennungssystem 2 eine Plausibilitätsprüfung durch, mittels der die Fehldetektionsrate gesenkt werden kann.
  • Für jedes Objekt O, das in einem ersten Erfassungsschritt im Erfassungsbereich EB detektiert wurde, wird für einen nachfolgenden zweiten Erfassungsschritt ein Zielbereich ZB bestimmt, innerhalb dessen das Objekt O im zweiten Erfassungsschritt erwartet wird. In anderen Worten wird also eine Schätzung vorgenommen, an welcher örtlichen Position das Objekt O in einem zukünftigen Erfassungsschritt liegen wird. Diese Bestimmung des örtlichen Zielbereichs ZB basiert vorzugsweise auf Informationen, wie sich das Objekt O in der Vergangenheit, d.h. in einem oder mehreren vorherigen Erfassungsschritten bewegt hat.
  • 3 zeigt beispielhaft die erfasste örtliche Position eines Objekts O in zwei zurückliegenden Erfassungsschritten (gekennzeichnet durch die Ziffern 1 und 2). Basierend aus dem Bewegungsverlauf des Objekts O in der Vergangenheit wird ein Zielbereich ZB bestimmt, an dem sich das Objekts O im zeitlich nachfolgenden Erfassungsschritt (gekennzeichnet mit Ziffer 3) befinden soll.
  • Nach dem Vollziehen eines weiteren Erfassungsschritts wird dann überprüft, ob sich das Objekt O in dem ermittelten Zielbereich ZB befindet. Wie in 4 gezeigt, kommt das Objekt O zumindest teilweise, vorzugsweise vollständig in dem Zielbereich ZB zu liegen.
  • Durch dieses Verfahren ist es möglich, die Wahrscheinlichkeit von Fehldetektionen erheblich zu senken, da Geisterobjekte ein unterschiedliches Bewegungsverhalten zeigen als real existierende Objekte.
  • 5 zeigt ein Beispiel, in dem das Objekt O nicht im Zielbereich ZB zu liegen kommt. Dies kann als Indiz dafür herangezogen werden, dass es sich um eine Fehldetektion (z.B. Geisterobjekt) handelt.
  • 6 zeigt ein schematisches Ablaufdiagramm, das die einzelnen Verfahrensschritte des Verfahrens zur Reduzierung der Fehlerrate in dem Objekterfassungssystem 2 verdeutlicht.
  • Zunächst wird in einem ersten Erfassungsschritt ein Objekt O erfasst (S10). Diese Objekterfassung erfolgt mittels zumindest eines Sensors 4. Der Sensor 4 kann beispielsweise ein Radarsensor, ein Ultraschallsensor, ein LIDAR-Sensor (LIDAR: light detection and ranging) etc. sein. Die Objekterfassung kann durch einen einzelnen Sensor 4 aber auch durch eine Gruppe von Sensoren erfolgen.
  • Anschließend wird ein örtlicher Zielbereich ZB bestimmt, in dem das Objekt O in einem zweiten Erfassungsschritt erwartet wird (S11). Der örtliche Zielbereich ZB kann insbesondere durch ein Zielbereichsfenster ZBF definiert sein. Dieser zweite Erfassungsschritt ist dem ersten Erfassungsschritt zeitlich nachgelagert. Der zweite Erfassungsschritt kann dabei zeitlich unmittelbar auf den ersten Erfassungsschritt folgen, d.h. der nächste Erfassungsschritt nach dem ersten Erfassungsschritt sein oder erst später vollzogen werden, d.h. weitere Erfassungsschritte liegen zwischen dem ersten und zweiten Erfassungsschritt.
  • Nach dem Festlegen des örtlichen Zielbereichs ZB und dem Vollziehen des zweiten Erfassungsschritts wird überprüft, ob das Objekt O in dem örtlichen Zielbereich ZB erfasst wurde (S12). In anderen Worten wird geprüft, ob das Objekt O in dem vorher festgelegten örtlichen Zielbereich ZB liegt oder nicht.
  • Abhängig davon, ob das Objekt O im zweiten Erfassungsschritt im örtlichen Zielbereich ZB liegt oder nicht, wird eine Kenngröße angepasst, die eine Information darüber enthält, ob es sich bei dem detektierten Objekt O um eine Fehldetektion handelt oder nicht (S13). Die Kenngröße kann insbesondere ein Wahrscheinlichkeitswert sein, der angibt, mit welcher Wahrscheinlichkeit es sich bei dem detektierten Objekt O um eine Fehldetektion handelt.
  • Vorzugsweise ist das Objekterkennungssystem 2 dazu ausgebildet, das Objekt O in einer Vielzahl von aufeinanderfolgenden Erfassungsschritten zu tracken, d.h. dessen örtliche Position über mehrere Erfassungsschritte hinweg nachzuverfolgen. Insbesondere kann das Objekterkennungssystem 2 dazu ausgebildet sein, die örtliche Spur (Track) des erfassten Objekts O zu bestimmen. Dabei wird jeweils im Voraus ein örtlicher Zielbereich ZB bestimmt und über die Vielzahl von Erfassungsschritte hinweg jeweils überprüft, ob sich das Objekt O in dem vorab geschätzten örtlichen Zielbereich ZB befindet. Abhängig von dem über Prüfungsergebnis wird dabei jeweils die dem Objekt O zugeordnete Kenngröße, insbesondere ein Wahrscheinlichkeitswert, angepasst. Insbesondere kann dann, wenn ein Objekt O nicht immer detektierbar ist und/oder häufig außerhalb des geschätzten örtlichen Zielbereich ZB liegt, die Kenngröße derart angepasst werden, dass diese indiziert, dass es sich zumindest mit einer höheren Wahrscheinlichkeit um eine Fehldetektion handelt als um eine reale Detektion. Durch die zeitliche Verfolgung des Objekts O über einen längeren Zeitraum hinweg kann die Fehldetektionsrate entscheidend verringert werden.
  • Vorzugsweise wird eine Objektliste geführt, in der die durch das Objekterkennungssystem 2 detektierten Objekte O enthalten sind. Die Objektliste kann des Weiteren die Kenngrößen aufweisen, die den detektierten Objekten O zugeordnet sind. So kann beispielsweise einem Objekt O über die Objektliste direkt eine Kenngröße bzw. ein Wahrscheinlichkeitswert zugeordnet sein, der angibt, wie wahrscheinlich es ist, dass es sich bei diesem Objekt O um eine Fehldetektion handelt. Diese Objektliste wird vorzugsweise fortlaufend aktualisiert, d.h. der Objektliste werden neu detektierte Objekte O hinzugefügt bzw. länger nicht mehr erkannte Objekte O werden aus der Liste gelöscht. Zudem kann fortlaufend die dem jeweiligen Objekt O zugeordnete Kenngröße angepasst werden, und zwar - wie vorher beschrieben - basierend auf der fortlaufenden Prüfung, ob das Objekt O jeweils in dem geschätzten örtlichen Zielbereich ZB liegt oder nicht.
  • Das Objekterkennungssystem 2 ist vorzugsweise dazu ausgebildet, für jedes Objekt O die örtliche Position (insbesondere Absolutposition), die Geschwindigkeit, mit der sich das Objekt O bewegt und die Bewegungsrichtung zu ermitteln. Basierend auf diesen Informationen kann anschließend der örtliche Zielbereich ZB festgelegt werden, in dem das Objekt O in zukünftigen Erfassungsschritten zu erwarten ist.
  • Da das Objekterkennungssystem 2 eine Eigenbewegung aufweisen kann (z.B. durch die Bewegung des Fahrzeugs 1, in dem das Objekterkennungssystem 2 eingebaut ist), muss berücksichtigt werden, dass sich die Position des Objekterkennungssystems 2 in zeitlich aufeinanderfolgenden Erfassungsschritten ändern kann. Dazu werden von der Sensorik 5 Informationen über die Bewegung des Objekterkennungssystems 2, insbesondere des Fahrzeugs 1, bereitgestellt und diese Informationen werden dazu verwendet, die Eigenbewegung bei der Bestimmung des örtlichen Zielbereichs ZB zu eliminieren.
  • Zur Bestimmung des örtlichen Zielbereichs ZB bzw. zum Tracken der Objektposition wird insbesondere auch der Zeittakt des Objekterfassungssystems, insbesondere der Zeittakt der Erfassungsschritte berücksichtigt. In anderen Worten wird berücksichtigt, in welchem zeitlichen Abstand die Erfassungsschritte aufeinanderfolgen, da von diesem Zeitintervall die mögliche Positions- und oder Richtungsänderung des erfassten Objekts in aufeinanderfolgenden Erfassungsschritten abhängt.
  • 7 veranschaulicht eine Situation, bei der ein Objekt (beispielsweise ein Fahrzeug) aus einer Seitenstraße in eine andere Straße einbiegt (angedeutet durch den strichlierten Pfeil). Die Ziffern I, II und III kennzeichnen dabei unterschiedliche Erfassungsschritte, bei denen dasselbe Objekt O in unterschiedlichen örtlichen Positionen erfasst wird. Im ersten Erfassungsschritt I bewegt sich das Objekt O nicht oder im Wesentlichen nicht (v=0), d.h. es handelt sich um ein stationäres Objekt, wohingegen das Objekt O in den Erfassungsschritten II und III eine Geschwindigkeit (v>0) aufweist. Zumindest ist die Geschwindigkeit des Objekts in den Erfassungsschritten II und III größer als die Geschwindigkeit des Objekts im Erfassungsschritt I. Wie in der 7 erkennbar ist, unterscheiden sich die örtlichen Zielbereiche ZB, insbesondere die Zielbereichsfenster ZBF, in den Erfassungsschritten I bis III in Form, Größe und Ausrichtung. Dadurch wird der Tatsache Rechnung getragen, dass ein sich langsam bewegendes Objekt O beispielsweise eine engere Kurve fahren kann als ein sich schneller bewegendes Objekt O und damit das Objekt O im Zeitraum zwischen zwei aufeinanderfolgenden Erfassungsschritten in lateraler Richtung eine größere Richtungsänderung vollziehen kann als ein sich schnell bewegendes Objekt.
  • Zur Festlegung des örtlichen Zielbereichs ZB, in dem das Objekt O im nachfolgenden Erfassungsschritt erwartet wird, wird zunächst die Objektausrichtung erfasst. Im Falle, dass es sich bei dem Objekt O um ein Fahrzeug handelt, wird beispielsweise die Längsrichtung des Fahrzeugs ermittelt. Dies kann auf unterschiedliche Weise erfolgen, beispielsweise anhand der Bewegungsrichtung oder anhand dem Länge-Breite-Verhältnis des Objekts O etc.
  • Anschließend wird festgestellt, welche maximale Beschleunigung bzw. Abbremsung des Objekts zu erwarten ist. Dies kann insbesondere unter Berücksichtigung der Geschwindigkeit, mit der sich das Objekt bewegt, erfolgen. So kann beispielsweise bei einem bewegten Objekt O die maximale positive Beschleunigung in Vorwärtsrichtung und die maximale negative Beschleunigung durch einen abrupten Abbremsvorgang ermittelt werden. Bei einem stehenden Objekt kann dies die maximale Beschleunigung in Vorwärtsrichtung bzw. die maximale Beschleunigung in Rückwärtsrichtung sein. Zur Ermittlung dieser Werte kann beispielsweise eine Tabelle verwendet werden, die abhängig von der Geschwindigkeit eine maximale positive Beschleunigung bzw. maximale negative Beschleunigung (Abbremsung) angibt. Diese Tabelle kann beispielsweise auf real ermittelten Beschleunigungswerten basieren.
  • Basierend auf diesen geschwindigkeitsabhängigen Beschleunigungswerten kann eine axiale Ausdehnung des Zielbereichsfensters entlang der Längsachse des Objekts O ermittelt werden.
  • Zudem kann eine Größe ermittelt werden, die angibt, in welcher Weise sich die Ausrichtung bzw. Bewegungsrichtung des Objekts O ändern kann. Hierzu kann beispielsweise ein Wahrscheinlichkeitsmodell verwendet werden, das angibt mit welcher Wahrscheinlichkeit sich eine Positionsveränderung in lateraler Richtung abhängig von der Geschwindigkeit des Objekts ergibt. Diesem Ermittlungsschritt liegt die Erkenntnis zu Grunde, dass ein Objekt, das sich mit einer relativ hohen Geschwindigkeit in eine Richtung bewegt, mit einer geringeren Wahrscheinlichkeit eine starke lateraler Positionsveränderung (verursacht durch einen großen Lenkwinkel) erfährt als ein sich langsam bewegendes Objekt.
  • Im in 7 gezeigten Beispiel wird das dem Erfassungsschritt I zugeordnete Zielbereichsfenster ZBF durch einen Kreis oder im wesentlichen kreisförmigen Bereich gebildet, da ein stehendes Objekt durch starkes Einlenken und Losfahren eine relativ große laterale Positionsveränderung erfahren kann. Im Unterschied dazu sind die den Erfassungsschritten II und III zugeordneten Zielbereichsfenster ZBF ellipsenförmig oder im Wesentlichen ellipsenförmig ausgebildet, da bei einem bewegten Objekt die mögliche Positionsvariation in Längsrichtung (durch Beschleunigen bzw. Abbremsen) größer ist als die mögliche Positionsvariation in Querrichtung. Abhängig von der Geschwindigkeit des Objekts können sich die Relationen zwischen Längserstreckung und Quererstreckung der Ellipse verändern. Bei sich schnell bewegenden Objekten kann das Verhältnis zwischen Längserstreckung und Quererstreckung wesentlich größer sein (lange, schmale Ellipse) als bei sich langsamer bewegenden Objekten.
  • Voranstehend wurden als Formen für die Zielbereichsfenster ZBF Kreise bzw. Ellipsen offenbart. Es versteht sich, dass auch andere Formen der Zielbereichsfenster ZBF möglich sind, beispielsweise polygonale Formen (insbesondere regelmäßige Vielecke).
  • Bei der Objekterfassung kann vorkommen, dass bestimmte Bereiche des Erfassungsbereichs EB des Objekterkennungssystems 2 verdeckt bzw. abgeschattet sind und daher Objekte O in diesem Bereich durch den zumindest einen Sensor 4 nicht erfassbar sind. Diese Verdeckung bzw. Abschattung kann insbesondere lediglich temporär vorliegen, beispielsweise beim Vorbeifahren an einem Gebäude, Baum etc.
  • 8 veranschaulicht eine derartige Verdeckungssituation. Das Verdeckungsobjekt VO, beispielsweise ein Gebäude, führt dazu, dass ein Teil des örtlichen Zielbereichs ZB durch den Sensor 4 nicht erfassbar ist, d.h. der tatsächliche Erfassungsbereich ist kleiner als der theoretisch mögliche Erfassungsbereich des Sensors 4.
  • Vorzugsweise ist das Objekterkennungssystem 2 daher dazu ausgebildet, zu überprüfen, ob der örtliche Zielbereich ZB im nachfolgenden Erfassungsschritt überhaupt durch den Sensor 4 erfassbar ist oder ob zumindest eine teilweise Verdeckung bzw. Abschattung des Zielbereichs ZB vorliegt. Für den Fall, dass der Zielbereichs ZB teilweise oder vollständig verdeckt bzw. verschattet ist, wird das Objekt O, das in diesem Zielbereich ZB erwartet wird, vorläufig aus der Objekterfassung ausgeschlossen und erst wieder nach dem Eintreten in den tatsächlich erfassbaren Erfassungsbereich EB wieder aufgenommen. In anderen Worten wird also der theoretisch mögliche Erfassungsbereich auf einen tatsächlich erfassbaren Erfassungsbereich dynamisch eingeschränkt, wobei Objekte ermittelt werden, die Verdeckungen hervorrufen und Bereiche eliminiert werden, in denen aufgrund von Verdeckungen/Verschattungen keine Erfassung möglich ist.
  • Vorzugsweise werden bei dem vorbeschriebenen Verfahren Charakteristika des zumindest einen Sensors 4 berücksichtigt, um den örtlichen Zielbereich ZB basierend darauf anzupassen bzw. Informationen zu diesen Charakteristika bei der Überprüfung, ob ein Objekt O in dem geschätzten Zielbereich ZB liegt, zu berücksichtigen. Derartige Sensorcharakteristika können beispielsweise die Entfernungsabhängigkeit, die Richtungsabhängigkeit, die Geschwindigkeitsabhängigkeit oder entfernungsbedingte, richtungsbedingte oder geschwindigkeitsbedingte Fehler oder Toleranzen sein. Dadurch kann beispielsweise ein einem entfernter liegenden Objekt zugeordneter örtlicher Zielbereich größer gewählt werden als ein einem näher liegenden Objekt zugeordneter örtlicher Zielbereich. Ebenso kann der theoretisch mögliche Erfassungsbereich auf einen räumlich oder flächig reduzierten Erfassungsbereich begrenzt werden, um Ungenauigkeiten des Sensors 4 beispielsweise in Randbereichen zu kompensieren.
  • Es bestehen insbesondere folgende wesentliche Vorteile des vorbeschriebenen Objekterkennungssystems 2 bzw. des Verfahrens zur Reduzierung der Fehlerrate in einem solchen Objekterkennungssystem 2:
    • - Es besteht keine starke Abhängigkeit von Infos anderer Sensoren bzw. Sensorsysteme. Das Objekterkennungssystem 2 benötigt lediglich Informationen zur Eigenbewegung des Objekterkennungssystems 2 bzw. des Fahrzeugs 1 in dem das Objekterkennungssystem 2 verbaut ist. Basierend auf den durch das Objekterkennungssystem 2 erfassten und zeitlich getrackten Objekten sowie Informationen zur Eigenbewegung können Fehldetektionen von real existierenden, detektierten Objekten besser unterschieden werden.
    • - Das Objekterkennungssystem 2 kann mit einem Kollektor bzw. einer Analysier-Einheit gekoppelt sein. Dieser Kollektor bzw. die Analysier-Einheit kann ein maschinelles Lernverfahren implementieren, mittels dem Situationen erkannt bzw. vorhergesagt werden können, in denen Fehldetektionen auftreten. Insbesondere kann der Kollektor bzw. die Analysiereinheit dazu ausgebildet sein bestimmte Situationen in der aktuellen Umgebung zu erkennen, die in der Vergangenheit bereits zu Fehldetektionen führten (beispielsweise das Vorbeifahren an Leitplanken, die zu Reflektionseffekten führen). Für den Fall, dass durch den Kollektor bzw. die Analysiereinheit eine derartige Situation erkannt wurde, kann die Schwelle, ab der auf eine Fehldetektion entschieden wird, entsprechend angepasst werden (z.B. Variieren eines Detektionsschwellwerts).
    • - Zudem ist es mit dem Objekterkennungssystem 2 möglich, die vom Sensor 4 erkannten Objekte vorzufiltern, d.h. von allen detektierten Objekten die Fehldetektionen auszuschließen und diese durch die Filterung resultierenden Objekte anschließend an ein übergeordnetes System weiterzuleiten. Dies kann beispielsweise dann vorteilhaft sein, wenn die vom Objekterkennungssystem 2 ermittelten Informationen mit Informationen weiterer Sensoren fusioniert werden sollen.
  • Die Erfindung wurde voranstehend an Ausführungsbeispielen beschrieben. Es versteht sich, dass zahlreiche Änderungen sowie Abwandlungen möglich sind, ohne dass dadurch der durch die Patentansprüche definierte Schutzbereich verlassen wird.
  • Bezugszeichenliste
  • 1
    Fahrzeug
    2
    Objekterkennungssystem
    3
    Auswerteeinheit
    4
    Sensor zur Objekterfassung
    5
    Sensor zur Erfassung der Fahrzeugbewegung
    6
    Straße
    6.1
    Leitplanke
    BR
    Bewegungsrichtung
    EB
    Erfassungsbereich
    O
    Objekt
    VO
    Verdeckungsobjekt
    ZB
    Zielbereich
    ZBF
    Zielbereichsfenster

Claims (15)

  1. Verfahren zur Reduzierung der Fehlerrate in einem Objekterkennungssystem (2), umfassend folgende Schritte: - Erfassen eines Objekts (O) mittels eines Sensors (4) in einem ersten Erfassungsschritt (S10); - Bestimmen eines örtlichen Zielbereichs (ZB), in dem das Objekt (O) in einem zweiten, zeitlich nachfolgenden Erfassungsschritt erwartet wird (S11); - Prüfen, ob das Objekt (O) im zweiten Erfassungsschritt in dem örtlichen Zielbereich (ZB) erfasst wurde (S12); und - Anpassen einer Kenngröße (S13), die ein Maß dafür ist, ob es sich bei dem erkannten Objekt (O) um eine Fehldetektion handelt, in Abhängigkeit des Prüfungsergebnisses.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dadurch gekennzeichnet, dass der örtliche Zielbereich (ZB) basierend auf Informationen bezüglich der geographischen Position des erfassten Objekts (O) im ersten Erfassungsschritt, Informationen zur Bewegungsrichtung und Geschwindigkeit des erfassten Objekts (O) und Informationen zur Bewegungsrichtung und Geschwindigkeit des Objekterkennungssystems (2) bestimmt wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Bestimmen eines örtlichen Zielbereichs (ZB) basierend auf einem Zielbereichsfenster (ZBF) erfolgt, in dem das erfasste Objekt (O) im zweiten Erfassungsschritt zumindest teilweise, vorzugsweise vollständig zu liegen hat.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Form des Zielbereichsfensters (ZBF) basierend auf der Geschwindigkeit und/oder der Bewegungsrichtung des erfassten Objekts (O) angepasst wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Zielbereich (ZB) basierend auf der Zeitdifferenz zwischen zwei zeitlich aufeinanderfolgenden Erfassungsschritten bestimmt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Zielbereich (ZB) basierend auf Informationen hinsichtlich eines maximalen Beschleunigungswerts und eines maximalen Verzögerungswerts bestimmt wird.
  7. Verfahren nach einem der Ansprüche 3 bis 6, dadurch gekennzeichnet, dass die Form des Zielbereichsfensters (ZBF) durch Bestimmen der räumlichen Ausrichtung des Objekts (O), insbesondere der Ausrichtung der Längsachse des Objekts (O) und der möglichen Änderung der räumlichen Ausrichtung des Objekts (O) in zeitlich aufeinanderfolgenden Erfassungsschritten bestimmt wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der im zweiten Erfassungsschritt durch das Objekterfassungssystem (2) erfassbare Bereich (EB) bestimmt wird und dass eine Anpassung der Kenngröße dann unterbleibt, wenn zumindest ein Teilbereich des Zielbereichs (ZB) nicht innerhalb des erfassbaren Bereichs (EB) liegt.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Charakteristika des Objekterkennungssystems (2) für die Bestimmung des örtlichen Zielbereichs (ZB) (S11) und/oder dem Prüfschritt (S12) berücksichtigt werden.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Objekterkennung durch eine Auswerteeinheit (3) vollzogen wird, die als weitere Daten ausschließlich Bewegungsinformationen hinsichtlich der Bewegungsrichtung und Bewegungsgeschwindigkeit des Objekterkennungssystems (2) erhält.
  11. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass basierend auf dem angepassten Wahrscheinlichkeitswert eine Auswertung vorgenommen wird, ob es sich bei dem erkannten Objekt (O) um eine Falschdetektion handelt.
  12. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zusätzliche, die Erfassungssituation charakterisierende Informationen ermittelt werden und dass basierend auf diesen zusätzlichen Informationen geprüft wird, bei welchen Erfassungssituationen Falschdetektionen auftreten.
  13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass die Ermittlung, bei welchen Erfassungssituationen Falschdetektionen auftreten, basierend auf einem maschinellen Lernalgorithmus erfolgt.
  14. Objekterkennungssystem umfassend zumindest einen Sensor (4), der zur Erfassung von Umgebungsinformationen ausgebildet ist und eine Auswerteeinheit (3), die zur iterativen Erfassung von Objekten (O) in zeitlich aufeinanderfolgenden Erfassungsschritten basierend auf den Umgebungsinformationen ausgebildet ist, wobei die Auswerteeinheit (3): - zur Bestimmung eines örtlichen Zielbereichs (ZB) ausgebildet ist, in dem ein in einem ersten Erfassungsschritt erfasstes Objekt (O) in einem zweiten, zeitlich nachfolgenden Erfassungsschritt erwartet wird (S11); - ausgebildet ist zu prüfen, ob das Objekt (O) im zweiten Erfassungsschritt in dem örtlichen Zielbereich (ZB) erfasst wurde; und - dazu ausgebildet ist, in Abhängigkeit des Prüfungsergebnisses eine Kenngröße anzupassen, die ein Maß dafür ist, ob es sich bei dem erkannten Objekt (O) um eine Fehldetektion handelt.
  15. Fahrzeug umfassend ein Objekterkennungssystem gemäß Patentanspruch 14.
DE102018201849.9A 2018-02-07 2018-02-07 Verfahren zur Reduzierung der Fehlerrate in einem Objekterkennungssystem Pending DE102018201849A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018201849.9A DE102018201849A1 (de) 2018-02-07 2018-02-07 Verfahren zur Reduzierung der Fehlerrate in einem Objekterkennungssystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018201849.9A DE102018201849A1 (de) 2018-02-07 2018-02-07 Verfahren zur Reduzierung der Fehlerrate in einem Objekterkennungssystem

Publications (1)

Publication Number Publication Date
DE102018201849A1 true DE102018201849A1 (de) 2019-08-08

Family

ID=67308755

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018201849.9A Pending DE102018201849A1 (de) 2018-02-07 2018-02-07 Verfahren zur Reduzierung der Fehlerrate in einem Objekterkennungssystem

Country Status (1)

Country Link
DE (1) DE102018201849A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111114541A (zh) * 2019-12-31 2020-05-08 华为技术有限公司 车辆控制方法、装置、控制器和智能车
CN113807127A (zh) * 2020-06-12 2021-12-17 杭州海康威视数字技术股份有限公司 一种人员归档方法、装置及电子设备
DE102021207192A1 (de) 2021-07-08 2023-01-12 Zf Friedrichshafen Ag Rechenvorrichtung für einen Laufzeitsensor
EP4183951A1 (de) 2021-11-23 2023-05-24 ALFIX GmbH Belagsicherungselement, baugerüst und verfahren zur sicherung von gerüstbelägen gegen abheben
DE202023105452U1 (de) 2023-09-19 2023-09-28 Alfix Gmbh Belagsicherungselement und Baugerüst hiermit

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4440671A1 (de) * 1994-11-04 1996-05-09 Bosch Gmbh Robert Verfahren zur objektorientierten Erkennung bewegter Objekte
DE102006010295A1 (de) * 2006-03-07 2007-09-13 Conti Temic Microelectronic Gmbh Kamerasystem mit zumindest zwei Bildaufnehmern
DE102009048117A1 (de) * 2009-10-02 2011-04-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Erkennen einer Fehldetektion eines Objektss in einem Bild

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4440671A1 (de) * 1994-11-04 1996-05-09 Bosch Gmbh Robert Verfahren zur objektorientierten Erkennung bewegter Objekte
DE102006010295A1 (de) * 2006-03-07 2007-09-13 Conti Temic Microelectronic Gmbh Kamerasystem mit zumindest zwei Bildaufnehmern
DE102009048117A1 (de) * 2009-10-02 2011-04-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Erkennen einer Fehldetektion eines Objektss in einem Bild

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111114541A (zh) * 2019-12-31 2020-05-08 华为技术有限公司 车辆控制方法、装置、控制器和智能车
CN113807127A (zh) * 2020-06-12 2021-12-17 杭州海康威视数字技术股份有限公司 一种人员归档方法、装置及电子设备
DE102021207192A1 (de) 2021-07-08 2023-01-12 Zf Friedrichshafen Ag Rechenvorrichtung für einen Laufzeitsensor
EP4183951A1 (de) 2021-11-23 2023-05-24 ALFIX GmbH Belagsicherungselement, baugerüst und verfahren zur sicherung von gerüstbelägen gegen abheben
DE202023105452U1 (de) 2023-09-19 2023-09-28 Alfix Gmbh Belagsicherungselement und Baugerüst hiermit

Similar Documents

Publication Publication Date Title
DE102018201849A1 (de) Verfahren zur Reduzierung der Fehlerrate in einem Objekterkennungssystem
DE102015207804B4 (de) Verfahren zum Erkennen von Parkflächen und/oder Freiflächen
DE19650863C1 (de) Verfahren und Vorrichtung zur Erkennung einer vertikalen Dejustierung eines Abstandssensors
EP1853453B1 (de) Verfahren zur objektplausibilisierung in fahrerassistenzsystemen
DE102005052510B4 (de) Fahrzeug-Steuer-/Regelobjekt-Bestimmungssystem
EP3279050B1 (de) Steuerungs-system und steuerungs-verfahren zur auswahl und verfolgung eines kraftfahrzeugs
DE10218924A1 (de) Verfahren und Vorrichtung zur Kursprädiktion bei Kraftfahrzeugen
DE102017111508A1 (de) Fahrzeugkollisionsvermeidung
EP3408685A1 (de) Verfahren und vorrichtung zur reichweitenbestimmung eines sensors für ein kraftfahrzeug
EP2698646A1 (de) Verfahren zur Klassifizierung von fahrenden Fahrzeugen durch Verfolgung einer Positionsgröße des Fahrzeuges
DE102017101476B3 (de) Lokalisieren eines Objekts in einer Umgebung eines Kraftfahrzeugs durch ein Ultraschallsensorsystem
EP1421568A1 (de) Verfahren zur bestimmung einer modellfahrbahn
EP3279049B1 (de) Steuerungs-system und steuerungs-verfahren zum bestimmen einer fahrbahn
EP3279051B1 (de) Steuerungs-system und steuerungs-verfahren zur auswahl und verfolgung eines kraftfahrzeugs
WO2021083464A1 (de) Verfahren zum verfolgen eines entfernten zielfahrzeugs in einem umgebungsbereich eines kraftfahrzeugs mittels einer kollisionserkennungsvorrichtung
DE102020105192A1 (de) Verfahren zum Detektieren bewegter Objekte in einer Fahrzeugumgebung und Kraftfahrzeug
DE102014118035B4 (de) Verfahren zum Erkennen einer Abschattung einer Sensoreinrichtung eines Kraftfahrzeugs durch ein Objekt, Recheneinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019211459B4 (de) Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
WO2021239326A1 (de) Verfahren zum schätzen einer eigengeschwindigkeit
WO2021104805A1 (de) Verfahren zum betreiben einer umgebungserfassungsvorrichtung mit einer gridbasierten auswertung und mit einer fusionierung, sowie umgebungserfassungsvorrichtung
DE102019128686A1 (de) Verfahren und Vorrichtung zur Ermittlung von Bewegungsinformation in Bezug auf ein Objekt
EP3775977A1 (de) Verfahren zum erkennen eines hindernisses vor einem fahrzeug
DE102018007323A1 (de) Kontrolleinrichtung für eine Ein- und Ausfahrt
DE102022201199B3 (de) Verfahren und Vorrichtung zur Überwachung eines Spurerkennungssystems, Spurerkennungssystem
EP4209800A1 (de) Verfahren zur überprüfung einer statischen überwachungsanlage

Legal Events

Date Code Title Description
R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE