DE102013113571A1 - Verfahren und Vorrichtungen zum Vereinigen von Radar/Kamera-Objektdaten und LiDAR-Absuchpunkten - Google Patents

Verfahren und Vorrichtungen zum Vereinigen von Radar/Kamera-Objektdaten und LiDAR-Absuchpunkten Download PDF

Info

Publication number
DE102013113571A1
DE102013113571A1 DE102013113571.4A DE102013113571A DE102013113571A1 DE 102013113571 A1 DE102013113571 A1 DE 102013113571A1 DE 102013113571 A DE102013113571 A DE 102013113571A DE 102013113571 A1 DE102013113571 A1 DE 102013113571A1
Authority
DE
Germany
Prior art keywords
scan
predicted
clusters
sensors
object models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102013113571.4A
Other languages
English (en)
Inventor
Shuqing Zeng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102013113571A1 publication Critical patent/DE102013113571A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Ein System und ein Verfahren zum Zusammenführen der Ausgaben von mehreren LiDAR-Sensoren in einem Fahrzeug, die das Aufrufen des Vereinigungsprozesses in Ansprechen darauf, dass durch einen Radarsensor und/oder ein Bilderkennungssystem ein Objekt detektiert wird, enthalten. Das Verfahren enthält das Bereitstellen von Objektdateien für durch die LiDAR-Sensoren zu einem vorhergehenden Abtastzeitpunkt detektierte Objekte, wobei die Objektdateien die Position, die Orientierung und die Geschwindigkeit der detektierten Objekte identifizieren. Das Verfahren plant Objektmodelle in den Objektdateien von dem vorhergehenden Abtastzeitpunkt voraus, um vorhergesagte Objektmodelle bereitzustellen. Außerdem enthält das Verfahren das Empfangen mehrerer Absuchrückgaben von in dem Sichtfeld der Sensoren zu einem aktuellen Abtastzeitpunkt detektierten Objekten und das Konstruieren einer Punktwolke aus den Absuchrückgaben. Daraufhin segmentiert das Verfahren die Absuchpunkte in der Punktwolke in vorhergesagte Absuchcluster, wobei jeder Cluster ein durch die Sensoren detektiertes Objekt identifiziert.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Diese Erfindung bezieht sich allgemein auf ein System und auf ein Verfahren zum Vereinigen der Ausgaben von mehreren Sensoren in einem Fahrzeug und insbesondere auf ein System und auf ein Verfahren zum Vereinigen von Absuchpunkten von mehreren LiDAR-Sensoren in einem Fahrzeug, wobei der Prozess zum Vereinigen der LiDAR-Sensor-Absuchpunkte in Ansprechen darauf aufgerufen wird, dass durch einen Radarsensor oder durch ein Bilderkennungssystem in dem Fahrzeug ein Objekt detektiert wird.
  • Diskussion des verwandten Gebiets
  • Viele moderne Fahrzeuge enthalten Objektdetektierungssensoren, die dazu verwendet werden, eine Kollisionswarnung oder -verhütung und andere aktive Sicherheitsanwendungen zu ermöglichen. Die Objektdetektierungssensoren können irgendeine einer Anzahl von Detektierungstechnologien wie etwa kurzreichweitiges Radar, Kameras mit Bildverarbeitung, Laser oder LiDAR, Ultraschall usw. verwenden. Die Objektdetektierungssensoren detektieren Fahrzeuge und andere Objekte auf dem Weg eines Trägerfahrzeugs und die Anwendungssoftware verwendet die Objektdetektierungsinformationen, um nach Bedarf Warnungen bereitzustellen oder Maßnahmen zu ergreifen. In vielen Fahrzeugen sind die Objektdetektierungssensoren direkt in die Frontpartie oder in eine andere Verkleidung des Fahrzeugs integriert.
  • Damit die Anwendungssoftware optimal arbeitet, müssen die Objektdetektierungssensoren richtig auf das Fahrzeug ausgerichtet sein. Falls ein Sensor z. B. ein Objekt detektiert, das tatsächlich auf dem Weg des Trägerfahrzeugs ist, der Sensor aber wegen Sensorfehlausrichtung bestimmt, dass das Objekt etwas links von dem Weg des Trägerfahrzeugs ist, kann dies erhebliche Folgen für die Anwendungssoftware haben. Selbst wenn es in einem Fahrzeug mehrere nach vorn gerichtete Objektdetektierungssensoren gibt, ist es wichtig, dass sie alle richtig ausgerichtet sind, um widersprüchliche Sensorablesungen zu minimieren oder zu beseitigen.
  • LiDAR-Sensoren sind ein Sensortyp, der in Fahrzeugen gelegentlich genutzt wird, um Objekte um das Fahrzeug zu detektieren und um eine Entfernung für diese Objekte bereitzustellen. LiDAR-Sensoren sind erwünscht, da sie die Richtung eines nachgeführten Objekts bereitstellen können, was andere Sensortypen wie etwa Bilderkennungssysteme und Radarsensoren allgemein nicht vermögen. Für einen LiDAR-Sensortyp werden Reflexionen von einem Objekt als ein Absuchpunkt als Teil einer Punktcluster-Entfernungskarte zurückgegeben, wobei für alle 1/2° über das Sichtfeld des Sensors ein getrennter Absuchpunkt bereitgestellt wird. Somit kann es mehrere Absuchpunkte geben, die zurückgegeben werden, die die Distanz des Zielfahrzeugs von dem Trägerfahrzeug identifizieren, falls vor dem Trägerfahrzeug ein Zielfahrzeug detektiert wird.
  • Ein Fahrzeug kann mehrere LiDAR-Sensoren aufweisen, um um das Fahrzeug ein Sichtfeld von 360° bereitzustellen. Diese mehreren LiDAR-Sensoren können zur Seite gerichtete Sensoren, nach hinten gerichtete Sensoren und nach vorn gerichtete Sensoren enthalten. Jeder der Sensoren führt Objekte in seinem Sichtfeld unabhängig von den anderen Sensoren nach. Unter Verwendung der Absuchpunktrückgaben von den mehreren Sensoren wird die Entfernungskarte erzeugt, um Objekte in der Nähe des Trägerfahrzeugs nachzuführen. Für ein Fahrzeug mit mehreren LiDAR-Sensoren werden mehrere Punktclusterkarten zurückgegeben und für sich überschneidende Sensorsichtfelder können die Sensoren dasselbe Objekt nachführen. Es ist notwendig, die Absuchpunktkarten der Sensoren zu kombinieren, so dass dasselbe durch die Sensoren nachgeführte Objekt als einzelnes Ziel verarbeitet wird.
  • Die Patentanmeldung der Vereinigten Staaten Ifd. Nr. 12/942,456 mit dem Titel Systems and Methods for Tracking Objects, eingereicht am 9. November 2010, auf den Anmelder der vorliegenden Anmeldung übertragen und hier durch Bezugnahme mit aufgenommen, offenbart eine Technik zum Überwachen der Entfernung und der Richtung eines Zielobjekts von einem Trägerfahrzeug unter Verwendung von LiDAR-Sensoren. Diese Anmeldung ist auf einen einzelnen LiDAR-Sensor beschränkt und diskutiert nicht die Vereinigung von Rückgaben von mehreren LiDAR-Sensoren.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • In Übereinstimmung mit den Lehren der vorliegenden Erfindung werden ein System und ein Verfahren zum Vereinigen der Ausgaben von mehreren LiDAR-Sensoren in einem Fahrzeug, die ein Aufrufen des Vereinigungsprozesses in Ansprechen darauf umfassen, dass durch einen Radarsensor und/oder durch ein Bilderkennungssystem ein Objekt detektiert wird, offenbart. Das Verfahren enthält das Bereitstellen von Objektdateien für durch die LiDAR-Sensoren zu einem vorhergehenden Abtastzeitpunkt detektierte Objekte, wobei die Objektdateien die Position, die Orientierung und die Geschwindigkeit der detektierten Objekte identifizieren. Das Verfahren plant Objektmodelle in den Objektdateien von dem vorhergehenden Abtastzeitpunkt voraus, um vorhergesagte Objektmodelle bereitzustellen. Außerdem enthält das Verfahren das Empfangen mehrerer Absuchrückgaben von in dem Sichtfeld der Sensoren zu einem aktuellen Abtastzeitpunkt detektierten Objekten und das Konstruieren einer Punktwolke aus den Absuchrückgaben. Daraufhin segmentiert das Verfahren die Absuchpunkte in der Punktwolke in vorhergesagte Absuchcluster, wobei jeder Cluster ein durch die Sensoren detektiertes Objekt identifiziert. Das Verfahren passt die vorhergesagten Cluster an die vorhergesagten Objektmodelle an. Das Verfahren liest Daten von durch einen Radarsensor oder durch ein Bilderkennungssystem in dem Fahrzeug detektierten Zielen und richtet die Zieldaten gegenüber einem für die Absuchpunkte der LiDAR-Sensoren bestimmtes Koordinatensystem aus. Das Verfahren passt die Zieldaten unter Verwendung der vorhergesagten Objektmodelle an die Objektmodelle in den Objektdateien an. Unter Verwendung der angepassten vorhergesagten Absuchcluster und der angepassten Zieldaten führt das Verfahren vorhergesagte Objektmodelle, die zu dem vorhergehenden Abtastzeitpunkt als getrennte Absuchcluster identifiziert worden sind, nun aber als ein einzelner Absuchcluster identifiziert werden, zusammen und teilt es vorhergesagte Objektmodelle, die zu dem vorhergehenden Abtastzeitpunkt als ein einzelner Absuchcluster identifiziert worden sind, nun zu dem aktuellen Zeitpunkt aber als getrennte Absuchcluster identifiziert werden, auf. Unter Verwendung der angepassten vorhergesagten Absuchcluster und der angepassten Zieldaten erzeugt das Verfahren außerdem neue Objektmodelle und löscht es verschwindende [engl.: ”dying”] Objektmodelle. Auf der Grundlage der zusammengeführten Objektmodelle, der aufgeteilten Objektmodelle, der neuen Objektmodelle und der gelöschten Objektmodelle stellt das Verfahren Objektmodellaktualisierungen bereit und aktualisiert es die Objektdateien für den aktuellen Abtastzeitpunkt mit den aktualisierten Objektmodellen.
  • Zusätzliche Merkmale der vorliegenden Erfindung gehen aus der folgenden Beschreibung und aus den beigefügten Ansprüchen in Verbindung mit den beigefügten Zeichnungen hervor.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine Darstellung eines Trägerfahrzeugs, das auf ein Zielfahrzeug folgt, die das Sichtfeld von vier LiDAR-Sensoren in dem Trägerfahrzeug zeigt;
  • 2 ist ein allgemeiner Blockschaltplan eines Vereinigungssystems für Vereinigungsabsuchpunkte von mehreren LiDAR-Sensoren in einem Fahrzeug;
  • 3(A) und (B) zeigen Absuchpunkte von einem LiDAR-Sensor;
  • 4 ist ein Ablaufplandiagramm, das ein Verfahren zum gegenseitigen Ausrichten von Punkten von mehreren LiDAR-Sensoren zeigt;
  • 5 ist eine Konturwahrscheinlichkeitsdichtefunktion der Rückseite eines Objekts;
  • 6 ist ein iterativ begrenzter Optimierungsgraph;
  • 7 ist ein Blockschaltplan, der zwei verwobene Prozesse zum Schätzen der Objektbewegung und zum Aktualisieren eines Objektmodells, wenn eine neue LiDAR-Absuchpunktkarte verfügbar ist, zeigt;
  • 8 ist ein dynamisches Bayes-Netz für ein Objekt, das durch einen Nachführungsalgorithmus nachgeführt wird;
  • 9 ist ein Ablaufplandiagramm, das einen Prozess für einen Algorithmus für die Nachführung mehrerer Objekte in einem einzelnen Zeitschritt zeigt;
  • 10 ist ein bipartiter Graph, der vorhergesagte Objektmodellpunkte und segmentierte Absuchkartenpunkte für einen Schritt des Anpassens von Absuchclustern an vorhergesagte Objektmodelle in dem Diagramm aus 9 zeigt;
  • 11 ist ein induzierter bipartiter Graph, der aus dem in 10 gezeigten bipartiten Graphen erzeugt worden ist;
  • 12 ist eine Darstellung von Absuchpunkten von einem LiDAR-Sensor, von einem Bilderkennungssystem und von einem Radarsensor;
  • 13 ist eine Darstellung eines Trägerfahrzeugs, das auf ein Zielfahrzeug folgt, die das Sichtfeld eines LiDAR-Sensors, eines Radar-Sensors und eines Bilderkennungssystems in dem Trägerfahrzeug zeigt;
  • 14 ist ein allgemeiner Ablaufplan für einen Nachführungsalgorithmus für einen LiDAR-Sensor, der einen Aufruf von einem Radarsensor oder von einem Bilderkennungssystem nutzt;
  • 15 ist ein Ablaufplandiagramm, das einen Prozess für einen Algorithmus für die Nachführung mehrerer Objekte zeigt, der einen Aufruf von einem Radarsensor oder von einem Bilderkennungssystem nutzt;
  • 16 ist ein bipartiter Graph, der aneinander angepasste Zieldaten mit Objektmodellen für alle LiDAR-Absuchpunkte, Radarsensorrückgaben und Bilderkennungssystembilder zeigt;
  • 17 ist ein aus dem in 16 gezeigten bipartiten Graphen erzeugter induzierter bipartiter Graph;
  • 18 ist ein bipartiter Graph, der die Zusammenführung zweier vorausgeplanter Objektmodelle durch Bereitstellen einer Anpassung unter Verwendung eines Bilderkennungssystems zeigt;
  • 19 ist ein induzierter bipartiter Graph, der die Zusammenführung der Objektmodelle aus 18 zeigt;
  • 20 ist ein bipartiter Graph, der die Aufteilung vorausgeplanter Objektmodelle durch Anpassung unter Verwendung eines Bilderkennungssystems zeigt;
  • 21 ist ein induzierter bipartiter Graph, der die Anpassung der Objektmodelle aus 20 zeigt;
  • 22 ist ein bipartiter Graph, der vorausgeplante Objektmodelle durch Anpassung unter Verwendung eines Radarsensors zeigt;
  • 23 ist ein induzierter bipartiter Graph, der die Anpassung der Modelle aus 22 zeigt; und
  • 24 ist ein dynamisches Bayes-Netz für einen Nachführungsalgorithmus und für eine Modellierungsaktualisierung mit Aufrufinformationen von einem Radarsensor oder von einem Bilderkennungssystem.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Die folgende Diskussion der Ausführungsformen der auf ein System und auf ein Verfahren zum Vereinigen der Ausgaben von mehreren LiDAR-Sensoren in einem Fahrzeug gerichteten Erfindung, wobei der Vereinigungsprozess durch ein durch einen Radarsensor oder durch ein Bilderkennungssystem detektiertes Objekt aufgerufen wird, ist dem Wesen nach lediglich beispielhaft und soll die Erfindung oder ihre Anwendungen oder Verwendungen in keiner Weise einschränken. Zum Beispiel wird die vorliegende Erfindung für die Vereinigung der Ausgaben von LiDAR-Sensoren in einem Fahrzeug beschrieben. Allerdings wird vom Fachmann auf dem Gebiet gewürdigt werden, dass der Vereinigungsprozess der Erfindung andere Anwendung als Fahrzeuganwendungen aufweist.
  • 1 veranschaulicht eine Übersicht eines Fahrzeugsystems 10, das ein Trägerfahrzeug 12 enthält, das in der Weise gezeigt ist, dass es hinter einem Zielfahrzeug 14, das es nachführt, hinterherfährt. Das Trägerfahrzeug 12 enthält vier LiDAR-Sensoren, d. h. einen nach vorn gerichteten Sensor 16, der ein Sichtfeld 18 aufweist, einen nach hinten gerichteten Sensor 20, der ein Sichtfeld 22 aufweist, einen nach links gerichteten Sensor 24, der ein Sichtfeld 26 aufweist, und einen nach rechts gerichteten Sensor 28, der ein Sichtfeld 30 aufweist. Die Sensoren 16, 24 und 28 sind in die Frontpartie des Fahrzeugs 12 eingebaut und weisen wie gezeigt sich überschneidende Sichtfelder auf. Falls ein Objekt wie etwa ein Zielfahrzeug 14 im Sichtfeld eines bestimmten der Sensoren 16, 20, 24 und 30 ist, gibt der Sensor eine Anzahl von Absuchpunkten, die das Objekt identifizieren, zurück. Die Punkte 32 an dem Zielfahrzeug 14 repräsentieren die Absuchpunkte, die von dem Zielfahrzeug 14 von jedem der Sensoren 16, 24 und 28 zurückgegeben werden. Die Punkte 32 werden unter Verwendung einer Koordinatenübertragungstechnik in das Fahrzeugkoordinatensystem (x, y) an dem Trägerfahrzeug 12 übertragen und daraufhin wird in dem Fahrzeugkoordinatensystem unter Verwendung der Punkte 32 die Objektdetektierung ausgeführt. Wie im Folgenden diskutiert wird, können die Punkte 32 zum Definieren einer Rückseitenform des Zielfahrzeugs 14 verwendet werden.
  • Jeder Sensor 16, 20, 24 und 28 stellt für jedes durch den Sensor detektierte getrennte Objekt eine Absuchpunktwolke bereit. Die vorliegende Erfindung schlägt einen Vereinigungsalgorithmus vor, der die Ausgaben von jedem der Sensoren 16, 20, 24 und 28 in der Weise kombiniert, dass die Sensoren 16, 20, 24 und 28 dasselbe Objekt nachführen, wobei dieses Objekt als ein einzelnes Ziel verarbeitet wird, wobei der Algorithmus die Position, die Orientierung und die Geschwindigkeit jedes nachgeführten Objekts ausgibt. Obwohl die Diskussion vier LiDAR-Sensoren enthält, ist der vorgeschlagene Vereinigungsalgorithmus für irgendeine Anzahl und Position mehrerer LiDAR-Sensoren, die überschneidende Sichtfelder aufweisen, anwendbar.
  • Die Position des Zielfahrzeugs 14 ist in diesem Diagramm durch einen Ankerpunkt 34, d. h. durch die Mitte der Absuchkarte, repräsentiert. Die folgenden Werte werden zur Darstellung eines Objektmodells M des Zielfahrzeugs 14 bei dem Zeitschritt t verwendet. Insbesondere definiert das Objektmodell M die relative Längsgeschwindigkeit VX, die relative Quergeschwindigkeit Vy, die Querverlagerung y und die Zielfahrzeugrichtung ξ oder Richtung des Bodengeschwindigkeitsvektors des Ziels. Der Wert M ist eine Liste von durch den Parametermittelwert mj und durch die Varianz σ2 repräsentierten Gauß'schen Komponenten. Der Mittelwert ist durch mehrere Hyperparameter νj, ηj, kj und Merker, d. h. gesehen und gealtert, charakterisiert.
  • 2 ist ein schematischer Blockschaltplan eines Vereinigungssystems 36 zum Vereinigen von Absuchpunktwolkenrückgaben von mehreren LiDAR-Sensoren wie etwa von den Sensoren 16, 20, 24 und 28. Der Kasten 38 repräsentiert die Absuchpunktwolkenrückgabe von dem linken LiDAR-Sensor 24, der Kasten 40 repräsentiert die Absuchpunktwolkenrückgabe von dem nach rechts gerichteten LiDAR-Sensor 28, der Kasten 42 repräsentiert die Absuchpunktwolkenrückgabe von dem nach vorn gerichteten LiDAR-Sensor 16 und der Kasten 44 repräsentiert die Absuchpunktwolkenrückgabe von dem nach rechts gerichteten LiDAR-Sensor 20. Im Kasten 46 werden die Entfernungskarten von den LiDAR-Sensoren 16, 20, 24 und 28 gegenseitig ausgerichtet und wird eine 360°-Entfernungskarte(-Punktwolke) konstruiert. Wenn die Punktwolken von den Sensoren 16, 20, 24 und 28 gegenseitig ausgerichtet worden sind und in den Fahrzeugkoordinaten eine 360°-Punktwolke gebildet worden ist, vereinigt der Algorithmus die Punktwolken von den mehreren Zielen in dem im Folgenden ausführlich diskutierten Kasten 48. Nachdem die Ziele in dem Fahrzeugkoordinatensystem vereinigt worden sind, gibt der Algorithmus im Kasten 50 die Position, die Orientierung und die Geschwindigkeit der Ziele aus.
  • Bevor der Vereinigungsprozess zum Kombinieren der Absuchpunkte von mehreren LiDAR-Sensoren spezifisch diskutiert wird, wird eine Diskussion eines Algorithmus zum gegenseitigen Ausrichten von Absuchpunkten in dem Kasten 46, um die Bewegung des Objekts zu schätzen, falls das Objektmodell M und die aktuelle Absuchkarte 5, die dem Objekt entsprechen, verfügbar sind, gegeben.
  • In vielen Fahrzeugen sind die Objektdetektierungssensoren direkt in die Frontverkleidung des Fahrzeugs integriert. Diese Art des Einbaus ist einfach, effektiv und ästhetisch ansprechend, hat aber den Nachteil, dass es keine praktische Art und Weise gibt, die Ausrichtung der Sensoren physikalisch einzustellen. Wenn ein Sensor wegen Beschädigung der Verkleidung oder wegen Alters oder wegen wetterbezogener Verziehung zu der wahren Richtung des Fahrzeugs fehlausgerichtet wird, gibt es somit herkömmlich keine andere Möglichkeit, die Fehlausrichtung zu korrigieren, als die gesamte Verkleidungsanordnung, die die Sensoren enthält, zu ersetzen.
  • Wie im Folgenden diskutiert wird, passt die in dem Kasten 46 ausgeführte gegenseitige Ausrichtung der Bildausschnitte die Entfernungsabsuchpunkte von den Sensoren 20, 24 und 28 an, um eine mögliche Drift der Position und Orientierung der Sensoren 20, 24 und 28 auszugleichen. Die Sensoren 20, 24 und 28 werden anfangs, wenn das Fahrzeug 12 neu ist, kalibriert. Wie erwähnt wurde, veranlassen verschiedene Faktoren, dass sich diese Orientierungen im Zeitverlauf ändern, so dass ein Prozess implementiert werden muss, um die Sensororientierung in der Weise neu zu kalibrieren, dass in dem sich überschneidenden Abschnitt der Sichtfelder 26 und 30 detektierte Objekte genauer sind. Die vorliegende Erfindung schlägt einen Erwartungsmaximierungs-Anpassungsalgorithmus (EM-Anpassungsalgorithmus) vor, um zwischen mehreren LiDAR-Sensoren eine Transformation T zu ermitteln, die einen Orientierungswinkel und die x- und y-Position der Sensoren definiert. Zum Beispiel passt der Algorithmus die Transformation T von dem nach links gerichteten LiDAR-Sensor 24 zu dem nach rechts gerichteten LiDAR-Sensor 28 an, wobei die Sensoren 24 und 28 ausgerichtet sind, wenn die Transformationen T von nachfolgenden Berechnungen übereinstimmen.
  • Der EM-Algorithmus beginnt durch Wählen eines Anfangstransformationswerts T0, der null sein könnte, eines vorhergehenden Schätzwerts, einer durch den Hersteller bereitgestellten Orientierung zwischen den Sensoren 24 und 28 usw. Daraufhin plant der Algorithmus unter Verwendung der Transformation T zu dem Bildausschnitt für den nach rechts gerichteten LiDAR-Sensor 28 eine Entfernungskarte des linken Sensors voraus. 3 ist eine Darstellung einer Absuchpunktkarte 120, in der Kreise 124 Absuchpunktrückgaben von dem linken LiDAR-Sensor 24 repräsentieren und Ovale 126 Absuchpunktrückgaben von dem nach rechts gerichteten LiDAR-Sensor 28 repräsentieren. 3(A) zeigt alle Absuchpunktrückgaben und 3(B) zeigt für einige der Absuchpunktrückgaben einen vergrößerten Bereich in dem Kreis 122. 3(B) zeigt, wie die Absuchpunktrückgaben 124 des nach links gerichteten LiDAR-Sensors durch Pfeile 128 auf die Absuchpunktrückgaben 126 des nach rechts gerichteten LiDAR-Sensors abgebildet werden. In einem Versuch, sie zur Überschneidung zu bringen, werden die Absuchpunktrückgaben 124 des nach links gerichteten LiDAR-Sensors unter Verwendung der aktuell verfügbaren Transformation T für die Projektionskartenpfeile 128 relativ zu den Absuchpunktrückgaben 126 des nach rechts gerichteten LiDAR-Sensors bewegt.
  • Die aktuell verwendete Transformation T kann für die aktuelle Orientierung des nach links gerichteten LiDAR-Sensors 24 gegenüber dem nach rechts gerichteten LiDAR-Sensor 28 nicht genau sein, so dass die Transformation T für die aktuelle Position der Sensoren 24 und 28 aktualisiert werden muss. Der Algorithmus verwendet die aktuelle Transformation T, um eine Gewichtung ajk zwischen dem Absuchpunkt sj des linken Sensors und dem Absuchpunkt mk des rechten Sensors wie folgt zu aktualisieren:
    Figure DE102013113571A1_0002
    wobei die Kernfunktion K wie folgt ist:
    Figure DE102013113571A1_0003
  • Daraufhin wird unter Verwendung der abgeänderten Gewichtung ajk eine neue Transformation T' wie folgt bestimmt: T' = argminT – 1 / 2Σj,kajklogK(||sj – T∘mk||). (3)
  • Daraufhin wird die neue Transformation T' mit der zuvor berechneten Transformation T verglichen und auf der Grundlage der Differenz dazwischen unter Verwendung der neuen Transformation T' die Gewichtung ajk neu berechnet, bis die neu berechnete Transformation T' an die zuvor berechnete Transformation T, bei der die Sensoren 24 und 28 ausgerichtet sind, angepasst ist.
  • In bestimmten Fällen ist die Transformation T zum Ausrichten der Absuchdatenpunkte ausreichend groß, wobei es nützlich sein kann, die Lösung von T' in Gleichung (3) zu verbessern. Für dieses Beispiel ist die Transformation Tals x' = T·x definiert, wobei x' = Rx + t ist und wobei Reine Drehmatrix ist und t ein Translationsvektor ist. In dieser Analyse sei: S = [S1, S2, ..., SL]T, (4) M = [m1, m2, ..., mN]T, (5) A = [ajk], (6) 1 = [1, 1, ..., 1]T, (7) μs = 1 / LSTAT1, (8) μm = 1 / NMTA1, (9) Ŝ = S – 1μ T / S, (10) M ^ = M – 1μ T / m.(11)
  • Die Lösung der neuen Transformation T' in Gleichung (3) ist dann gegeben durch: T' = [R', t'] (12) mit: R' = UCV, (13) t' = μs – R'μm (14) und wobei U und V als die Faktoren einer Singulärwertzerlegung von: USV = sνd(STATM) (15) definiert sind und C wie folgt ist:
    Figure DE102013113571A1_0004
  • Der oben beschriebene EM-Algorithmus zum Bestimmen der Transformation T kann nur lokal optimal und empfindlich für den Anfangstransformationswert sein. Der Algorithmus kann unter Verwendung der Partikelschwarmoptimierung (PSO) verbessert werden, um die Anfangstransformation T0 zu ermitteln. In dieser Optimierung sei E die Menge zulässiger Transformationen T von dem linken LiDAR-Sensor 24 zu dem rechten LiDAR-Sensor 28. Der Algorithmus erzeugt in Übereinstimmung mit der gleichförmigen Verteilung in der zulässigen Transformation E zufällig N Partikel {ti/t, ∈ E}, wobei jeder Partikel ti ein normiertes Gewicht wi = 1/N zugeordnet wird. Für jede Partikel ti wird der EM-Algorithmus auf die beste Transformation Ti eingestellt, wobei ti als der Anfangswert gegeben ist. Es sei die Gewichtung wi der Prozentsatz der Anpassung zwischen den zwei Absuchungen für die Transformation Ti. Der Algorithmus gibt dann die Transformation Tk mit dem besten Anpassungsprozentsatz als den Nennwert für die Transformation von dem linken LiDAR-Sensor 24 zu dem rechten LiDAR-Sensor 28 aus, wobei wk = max(wi) ist.
  • In den meisten Fällen ist die Änderung der Transformation T von einem Abtastzeitpunkt zu dem nächsten üblicherweise klein, so dass es nicht notwendig ist, den oben beschriebenen rechenaufwendigen Prozess des Berechnens der neuen Transformation T' für große Änderungen der Transformation T zu verwenden. Insbesondere kann die neue Schätzung der Transformation T unter Verwendung des folgenden wenig rechenaufwendigen EM-Anpassungsalgorithmus rekursiv verfeinert werden, falls die Nenntransformation Tn von dem obigen PSO-Algorithmus geschätzt wird. Zunächst wird die Transformation Tn auf jeden Absuchpunkt des rechten LiDAR-Sensors 28 wie folgt angewendet: Sj ← Tn∘Sj (17)
  • Die richtige Transformation ΔT wird bestimmt als: ΔT: x' = ΔT∘x (18) und definiert als x' = x – Ey + tx, (19) y' = Ex + y + ty, (20) wobei die Transformation ΔT als (tx, ty, E) modelliert wird und wobei die vorhergehende Transformation ΔTo (txo, tyo, Eo) ist.
  • Gleichung (3) wird daraufhin ersetzt durch T' = argminT – 1 / 2Σj,klogK(||Sj – T∘mk||) + λ||ΔT – ΔTo||2 (21) und die Lösung ist:
    Figure DE102013113571A1_0005
    mit Sj = (x ' / j, y ' / j), (23) mk = (xk, yk), (24) T' = t ' / x, t ' / y, E', (25)
    Figure DE102013113571A1_0006
    und wobei λ ein Gewichtungsfaktor ist, der darauf abgestimmt werden kann, wie viel von der vorhergehenden Schätzung verwendet wird.
  • 4 ist ein Ablaufplandiagramm 130, das den wie oben diskutierten Betrieb zum Ausrichten der LiDAR-Sensoren, z. B. der LiDAR-Sensoren 24 und 28, zeigt. Im Kasten 132 wählt der Algorithmus die Anfangstransformation Tn wie etwa die Herstellereinstellung aus. Im Kasten 134 sammelt der Algorithmus die Absuchentfernungskartendaten von den LiDAR-Sensoren 24 und 28 und bestimmt er, ob es in dem Sichtfeld der LiDAR-Sensoren 24 und 28 eine ausreichende Anzahl von Absuchpunkten von dem Objekt gibt, um die Berechnungen in der Entscheidungsraute 136 angemessen auszuführen. Falls es nicht genügend Absuchpunkte gibt, kehrt der Algorithmus zu dem Kasten 134 zurück, um weitere Entfernungskartendaten zu sammeln. Falls es in der Entscheidungsraute 136 genügend Absuchpunkte gibt, verwendet der Algorithmus den EM-Anpassungsalgorithmus, um im Kasten 138 die korrigierte Transformation ΔT zu ermitteln. Daraufhin bestimmt der Algorithmus in der Entscheidungsraute 140, ob die korrigierte Transformation ΔT größer als ein vorgegebener Schwellenwert ist, und wird im Kasten 142 die Schätzung der großen Transformation unter Verwendung des PSO-Algorithmus genutzt, um die neue Nenntransformation Tn zu ermitteln, wenn das der Fall ist. Falls der Anpassungsprozentsatz in der Entscheidungsraute 140 nicht größer als der Schwellenwert ist, kehrt der Algorithmus zu dem Kasten 134 zurück, um die nächsten Absuchpunkte zu sammeln.
  • Zurückkehrend zu dem Vereinigungsalgorithmus bietet die nachfolgende Diskussion zunächst einen vorgeschlagenen Algorithmus für die gegenseitige Ausrichtung von Absuchpunkten, der die Bewegung des Zielfahrzeugs 14 schätzt, falls das Objektmodell M und die dem Zielfahrzeug 14 entsprechende aktuelle Absuchkarte S gegeben sind. Die obige Diskussion betrifft den EM-Algorithmus zum Bestimmen der Transformation T, die die Bildausschnitte zwischen den LiDAR-Sensoren, die die räumliche Anpassung, insbesondere die Anpassung zwischen zwei Bildausschnitten von verschiedenen LiDAR-Sensoren, gleichzeitig bereitstellen, ausrichtet. Außerdem verwendet diese die Absuchpunktregistrierung betreffende Diskussion einen Algorithmus zur gegenseitigen Ausrichtung einer Punktmenge, um diejenige Transformation T zu ermitteln, die zwei Bildausschnitte zeitlich zwischen der aktuellen Absuchkarte S und dem aus den früheren Absuchkarten hergeleiteten Objektmodell M anpasst.
  • Zunächst wird ein probabilistisches Objektmodell M definiert und daraufhin wird ein vorgeschlagener iterativer Algorithmus bereitgestellt, um eine starre Transformation derart zu ermitteln, dass die Wahrscheinlichkeit bei gegebenen Absuchkarten des nachfolgenden Bildausschnitts maximiert wird. Zur Charakterisierung der geometrischen Form eines Objekts wird in dem Abtastraum
    Figure DE102013113571A1_0007
    eine Konturwahrscheinlichkeitsdichtefunktion (PDF) definiert. 5 zeigt einen Schnappschuss einer beispielhaften PDF für die Rückseite des Zielfahrzeugs 14. Anstatt bestimmte Parameter zu verwenden, wird die PDF direkt durch eine Liste von als M = (m1, m2, ..., mnM)T bezeichneten Partikeln (Punkten) repräsentiert.
  • Die parameterfreie Art der Darstellung der PDF kann geschrieben werden als:
    Figure DE102013113571A1_0008
    wobei
    Figure DE102013113571A1_0009
    eine Gauß'sche Kernfunktion ist und σ > 0 ein als die Bandbreite bezeichneter Glättungsparameter oder die Größe eines Parzen-Fensters ist.
  • Es seien y die Parameter der Transformation Ty. Die Operatoren werden als ein Transformationsoperator Ty(·) mit Parametern y und mit der entsprechenden Umkehrtransformation Ty –1(·) definiert. Das Objektmodell M kann ohne Verlust der Allgemeinheit als im Ursprung 34 zentriert angesehen werden. In dem nachfolgenden Bildausschnitt ist ein Objekt am Ort y durch die folgende PDF charakterisiert:
    Figure DE102013113571A1_0010
  • Es sei S = (s1, s2, ..., sns)T die aktuelle Absuchkarte, die aus einer Liste von Absuchpunkten sk besteht. Die Wahrscheinlichkeitsfunktion kann ausgedrückt werden durch:
    Figure DE102013113571A1_0011
    wobei angenommen ist, dass die Absuchpunkte sk unabhängige und gleichverteilte Abtastwerte des Objektmodells M am Ort y sind.
  • Das Ziel ist hier das Ermitteln des Maximums von L(S; y, M) in Bezug auf die Transformationsparameter y, was äquivalent dem Ermitteln des Maximums von J(y; M) ≡ LogL(S; y, M) ist, als: y* = argminyJ(y; M) (31) mit:
    Figure DE102013113571A1_0012
  • Dieses lokale Minimum gibt die Anwesenheit des Objekts in dem folgenden Bildausschnitt mit einer ähnlichen Darstellung wie dem im Ursprung 34 definierten p(x; M) an.
  • Es wird eine Hilfsmatrix A ≡ {akj} mit akj ≥ 0 für j = 1, ..., nM und k = 1, ..., ns eingeführt, wobei
    Figure DE102013113571A1_0013
    für alle k ist.
  • Somit wird Gleichung (32) zu:
    Figure DE102013113571A1_0014
  • In Gleichung (32) wird der Normierungsfaktor
    Figure DE102013113571A1_0015
    in einen konstanten Term aufgenommen, der vernachlässigt wird. Gleichung (36) folgt bei der Anwendung der Jensen'schen Ungleichung auf Gleichung (34).
  • Sofern die negative Logarithmusfunktion konvex ist, kann die beste obere Schranke J*(y; M) für Gleichung (36) dadurch hergeleitet werden, dass die Ableitung des Ausdrucks aus Gleichung (36) und des Lagrange'schen Multiplikators der Nebenbedingung, siehe Gleichung 33, nach akj gebildet wird und nullgesetzt wird. Die optimale Hilfsvariable kann ausgedrückt werden durch:
    Figure DE102013113571A1_0016
    für j = 1, ..., nM und k = 1, ..., ns.
  • Somit kann Gleichung (31) durch ”beschränkte Optimierung”, die zwischen der Optimierung von J*(y1; M) in Bezug auf die Hilfsmatrix A, auf die Parameter y der Transformation T und auf die Bandbreite der Kernfunktion σ wechselt, iterativ gelöst werden.
  • 6 ist ein Graph mit y auf der horizontalen Achse, der die Beziehung der iterativen beschränkten Optimierung zeigt, wobei die Linie 52 die komplizierte Kurve J(y; M) ist und die Strichlinienkurven aufeinanderfolgende obere Schranken bei y0, y1 und y2 sind, d. h., wobei die Graphenlinie 54 J*(yz; M) ist, die Graphenlinie 56.7 J*(y1; M) ist und die Graphenlinie 58 J*(y1; M) ist.
  • Die in dem folgenden Algorithmus 1 gezeigte iterative Prozedur wird bis zur Konvergenz, d. h. bis die Differenz des geschätzten y in zwei Iterationen kleiner als eine vorgegebene kleine Zahl ist, wiederholt. Empirische Ergebnisse zeigen, dass 2–3 Epochen der Iteration für den vorgeschlagenen Algorithmus ausreichen, damit er konvergiert.
  • Algorithmus 1: gegenseitige Ausrichtung von Absuchpunkten.
    • Eingabe: Objektmodell M, aktuelle Absuchkarte S und Anfangstransformationsparameter y0.
    • 1) Es sei σ = σ0, wobei σ0 eine positive Zahl ist.
    • 2) Berechnen von A: Ausgehend von dem vorhergehenden Schätzwert des Transformationsparameters yn wird akj unter Verwendung von Gleichung (37) aktualisiert.
    • 3) Minimieren von J*(y; M): Berechnung von y* zum Minimieren von J*(y; M), d. h.: y* = argminy – Σk,jakjlogKσ(Ty –1(sk) – mj). (38)
    • 4) Berechnen von σ: Differenzieren von Gleichung (36) nach σ, Nullsetzen der Ableitung ergibt:
      Figure DE102013113571A1_0017
    • 5) Es sei yn+1 = y*. Falls ||yn+1 – yn|| > ∊ ist, gehe zu Schritt 2. Andernfalls wird die Ausgabe y* als die geschätzten Parameter für die Transformation verwendet.
  • Die folgende Diskussion beschreibt einen Spezialfall der gegenseitigen Ausrichtung einer Punktmenge, der in der Robotik mit LiDAR-Scannern verwendet werden kann. Es kann eine starre Transformation x' = Ty(x) und x' = Rx + t aufgeschrieben werden, wobei der Parametervektor y aus der Drehmatrix R und aus dem Translationsvektor t besteht. Gleichung (38) kann vereinfacht werden als: y* = argminyΣk,jakj||sk – Rmj – t||2, (40) so dass det(R) = 1 und RTR = I ist.
  • Gleichung (40) kann durch Bilden der partiellen Ableitung von Gleichung (40) nach t bzw. R gelöst werden. Um die Lösung zu zeigen, werden die folgenden Größen definiert:
    Figure DE102013113571A1_0018
    mit 1 = [1, 1, ..., 1]T.
  • Die Lösung von Gleichung (40) ist: R = UCVT, (45) t = μs – Rμm, (46) wobei U und V als die Faktoren der Singulärwertzerlegung definiert sind, d. h. USVT = sνd(S ^TATM ^) und C = diag(1, det(UVT)).
  • Die folgende Diskussion schlägt einen Algorithmus auf Bayes-Grundlage vor, der die Bewegung und Aktualisierungen des Objektmodells M rekursiv schätzt. Es seien S0, ..., St und St+1 die von einem dynamischen Objekt in dieser Reihenfolge zu den Zeitschritten 0, ..., t und t + 1 abgetasteten Absuchkarten.
  • 7 zeigt, dass die Nachführung als i) ein Problem der Schätzung der Bewegung des Objekts und ii) ein Problem der Aktualisierung des Objektmodells M, wenn die Absuchkarte eines neuen Bildausschnitts empfangen wird, behandelt werden kann. Insbesondere zeigt 7 einen Prozess 60 zum Schätzen des Orts eines Objekts beim Kasten 64 unter Verwendung des Orts eines Objekts zum Aktualisieren eines Objektmodells beim Kasten 62 und zum Schätzen des Orts eines Objekts, wenn eine neue Absuchkarte verfügbar ist.
  • Die folgende Diskussion enthält eine Bezugnahme auf bipartite Graphen und Bayes-Graphen. Diese zwei Arten von Graphen enthalten Knoten, die unterschiedliche Dinge repräsentieren. Die Knoten in einem Bayes-Graphen repräsentieren zu schätzende Variable wie etwa die Transformation T und das Objektmodell M, die zufällig sind und nur durch eine PDF dargestellt werden können. Diese Knoten sind in einer Folge über Bildausschnitte zu verschiedenen Zeiten angeordnet, wobei jede Folge nur ein Objekt modelliert. Im Gegensatz dazu sind die Knoten in den bipartiten Graphen Segmentierungen von Absuchkarten. Jede Absuchkarte kann bei dem Bildausschnitt zum selben Zeitpunkt mehrere Objekte enthalten. Somit ist das Ziel, die Segmente zu ermitteln, die jeweils einem Objekt entsprechen. Bei Aufbau der Zuordnung der Segmente (s1, s2, ..., sn) entlang der Zeitachse können mehrere Folgen erhalten werden, wobei jede einem Objekt entspricht. Auf diese Weise können die bipartiten Graphen verwendet werden, um das Bayes-Verfahren zum Nachführen jedes einzelnen Objekts anzuwenden.
  • 8 veranschaulicht ein dynamisches Bayes-Netz 70, das zwei Zeitschritte des vorgeschlagenen Nachführungsalgorithmus repräsentiert. In dem Netz 70 repräsentieren die Knoten 72 die Transformationsparameter yt und yt+1, d. h. die Objektposition und -lage der Ziele, repräsentieren die Knoten 74 die Objektmodelle Mt und Mt+1 und repräsentieren die Knoten 76 die Absuchkarten St und St+1. In 8 sind yt und yt+1 die geschätzten Parameter der Transformation bei den Zeitschritten t bzw. t + 1 und sind Mt und Mt+1 die Objektmodelle bei den Zeitschritten t bzw. t + 1. Zur Anpassung an das Bayes-Netz 70 wird p(y) als eine Dirac'sche Deltaverteilung, die durch ihr Zentrum y - parametrisiert ist, bzw. das Objektmodell M als die Verbund-PDF Gauß'scher Komponenten, die durch ihren Mittelwert {mj} und eine feste Varianz σ2 parametrisiert sind, modelliert. Jeder Mittelwert mj wird durch eine Gauß'sche PDF mit Hyperparametern, d. h. mit dem Mittelwert und mit der Varianz
    Figure DE102013113571A1_0019
    repräsentiert.
  • Die folgende Diskussion stellt ausführlich Aktualisierungsregeln für den Parameter y - und für die Hyperparameter {vj, nj/j = 1, ..., nM} dar. Unter Verwendung der Bayes- bzw. der Kettenregel wird die A-posteriori-PDF, wenn Mengen von Absuchkarten bis zum Zeitpunkt t + 1 gegeben sind, geschrieben als: p(y, M|S(0:t+1)) ∝ p(S|y, M)p(y, M|S(0:t)) = p(S|y, M)p(y|S(0:t))p(M|S0:t), (47) wobei y und M kurz yt+1 sind, S(0:t+1) Absuchkarten bis zum Zeitschritt t + 1 repräsentiert, S die Absuchkarte zum Zeitpunkt t + 1 ist, p(S/y, M) eine äquivalente Darstellung von L(S; y, M) in Gleichung (30) ist und die letzte Gleichung durch die Annahme einer bedingten Unabhängigkeit bei gegebenem S(0:t) folgt.
  • In Gleichung (47) ist p(y/S(0:t)) die frühere PDF des Parameters y zum Zeitschritt t – 1 bei gegebenen vorhergehenden Absuchkarten S(0:t), die berechnet werden kann als: p(y|S(0:t)) = ∫p(y|yt)p(yt|S(0:t))dyt. (48)
  • In Gleichung (48) bezeichnet p(yt/S(0:t)) die A-posteriori-PDF für den Transformationsparameter zum Zeitpunkt t und ist p(y/yt) die bedingte Wahrscheinlichkeit des folgenden Anlagenmodells der Objektbewegung: y = ∫(yt) + w, (49) wobei weine Gauß'sche Zufallsvariable mit dem Mittelwert null mit der Kovarianzmatrix Q (d. h. p(w) = N)w/0, Q)) ist. Falls angenommen wird, dass p(yt/S(0:t)) eine Dirac'sche Deltaverteilung mit dem Zentrum bei yt ist, kann die frühere PDF bei dem Zeitschritt t = 1 geschrieben werden als: p(y|s0:t)) = N(y|y ~, Q), (50) wobei y ~ der vorhergesagte Wert des folgenden Anlagenmodells des Objekts y ~ = f(y -t) ist.
  • Der Ausdruck p(Mt-1/S(0:t)) kann als die konjugierte Verteilungsfamilie von L(S; y, M) in Gleichung (30) modelliert werden, um eine nachführbare A-posteriori-PDF zu liefern. Es wird ein Produkt Gauß'scher Dichten mit bekannter Varianz σ2 vorgeschlagen als:
    Figure DE102013113571A1_0020
    mit
    Figure DE102013113571A1_0021
    und wobei (n1, νj) die Hyperparameter der früheren PDF für die j-te Komponente von Mt-1 sind und wobei c(ηj) ein Normierungsfaktor ist.
  • Wie in 8 gezeigt ist, sind die früheren Daten für das Objektmodell M beim Zeitschritt t
    Figure DE102013113571A1_0022
  • Nun wird das Problem der Schätzung der A-posteriori-Wahrscheinlichkeit p(y, M|S(0:t+1)) zum Zeitpunkt t + 1 betrachtet. Da y und M bedingt unabhängig sind, d. h.: p(y, M|S(0:t+1)) = p(y|S(0:t+1))p(M|S(0:t+1)), (54) kann die A-posteriori-Wahrscheinlichkeit hinsichtlich y und M als die folgenden zwei Schritte getrennt geschätzt werden.
  • Unter der Annahme, dass p(y|S(0:t+1)) die Dirac'sche Delta-PDF mit dem Zentrum bei y -t+i, ist, die durch Maximieren von Gleichung (47) in Bezug auf y geschätzt werden kann, ergibt Einsetzen von Gleichung (50) in Gleichung (47), Anwenden eines negativen Logarithmus auf Gleichung (47) und Vernachlässigen von für y irrelevanten Termen: y -t+1 = argminy – Σk,jakjlogKσ(Ty –1(Sk) – mj) + ||y – y ~|| 2 / Q (55) mit
    Figure DE102013113571A1_0023
    Somit kann Gleichung (38) für das Integrieren früherer Informationen aus vorhergehenden Zeitschritten durch Gleichung (55) ersetzt werden und daraufhin der Algorithmus 1 angewendet werden, um y ~t+1 abzuleiten.
  • Unter Vernachlässigung von für das Objektmodell M irrelevanten Termen kann der negative Logarithmus von Gleichung (47) geschrieben werden als:
    Figure DE102013113571A1_0024
  • Es wird angemerkt, dass Gleichung (56) die beste obere Schranke von J(M) für alle möglichen Werte von y ist.
  • Wie in 6 kann die beschränkte Optimierung verwendet werden, um durch Ermitteln des Minimums der obigen Funktion einer oberen Schranke iterativ das optimale Objektmodell M zu ermitteln. Durch Nullsetzen der Ableitungen von Gleichung (56) nach dem Objektmodell M kann der MAP-Schätzwert des Objektmodells M erhalten werden als:
    Figure DE102013113571A1_0025
    mit: ρj = Σkakj, (58) s -j = Σkakjsk/pj. (59)
  • Die Aktualisierungsregeln der neuen Hyperparameter (η ' / j, ν ' / j) für die A-posteriori-Verteilung des Objektmodells M nach S zum Zeitpunkt t + 1 können geschrieben werden als:
    Figure DE102013113571A1_0026
  • Somit ist die A-posteriori-PDF des Ziels zum Zeitpunkt t
    Figure DE102013113571A1_0027
  • Es wird angemerkt, dass m * / j in Gleichung (57) die Betriebsart ist und dass ν ' / j in Gleichung (61) der Mittelwert der j-ten Komponente (der j-ten Partikel) des Objektmodells M ist. Wegen der Gauß'schen Annahme sind sie gleich.
  • In dem folgenden Algorithmus 2 ist das Verfahren der rekursiven Nachführung und Modellaktualisierung zusammengefasst. Schritt 1 bereitet das Objektmodell M für den Bildausschnitt zum aktuellen Zeitpunkt vor, während Schritt 2 die Bewegung des Objektmodells M schätzt. Schritt 3 aktualisiert das Objektmodell M auf der Grundlage der aktuellen Absuchkarte. Schritt 4 fügt zu dem Objektmodell M neue Partikel hinzu, während Schritt 5 Ausreißer aus dem Objektmodell M entfernt.
  • Algorithmus 2: Nachführung und Objektmodellaktualisierung
    • Eingabe: die aktuelle Absuchkarte St+1, das Objektmodell Mt-1 = (νj, ηj} und die Transformation y -t.
    • Ausgabe: das geschätzte y -t+1 und das aktualisierte Mt.
    • 1) Berechne die Hyperparameter
      Figure DE102013113571A1_0028
      für alle j von p(Mt|S(0:t)) in Gleichung (51). Setze alle Partikel als unbesucht.
    • 2) Es sei
      Figure DE102013113571A1_0029
      für alle j. Ersetze Gleichung (38) durch Gleichung (55) und führe daraufhin den Algorithmus 1 aus, um y -t+1 und At+1 zu erhalten.
    • 3) Berechne die Hyperparameter unter Verwendung der Gleichungen (60) und (61), setze die Partikel als besucht und erhöhe den Besuchszählwert Ki um 1, falls ρj = Σkakj größer als der Schwellenwert ist. Falls K > 5 ist, wird die j-te Partikel als gealtert gekennzeichnet.
    • 4) Berechne Qk = Σjakj für alle k. Addiere eine neue Partikel sk mit den folgenden Werten Kk = 1, νk = sk, ηk = 1 und kennzeichne sie als besucht, falls ein Qk kleiner als ein Schwellenwert ist.
    • 5) Entferne nicht als besucht und nicht als gealtert gekennzeichnete Partikel.
  • 9 ist ein Ablaufplan 80, der den zu jedem Zeitschritt t ausgeführten vorgeschlagenen Vereinigungsalgorithmus zeigt. Der Kasten 78 repräsentiert die Objektdateien, die zu jedem Zeitschritt erzeugt werden und die die Position, die Geschwindigkeit und die Richtung der Objekte, die detektiert und nachgeführt werden, bereitstellen, und das Objektmodell M für jedes Objekt, das nachgeführt wird. Wenn im Kasten 82 ein neuer Bildausschnitt von Entfernungsdaten von den Sensoren 16, 20, 24 und 28 bei dem Trägerfahrzeug 12 ankommt, konstruiert der Algorithmus zunächst im Kasten 84 in der oben diskutierten Weise die 3600 Punktwolke. Wenn die Punktwolke konstruiert worden ist, segmentiert der Algorithmus daraufhin im Kasten 86 die Absuchpunkte in der Wolke in Cluster, die spezifische Objekte identifizieren können. Um den Segmentierungsbetrieb auszuführen, bezeichne R die Absuchkarte in dem aktuellen Bildausschnitt (t + 1) und sei G = (R, E) ein ungerichteter Graph mit der Eckpunktmenge R. Eine Kante (p1, p2) ∊ E verknüpft pi und p2, falls ||p1–p2|| kleiner als ein vorgegebener Entfernungsschwellenwert ist. Daraufhin wird die Kennzeichnung verbundener Komponenten verwendet, um die Absuchkarte R in eine Liste von Clustern {S (t+1) / n } zu segmentieren. Das Segmentieren der Absuchpunkte in Cluster enthält das Trennen der Cluster von Absuchpunkten in den Rückgabepunktwolken in der Weise, dass Cluster ein getrenntes Objekt identifizieren, das nachgeführt wird.
  • Wenn die Absuchpunkte in Cluster segmentiert worden sind, passt der Algorithmus daraufhin im Kasten 88 die Cluster an die vorhergesagten Objektmodelle M ~ an. Insbesondere plant der Algorithmus nachgeführte Objektmodelle M bei dem vorhergehenden Zeitschritt im Kasten 90 unter Verwendung der Objektdaten 78 voraus. Um die vorausgeplanten Projektmodelle vorherzusagen, sei {M n / t} eine Liste von Objektmodellen M beim Zeitschritt t. Für jedes Objektmodell M n / t wird der Mittelwert einer Gauß'schen Komponente als ν n / j. bezeichnet. Falls y - n / t der Schätzwert der Transformation zum Zeitschritt t ist, ist die vorhergesagte Transformation zum Zeitschritt t + 1 y ~ n / t+1 = f(y - n / t). Somit ist das vorhergesagte Objektmodell M ~ für das n-te Objekt
    Figure DE102013113571A1_0030
    für alle j. Durch L = UnM ~ (t+1) / n werden die vorhergesagten Objektpunkte von dem Zeitschritt t bezeichnet.
  • Im Kasten 88 werden die segmentierten Cluster R' = {S n / t+1} unter Verwendung der vorausgeplanten nachgeführten Objektmodelle an vorhergesagte Objektmodelle L' = {M ~ n / t+1} angepasst. Zwischen der Eckpunktmenge L wird ein bipartiter Graph B = (L, R, EB) zu R konstruiert, wobei EB die Eckpunktmenge ist. Zwischen den Punkten p ∊ L und q ∊ R existiert dann und nur dann eine Kante, wenn ||p – q|| < D ist, wobei D ein Entfernungsschwellenwert ist. Die Gewichtung der Kante (p, q) ist als w(p, q) = ||p – q|| definiert. Die Umgebung von q ∊ R ist als N(q) – {p|(p,) ∊ EB} definiert.
  • Aus dem bipartiten Graphen B kann ein induzierter bipartiter Graph B' = (L, R' EB') definiert werden, wobei die Kantenmenge EB die mögliche Zuordnung zwischen den Objekten in L' und den segmentierten Clustern R' repräsentiert. Eine Kante zwischen p' ∊ L' und q' ∊ R' existiert dann und nur dann, wenn eine Kante (p, q) in B derart existiert, dass p' ∊ p und q' q ist.
  • Es sei L(p', q') die Teilmenge der Kantenmenge in B, d. h. E(p', q') ≡ {(p, q)|(p, q) ∊ EB ⋂ p ∊ p' ⋂ q' ∊ q). Die Gewichtung (p', q') bzw. die Mächtigkeit der Kante (p', q') werden definiert als:
    Figure DE102013113571A1_0031
  • Wenn der induzierte bipartite Graph B' konstruiert wird und wenn die Gewichtung und die Mächtigkeit der Kanten berechnet werden, werden die starke Kante und die weggeschnittene [engl.: ”pruned”] schwache Verbindung unter Verwendung des nachstehenden Algorithmus 3 ausgewählt.
  • 10 ist ein bipartiter Graph 100, d. h. B, auf einer Absuchpunktebene für fünf vorhergesagte Objektmodelle M ~ und fünf Cluster S bei dem aktuellen Zeitschritt t wie oben diskutiert. In dem bipartiten Graphen 100 repräsentieren Punkte 102 die vorhergesagten Objektmodellpunkte und repräsentieren Dreiecke 104 die segmentierten Absuchkartenpunkte. Die Linien 106 zwischen den Punkten 102 und den Dreiecken 104 sind die Kanten des Graphen 100.
  • Daraufhin führt der Algorithmus im Kasten 92 Datenpunktcluster zusammen und teilt sie auf, um detektierte Objekte, die dieselben sind, zu kombinieren und um Objekte, die ursprünglich als ein einzelnes Objekt detektiert wurden, die aber mehrere Objekte gebildet haben, aufzuteilen. Um die Zusammenführung und Aufteilung von Clustern bereitzustellen, stellt der folgende Algorithmus 3 eine Absuchzuordnung bereit.
  • 11 veranschaulicht einen induzierten bipartiten Graphen 110, d. h. B, der durch Zusammenlegen von Punkten zu Gruppen aus dem Graphen B hergeleitet wurde. In dem induzierten bipartiten Graphen 110 repräsentieren die Knoten 114 die Objektmodellpunkte (M), repräsentieren die Knoten 112 die Cluster der segmentierten Absuchpunkte (M) und repräsentieren die Linien 116 die Kanten, die die Anpassung zwischen den Objektmodellpunkten (M) und den segmentierten Absuchpunkten (S) definieren. Wie im Folgenden diskutiert wird, wird M ~1 zum Zeitpunkt t an S1 zum Zeitpunkt t + 1 angepasst, werden M ~2 und M ~3 zu S2 zum Zeitpunkt t + 1 zusammengeführt, wird M ~4 zum Zeitpunkt t in S3 und S4 zum Zeitpunkt t + 1 aufgeteilt, verschwindet M ~5 zum Zeitpunkt t und wird aus der Absuchkarte zum Zeitpunkt t + 1 entfernt und kommt S5 zum Zeitpunkt t + 1 an. In Schritt 3 des Algorithmus 3 werden die Kanten (M ~1, S1), (M ~2, S2), (M ~4, S3) und (M ~4, S4) hervorgehoben. In Schritt 4 wird M ~3 an S2 angepasst, wird die Kante (M ~3, S2) hervorgehoben. Somit wird die Strichlinie (M ~5, S2) in Schritt 5 als die schwache Verbindung weggeschnitten. 11 veranschaulicht, dass M ~1 direkt an S1 angepasst ist, dass die zwei anderen Fälle aber eine Clusterzusammenführung und -aufteilung benötigen.
  • Das vorhergesagte Objektmodell M ~4 wird in zwei angepasste Cluster S3 und S4 aufgeteilt. Die Absuchpunkte der aktuellen Cluster S3 und S4 werden unter Verwendung von Vorkenntnis, dass es in dem vorhergehenden Bildausschnitt ein Objekt gegeben hat, neu gruppiert. Üblicherweise ist ein stärkerer Hinweis auf die Unähnlichkeit notwendig, um ein existierendes nachgeführtes Objekt in zwei Cluster aufzuteilen.
  • Die zwei vorhergesagten Objektmodelle M ~2 und M ~3 werden einem Cluster S2 in dem aktuellen Bildausschnitt zugeordnet. Die Absuchpunkte in dem Cluster S2 werden neu gruppiert, da zwischen den Absuchpunkten eine stärkere Nähe notwendig ist, um die zwei nachgeführten Objekte zu einem Objekt zusammenzuführen.
  • Algorithmus 3: Absuchzuordnungsalgorithmus
    • Eingabe: die Cluster R' = {S (t+1) / n} und die vorhergesagten Objektmodelle L' = {M ~ (t+1) / n}.
    • Ausgabe: der weggeschnittene induzierte bipartite Graph B'
    • 1) Konstruiere den bipartiten Graphen B mit Absuchpunkten als die Eckpunkte.
    • 2) Konstruiere den induzierten Graphen B' mit Clustern und Konturen als die Eckpunkte und berechne unter Verwendung der Gleichungen (63) bzw. (64) die Gewichtung und Mächtigkeit der Kante.
    • 3) Ermittle für jedes q' ∊ R' in der Weise, dass die Mächtigkeit größer als ein Schwellenwert (d. h. c(p ' / *, q') > C) und p ' / * = argminp'∊ w(p', q') ist, w(p', q') und hebe die Kante (p ' / *, q') hervor.
    • 4) Ermittle für jedes p'' ∊ L', das nicht von den hervorgehobenen Kanten bedeckt ist, die Menge R'' ⊂ R' derart, dass jedes Element q'' von einer und nur von einer hervorgehobenen Kante bedeckt ist. Ermittle p'' derart, dass (p'', q'') > C und q '' / * = argminq''⊂R'' w(p'', q'') ist, und hebe die Kante (p'', q '' / *) hervor.
    • 5) Schneide alle nicht hervorgehobenen Kanten in B' ab.
  • Wie oben erwähnt wurde, werden im Kasten 94 neue Objekte erzeugt und verschwindende Objekte gelöscht. Insbesondere müssen zwei Spezialfälle behandelt werden, um in der Objektdatei neue Objekte zu erzeugen und vorhandene Objekte zu entfernen, wo keine in das Absuchcluster S5 eintretende Kante existiert. Für das Absuchcluster S5 wird ein Nachführungsinitialisierungsschritt ausgelöst und ein neues Objekt in der Objektdatei hinzugefügt, wobei das vorhergesagte Objektmodell M ~5 verschwindet und aus der Objektdatei entfernt wird, da es keine von ihm eingehende Kante gibt.
  • Wenn in dem Kasten 94 die neuen Objekte erzeugt werden und die verschwindenden Objekte gelöscht werden, stellt der Algorithmus daraufhin im Kasten 96 eine Nachführung und Modellaktualisierung bereit. Der Algorithmus 2 wird für jedes angepasste Paar von Objektmodellen Mt und Absuchclustern St+1, die z. B. durch den Prozess der gegenseitigen Ausrichtung des Absuchens des Algorithmus 1 bereitgestellt werden, für die Nachführung und für die Objektmodellaktualisierung verwendet.
  • Daraufhin wird die Objektdatei 78 im Kasten 98 aktualisiert und für den nächsten Zeitschritt für die Objektdatei 78 gespeichert. Die neue Transformation yt+1 und das aktualisierte Objektmodell Mt jedes Objekts werden in der Objektdatei zurückgespeichert und der Algorithmus wartet in dem nächsten Zeitschritt auf die Ankunft einer neuen Absuchkarte.
  • Falls die Drehung zwischen zwei aufeinanderfolgenden Absuchbildausschnitten klein ist, können die Parameter einer 2D-Transformation genähert werden durch: x' = x – ∊y + tx, (65) y' = ∊x + y + ty, (66) wobei (x, y) und (x', y') zwei Punkte im vorhergehenden bzw. aktuellen Bildausschnitt sind, ∊ der Drehwinkel ist und (tx, ty) die Translation ist.
  • Es sei mj = (xj, yj) und Sk = (x ' / k, y ' / k). Nach Einsetzen der Gleichungen (65) und (66) in Gleichung (55) können die partiellen Ableitungen für tx, ty und ∊ gebildet und nullgesetzt werden. y ~ = (t ~x, t ~y, ∊ ~)T bezeichne das durch Gleichung (49) vorhergesagte y. Falls ein konstantes Modell angenommen wird, werden t ~ = νxδt, t ~y = yxδt und ∊ ~ = wδt bereitgestellt, wobei δt die Dauer zwischen den Zeitschritten t und t – 1 ist.
  • Es können die folgenden Aktualisierungsregeln hergeleitet werden:
    Figure DE102013113571A1_0032
    wobei λx, λy und λ die aus der Kovarianzmatrix Q in Gleichung (50) hergeleiteten Gewichtungen sind.
  • Nach Ersetzen von Gleichung (38) durch die Gleichungen (67)–(69) wird der Algorithmus 1 angewendet, um tx, ty und ∊ als das y -t+1 iterativ zu berechnen.
  • νH und ωH bezeichnen die HV-Bodengeschwindigkeit bzw. die Gierrate. Die Bodengeschwindigkeit des Zielfahrzeugs 14 wird berechnet durch: νgx = νx + νH – xcωH, (70) νgy = νy + ycωH, (71) und die Richtung des Zielfahrzeugs 14 durch:
    Figure DE102013113571A1_0033
  • Das Verfahren und die Vorrichtung zum Detektieren und Nachführen mehrerer Objekte wie oben beschrieben können eine 360°-Sehfeldlösung zum Detektieren von Objekten durch das Trägerfahrzeug 12 bereitstellen. Allerdings müssen für einen LiDAR-Sensor die folgenden Probleme behandelt werden.
  • Das erste Problem sind die teilweisen Beobachtungen, die entweder durch Okklusion oder durch Lasermessungsfehler, z. B. durch niedrigen Reflexionsgrad oder durch Spiegelreflexion, verursacht werden. Zum Beispiel ist die Detektierungsentfernung eines Fahrzeugs mit schwarzer Farbe viel kleiner als die eines Fahrzeugs mit weißer Farbe.
  • Das nächste Problem ist die spärliche Messung wegen niedriger Auflösung, die eine niedrige Merkmalssalienz veranlasst und so unzureichend beim Detektieren von Fernfeldobjekten ist.
  • Ein weiteres Problem ist das begrenzte vertikale Sichtfeld wie etwa 4°, das eine fehlende Detektierung von Objekten auf einer nicht ebenen Straßenoberfläche verursacht.
  • Ein weiteres Problem ist das Fehlen von Kontextinformationen, die ein Objekt von einem überhäuften Hintergrund unterscheiden können.
  • Die vorliegende Erfindung schlägt einen verbesserten Vereinigungsalgorithmus zum Behandeln der oben beschriebenen Beschränkungen für die LiDAR-Sensoren vor. Insbesondere verwendet die vorliegende Erfindung Ausgaben von einem Radarsensor und/oder von einem Bilderkennungssystem in dem Fahrzeug, damit diese als ein Aufrufsignal arbeiten, um zu veranlassen, dass die Ausgaben des Vereinigungssystems für den LiDAR-Sensor ein Ziel identifizieren. Üblicherweise haben Radarsensoren eine große Reichweite, aber ein schmales Sichtfeld. Bilderkennungssysteme weisen üblicherweise ein kurzes Sichtfeld auf, stellen aber Kontakte zu dem detektierten Ziel bereit. Wie oben ist das verbesserte Vereinigungssystem, das diskutiert wird, zum Schätzen der Parameter x, y, vx, vy und ξ für jedes detektierte Objekt ausgelegt.
  • 12 ist ein Bild 150 eines innerhalb einer Straße 152 angezeigten Ziels, wie es durch einen LiDAR-Sensor, durch einen Radarsensor und durch ein Bilderkennungssystem in einem Trägerfahrzeug detektiert wird. Insbesondere ist das Ziel in einer ausreichend weiten Entfernung oder verdeckt, so dass es, wie durch die Punkte 156 repräsentiert ist, wenige LiDAR-Absuchpunkte gibt. Um die Detektierung des Ziels zu verbessern, definiert ein Bild 154 des Bilderkennungssystems dasselbe Ziel von einer Bilderkennungssystemausgabe und repräsentiert ein Radardatenpunkt 158 dasselbe Ziel, wie es durch einen Radarsensor detektiert wird.
  • 13 ist eine Darstellung eines Fahrzeugsystems 160 ähnlich dem oben diskutierten System 10 für ein Trägerfahrzeug 162, das einem Zielfahrzeug 164 hinterherfährt und es nachführt. Es sind dieselben Variablen für die Position, für die Geschwindigkeit, für den Richtungswinkel usw. wie in 1 gezeigt verwendet. In diesem Beispiel enthält das Trägerfahrzeug 162 einen LiDAR-Sensor 166, der ein Sichtfeld 168 aufweist, einen Radarsensor 170, der ein Sichtfeld 172 aufweist, und ein Bilderkennungssystem 174, das ein Sichtfeld 176 aufweist. Die Rückgaben von dem LiDAR-Sensor 166 sind als Absuchpunkte 178 gezeigt, die Rückgabe von dem Radarsensor 170 ist als Dreieck 180 bestimmt und die Rückgabe von dem Bilderkennungssystem 174 ist als Kasten 182 dargestellt. Wie im Gebiet bekannt ist, geben Bilderkennungssysteme und Radarsensoren vier Ausgaben von einem Ziel, d. h. die Entfernung zu dem Ziel, die Änderung der Entfernung zu dem Ziel, d. h. die Entfernungsrate, den Richtungswinkel des Ziels und die Änderung des Azimutwinkels des Ziels, d. h. die Azimutwinkelrate, aus.
  • 14 ist ein Blockschaltplan einer allgemeinen Übersicht eines vorgeschlagenen Vereinigungssystems 190. In jedem Zeitschritt wird das von dem Radarsensor 170 und/oder von dem Bilderkennungssystem 174 erfasste Ziel 0 = (01, 02, ...,
    Figure DE102013113571A1_0034
    ) von dem Kasten 192 an einen Aufrufkontextblock 194 gesendet. Wie oben diskutiert wurde, werden im Block 196 die LiDAR-Absuchclusterkarten für einen LiDAR-Nachführungsalgorithmusblock 198 bereitgestellt. Der Nachführungsalgorithmus empfängt von dem Block 194 die Aufrufkontextzieldaten und die Zieldaten werden an das gespeicherte Objektmodell angepasst, wobei der Wert no die Anzahl detektierter Ziele ist. Jedes Ziel oi = (x '' / i, y '' / i, ν '' / i, w '' / i) weist die Parameter der Längsverlagerung (x''), der Querverlagerung (y''), der Radialgeschwindigkeit (ν'') und der Quergeschwindigkeit (w'') auf. Die LiDAR-Absuchkarte R = (s1, s2, ..., sN)T mit jedem Absuchpunkt sk enthält einen Längsversatz x '' / i und einen Quersatz y '' / i, wobei N die Anzahl der Absuchpunkte ist. Der Nachführungsalgorithmus überwacht die Eingabe von dem Aufrufkontextkasten 194 und von der LiDAR-Absuchkarte und erzeugt für jedes detektierte Objekt die Ausgabeparameter x, y, vx vy und ξ. Ein Anwendungsblock 200 verwendet die geschätzten Parameter der Objekte und implementiert aktive Fahrzeugsicherheitsanwendungen wie etwa adaptiven Tempomat, Kollisionsmilderungsbremsung usw.
  • 15 ist ein Ablaufplandiagramm 204 ähnlich dem oben diskutierten Ablaufplandiagramm 80, wobei dieselben Betriebe mit denselben Bezugszeichen identifiziert sind. Das Ablaufplandiagramm 204 enthält den Kasten 206, der die Zieldaten von dem Radarsensor 170 oder von dem Bilderkennungssystem 174 liest. Nachfolgend richtet der Algorithmus in dem Kasten 208 die Zieldaten genau auf das LiDAR-Koordinatensystem aus. Um dies auszuführen, seien y0 die Parameter (Translation und Drehung) der starren Transformation T, die ein Ziel von dem Radarsensor 170 oder von dem Bilderkennungssystem 174 in der Weise auf das LiDAR-Koordinatensystem abbildet, dass die abgebildeten Ziele in dem LiDAR-System wie folgt sind:
    Figure DE102013113571A1_0035
  • Der Parameter y0 für die gegenseitige Ausrichtung kann über angepasste Paare zwischen den nachgeführten LiDAR-Objekten und den Zielen von dem Radarsensor 170 oder von dem Bilderkennungssystem 174 automatisch geschätzt werden. Das US-Patent Nr. 7,991,550 mit dem Titel Method and Apparatus for Onvehicle Calibration and Orientation of Object-Tracking Systems, erteilt am 7. August 2011, übertragen auf den Anmelder dieser Anmeldung und hier durch Bezugnahme mit aufgenommen, offenbart eine für diesen Zweck geeignete Technik.
  • Nachfolgend passt der Algorithmus im Kasten 210 die Zieldaten von dem Radarsensor 170 oder von dem Bilderkennungssystem 174 an Objektmodelle M an. Der Prozess ist in 16 als Bild 230 dargestellt, das ein Trägerfahrzeug 232 enthält, wobei die Punkte 234 Objektmodellpunkte sind, die Dreiecke 236 Radarziele sind und die Rauten 238 virtuelle Absuchpunkte sind, die von den Bilddaten von dem Bilderkennungssystem 174 abgeleitet sind. Ein Radarziel or wird durch einen durch die Dreiecke 236 repräsentierten Punkt modelliert. Ein Bilderkennungsziel Oν wird als ein Rechteck modelliert, das durch eine Liste von Punkten repräsentiert werden kann, die an der Kante des Rechtecks durch von dem Trägerfahrzeug 232 einfallende ”virtuelle Absuchlinien” abgetastet werden. Der Wert Oν = {ol|l = 1, ..., 6} ist als die Rauten 238 gezeigt. Es werden die Menge von Objektmodellen L' = {M ~n} und Absuchpunkten aller Objektmodelle L' = UnM ~n definiert. R = {oi} bezeichne alle Zielpunkte, entweder Dreiecke oder Rauten, von dem Radarsensor 170 bzw. von dem Bilderkennungssystem 174.
  • Die oben diskutierte Prozedur wird zum Konstruieren eines in 17 gezeigten weggeschnittenen Graphen 240 genutzt. Der Graph 240 zeigt die Objektbewegung 242 bei den Knoten 246 und die Objektmodelle 244 bei den Knoten 248, wobei O1 ↔ M ~1 O2 ↔ M ~2, O3 ein Kandidat für die Erzeugung eines neuen Objekts ist und ein vorhergesagtes Objektmodell M ~3, das aus der Objektdatei entfernt werden kann, als verschwindend markiert ist.
  • Der Algorithmus stellt unter Verwendung der vorhergesagten Nachführungsobjektmodelle M ~ von dem Kasten 90, der angepassten Cluster mit vorausgeplanten Objektmodellen M ~ von dem Kasten 88 und der angepassten Zieldaten mit den Objektmodellen von dem Kasten 210 in dem Kasten 212 eine Zusammenführung und Aufteilung von Objektmodellen M bereit. Es werden zwei Fälle, d. h. Bilderkennungsziele und Radarziele, betrachtet. 18 zeigt einen bipartiten Graphen 250 für den Fall, dass zwei vorhergesagte Objektmodelle M ~1 und M ~2 an das Bilderkennungsziel O1 angepasst werden. Diese Aufrufinformationen von dem Bilderkennungssystem 74 weisen nach, dass die zwei Objektmodelle M ~1 und M ~2 als ein neues Objektmodell M ~1-2 zusammengeführt werden müssen.
  • 19 ist ein induzierter bipartiter Graph 252, der die Zusammenführung der Objektmodelle M ~1 und M ~2 bei den Knoten 256 von dem Bilderkennungsziel O1 bei dem Knoten 254 zu dem einzelnen Objektmodell M ~1-2 zeigt.
  • 20 ist ein bipartiter Graph 260, der einen anderen Fall zeigt, in dem ein Objektmodell M ~1 an zwei Bilderkennungsziele O1 und O2 angepasst ist. Die Aufrufinformationen von dem Bilderkennungssystem 174 weisen nach, dass das Objektmodell M ~1 in zwei getrennte Objektmodelle M ~1a und M ~1b aufgeteilt werden muss.
  • 21 ist ein induzierter bipartiter Graph 262, der die Aufteilung des wie durch die zwei durch die Knoten 266 und 268 repräsentierten Bilderkennungsziele O1 und O2 detektierten Objektmodells M ~1 bei dem Knoten 264 in die durch die Knoten 270 bzw. 272 repräsentierten Objektmodelle M ~1a und M ~1b zeigt.
  • 22 ist ein bipartiter Graph 270, der einen Fall zeigt, in dem die Punktmenge R für zwei Objektmodelle M ~1 und M ~2 mit drei Radarzielen O1, O2 und O3 angepasst wird.
  • 23 ist ein induzierter bipartiter Graph 276, der die Zuweisung O1 → M ~1, O2 M ~2 und O3 → M ~2 zeigt. Insbesondere zeigt der Graph 276, dass das Radarziel O1 bei dem Knoten 278 an das Objektmodell M ~1 bei dem Knoten 280 angepasst wird und dass die Radarziele O2 und O3 bei den Knoten 282 bzw. 284 zu einem einzelnen Objektmodell M ~2 bei dem Knoten 286 zusammengeführt werden.
  • Nachfolgend erzeugt der Algorithmus im Kasten 214 neue Objekte und löscht er verschwindende Objekte. Ähnlich der oben für das Ablaufplandiagramm 80 diskutierten Prozedur müssen zwei Spezialfälle behandelt werden, um neue Objekte zu erzeugen und um verschwindende Objekte aus der Objektdatei zu entfernen. Für jedes nicht angepasste Absuchcluster S von einem LiDAR-Segment und für jedes nicht angepasste Ziel von dem Radarsensor 170 oder von dem Bilderkennungssystem 174 wird eine Nachführungsinitialisierungsprozedur verwendet, um ein neues Objekt zu der Objektdatei hinzuzufügen. Falls es für ein Objekt in der Objektdatei keine Anpassung entweder an ein segmentiertes Cluster S von dem LiDAR-Sensor 166 oder an ein Ziel von dem Radarsensor 170 oder von dem Bilderkennungssystem 174 gibt, wird das Objekt als verschwindend gekennzeichnet. Falls das Objekt in mehreren aufeinanderfolgenden Zeitschritten ständig als verschwindend gekennzeichnet wird, wird es aus der Objektdatei entfernt.
  • Nachfolgend stellt der Algorithmus im Kasten 216 eine Nachführung und Modellaktualisierung bereit. Um diese auszuführen, seien Oo, ..., Ot und Ot+1 in dieser Reihenfolge die abgebildeten Messungen in dem LiDAR-Koordinatensystem eines dynamischen Objekts durch den Radarsensor 170 oder durch das Bilderkennungssystem 174 zu den Zeitschritten 0, ..., t und t + 1. Die Messung von dem Zeitschritt 0 bis zu dem Zeitschritt t ist mit
    Figure DE102013113571A1_0036
    bezeichnet.
  • 24 veranschaulicht ein abgeändertes dynamisches Bayes-Netz 290 aus 8, das zwei Zeitschritte des vorgeschlagenen Nachführungsalgorithmus mit Aufrufinformationen repräsentiert. Die Werte yt und yt+1 sind zu schätzende Parameter der Transformation in den Zeitschritten t bzw. t + 1. Die Modelle Mt und Mt+1 sind die Objektmodelle zu den Zeitschritten t und t + 1. In dem Netz 290 sind die Knoten 292 die Zieldaten ot und ot+1 zu den Zeitschritten t und t + 1, sind die Knoten 294 die Transformationsparameter y zu den Zeitschritten t und t + 1, sind die Knoten 296 die Objektmodelle M zu den Zeitschritten t und t + 1 und sind die Knoten 298 die Absuchkarten zu den Zeitschritten t und t + 1.
  • Ähnlich wie in Gleichung (47) werden die Bayes-Regel bzw. die Kettenregel verwendet, um die A-posteriori-PDF bei gegebenen LiDAR-Absuchkarten und Zieldaten von dem Radarsensor 170 oder von dem Bilderkennungssystem 174 bis zu dem Zeitschritt t + 1 wie folgt herzuleiten: p(y, M|S(0:t+1), O(0:t+1)) ∝ p(S|y, M)p(o|y, M)p(y, M|S(0:t), o(0:t)) = p(S|y, M)p(o|y)p(y|S(0:t), o(0:t))p(M|S(0:t), o(0:t)), (74) wobei y und M kurz für yt+1 und Mt sind, S(0:t+1) Absuchkarten bis zu dem Zeitschritt t + 1 repräsentiert, S die Absuchkarte bei t + 1 ist, o = ot+1 kurz das gemessene Ziel zu dem Zeitschritt t + 1 ist und die letzte Gleichung unter der Annahme einer bedingten Unabhängigkeit bei gegebenen S(0:t) und o(0:t) folgt.
  • In Gleichung (74) ist p(y, M|S(0:t), o(0:t)) die frühere PDF von y zum Zeitschritt t + 1 bei gegebenen vorhergehenden Absuchkarten S(0:t) und Zieldaten o(0:t), die berechnet werden kann als: p(y|S(0:t), o(0:t)) = ∫p(y|yt)p(yt|S(0:t), o(0:t))dyt, (75) wobei p(yt|S(0:t), o(0:t)) die A-posteriori-PDF für den Transformationsparameter bei t bezeichnet und p(y|yt) die Anlagenmodellgleichung (49) repräsentiert.
  • Falls p(yt|S(0:t), o(0:t)) als eine Dirac'sche Deltaverteilung mit dem Zentrum bei y / -t, angenommen ist, kann die frühere PDF zum Zeitschritt t + 1 geschrieben werden als: p(y,|S(0:t), o(0:t)) = N(y|y ~, Q), (76) wobei y ~ der vorhergesagte Werte des folgenden Anlagenmodells des Objekts y ~ = ∫(y -,) ist.
  • Nun wird die A-posteriori-Wahrscheinlichkeit des Objektmodells M betrachtet, wobei
    Figure DE102013113571A1_0037
    ist und wobei
    Figure DE102013113571A1_0038
    in Gleichung (51) definiert ist. Wie in 24 gezeigt ist, kann das frühere Netz für das Objektmodell zum Zeitschritt t geschrieben werden als:
    Figure DE102013113571A1_0039
  • Nun wird das Problem der Schätzung der A-posteriori-Wahrscheinlichkeit zum Zeitschritt t + 1 betrachtet, die faktorisiert wird als: p(y, M|S(0:t+1), o(0:t+1)) = p(y|S(0:t+1), o(0:t+1))p(M|S(0:t+1), o(0:t+1)) (79) und als die folgenden zwei Schritte unabhängig berechnet wird.
  • Es wird angenommen, dass p(y|S(0:t+1), o(0:t+1)) die Dirac'sche Delta-PDF mit dem Zentrum bei y -t+1 ist, die durch Maximieren von Gleichung (74) in Bezug auf y geschätzt werden kann.
  • Das Messmodell der Zieldaten p(o|y) wird wie folgt modelliert: o = h(y) + ν, (80) wobei ν eine Gauß'sche Zufallsvariable mit dem Mittelwert null mit der Kovarianzmatrix E ist. Somit ist p(o|y) eine Gauß'sche PDF, d. h.: p(o|y) = N(o|h(y), E). (81)
  • Durch Einsetzen der Gleichungen (76) und (81) in Gleichung (74), durch Anwenden eines negativen Logarithmus auf Gleichung (74) und durch Vernachlässigen der für y irrelevanten Terme kann Folgendes erhalten werden: y -t+1 = argminy – ΣkjakjlogKσ(Ty –1(sk) – mj) + o – hyE2 + y – yQ2, (82) wobei
    Figure DE102013113571A1_0040
    sind.
  • Somit kann Gleichung (38) im Algorithmus 1 durch Gleichung (55) ersetzt werden, um frühere Informationen vorhergehender Zeitschritte und Aufrufinformationen von dem Radarsensor 170 oder von dem Bilderkennungssystem 174 zu integrieren und um daraufhin den Algorithmus 1 anzuwenden, um herzuleiten.
  • Wenn p(M|S(0:t+1), 0(0:t+1) berechnet wird, wird angemerkt, dass Gleichung (78) und Gleichung (53) äquivalent sind und dass somit dieselben oben beschriebenen Aktualisierungsregeln für Hyperparameter angewendet werden.
  • Daraufhin wird die Objektdatei 78 in dem Kasten 98 in der wie oben diskutierten Weise aktualisiert.
  • Wie der Fachmann auf dem Gebiet gut versteht, können sich die mehreren und verschiedenen hier zur Beschreibung der Erfindung diskutierten Schritte und Prozesse auf durch einen Computer, durch einen Prozessor oder durch eine andere elektronische Rechenvorrichtung, die Daten unter Verwendung einer elektrischen Erscheinung manipulieren und/oder transformieren, ausgeführte Betriebe beziehen. Diese Computer und elektronischen Vorrichtungen können verschiedene flüchtige und/oder nicht flüchtige Speicher einschließlich eines nicht vorübergehenden computerlesbaren Mediums mit einem darauf gespeicherten ausführbaren Programm, das verschiedenen Code oder ausführbare Anweisungen enthält, die durch den Computer oder Prozessor ausgeführt werden können, nutzen, wobei der Speicher und/oder das computerlesbare Medium alle Formen und Arten von Speicher und anderen computerlesbaren Medien enthalten kann.
  • Die vorstehende Diskussion hat lediglich beispielhafte Ausführungsformen der vorliegenden Erfindung offenbart und beschrieben. Der Fachmann auf dem Gebiet erkennt aus dieser Diskussion und aus den vorstehenden Zeichnungen und Ansprüchen leicht, dass daran verschiedene Änderungen, Abwandlungen und Veränderungen vorgenommen werden können, ohne von dem wie in den folgenden Ansprüchen definierten Erfindungsgedanken und Schutzumfang der Erfindung abzuweichen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 7991550 [0116]

Claims (10)

  1. Verfahren zum Vereinigen von Ausgaben von mehreren LiDAR-Sensoren in einem Fahrzeug, wobei das Verfahren umfasst: Bereitstellen von Objektdateien für durch die LiDAR-Sensoren zu einem vorhergehenden Abtastzeitpunkt detektierte Objekte, wobei die Objektdateien Objektmodelle aufweisen, die eine Position, eine Orientierung und eine Geschwindigkeit der durch die Sensoren detektierten Objekte identifizieren; Nachführen der Objektmodelle der durch die Sensoren detektierten Objekte; Vorausplanen nachgeführter Objektmodelle in den Objektdateien von dem vorhergehenden Abtastzeitpunkt, um vorhergesagte Objektmodelle bereitzustellen; Empfangen mehrerer Absuchrückgaben von in einem Sichtfeld der Sensoren zu einem aktuellen Abtastzeitpunkt detektierten Objekten; Konstruieren einer Absuchpunktwolke aus den Absuchrückgaben; Segmentieren der Absuchpunkte in der Absuchpunktwolke zu vorhergesagten Absuchclustern, wobei jedes Absuchcluster anfangs ein durch die Sensoren detektiertes Objekt identifiziert; Anpassen der vorhergesagten Absuchcluster an die vorhergesagten Objektmodelle; Lesen von Objektdaten von durch einen Radarsensor oder durch ein Bilderkennungssystem detektierten Objekten; gegenseitiges Ausrichten der Objektdaten auf ein für die Absuchpunkte der LiDAR-Sensoren bestimmtes Koordinatensystem; Anpassen der Objektdaten an die Objektmodelle in den Objektdateien unter Verwendung der vorhergesagten Objektmodelle; Zusammenführen vorhergesagter Objektmodelle, die zu dem vorhergehenden Abtastzeitpunkt als getrennte Absuchcluster identifiziert worden sind, nun aber unter Verwendung der angepassten vorhergesagten Absuchcluster und der angepassten Objektdaten zu dem aktuellen Abtastzeitpunkt als ein einzelnes Absuchcluster identifiziert werden; Aufteilen vorhergesagter Objektmodelle, die zu dem vorhergehenden Abtastzeitpunkt als ein einzelnes Absuchcluster identifiziert worden sind, nun aber unter Verwendung der angepassten vorhergesagten Absuchcluster und der angepassten Objektdaten zu dem aktuellen Abtastzeitpunkt als getrennte Absuchcluster identifiziert werden; Erzeugen neuer Objektmodelle für detektierte Objekte in dem aktuellen Abtastzeitpunkt, die zu dem vorhergehenden Abtastzeitpunkt nicht vorhanden waren, unter Verwendung der angepassten vorhergesagten Absuchcluster und der angepassten Objektdaten; Löschen von Objektmodellen, die in den vorhergesagten Absuchclustern nicht mehr vorhanden sind, unter Verwendung der angepassten vorhergesagten Absuchcluster und der angepassten Objektdaten; Bereitstellen von Objektmodellaktualisierungen auf der Grundlage der zusammengeführten Objektmodelle, der aufgeteilten Objektmodelle, der neuen Objektmodelle und der gelöschten Objektmodelle; und Aktualisieren der Objektdateien für den aktuellen Abtastzeitpunkt mit den Objektmodellaktualisierungen.
  2. Verfahren nach Anspruch 1, wobei das Segmentieren der Absuchpunkte in der Punktwolke das Aufteilen der Cluster von Absuchpunkten in der Punktwolke in der Weise enthält, dass Cluster ein getrenntes Objekt identifizieren, das nachgeführt wird.
  3. Verfahren nach Anspruch 1, wobei das Anpassen der vorhergesagten Absuchcluster an die vorhergesagten Objektmodelle das Erzeugen eines bipartiten bzw. zweigeteilten Graphen, der die Absuchcluster an die vorhergesagten Objektmodelle anpasst, enthält.
  4. Verfahren nach Anspruch 3, wobei das Erzeugen eines bipartiten Graphen das Positionieren der Absuchpunkte an Eckpunkten des Graphen enthält.
  5. Verfahren nach Anspruch 3, wobei das Zusammenführen vorhergesagter Objektmodelle und das Aufteilen vorhergesagter Objektmodelle das Umsetzen des bipartiten Graphen in einen induzierten bipartiten Graphen umfasst, der die Objektmodelle zeigt, die zusammengeführt oder aufgeteilt werden.
  6. Verfahren nach Anspruch 5, wobei das Umsetzen des bipartiten Graphen in einen induzierten bipartiten Graphen das Berechnen von Gewichtungen und einer Mächtigkeit von Kanten für den induzierten bipartiten Graphen enthält, wobei jede Gewichtung eine Positionsänderung eines der Absuchpunkte für den wenigstens einen Sensor an einem Ort eines Absuchpunkts für einen anderen der Sensoren identifiziert und wobei die Kanten die Anpassung zwischen Objektmodellpunkten und segmentierten Absuchpunkten definieren.
  7. Verfahren nach Anspruch 6, wobei das Umsetzen des bipartiten Graphen in einen induzierten bipartiten Graphen das Vergleichen der Mächtigkeit der Kanten mit einem Schwellenwert und das Hervorheben der Kante, falls die Mächtigkeit größer als der Schwellenwert ist, enthält und wobei eine Kante entfernt wird, falls sie nicht hervorgehoben ist.
  8. Verfahren nach Anspruch 7, wobei das Löschen von Objektmodellen, die in den vorhergesagten Absuchclustern nicht mehr vorhanden sind, das Löschen eines Objektmodells, das mit einer Kante verbunden war, die entfernt worden ist, enthält.
  9. Verfahren nach Anspruch 1, wobei das Bereitstellen von Objektmodellaktualisierungen das Identifizieren der Objektdaten, eines Transformationsparameters, der Objektmodelle und der Absuchkartencluster in einem Bayes-Netz für den Bildausschnitt zum vorhergehenden Zeitpunkt zu dem Bildausschnitt zum aktuellen Zeitpunkt enthält.
  10. System zum Vereinigen von Ausgaben von mehreren LiDAR-Sensoren in einem Fahrzeug, wobei das System umfasst: ein Mittel zum Bereitstellen von Objektdateien für durch die LiDAR-Sensoren zu einem vorhergehenden Abtastzeitpunkt detektierte Objekte, wobei die Objektdateien Objektmodelle aufweisen, die eine Position, eine Orientierung und eine Geschwindigkeit der durch die Sensoren detektierten Objekte identifizieren; ein Mittel zum Nachführen der Objektmodelle der durch die Sensoren detektierten Objekte; ein Mittel zum Vorausplanen nachgeführter Objektmodelle in den Objektdateien von dem vorhergehenden Abtastzeitpunkt, um vorhergesagte Objektmodelle bereitzustellen; ein Mittel zum Empfangen mehrerer Absuchrückgaben von in einem Sichtfeld der Sensoren zu einem aktuellen Abtastzeitpunkt detektierten Objekten; ein Mittel zum Konstruieren einer Absuchpunktwolke aus den Absuchrückgaben; ein Mittel zum Segmentieren der Absuchpunkte in der Absuchpunktwolke zu vorhergesagten Absuchclustern, wobei jedes Absuchcluster anfangs ein durch die Sensoren detektiertes Objekt identifiziert; ein Mittel zum Anpassen der vorhergesagten Absuchcluster an die vorhergesagten Objektmodelle; ein Mittel zum Lesen von Objektdaten von durch einen Radarsensor oder durch ein Bilderkennungssystem detektierten Objekten; ein Mittel zum gegenseitigen Ausrichten der Objektdaten auf ein für die Absuchpunkte der LiDAR-Sensoren bestimmtes Koordinatensystem; ein Mittel zum Anpassen der Objektdaten an die Objektmodelle in den Objektdateien unter Verwendung der vorhergesagten Objektmodelle; ein Mittel zum Zusammenführen vorhergesagter Objektmodelle, die zu dem vorhergehenden Abtastzeitpunkt als getrennte Absuchcluster identifiziert worden sind, nun aber unter Verwendung der angepassten vorhergesagten Absuchcluster und der angepassten Objektdaten zu dem aktuellen Abtastzeitpunkt als ein einzelnes Absuchcluster identifiziert werden; und ein Mittel zum Aufteilen vorhergesagter Objektmodelle, die zu dem vorhergehenden Abtastzeitpunkt als ein einzelnes Absuchcluster identifiziert worden sind, nun aber unter Verwendung der angepassten vorhergesagten Absuchcluster und der angepassten Objektdaten zu dem aktuellen Abtastzeitpunkt als getrennte Absuchcluster identifiziert werden.
DE102013113571.4A 2012-03-15 2013-12-05 Verfahren und Vorrichtungen zum Vereinigen von Radar/Kamera-Objektdaten und LiDAR-Absuchpunkten Ceased DE102013113571A1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261611492P 2012-03-15 2012-03-15
US13/789,412 2013-03-07
US13/789,412 US9128185B2 (en) 2012-03-15 2013-03-07 Methods and apparatus of fusing radar/camera object data and LiDAR scan points

Publications (1)

Publication Number Publication Date
DE102013113571A1 true DE102013113571A1 (de) 2014-09-11

Family

ID=49157315

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013113571.4A Ceased DE102013113571A1 (de) 2012-03-15 2013-12-05 Verfahren und Vorrichtungen zum Vereinigen von Radar/Kamera-Objektdaten und LiDAR-Absuchpunkten

Country Status (3)

Country Link
US (2) US9128185B2 (de)
CN (1) CN104035071B (de)
DE (1) DE102013113571A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015118874A1 (de) * 2015-11-04 2017-05-04 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben eines Sensorsystems eines Kraftfahrzeugs, Fahrerassistenzsystem und System zum Kalibrieren eines Sensorsystems eines Kraftfahrzeugs
DE102019206503A1 (de) * 2019-05-07 2020-11-12 Zf Friedrichshafen Ag Verfahren und Steuereinheit zum Betreiben eines autonomen Fahrzeugs

Families Citing this family (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9129211B2 (en) * 2012-03-15 2015-09-08 GM Global Technology Operations LLC Bayesian network to track objects using scan points using multiple LiDAR sensors
US10609335B2 (en) * 2012-03-23 2020-03-31 Magna Electronics Inc. Vehicle vision system with accelerated object confirmation
US9152526B2 (en) * 2012-11-16 2015-10-06 GM Global Technology Operations LLC Method and apparatus for state of health estimation of object sensing fusion system
US9086481B1 (en) * 2013-01-18 2015-07-21 Google Inc. Methods and systems for estimating vehicle speed
CN104657968B (zh) * 2013-11-25 2017-05-24 武汉海达数云技术有限公司 车载三维激光点云立面分类及轮廓线提取自动化方法
NO336680B1 (no) * 2013-12-04 2015-10-19 Global Maritime As Fremgangsmåte for estimering av risiko for minst én utilsiktet sluppet last fra minst én kran på en plattform eller et fartøy på undersjøiske rørledninger og annet undersjøisk utstyr, samt anvendelser av fremgangsmåten
KR101583928B1 (ko) * 2014-05-12 2016-01-11 현대자동차주식회사 외장에어백 전개방법
ES2675363T3 (es) * 2014-06-05 2018-07-10 Softbank Robotics Europe Procedimiento de construcción de un mapa de probabilidad entre la ausencia y la presencia de obstáculos para un robot autónomo
CN106030431B (zh) * 2014-08-15 2017-11-03 深圳市大疆创新科技有限公司 传感器的自动标定系统及方法
JP6716857B2 (ja) * 2014-12-26 2020-07-01 株式会社リコー 移動体、測定システム、測定方法及びプログラム
US9555736B2 (en) 2015-04-03 2017-01-31 Magna Electronics Inc. Vehicle headlamp control using sensing and communication systems
US10436904B2 (en) 2015-04-15 2019-10-08 The Boeing Company Systems and methods for modular LADAR scanning
US10698111B2 (en) 2015-05-15 2020-06-30 Sikorsky Aircraft Corporation Adaptive point cloud window selection
US10007852B2 (en) * 2015-05-29 2018-06-26 Bae Systems Information And Electronic Systems Integration Inc. Methods and apparatuses for performing object tracking using graphs
JP6539228B2 (ja) * 2015-06-16 2019-07-03 株式会社デンソー 車両制御装置、及び車両制御方法
US10795000B2 (en) 2015-07-10 2020-10-06 The Boeing Company Laser distance and ranging (LADAR) apparatus, array, and method of assembling thereof
US9616886B2 (en) 2015-07-16 2017-04-11 Toyota Motor Engineering & Manufacturing North America, Inc. Size adjustment of forward objects for autonomous vehicles
US10054678B2 (en) 2015-07-30 2018-08-21 Toyota Motor Engineering & Manufacturing North America, Inc. Minimizing incorrect sensor data associations for autonomous vehicles
US9886857B2 (en) * 2015-09-16 2018-02-06 Here Global B.V. Organized intelligent merging
KR101714233B1 (ko) * 2015-10-06 2017-03-08 현대자동차주식회사 도로상의 물체 검출 장치 및 그 방법
DE102015013271A1 (de) * 2015-10-13 2017-04-13 Daimler Ag Vorrichtung und Verfahren zur Steuerung eines Scheinwerfers
US10605920B2 (en) * 2016-01-13 2020-03-31 Ams Sensors Singapore Pte. Ltd. Power savings through refresh control for distance sensing devices
US10565468B2 (en) * 2016-01-19 2020-02-18 Aptiv Technologies Limited Object tracking system with radar/vision fusion for automated vehicles
KR101795432B1 (ko) 2016-02-26 2017-11-10 현대자동차주식회사 차량 및 차량의 제어방법
US10317522B2 (en) * 2016-03-01 2019-06-11 GM Global Technology Operations LLC Detecting long objects by sensor fusion
US10088553B2 (en) * 2016-03-14 2018-10-02 GM Global Technology Operations LLC Method of automatic sensor pose estimation
CN107193011A (zh) * 2016-03-15 2017-09-22 山东理工大学 一种用于快速计算无人驾驶车感兴趣区域内车辆速度的方法
CN105891839B (zh) * 2016-04-02 2018-04-27 上海大学 一种具有彩色点云获取能力的全向激光雷达装置
US10380503B2 (en) 2016-04-08 2019-08-13 Here Global B.V. Distributed online learning for privacy-preserving personal predictive models
US10545229B2 (en) * 2016-04-22 2020-01-28 Huawei Technologies Co., Ltd. Systems and methods for unified mapping of an environment
CN105857182A (zh) * 2016-05-19 2016-08-17 奇瑞汽车股份有限公司 一种电动汽车
CN106056563A (zh) * 2016-05-20 2016-10-26 首都师范大学 一种机载激光点云数据与车载激光点云数据融合方法
KR101887436B1 (ko) * 2016-06-29 2018-09-06 현대오트론 주식회사 물체 탐지 장치 및 방법
KR102637515B1 (ko) * 2016-07-26 2024-02-19 현대자동차주식회사 차량 및 차량의 제어방법
FR3054672B1 (fr) * 2016-07-29 2019-09-13 Valeo Schalter Und Sensoren Gmbh Procede et systeme d'association de donnees de detection et de suivi d'objets mobile pour vehicule automobile
US11092690B1 (en) 2016-09-22 2021-08-17 Apple Inc. Predicting lidar data using machine learning
WO2018115917A1 (en) 2016-12-20 2018-06-28 Toyota Motor Europe Electronic device, system and method for augmenting image data of a passive optical sensor
US10782409B2 (en) * 2016-12-29 2020-09-22 Intel Corporation Technologies for LIDAR based moving object detection
CN108286976A (zh) * 2017-01-09 2018-07-17 北京四维图新科技股份有限公司 一种点云数据的融合方法和装置、以及混合导航系统
US10838067B2 (en) 2017-01-17 2020-11-17 Aptiv Technologies Limited Object detection system
US11953599B2 (en) 2017-01-26 2024-04-09 Mobileye Vision Technologies Ltd. Vehicle navigation based on aligned image and LIDAR information
US10290158B2 (en) 2017-02-03 2019-05-14 Ford Global Technologies, Llc System and method for assessing the interior of an autonomous vehicle
US10473766B2 (en) 2017-03-13 2019-11-12 The Charles Stark Draper Laboratory, Inc. Light detection and ranging (LiDAR) system and method
US10509974B2 (en) 2017-04-21 2019-12-17 Ford Global Technologies, Llc Stain and trash detection systems and methods
US10552691B2 (en) 2017-04-25 2020-02-04 TuSimple System and method for vehicle position and velocity estimation based on camera and lidar data
US11055605B2 (en) * 2017-04-25 2021-07-06 Nec Corporation Detecting dangerous driving situations by parsing a scene graph of radar detections
WO2018195996A1 (en) * 2017-04-28 2018-11-01 SZ DJI Technology Co., Ltd. Multi-object tracking based on lidar point cloud
US10304165B2 (en) 2017-05-12 2019-05-28 Ford Global Technologies, Llc Vehicle stain and trash detection systems and methods
WO2018209606A1 (en) * 2017-05-17 2018-11-22 O-Net Communications (Shenzhen) Limited Vehicle-mounted light detection and ranging (lidar) system
US10602242B2 (en) * 2017-06-14 2020-03-24 GM Global Technology Operations LLC Apparatus, method and system for multi-mode fusion processing of data of multiple different formats sensed from heterogeneous devices
CN109212530B (zh) * 2017-07-04 2022-03-11 阿波罗智能技术(北京)有限公司 用于确定障碍物速度的方法和装置
US9950685B1 (en) * 2017-07-27 2018-04-24 Feniex Industries, Inc. 360 degree intrusion detection and warning system
CN107544095B (zh) * 2017-07-28 2019-03-08 河南工程学院 一种地面三维激光点云与探地雷达图像融合的方法
EP3438776B1 (de) * 2017-08-04 2022-09-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren, vorrichtung und computerprogramm für ein fahrzeug
US11455565B2 (en) 2017-08-31 2022-09-27 Ford Global Technologies, Llc Augmenting real sensor recordings with simulated sensor data
US11487988B2 (en) 2017-08-31 2022-11-01 Ford Global Technologies, Llc Augmenting real sensor recordings with simulated sensor data
US10962641B2 (en) * 2017-09-07 2021-03-30 Magna Electronics Inc. Vehicle radar sensing system with enhanced accuracy using interferometry techniques
US11714193B1 (en) * 2017-09-19 2023-08-01 Direct Current Capital LLC Method for registering distance scan data
US10436885B2 (en) * 2017-10-19 2019-10-08 DeepMap Inc. Calibrating sensors mounted on an autonomous vehicle
US10324189B2 (en) * 2017-10-24 2019-06-18 Harman International Industries, Incorporated Collaborative data processing
EP3477616A1 (de) 2017-10-27 2019-05-01 Sigra Technologies GmbH Verfahren zur steuerung eines fahrzeugs mithilfe eines maschinenlernsystems
CN109839645B (zh) * 2017-11-24 2021-05-25 北京京东乾石科技有限公司 速度检测方法、系统、电子设备和计算机可读介质
CN108318895B (zh) * 2017-12-19 2020-02-07 深圳市海梁科技有限公司 用于无人驾驶车辆的障碍物识别方法、装置及终端设备
US11585920B2 (en) 2017-12-28 2023-02-21 Intel Corporation Vehicle sensor fusion
CN108230379B (zh) * 2017-12-29 2020-12-04 百度在线网络技术(北京)有限公司 用于融合点云数据的方法和装置
US20210033712A1 (en) * 2018-02-09 2021-02-04 Sony Corporation Calibration apparatus, calibration method, and program
DE102018202303B4 (de) * 2018-02-15 2022-06-15 Robert Bosch Gmbh Sensorsystem zum Anbringen einer Sensoranordnung an einem Fahrzeug
EP3527332A1 (de) * 2018-02-20 2019-08-21 Sick AG Sichere sensorvorrichtung und verfahren zur absicherung einer beweglichen maschine
US10529089B2 (en) * 2018-02-23 2020-01-07 GM Global Technology Operations LLC Crowd-sensed point cloud map
JP6895911B2 (ja) * 2018-03-05 2021-06-30 株式会社デンソーアイティーラボラトリ 物体追跡装置、物体追跡方法及び物体追跡用コンピュータプログラム
FR3079034B1 (fr) 2018-03-14 2020-02-21 Renault S.A.S Procede robuste de detection d'obstacles, notamment pour vehicules autonomes
FR3079924B1 (fr) * 2018-04-10 2021-10-29 Genetec Inc Suivi par geolocalisation
WO2019210360A1 (en) 2018-05-01 2019-11-07 Commonwealth Scientific And Industrial Research Organisation Method and system for use in colourisation of a point cloud
DE102018110775A1 (de) * 2018-05-04 2019-11-07 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen einer Ausrichtung eines optoelektronischen Sensors mittels Abtastpunkten eines Sensorbildes sowie optoelektronischer Sensor
US11035933B2 (en) 2018-05-04 2021-06-15 Honda Motor Co., Ltd. Transition map between lidar and high-definition map
JP6910545B2 (ja) * 2018-05-14 2021-07-28 三菱電機株式会社 物体検出装置及び物体検出方法
EP3572841B1 (de) * 2018-05-23 2024-02-14 Aptiv Technologies Limited Verfahren zur modellierung eines abtast-abstandssensors für prototypentwicklungsparameter solch eines sensors und/oder für prototypentwicklungssoftware zur verarbeitung des ausgangs solch eines sensors
JP7244220B2 (ja) * 2018-06-13 2023-03-22 株式会社デンソーテン レーダ装置および物標データ出力方法
US11067693B2 (en) 2018-07-12 2021-07-20 Toyota Research Institute, Inc. System and method for calibrating a LIDAR and a camera together using semantic segmentation
EP3825980A4 (de) * 2018-07-16 2022-03-02 OmniVision Sensor Solution (Shanghai) Co., Ltd Verfahren zur berechnung der kollisionszeit von objekt und fahrzeug, berechnungsvorrichtung und fahrzeug
WO2020015748A1 (en) * 2018-07-20 2020-01-23 Suteng Innovation Technology Co., Ltd. Systems and methods for lidar detection
CN110378360B (zh) * 2018-08-01 2021-10-15 北京京东尚科信息技术有限公司 目标标定方法、装置、电子设备及可读存储介质
CN108717540B (zh) * 2018-08-03 2024-02-06 浙江梧斯源通信科技股份有限公司 基于2d激光雷达区分行人和车辆的方法及装置
US10809364B2 (en) 2018-08-06 2020-10-20 Luminar Technologies, Inc. Determining relative velocity using co-located pixels
US11518382B2 (en) * 2018-09-26 2022-12-06 Nec Corporation Learning to simulate
US10878282B2 (en) * 2018-10-15 2020-12-29 Tusimple, Inc. Segmentation processing of image data for LiDAR-based vehicle tracking system and method
US10878580B2 (en) * 2018-10-15 2020-12-29 Tusimple, Inc. Point cluster refinement processing of image data for LiDAR-based vehicle tracking system and method
JP2022510198A (ja) * 2018-11-29 2022-01-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 移動プラットフォームの周囲の環境を検出するシステム及びその方法
CN110103810B (zh) * 2019-01-03 2024-02-27 华域视觉科技(上海)有限公司 三维探测照明系统及汽车
US11048254B2 (en) 2019-04-10 2021-06-29 Waymo Llc Generating simplified object models to reduce computational resource requirements for autonomous vehicles
US10928508B2 (en) 2019-04-12 2021-02-23 Ford Global Technologies, Llc Camera and radar fusion
US10887928B2 (en) * 2019-04-24 2021-01-05 Here Global B.V. Lane aware clusters for vehicle to vehicle communication
RU2767955C1 (ru) 2019-05-27 2022-03-22 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способы и системы для определения компьютером наличия динамических объектов
US11460581B2 (en) 2019-06-10 2022-10-04 Toyota Research Institute, Inc. Systems and methods for reducing LiDAR points
CN110286383B (zh) * 2019-06-27 2023-09-01 电子科技大学 一种应用于目标跟踪的雷达和红外传感器部署方法
US11372091B2 (en) 2019-06-28 2022-06-28 Toyota Research Institute, Inc. Systems and methods for correcting parallax
CN110275153B (zh) * 2019-07-05 2021-04-27 上海大学 一种基于激光雷达的水面目标检测与跟踪方法
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
CN110687532A (zh) * 2019-09-06 2020-01-14 中国人民解放军空军工程大学 多群目标跟踪系统及方法
CN110554407B (zh) * 2019-09-25 2023-05-09 哈尔滨工程大学 一种模拟船用激光雷达三维点云成像方法
EP3809311A1 (de) * 2019-10-15 2021-04-21 Elektrobit Automotive GmbH Verarbeitung von sensordaten in einem kraftfahrzeug
JP6999625B2 (ja) * 2019-11-06 2022-02-04 財団法人車輌研究測試中心 環境情報を提供可能なダイナミックマップ情報を生成するための方法およびシステム
US11236990B2 (en) * 2020-02-08 2022-02-01 The Boeing Company De-jitter of point cloud data
US11536843B2 (en) 2020-02-08 2022-12-27 The Boeing Company De-jitter of point cloud data for target recognition
US11879964B2 (en) * 2020-02-13 2024-01-23 Mitsubishi Electric Research Laboratories, Inc. System and method for tracking expanded state of moving object with model geometry learning
US11619494B2 (en) * 2020-02-13 2023-04-04 Mitsubishi Electric Research Laboratories, Inc. System and method for tracking expanded state of an object
US11598878B2 (en) 2020-04-07 2023-03-07 Teledyne Scientific & Imaging, Llc Vision-cued random-access lidar system and method for localization and navigation
CN111891124B (zh) * 2020-06-08 2021-08-24 福瑞泰克智能系统有限公司 目标信息融合的方法、系统、计算机设备和可读存储介质
CN111522020A (zh) * 2020-06-23 2020-08-11 山东亦贝数据技术有限公司 一种园区活动要素混合定位系统及方法
US11448748B2 (en) 2020-09-10 2022-09-20 Argo AI, LLC Systems and methods for simultaneous range-rate unwrapping and outlier removal for radar
US11662454B2 (en) * 2020-11-02 2023-05-30 Ford Global Technologies, Llc Systems and methods for range-rate dealiasing using position consistency
JP7474689B2 (ja) 2020-12-04 2024-04-25 日産自動車株式会社 物体検出方法及び物体検出装置
CN112693466A (zh) * 2021-01-29 2021-04-23 重庆长安汽车股份有限公司 一种车辆环境感知传感器性能测评系统及方法
WO2022169988A1 (en) * 2021-02-03 2022-08-11 Autonomous Solutions, Inc. Localization system for autonomous vehicles using sparse radar data
US11729521B2 (en) * 2021-03-08 2023-08-15 GM Global Technology Operations LLC Systems and methods for extended field of view and low light imaging
CN112801068B (zh) * 2021-04-14 2021-07-16 广东众聚人工智能科技有限公司 一种视频多目标跟踪与分割系统和方法
CN113484871B (zh) * 2021-06-16 2023-09-08 国能榆林能源有限责任公司 激光雷达融合探测方法和计算机存储介质
US11909950B1 (en) * 2021-09-21 2024-02-20 Amazon Technologies, Inc. Three-dimensional (3D) sensor performance evaluation
CN114049385A (zh) * 2021-10-15 2022-02-15 哈尔滨工业大学(威海) 基于自适应配准的多激光雷达自主建网系统、方法、终端
CN115063465B (zh) * 2022-06-15 2023-07-18 华南理工大学 一种基于激光雷达的无人车行驶路况建模方法
CN115331191B (zh) * 2022-10-13 2022-12-13 深圳市镭神智能系统有限公司 车型识别方法、装置、系统和存储介质
CN117148373B (zh) * 2023-10-30 2024-01-26 浙江华是科技股份有限公司 基于激光雷达和ais全局匹配的船舶识别方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7991550B2 (en) 2006-02-03 2011-08-02 GM Global Technology Operations LLC Method and apparatus for on-vehicle calibration and orientation of object-tracking systems

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7480640B1 (en) * 2003-12-16 2009-01-20 Quantum Leap Research, Inc. Automated method and system for generating models from data
US7466797B2 (en) * 2004-03-22 2008-12-16 University Of Notre Dame Du Lac Error control in algorithmic approach to step-and-shoot intensity modulated radiation therapy
US7411196B2 (en) * 2005-08-18 2008-08-12 Itt Manufacturing Enterprises, Inc. Multi-sensors and differential absorption LIDAR data fusion
US7417717B2 (en) * 2005-10-05 2008-08-26 Utah State University System and method for improving lidar data fidelity using pixel-aligned lidar/electro-optic data
US20090018712A1 (en) * 2007-07-13 2009-01-15 Jerry Richard Duncan Method and system for remotely monitoring and controlling a vehicle via a virtual environment
US8599367B2 (en) * 2010-08-04 2013-12-03 Alliant Techsystems Inc. Apparatus and methods for obtaining multi-dimensional spatial and spectral data with LIDAR detection
US8818702B2 (en) 2010-11-09 2014-08-26 GM Global Technology Operations LLC System and method for tracking objects
US8775064B2 (en) 2011-05-10 2014-07-08 GM Global Technology Operations LLC Sensor alignment process and tools for active safety vehicle applications
CN102915558A (zh) * 2011-08-01 2013-02-06 李慧盈 一种快速提取机载LiDAR数据中建筑物三维轮廓信息的方法
US20130178257A1 (en) * 2012-01-06 2013-07-11 Augaroo, Inc. System and method for interacting with virtual objects in augmented realities
CN102607459B (zh) * 2012-03-06 2014-11-19 中国矿业大学(北京) Lidar测量数据的拼接方法和装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7991550B2 (en) 2006-02-03 2011-08-02 GM Global Technology Operations LLC Method and apparatus for on-vehicle calibration and orientation of object-tracking systems

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015118874A1 (de) * 2015-11-04 2017-05-04 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben eines Sensorsystems eines Kraftfahrzeugs, Fahrerassistenzsystem und System zum Kalibrieren eines Sensorsystems eines Kraftfahrzeugs
DE102019206503A1 (de) * 2019-05-07 2020-11-12 Zf Friedrichshafen Ag Verfahren und Steuereinheit zum Betreiben eines autonomen Fahrzeugs

Also Published As

Publication number Publication date
US20160018524A1 (en) 2016-01-21
US20130242284A1 (en) 2013-09-19
CN104035071A (zh) 2014-09-10
CN104035071B (zh) 2016-11-23
US9128185B2 (en) 2015-09-08
US9476983B2 (en) 2016-10-25

Similar Documents

Publication Publication Date Title
DE102013113571A1 (de) Verfahren und Vorrichtungen zum Vereinigen von Radar/Kamera-Objektdaten und LiDAR-Absuchpunkten
DE102013113570A1 (de) Bayes-Netz zum Nachführen von Objekten unter Verwendung von Absuchpunkten unter Verwendung mehrerer LiDAR-Sensoren
DE102013102153A1 (de) Verfahren zur Registrierung von Entfernungsbildern von mehreren LiDAR-Sensoren
US9329269B2 (en) Method for registration of range images from multiple LiDARS
DE102013113619B4 (de) Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem
DE102015122825B4 (de) Techniken zum Gruppieren von Zielelementen für eine Objektfusion
DE102018114042A1 (de) Vorrichtung, verfahren und system zur multimodalen fusionsverarbeitung von daten mit mehreren verschiedenen formaten, die von heterogenen vorrichtungen erfasst wurden
DE102020103512A1 (de) Kollaborative 3-d-umgebungskarte für computergestützte oder autonom fahrende fahrzeuge
DE102011119767A1 (de) Erscheinungsbild-gestützte vereinigung von kamera- undentfernungssensordaten für mehrere objekte
DE102018124108A1 (de) VERFAHREN UND VORRICHTUNG ZUM ERFASSEN EINER STRAßENBEGRENZUNG
DE112018007810T5 (de) Objektverfolgung auf Grundlage von mehreren Messhypothesen
DE102016212193A1 (de) Vorrichtung und Verfahren zur Detektion eines Objekts auf einer Strasse
DE102020105642A1 (de) Entwerfen von und verarbeiten mit antennenarrays zur beseitigung von fehldetektionen in einem radarsystem
DE102021100351A1 (de) Adaptive untersuchung für lidar-basiertes gruppieren
DE102022102934A1 (de) Ereignisbasierte fahrzeugposenschätzung unter verwendung monochromatischer bildgebung
DE102022124846A1 (de) Radar-anti-spoofing-system zum identifizieren von durch reziprozitätsbasiertes sensor-spoofing erzeugten geisterobjekten
DE112019005326T5 (de) Objektverfolgungsvorrichtung
DE102022108712A1 (de) Gemeinsame Schätzung und Korrektur eines Ausrichtungsfehlers einer LIDAR-Mittelachse und eines Lokalisierungsfehlers eines Trägerfahrzeugs
US10698104B1 (en) Apparatus, system and method for highlighting activity-induced change in multi-pass synthetic aperture radar imagery
WO2022129266A1 (de) Verfahren zur detektion zumindest eines objektes einer umgebung mittels reflexionssignalen eines radar-sensorsystems
DE102019216373A1 (de) Verfahren zur Erfassung eines Zielobjekts
DE102019126074A1 (de) Analyse einer Umgebung eines aktiven optischen Sensorsystems
DE102017113635A1 (de) Klassifikation und Lokalisation eines Objektes durch eine Lidar-Sensorvorrichtung eines Kraftfahrzeugs
DE102016123058A1 (de) Optischer Fluss mit Konfidenzschätzung
DE112022002015T5 (de) Aussenumgebungs-erkennungsvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final