DE102013113570A1 - Bayes-Netz zum Nachführen von Objekten unter Verwendung von Absuchpunkten unter Verwendung mehrerer LiDAR-Sensoren - Google Patents

Bayes-Netz zum Nachführen von Objekten unter Verwendung von Absuchpunkten unter Verwendung mehrerer LiDAR-Sensoren Download PDF

Info

Publication number
DE102013113570A1
DE102013113570A1 DE102013113570.6A DE102013113570A DE102013113570A1 DE 102013113570 A1 DE102013113570 A1 DE 102013113570A1 DE 102013113570 A DE102013113570 A DE 102013113570A DE 102013113570 A1 DE102013113570 A1 DE 102013113570A1
Authority
DE
Germany
Prior art keywords
scan
sensors
object models
predicted
clusters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102013113570.6A
Other languages
English (en)
Inventor
Shuqing Zeng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102013113570A1 publication Critical patent/DE102013113570A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation

Abstract

Ein System und ein Verfahren zum Vereinigen der Ausgaben von mehreren LiDAR-Sensoren in einem Fahrzeug. Das Verfahren enthält das Bereitstellen von Objektdateien für durch die Sensoren zu einem vorhergehenden Abtastzeitpunkt detektierte Objekte, wobei die Objektdateien die Position, die Orientierung und die Geschwindigkeit der detektierten Objekte identifizieren. Außerdem enthält das Verfahren das Empfangen mehrerer Absuchrückgaben von in dem Sichtfeld der Sensoren zu einem aktuellen Abtastzeitpunkt detektierten Objekten und das Konstruieren einer Punktwolke aus den Absuchrückgaben. Daraufhin segmentiert das Verfahren die Absuchpunkte in der Punktwolke in vorhergesagte Cluster, wobei jeder Cluster anfangs ein durch die Sensoren detektiertes Objekt identifiziert. Das Verfahren passt die vorhergesagten Cluster an vorhergesagte Objektmodelle an, die von während des vorhergehenden Abtastzeitpunkts nachgeführten Objekten erzeugt werden. Das Verfahren erzeugt neue Objektmodelle, löscht verschwindende Objektmodelle und aktualisiert die Objektdateien auf der Grundlage der Objektmodelle für den aktuellen Abtastzeitpunkt.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Diese Erfindung bezieht sich allgemein auf ein System und auf ein Verfahren zum Vereinigen der Ausgaben von mehreren Sensoren in einem Fahrzeug und insbesondere auf ein System und auf ein Verfahren zum Vereinigen von Absuchpunkten von mehreren LiDAR-Sensoren in einem Fahrzeug unter Verwendung eines Bayes-Netzes.
  • Diskussion des verwandten Gebiets
  • Viele moderne Fahrzeuge enthalten Objektdetektierungssensoren, die dazu verwendet werden, eine Kollisionswarnung oder -verhütung und andere aktive Sicherheitsanwendungen zu ermöglichen. Die Objektdetektierungssensoren können irgendeine einer Anzahl von Detektierungstechnologien wie etwa kurzreichweitiges Radar, Kameras mit Bildverarbeitung, Laser oder LiDAR, Ultraschall usw. verwenden. Die Objektdetektierungssensoren detektieren Fahrzeuge und andere Objekte auf dem Weg eines Trägerfahrzeugs und die Anwendungssoftware verwendet die Objektdetektierungsinformationen, um nach Bedarf Warnungen bereitzustellen oder Maßnahmen zu ergreifen. In vielen Fahrzeugen sind die Objektdetektierungssensoren direkt in die Frontpartie oder in eine andere Verkleidung des Fahrzeugs integriert.
  • Damit die Anwendungssoftware optimal arbeitet, müssen die Objektdetektierungssensoren richtig auf das Fahrzeug ausgerichtet sein. Falls ein Sensor z. B. ein Objekt detektiert, das tatsächlich auf dem Weg des Trägerfahrzeugs ist, der Sensor aber wegen Sensorfehlausrichtung bestimmt, dass das Objekt etwas links von dem Weg des Trägerfahrzeugs ist, kann dies erhebliche Folgen für die Anwendungssoftware haben. Selbst wenn es in einem Fahrzeug mehrere nach vorn gerichtete Objektdetektierungssensoren gibt, ist es wichtig, dass sie alle richtig ausgerichtet sind, um widersprüchliche Sensorablesungen zu minimieren oder zu beseitigen.
  • LiDAR-Sensoren sind ein Sensortyp, der in Fahrzeugen gelegentlich genutzt wird, um Objekte um das Fahrzeug zu detektieren und um eine Entfernung zu diesen Objekten bereitzustellen. LiDAR-Sensoren sind erwünscht, da sie die Richtung eines nachgeführten Objekts bereitstellen können, was andere Sensortypen wie etwa Bilderkennungssysteme und Radarsensoren allgemein nicht vermögen. Für einen LiDAR-Sensortyp werden Reflexionen von einem Objekt als ein Absuchpunkt als Teil einer Punktcluster-Entfernungskarte zurückgegeben, wobei für alle 1/2° über das Sichtfeld des Sensors ein getrennter Absuchpunkt bereitgestellt wird. Somit kann es mehrere Absuchpunkte geben, die zurückgegeben werden, die die Distanz des Zielfahrzeugs von dem Trägerfahrzeug identifizieren, falls vor dem Trägerfahrzeug ein Zielfahrzeug detektiert wird.
  • Ein Fahrzeug kann mehrere LiDAR-Sensoren aufweisen, um um das Fahrzeug ein Sichtfeld von 360° bereitzustellen. Diese mehreren LiDAR-Sensoren können zur Seite gerichtete Sensoren, nach hinten gerichtete Sensoren und nach vorn gerichtete Sensoren enthalten. Jeder der Sensoren führt Objekte in seinem Sichtfeld unabhängig von den anderen Sensoren nach. Unter Verwendung der Absuchpunktrückgaben von den mehreren Sensoren wird die Entfernungskarte erzeugt, um Objekte in der Nähe des Trägerfahrzeugs nachzuführen. Für ein Fahrzeug mit mehreren LiDAR-Sensoren werden mehrere Punktclusterkarten zurückgegeben und für sich überschneidende Sensorsichtfelder können die Sensoren dasselbe Objekt nachführen. Es ist notwendig, die Absuchpunktkarten der Sensoren zu kombinieren, so dass dasselbe durch die Sensoren nachgeführte Objekt als einzelnes Ziel verarbeitet wird.
  • Die Patentanmeldung der Vereinigten Staaten lfd. Nr. 12/942,456 mit dem Titel Systems and Methods for Tracking Objects, eingereicht am 9. November 2010, auf den Anmelder der vorliegenden Anmeldung übertragen und hier durch Bezugnahme mit aufgenommen, offenbart eine Technik zum Überwachen der Entfernung und der Richtung eines Zielobjekts von einem Trägerfahrzeug unter Verwendung von LiDAR-Sensoren. Diese Anmeldung ist auf einen einzelnen LiDAR-Sensor beschränkt und diskutiert nicht die Vereinigung von Rückgaben von mehreren LiDAR-Sensoren.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • In Übereinstimmung mit den Lehren der vorliegenden Erfindung werden ein System und ein Verfahren zum Vereinigen der Ausgaben von mehreren LiDAR-Sensoren in einem Fahrzeug unter Verwendung eines Bayes-Netzes offenbart. Das Verfahren enthält das Bereitstellen von Objektdateien für durch die LiDAR-Sensoren zu einem vorhergehenden Abtastzeitpunkt detektierte Objekte, wobei die Objektdateien die Position, die Orientierung und die Geschwindigkeit der detektierten Objekte identifizieren. Außerdem enthält das Verfahren das Empfangen mehrerer Absuchrückgaben von in dem Sichtfeld der Sensoren zu einem aktuellen Abtastzeitpunkt detektierten Objekten und das Konstruieren einer Punktwolke aus den Absuchrückgaben. Daraufhin segmentiert das Verfahren die Absuchpunkte in der Punktwolke in vorhergesagte Absuchcluster, wobei jeder Cluster anfangs ein durch die Sensoren detektiertes Objekt identifiziert. Das Verfahren passt die vorhergesagten Cluster an vorhergesagte Objektmodelle an, die von während des vorhergehenden Abtastzeitpunkts nachgeführten Objekten erzeugt werden. Das Verfahren führt vorhergesagte Objektmodelle, die zu dem vorhergehenden Abtastzeitpunkt als getrennte Absuchcluster identifiziert worden sind, nun aber als ein einzelner Absuchcluster identifiziert werden, zusammen und teilt vorhergesagte Objektmodelle, die zu dem vorhergehenden Abtastzeitpunkt als ein einzelner Absuchcluster identifiziert worden sind, nun zu dem aktuellen Zeitpunkt aber als getrennte Absuchcluster identifiziert werden, auf. Das Verfahren erzeugt neue Objektmodelle, löscht verschwindende [engl.: ”dying”] Objektmodelle und aktualisiert die Objektdateien auf der Grundlage der Objektmodelle für den aktuellen Abtastzeitpunkt.
  • Weitere Merkmale der vorliegenden Erfindung gehen aus der folgenden Beschreibung und aus den beigefügten Ansprüchen in Verbindung mit den beigefügten Zeichnungen hervor.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine Darstellung eines Trägerfahrzeugs, das auf ein Zielfahrzeug folgt, die das Sichtfeld von vier LiDAR-Sensoren in dem Trägerfahrzeug zeigt;
  • 2 ist ein allgemeiner Blockschaltplan eines Vereinigungssystems für Vereinigungsabsuchpunkte von mehreren LiDAR-Sensoren in einem Fahrzeug;
  • 3(A) und (B) zeigen Absuchpunkte von einem LiDAR-Sensor;
  • 4 ist ein Ablaufplandiagramm, das ein Verfahren zum gegenseitigen Ausrichten von Punkten von mehreren LiDAR-Sensoren zeigt;
  • 5 ist eine Konturwahrscheinlichkeitsdichtefunktion der Rückseite eines Objekts;
  • 6 ist ein iterativ begrenzter Optimierungsgraph;
  • 7 ist ein Blockschaltplan, der zwei verwobene Prozesse zum Schätzen der Objektbewegung und zum Aktualisieren eines Objektmodells, wenn eine neue LiDAR-Absuchpunktkarte verfügbar ist, zeigt;
  • 8 ist ein dynamisches Bayes-Netz für ein Objekt, das durch einen Nachführungsalgorithmus nachgeführt wird;
  • 9 ist ein Ablaufplandiagramm, das einen Prozess für einen Algorithmus für die Nachführung mehrerer Objekte in einem einzelnen Zeitschritt zeigt;
  • 10 ist ein bipartiter bzw. zweigeteilter Graph, der vorhergesagte Objektmodellpunkte und segmentierte Absuchkartenpunkte für einen Schritt des Anpassens von Absuchclustern an vorhergesagte Objektmodelle in dem Diagramm aus 9 zeigt;
  • 11 ist ein induzierter bipartiter Graph, der aus dem in 10 gezeigten bipartiten Graphen erzeugt worden ist;
  • 12 ist eine Darstellung von Absuchpunkten von einem LiDAR-Sensor, von einem Bilderkennungssystem und von einem Radarsensor;
  • 13 ist eine Darstellung eines Trägerfahrzeugs, das auf ein Zielfahrzeug folgt, die das Sichtfeld eines LiDAR-Sensors, eines Radar-Sensors und eines Bilderkennungssystems in dem Trägerfahrzeug zeigt;
  • 14 ist ein allgemeiner Ablaufplan für einen Nachführungsalgorithmus für einen LiDAR-Sensor, der einen Aufruf von einem Radarsensor oder von einem Bilderkennungssystem nutzt;
  • 15 ist ein Ablaufplandiagramm, das einen Prozess für einen Algorithmus für die Nachführung mehrerer Objekte zeigt, der einen Aufruf von einem Radarsensor oder von einem Bilderkennungssystem nutzt;
  • 16 ist ein bipartiter Graph, der das Anpassen von Zieldaten an Objektmodelle für alle LiDAR-Absuchpunkte, Radarsensorrückgaben und Bilderkennungssystembilder zeigt;
  • 17 ist ein aus dem in 16 gezeigten bipartiten Graphen erzeugter induzierter bipartiter Graph;
  • 18 ist ein bipartiter Graph, der die Zusammenführung zweier vorausgeplanter Objektmodelle durch Bereitstellen einer Anpassung unter Verwendung eines Bilderkennungssystems zeigt;
  • 19 ist ein induzierter bipartiter Graph, der die Anpassung der Objektmodelle aus 18 zeigt;
  • 20 ist ein bipartiter Graph, der die Aufteilung vorausgeplanter Objektmodelle durch Anpassung unter Verwendung eines Bilderkennungssystems zeigt;
  • 21 ist ein induzierter bipartiter Graph, der die Anpassung der Objektmodelle aus 20 zeigt;
  • 22 ist ein bipartiter Graph, der vorausgeplante Objektmodelle durch Anpassung unter Verwendung eines Radarsensors zeigt;
  • 23 ist ein induzierter bipartiter Graph, der die Anpassung der Modelle aus 22 zeigt; und
  • 24 ist ein dynamisches Bayes-Netz für einen Nachführungsalgorithmus und für eine Modellierungsaktualisierung mit Aufrufinformationen von einem Radarsensor oder von einem Bilderkennungssystem.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Die folgende Diskussion der Ausführungsformen der auf ein System und auf ein Verfahren zum Vereinigen der Ausgaben von mehreren LiDAR-Sensoren in einem Fahrzeug unter Verwendung eines Bayes-Netzes gerichteten Erfindung ist dem Wesen nach lediglich beispielhaft und soll die Erfindung oder ihre Anwendungen oder Verwendungen in keiner Weise einschränken. Zum Beispiel wird die vorliegende Erfindung für die Vereinigung der Ausgaben von LiDAR-Sensoren in einem Fahrzeug beschrieben. Allerdings wird vom Fachmann auf dem Gebiet gewürdigt werden, dass der Vereinigungsprozess der Erfindung andere Anwendung als Fahrzeuganwendungen aufweist.
  • 1 veranschaulicht eine Übersicht eines Fahrzeugsystems 10, das ein Trägerfahrzeug 12 enthält, das in der Weise gezeigt ist, dass es hinter einem Zielfahrzeug 14, das es nachführt, hinterherfährt. Das Trägerfahrzeug 12 enthält vier LiDAR-Sensoren, d. h. einen nach vorn gerichteten Sensor 16, der ein Sichtfeld 18 aufweist, einen nach hinten gerichteten Sensor 20, der ein Sichtfeld 22 aufweist, einen nach links gerichteten Sensor 24, der ein Sichtfeld 26 aufweist, und einen nach rechts gerichteten Sensor 28, der ein Sichtfeld 30 aufweist. Die Sensoren 16, 24 und 28 sind in die Frontpartie des Fahrzeugs 12 eingebaut und weisen wie gezeigt sich überschneidende Sichtfelder auf. Falls ein Objekt wie etwa ein Zielfahrzeug 14 im Sichtfeld eines bestimmten der Sensoren 16, 20, 24 und 30 ist, gibt der Sensor eine Anzahl von Absuchpunkten, die das Objekt identifizieren, zurück. Die Punkte 32 an dem Zielfahrzeug 14 repräsentieren die Absuchpunkte, die von dem Zielfahrzeug 14 von jedem der Sensoren 16, 24 und 28 zurückgegeben werden. Die Punkte 32 werden unter Verwendung einer Koordinatenübertragungstechnik in das Fahrzeugkoordinatensystem (x, y) an dem Trägerfahrzeug 12 übertragen und daraufhin wird in dem Fahrzeugkoordinatensystem unter Verwendung der Punkte 32 die Objektdetektierung ausgeführt. Wie im Folgenden diskutiert wird, können die Punkte 32 zum Definieren einer Rückseitenform des Zielfahrzeugs 14 verwendet werden.
  • Jeder Sensor 16, 20, 24 und 28 stellt für jedes durch den Sensor detektierte getrennte Objekt eine Absuchpunktwolke bereit. Die vorliegende Erfindung schlägt einen Vereinigungsalgorithmus vor, der die Ausgaben von jedem der Sensoren 16, 20, 24 und 28 in der Weise kombiniert, dass die Sensoren 16, 20, 24 und 28 dasselbe Objekt nachführen, wobei dieses Objekt als ein einzelnes Ziel verarbeitet wird, wobei der Algorithmus die Position, die Orientierung und die Geschwindigkeit jedes nachgeführten Objekts ausgibt. Obwohl die Diskussion vier LiDAR-Sensoren enthält, ist der vorgeschlagene Vereinigungsalgorithmus für irgendeine Anzahl und Position mehrerer LiDAR-Sensoren, die überschneidende Sichtfelder aufweisen, anwendbar.
  • Die Position des Zielfahrzeugs 14 ist in diesem Diagramm durch einen Ankerpunkt 34, d. h. durch die Mitte der Absuchkarte, repräsentiert. Die folgenden Werte werden zur Darstellung eines Objektmodells M des Zielfahrzeugs 14 bei dem Zeitschritt t verwendet. Insbesondere definiert das Objektmodell M die relative Längsgeschwindigkeit Vx, die relative Quergeschwindigkeit Vy, die Querverlagerung y und die Zielfahrzeugrichtung ξ oder Richtung des Bodengeschwindigkeitsvektors des Ziels. Der Wert M ist eine Liste von durch den Parametermittelwert mj und durch die Varianz σ2 repräsentierten Gauß'schen Komponenten. Der Mittelwert ist durch mehrere Hyperparameter νj, ηj, kj und Merker, d. h. gesehen und gealtert, charakterisiert.
  • 2 ist ein schematischer Blockschaltplan eines Vereinigungssystems 36 zum Vereinigen von Absuchpunktwolkenrückgaben von mehreren LiDAR-Sensoren wie etwa von den Sensoren 16, 20, 24 und 28. Der Kasten 38 repräsentiert die Absuchpunktwolkenrückgabe von dem linken LiDAR-Sensor 24, der Kasten 40 repräsentiert die Absuchpunktwolkenrückgabe von dem nach rechts gerichteten LiDAR-Sensor 28, der Kasten 42 repräsentiert die Absuchpunktwolkenrückgabe von dem nach vorn gerichteten LiDAR-Sensor 16 und der Kasten 44 repräsentiert die Absuchpunktwolkenrückgabe von dem nach rechts gerichteten LiDAR-Sensor 20. Im Kasten 46 werden die Entfernungskarten von den LiDAR-Sensoren 16, 20, 24 und 28 gegenseitig ausgerichtet und wird eine 360°-Entfernungskarte(-Punktwolke) konstruiert. Wenn die Punktwolken von den Sensoren 16, 20, 24 und 28 gegenseitig ausgerichtet worden sind und in den Fahrzeugkoordinaten eine 360°-Punktwolke gebildet worden ist, vereinigt der Algorithmus die Punktwolken von den mehreren Zielen in dem im Folgenden ausführlich diskutierten Kasten 48. Nachdem die Ziele in dem Fahrzeugkoordinatensystem vereinigt worden sind, gibt der Algorithmus im Kasten 50 die Position, die Orientierung und die Geschwindigkeit der Ziele aus.
  • Bevor der Vereinigungsprozess zum Kombinieren der Absuchpunkte von mehreren LiDAR-Sensoren spezifisch diskutiert wird, wird eine Diskussion eines Algorithmus zum gegenseitigen Ausrichten von Absuchpunkten in dem Kasten 46, um die Bewegung des Objekts zu schätzen, falls das Objektmodell M und die aktuelle Absuchkarte S, die dem Objekt entsprechen, verfügbar sind, gegeben.
  • In vielen Fahrzeugen sind die Objektdetektierungssensoren direkt in die Frontverkleidung des Fahrzeugs integriert. Diese Art des Einbaus ist einfach, effektiv und ästhetisch ansprechend, hat aber den Nachteil, dass es keine praktische Art und Weise gibt, die Ausrichtung der Sensoren physikalisch einzustellen. Wenn ein Sensor wegen Beschädigung der Verkleidung oder wegen Alters oder wegen wetterbezogener Verziehung zu der wahren Richtung des Fahrzeugs fehlausgerichtet wird, gibt es somit herkömmlich keine andere Möglichkeit, die Fehlausrichtung zu korrigieren, als die gesamte Verkleidungsanordnung, die die Sensoren enthält, zu ersetzen.
  • Wie im Folgenden diskutiert wird, passt die in dem Kasten 46 ausgeführte gegenseitige Ausrichtung der Bildausschnitte die Entfernungsabsuchpunkte von den Sensoren 20, 24 und 28 an, um eine mögliche Drift der Position und Orientierung der Sensoren 20, 24 und 28 auszugleichen. Die Sensoren 20, 24 und 28 werden anfangs, wenn das Fahrzeug 12 neu ist, kalibriert. Wie erwähnt wurde, veranlassen verschiedene Faktoren, dass sich diese Orientierungen im Zeitverlauf ändern, so dass ein Prozess implementiert werden muss, um die Sensororientierung in der Weise neu zu kalibrieren, dass in dem sich überschneidenden Abschnitt der Sichtfelder 26 und 30 detektierte Objekte genauer sind. Die vorliegende Erfindung schlägt einen Erwartungsmaximierungs-Anpassungsalgorithmus (EM-Anpassungsalgorithmus) vor, um zwischen mehreren LiDAR-Sensoren eine Transformation T zu ermitteln, die einen Orientierungswinkel und die x- und y-Position der Sensoren definiert. Zum Beispiel passt der Algorithmus die Transformation T von dem nach links gerichteten LiDAR-Sensor 24 zu dem nach rechts gerichteten LiDAR-Sensor 28 an, wobei die Sensoren 24 und 28 ausgerichtet sind, wenn die Transformationen T von nachfolgenden Berechnungen übereinstimmen.
  • Der EM-Algorithmus beginnt durch Wählen eines Anfangstransformationswerts T0, der null sein könnte, eines vorhergehenden Schätzwerts, einer durch den Hersteller bereitgestellten Orientierung zwischen den Sensoren 24 und 28 usw. Daraufhin plant der Algorithmus unter Verwendung der Transformation T zu dem Bildausschnitt für den nach rechts gerichteten LiDAR-Sensor 28 eine Entfernungskarte des linken Sensors voraus. 3 ist eine Darstellung einer Absuchpunktkarte 120, in der Kreise 124 Absuchpunktrückgaben von dem linken LiDAR-Sensor 24 repräsentieren und Ovale 126 Absuchpunktrückgaben von dem nach rechts gerichteten LiDAR-Sensor 28 repräsentieren. 3(A) zeigt alle Absuchpunktrückgaben und 3(B) zeigt für einige der Absuchpunktrückgaben einen vergrößerten Bereich in dem Kreis 122. 3(B) zeigt, wie die Absuchpunktrückgaben 124 des nach links gerichteten LiDAR-Sensors durch Pfeile 128 auf die Absuchpunktrückgaben 126 des nach rechts gerichteten LiDAR-Sensors abgebildet werden. In einem Versuch, sie zur Überschneidung zu bringen, werden die Absuchpunktrückgaben 124 des nach links gerichteten LiDAR-Sensors unter Verwendung der aktuell verfügbaren Transformation T für die Projektionskartenpfeile 128 relativ zu den Absuchpunktrückgaben 126 des nach rechts gerichteten LiDAR-Sensors bewegt.
  • Die aktuell verwendete Transformation T kann für die aktuelle Orientierung des nach links gerichteten LiDAR-Sensors 24 gegenüber dem nach rechts gerichteten LiDAR-Sensor 28 nicht genau sein, so dass die Transformation T für die aktuelle Position der Sensoren 24 und 28 aktualisiert werden muss. Der Algorithmus verwendet die aktuelle Transformation T, um eine Gewichtung ajk zwischen dem Absuchpunkt sj des linken Sensors und dem Absuchpunkt mk des rechten Sensors wie folgt zu aktualisieren:
    Figure DE102013113570A1_0002
    wobei die Kernfunktion K wie folgt ist:
    Figure DE102013113570A1_0003
  • Daraufhin wird unter Verwendung der abgeänderten Gewichtung ajk eine neue Transformation T' wie folgt bestimmt:
    Figure DE102013113570A1_0004
  • Daraufhin wird die neue Transformation T' mit der zuvor berechneten Transformation T verglichen und auf der Grundlage der Differenz dazwischen unter Verwendung der neuen Transformation T' die Gewichtung ajk neu berechnet, bis die neu berechnete Transformation T' an die zuvor berechnete Transformation T, bei der die Sensoren 24 und 28 ausgerichtet sind, angepasst ist.
  • In bestimmten Fällen ist die Transformation T zum Ausrichten der Absuchdatenpunkte ausreichend groß, wobei es nützlich sein kann, die Lösung von T' in Gleichung (3) zu verbessern. Für dieses Beispiel ist die Transformation Tals x' = T·x definiert, wobei x' = Rx + t ist und wobei Reine Drehmatrix ist und t ein Translationsvektor ist. In dieser Analyse sei:
    Figure DE102013113570A1_0005
    Figure DE102013113570A1_0006
  • Die Lösung der neuen Transformation T' in Gleichung (3) ist dann gegeben durch:
    Figure DE102013113570A1_0007
    mit:
    Figure DE102013113570A1_0008
    und wobei U und V als die Faktoren einer Singulärwertzerlegung von:
    Figure DE102013113570A1_0009
    definiert sind und C wie folgt ist:
    Figure DE102013113570A1_0010
  • Der oben beschriebene EM-Algorithmus zum Bestimmen der Transformation T kann nur lokal optimal und empfindlich für den Anfangstransformationswert sein. Der Algorithmus kann unter Verwendung der Partikelschwarmoptimierung (PSO) verbessert werden, um die Anfangstransformation T0 zu ermitteln. In dieser Optimierung sei E die Menge zulässiger Transformationen T von dem linken LiDAR-Sensor 24 zu dem rechten LiDAR-Sensor 28. Der Algorithmus erzeugt in Übereinstimmung mit der gleichförmigen Verteilung in der zulässigen Transformation E zufällig N Partikel {ti/t, ∊ E}, wobei jeder Partikel ti ein normiertes Gewicht wi = 1/N zugeordnet wird. Für jede Partikel ti wird der EM-Algorithmus auf die beste Transformation Ti eingestellt, wobei ti als der Anfangswert gegeben ist. Es sei die Gewichtung wi der Prozentsatz der Anpassung zwischen den zwei Absuchungen für die Transformation Ti. Der Algorithmus gibt dann die Transformation Tk mit dem besten Anpassungsprozentsatz als den Nennwert für die Transformation von dem linken LiDAR-Sensor 24 zu dem rechten LiDAR-Sensor 28 aus, wobei wk = max(wi) ist.
  • In den meisten Fällen ist die Änderung der Transformation T von einem Abtastzeitpunkt zu dem nächsten üblicherweise klein, so dass es nicht notwendig ist, den oben beschriebenen rechenaufwendigen Prozess des Berechnens der neuen Transformation T' für große Änderungen der Transformation T zu verwenden. Insbesondere kann die neue Schätzung der Transformation T unter Verwendung des folgenden wenig rechenaufwendigen EM-Anpassungsalgorithmus rekursiv verfeinert werden, falls die Nenntransformation Tn von dem obigen PSO-Algorithmus geschätzt wird. Zunächst wird die Transformation Tn auf jeden Absuchpunkt des rechten LiDAR-Sensors 28 wie folgt angewendet:
    Figure DE102013113570A1_0011
  • Die richtige Transformation ΔT wird bestimmt als:
    Figure DE102013113570A1_0012
    und definiert als
    Figure DE102013113570A1_0013
    wobei die Transformation ΔT als (tx, ty, ε) modelliert wird und wobei die vorhergehende Transformation ΔTo(txo, tyo, εo) ist.
  • Gleichung (3) wird daraufhin ersetzt durch
    Figure DE102013113570A1_0014
    und die Lösung ist:
    Figure DE102013113570A1_0015
    mit
    Figure DE102013113570A1_0016
    und wobei λ ein Gewichtungsfaktor ist, der darauf abgestimmt werden kann, wie viel von der vorhergehenden Schätzung verwendet wird.
  • 4 ist ein Ablaufplandiagramm 130, das den wie oben diskutierten Betrieb zum Ausrichten der LiDAR-Sensoren, z. B. der LiDAR-Sensoren 24 und 28, zeigt. Im Kasten 132 wählt der Algorithmus die Anfangstransformation Tn wie etwa die Herstellereinstellung aus. Im Kasten 134 sammelt der Algorithmus die Absuchentfernungskartendaten von den LiDAR-Sensoren 24 und 28 und bestimmt er, ob es in dem Sichtfeld der LiDAR-Sensoren 24 und 28 eine ausreichende Anzahl von Absuchpunkten von dem Objekt gibt, um die Berechnungen in der Entscheidungsraute 136 angemessen auszuführen. Falls es nicht genügend Absuchpunkte gibt, kehrt der Algorithmus zu dem Kasten 134 zurück, um weitere Entfernungskartendaten zu sammeln. Falls es in der Entscheidungsraute 136 genügend Absuchpunkte gibt, verwendet der Algorithmus den EM-Anpassungsalgorithmus, um im Kasten 138 die korrigierte Transformation ΔT zu ermitteln. Daraufhin bestimmt der Algorithmus in der Entscheidungsraute 140, ob die korrigierte Transformation ΔT größer als ein vorgegebener Schwellenwert ist, und wird im Kasten 142 die Schätzung der großen Transformation unter Verwendung des PSO-Algorithmus genutzt, um die neue Nenntransformation Tn zu ermitteln, wenn das der Fall ist. Falls der Anpassungsprozentsatz in der Entscheidungsraute 140 nicht größer als der Schwellenwert ist, kehrt der Algorithmus zu dem Kasten 134 zurück, um die nächsten Absuchpunkte zu sammeln.
  • Zurückkehrend zu dem Vereinigungsalgorithmus bietet die nachfolgende Diskussion zunächst einen vorgeschlagenen Algorithmus für die gegenseitige Ausrichtung von Absuchpunkten, der die Bewegung des Zielfahrzeugs 14 schätzt, falls das Objektmodell M und die dem Zielfahrzeug 14 entsprechende aktuelle Absuchkarte S gegeben sind. Die obige Diskussion betrifft den EM-Algorithmus zum Bestimmen der Transformation T, die die Bildausschnitte zwischen den LiDAR-Sensoren, die die räumliche Anpassung, insbesondere die Anpassung zwischen zwei Bildausschnitten von verschiedenen LiDAR-Sensoren, gleichzeitig bereitstellen, ausrichtet. Außerdem verwendet diese die Absuchpunktregistrierung betreffende Diskussion einen Algorithmus zur gegenseitigen Ausrichtung einer Punktmenge, um diejenige Transformation T zu ermitteln, die zwei Bildausschnitte zeitlich zwischen der aktuellen Absuchkarte S und dem aus den früheren Absuchkarten hergeleiteten Objektmodell M anpasst.
  • Zunächst wird ein probabilistisches Objektmodell M definiert und daraufhin wird ein vorgeschlagener iterativer Algorithmus bereitgestellt, um eine starre Transformation derart zu ermitteln, dass die Wahrscheinlichkeit bei gegebenen Absuchkarten des nachfolgenden Bildausschnitts maximiert wird. Zur Charakterisierung der geometrischen Form eines Objekts wird in dem Abtastraum
    Figure DE102013113570A1_0017
    eine Konturwahrscheinlichkeitsdichtefunktion (PDF) definiert. 5 zeigt einen Schnappschuss einer beispielhaften PDF für die Rückseite des Zielfahrzeugs 14. Anstatt bestimmte Parameter zu verwenden, wird die PDF direkt durch eine Liste von als M = (m1, m2, ..., mnM)T bezeichneten Partikeln (Punkten) repräsentiert.
  • Die parameterfreie Art der Darstellung der PDF kann geschrieben werden als:
    Figure DE102013113570A1_0018
    wobei
    Figure DE102013113570A1_0019
    eine Gauß'sche Kernfunktion ist und σ > 0 ein als die Bandbreite bezeichneter Glättungsparameter oder die Größe eines Parzen-Fensters ist.
  • Es seien y die Parameter der Transformation Ty. Die Operatoren werden als ein Transformationsoperator Ty(·) mit Parametern y und mit der entsprechenden Umkehrtransformation T –1 / y(·) definiert. Das Objektmodell M kann ohne Verlust der Allgemeinheit als im Ursprung 34 zentriert angesehen werden. In dem nachfolgenden Bildausschnitt ist ein Objekt am Ort y durch die folgende PDF charakterisiert:
    Figure DE102013113570A1_0020
  • Es sei S = (s1, s2, ..., snS)T die aktuelle Absuchkarte, die aus einer Liste von Absuchpunkten sk besteht. Die Wahrscheinlichkeitsfunktion kann ausgedrückt werden durch:
    Figure DE102013113570A1_0021
    wobei angenommen ist, dass die Absuchpunkte sk unabhängige und gleichverteilte Abtastwerte des Objektmodells M am Ort y sind.
  • Das Ziel ist hier das Ermitteln des Maximums von L(S; y, M) in Bezug auf die Transformationsparameter y, was äquivalent dem Ermitteln des Maximums von J(y; M) ≡ –LogL(S; y, M) ist, als:
    Figure DE102013113570A1_0022
    mit:
    Figure DE102013113570A1_0023
  • Dieses lokale Minimum gibt die Anwesenheit des Objekts in dem folgenden Bildausschnitt mit einer ähnlichen Darstellung wie dem im Ursprung 34 definierten p(x; M) an.
  • Es wird eine Hilfsmatrix A ≡ {akj} mit akj ≥ 0 für j = 1, ..., nM und k = 1, ..., ns eingeführt, wobei
    Figure DE102013113570A1_0024
    für alle k ist.
  • Somit wird Gleichung (32) zu:
    Figure DE102013113570A1_0025
  • In Gleichung (32) wird der Normierungsfaktor
    Figure DE102013113570A1_0026
    in einen konstanten Term aufgenommen, der vernachlässigt wird. Gleichung (36) folgt bei der Anwendung der Jensen'schen Ungleichung auf Gleichung (34).
  • Sofern die negative Logarithmusfunktion konvex ist, kann die beste obere Schranke
    Figure DE102013113570A1_0027
    für Gleichung (36) dadurch hergeleitet werden, dass die Ableitung des Ausdrucks aus Gleichung (36) und des Lagrange'schen Multiplikators der Nebenbedingung, siehe Gleichung 33, nach akj gebildet wird und nullgesetzt wird. Die optimale Hilfsvariable kann ausgedrückt werden durch:
    Figure DE102013113570A1_0028
    für j = 1, ..., nM und k = 1, ..., ns.
  • Somit kann Gleichung (31) durch ”beschränkte Optimierung”, die zwischen der Optimierung von
    Figure DE102013113570A1_0029
    in Bezug auf die Hilfsmatrix A, auf die Parameter y der Transformation T und auf die Bandbreite der Kernfunktion σ wechselt, iterativ gelöst werden.
  • 6 ist ein Graph mit y auf der horizontalen Achse, der die Beziehung der iterativen beschränkten Optimierung zeigt, wobei die Linie 52 die komplizierte Kurve J(y; M) ist und die Strichlinienkurven aufeinanderfolgende obere Schranken bei y0, y1 und y2 sind d. h., wobei die Graphenlinie 54
    Figure DE102013113570A1_0030
    ist, die Graphenlinie 56
    Figure DE102013113570A1_0031
    ist und die Graphenlinie 58
    Figure DE102013113570A1_0032
    ist.
  • Die in dem folgenden Algorithmus 1 gezeigte iterative Prozedur wird bis zur Konvergenz, d. h. bis die Differenz des geschätzten y in zwei Iterationen kleiner als eine vorgegebene kleine Zahl ist, wiederholt. Empirische Ergebnisse zeigen, dass 2–3 Epochen der Iteration für den vorgeschlagenen Algorithmus ausreichen, damit er konvergiert.
    Algorithmus 1: gegenseitige Ausrichtung von Absuchpunkten.
    Eingabe: Objektmodell M, aktuelle Absuchkarte S und Anfangstransformationsparameter y0.
    • 1) Es sei σ = σ0, wobei σ0 eine positive Zahl ist.
    • 2) Berechnen von A: Ausgehend von dem vorhergehenden Schätzwert des Transformationsparameters yn wird akj unter Verwendung von Gleichung (37) aktualisiert.
    • 3) Minimieren von
      Figure DE102013113570A1_0033
      Berechnung von y* zum Minimieren von
      Figure DE102013113570A1_0034
      d. h.:
      Figure DE102013113570A1_0035
    • 4) Berechnen von σ: Differenzieren von Gleichung (36) nach σ, Nullsetzen der Ableitung ergibt:
      Figure DE102013113570A1_0036
    • 5) Es sei yn+1 = y*. Falls ∥yn+1 – yn∥ > ∊ ist, gehe zu Schritt 2. Andernfalls wird die Ausgabe y* als die geschätzten Parameter für die Transformation verwendet.
  • Die folgende Diskussion beschreibt einen Spezialfall der gegenseitigen Ausrichtung einer Punktmenge, der in der Robotik mit LiDAR-Scannern verwendet werden kann. Es kann eine starre Transformation x' = Ty(x) und x' = Rx + t aufgeschrieben werden, wobei der Parametervektor y aus der Drehmatrix R und aus dem Translationsvektor t besteht. Gleichung (38) kann vereinfacht werden als:
    Figure DE102013113570A1_0037
    so dass det(R) = 1 und RTR = I ist.
  • Gleichung (40) kann durch Bilden der partiellen Ableitung von Gleichung (40) nach t bzw. R gelöst werden. Um die Lösung zu zeigen, werden die folgenden Größen definiert:
    Figure DE102013113570A1_0038
    mit 1 = [1, 1, ..., 1]T.
  • Die Lösung von Gleichung (40) ist:
    Figure DE102013113570A1_0039
    wobei U und V als die Faktoren der Singulärwertzerlegung definiert sind, d. h. USVT = sνd(S ⌃TATM ⌃) und C = diag(1, det(UVT)).
  • Die folgende Diskussion schlägt einen Algorithmus auf Bayes-Grundlage vor, der die Bewegung und Aktualisierungen des Objektmodells M rekursiv schätzt. Es seien S0, ..., St und St+1 die von einem dynamischen Objekt in dieser Reihenfolge zu den Zeitschritten 0, ..., t und t + 1 abgetasteten Absuchkarten.
  • 7 zeigt, dass die Nachführung als i) ein Problem der Schätzung der Bewegung des Objekts und ii) ein Problem der Aktualisierung des Objektmodells M, wenn die Absuchkarte eines neuen Bildausschnitts empfangen wird, behandelt werden kann. Insbesondere zeigt 7 einen Prozess 60 zum Schätzen des Orts eines Objekts beim Kasten 64 unter Verwendung des Orts eines Objekts zum Aktualisieren eines Objektmodells beim Kasten 62 und zum Schätzen des Orts eines Objekts, wenn eine neue Absuchkarte verfügbar ist.
  • Die folgende Diskussion enthält eine Bezugnahme auf bipartite Graphen und Bayes-Graphen. Diese zwei Arten von Graphen enthalten Knoten, die unterschiedliche Dinge repräsentieren. Die Knoten in einem Bayes-Graphen repräsentieren zu schätzende Variable wie etwa die Transformation T und das Objektmodell M, die zufällig sind und nur durch eine PDF dargestellt werden können. Diese Knoten sind in einer Folge über Bildausschnitte zu verschiedenen Zeiten angeordnet, wobei jede Folge nur ein Objekt modelliert. Im Gegensatz dazu sind die Knoten in den bipartiten Graphen Segmentierungen von Absuchkarten. Jede Absuchkarte kann bei dem Bildausschnitt zum selben Zeitpunkt mehrere Objekte enthalten. Somit ist das Ziel, die Segmente zu ermitteln, die jeweils einem Objekt entsprechen. Bei Aufbau der Zuordnung der Segmente (s1, s2, ..., sn) entlang der Zeitachse können mehrere Folgen erhalten werden, wobei jede einem Objekt entspricht. Auf diese Weise können die bipartiten Graphen verwendet werden, um das Bayes-Verfahren zum Nachführen jedes einzelnen Objekts anzuwenden.
  • 8 veranschaulicht ein dynamisches Bayes-Netz 70, das zwei Zeitschritte des vorgeschlagenen Nachführungsalgorithmus repräsentiert. In dem Netz 70 repräsentieren die Knoten 72 die Transformationsparameter yt und yt+1, d. h. die Objektposition und -lage der Ziele, repräsentieren die Knoten 74 die Objektmodelle Mt und Mt+1 und repräsentieren die Knoten 76 die Absuchkarten St und St+1. In 8 sind yt und yt+1 die geschätzten Parameter der Transformation bei den Zeitschritten t bzw. t + 1 und sind Mt und Mt+1 die Objektmodelle bei den Zeitschritten t bzw. t + 1. Zur Anpassung an das Bayes-Netz 70 wird p(y) als eine Dirac'sche Deltaverteilung, die durch ihr Zentrum y parametrisiert ist, bzw. das Objektmodell M als die Verbund-PDF Gauß'scher Komponenten, die durch ihren Mittelwert {mj} und eine feste Varianz σ2 parametrisiert sind, modelliert. Jeder Mittelwert mj wird durch eine Gauß'sche PDF mit Hyperparametern, d. h. mit dem Mittelwert und mit der Varianz
    Figure DE102013113570A1_0040
    repräsentiert.
  • Die folgende Diskussion stellt ausführlich Aktualisierungsregeln für den Parameter y und für die Hyperparameter {vj, ηj/j = 1, ..., nM} dar. Unter Verwendung der Bayes- bzw. der Kettenregel wird die A-posteriori-PDF, wenn Mengen von Absuchkarten bis zum Zeitpunkt t + 1 gegeben sind, geschrieben als:
    Figure DE102013113570A1_0041
    wobei y und M kurz yt+1 sind, S(0:t+1) Absuchkarten bis zum Zeitschritt t + 1 repräsentiert, S die Absuchkarte zum Zeitpunkt t + 1 ist, p(S/y, M) eine äquivalente Darstellung von L(S; y, M) in Gleichung (30) ist und die letzte Gleichung durch die Annahme einer bedingten Unabhängigkeit bei gegebenem S(0:t) folgt.
  • In Gleichung (47) ist p(y/S(0:t)) die frühere PDF des Parameters y zum Zeitschritt t – 1 bei gegebenen vorhergehenden Absuchkarten S(0:t), die berechnet werden kann als:
    Figure DE102013113570A1_0042
  • In Gleichung (48) bezeichnet p(yt/S(0:t)) die A-posteriori-PDF für den Transformationsparameter zum Zeitpunkt t und ist p(y/yt) die bedingte Wahrscheinlichkeit des folgenden Anlagenmodells der Objektbewegung:
    Figure DE102013113570A1_0043
    wobei w eine Gauß'sche Zufallsvariable mit dem Mittelwert null mit der Kovarianzmatrix
    Figure DE102013113570A1_0044
    ist. Falls angenommen wird, dass p(yt/S(0:t)) eine Dirac'sche Deltaverteilung mit dem Zentrum bei y t ist, kann die frühere PDF bei dem Zeitschritt t = 1 geschrieben werden als:
    Figure DE102013113570A1_0045
    wobei y ~ der vorhergesagte Wert des folgenden Anlagenmodells des Objekts y ~ = f(yt) ist.
  • Der Ausdruck p(Mt-1/S(0:t)) kann als die konjugierte Verteilungsfamilie von L(S; y, M) in Gleichung (30) modelliert werden, um eine nachführbare A-posteriori-PDF zu liefern. Es wird ein Produkt Gauß'scher Dichten mit bekannter Varianz σ2 vorgeschlagen als:
    Figure DE102013113570A1_0046
    mit
    Figure DE102013113570A1_0047
    und wobei (ηj, νj) die Hyperparameter der früheren PDF für die j-te Komponente von Mt-1 sind und wobei c(ηj) ein Normierungsfaktor ist.
  • Wie in 8 gezeigt ist, sind die früheren Daten für das Objektmodell M beim Zeitschritt t.
    Figure DE102013113570A1_0048
  • Nun wird das Problem der Schätzung der A-posteriori-Wahrscheinlichkeit p(y, M|S(0:t+1)) zum Zeitpunkt t + 1 betrachtet. Da y und M bedingt unabhängig sind, d. h.:
    Figure DE102013113570A1_0049
    kann die A-posteriori-Wahrscheinlichkeit hinsichtlich y und M als die folgenden zwei Schritte getrennt geschätzt werden.
  • Unter der Annahme, dass p(y|S(0:t+1)) die Dirac'sche Delta-PDF mit dem Zentrum bei y t+1, ist, die durch Maximieren von Gleichung (47) in Bezug auf y geschätzt werden kann, ergibt Einsetzen von Gleichung (50) in Gleichung (47), Anwenden eines negativen Logarithmus auf Gleichung (47) und Vernachlässigen von für y irrelevanten Termen:
    Figure DE102013113570A1_0050
    mit
    Figure DE102013113570A1_0051
    Somit kann Gleichung (38) für das Integrieren früherer Informationen aus vorhergehenden Zeitschritten durch Gleichung (55) ersetzt werden und daraufhin der Algorithmus 1 angewendet werden, um y t+1 abzuleiten.
  • Unter Vernachlässigung von für das Objektmodell M irrelevanten Termen kann der negative Logarithmus von Gleichung (47) geschrieben werden als:
    Figure DE102013113570A1_0052
  • Es wird angemerkt, dass Gleichung (56) die beste obere Schranke von J(M) für alle möglichen Werte von y ist.
  • Wie in 6 kann die beschränkte Optimierung verwendet werden, um durch Ermitteln des Minimums der obigen Funktion einer oberen Schranke iterativ das optimale Objektmodell M zu ermitteln. Durch Nullsetzen der Ableitungen von Gleichung (56) nach dem Objektmodell M kann der MAP-Schätzwert des Objektmodells M erhalten werden als:
    Figure DE102013113570A1_0053
    mit:
    Figure DE102013113570A1_0054
  • Die Aktualisierungsregeln der neuen Hyperparameter (η ' / j, ν ' / j) für die A-posteriori-Verteilung des Objektmodells M nach S zum Zeitpunkt t + 1 können geschrieben werden als:
    Figure DE102013113570A1_0055
  • Somit ist die A-posteriori-PDF des Ziels zum Zeitpunkt t
    Figure DE102013113570A1_0056
  • Es wird angemerkt, dass m * / j in Gleichung (57) die Betriebsart ist und dass ν ' / j in Gleichung (61) der Mittelwert der j-ten Komponente (der j-ten Partikel) des Objektmodells M ist. Wegen der Gauß'schen Annahme sind sie gleich.
  • In dem folgenden Algorithmus 2 ist das Verfahren der rekursiven Nachführung und Modellaktualisierung zusammengefasst. Schritt 1 bereitet das Objektmodell M für den Bildausschnitt zum aktuellen Zeitpunkt vor, während Schritt 2 die Bewegung des Objektmodells M schätzt. Schritt 3 aktualisiert das Objektmodell M auf der Grundlage der aktuellen Absuchkarte. Schritt 4 fügt zu dem Objektmodell M neue Partikel hinzu, während Schritt 5 Ausreißer aus dem Objektmodell M entfernt.
    Algorithmus 2: Nachführung und Objektmodellaktualisierung
    Eingabe: die aktuelle Absuchkarte St+1, das Objektmodell Mt-1 = {νj, ηj} und die Transformation y t.
    Ausgabe: das geschätzte y t+1 das aktualisierte Mt.
    • 1) Berechne die Hyperparameter
      Figure DE102013113570A1_0057
      für alle j von p(Mt|S(0:t)) in Gleichung (51). Setze alle Partikel als unbesucht.
    • 2) Es sei
      Figure DE102013113570A1_0058
      für alle j. Ersetze Gleichung (38) durch Gleichung (55) und führe daraufhin den Algorithmus 1 aus, um y t+1 und At+1 zu erhalten.
    • 3) Berechne die Hyperparameter unter Verwendung der Gleichungen (60) und (61), setze die Partikel als besucht und erhöhe den Besuchszählwert Kj um 1, falls ρj = Σkakj größer als der Schwellenwert ist. Falls Kj > 5 ist, wird die j-te Partikel als gealtert gekennzeichnet.
    • 4) Berechne
      Figure DE102013113570A1_0059
      für alle k. Addiere eine neue Partikel sk mit den folgenden Werten Kk = 1, νk = sk, ηk = 1 und kennzeichne sie als besucht, falls ein
      Figure DE102013113570A1_0060
      kleiner als ein Schwellenwert ist.
    • 5) Entferne nicht als besucht und nicht als gealtert gekennzeichnete Partikel.
  • 9 ist ein Ablaufplan 80, der den zu jedem Zeitschritt t ausgeführten vorgeschlagenen Vereinigungsalgorithmus zeigt. Der Kasten 78 repräsentiert die Objektdateien, die zu jedem Zeitschritt erzeugt werden und die die Position, die Geschwindigkeit und die Richtung der Objekte, die detektiert und nachgeführt werden, bereitstellen, und das Objektmodell M für jedes Objekt, das nachgeführt wird. Wenn im Kasten 82 ein neuer Bildausschnitt von Entfernungsdaten von den Sensoren 16, 20, 24 und 28 bei dem Trägerfahrzeug 12 ankommt, konstruiert der Algorithmus zunächst im Kasten 84 in der oben diskutierten Weise die 360°-Punktwolke. Wenn die Punktwolke konstruiert worden ist, segmentiert der Algorithmus daraufhin im Kasten 86 die Absuchpunkte in der Wolke in Cluster, die spezifische Objekte identifizieren können. Um den Segmentierungsbetrieb auszuführen, bezeichne
    Figure DE102013113570A1_0061
    die Absuchkarte in dem aktuellen Bildausschnitt (t + 1) und sei
    Figure DE102013113570A1_0062
    ein ungerichteter Graph mit der Eckpunktmenge
    Figure DE102013113570A1_0063
    Eine Kante (p1, p2) ∊ E verknüpft p1 und p2, falls ∥p1 – p2∥ kleiner als ein vorgegebener Entfernungsschwellenwert ist. Daraufhin wird die Kennzeichnung verbundener Komponenten verwendet, um die Absuchkarte
    Figure DE102013113570A1_0064
    in eine Liste von Clustern {S (t+1) / n} zu segmentieren. Das Segmentieren der Absuchpunkte in Cluster enthält das Trennen der Cluster von Absuchpunkten in den Rückgabepunktwolken in der Weise, dass Cluster ein getrenntes Objekt identifizieren, das nachgeführt wird.
  • Wenn die Absuchpunkte in Cluster segmentiert worden sind, passt der Algorithmus daraufhin im Kasten 88 die Cluster an die vorhergesagten Objektmodelle M ~ an. Insbesondere plant der Algorithmus nachgeführte Objektmodelle M bei dem vorhergehenden Zeitschritt im Kasten 90 unter Verwendung der Objektdaten 78 voraus. Um die vorausgeplanten Projektmodelle vorherzusagen, sei {M n / t} eine Liste von Objektmodellen M beim Zeitschritt t Für jedes Objektmodell M n / t wird der Mittelwert einer Gauß'schen Komponente als ν n / j. bezeichnet. Falls y n / t der Schätzwert der Transformation zum Zeitschritt t ist, ist die vorhergesagte Transformation zum Zeitschritt t + 1 y ~ n / t+1 = f(y n / t). Somit ist das vorhergesagte Objektmodell M ~ für das n-te Objekt
    Figure DE102013113570A1_0065
    für alle j. Durch
    Figure DE102013113570A1_0066
    werden die vorhergesagten Objektpunkte von dem Zeitschritt t bezeichnet.
  • Im Kasten 88 werden die sementierten Cluster
    Figure DE102013113570A1_0067
    unter Verwendung der vorausgeplanten nachgeführten Objektmodelle an vorhergesagte Objektmodelle
    Figure DE102013113570A1_0068
    Figure DE102013113570A1_0069
    angepasst. Zwischen der Eckpunktmenge
    Figure DE102013113570A1_0070
    wird ein bipartiter Graph
    Figure DE102013113570A1_0071
    Figure DE102013113570A1_0072
    konstruiert, wobei EB die Eckpunktmenge ist. Zwischen den Punkten
    Figure DE102013113570A1_0073
    existiert dann und nur dann eine Kante, wenn ∥p – q∥ < D ist, wobei D ein Entfernungsschwellenwert ist. Die Gewichtung der Kante (p, q) ist als w(p, q) = ∥p – q∥ definiert. Die Umgebung von
    Figure DE102013113570A1_0074
    ist als N(q) ≡ {p|(p,) ∊ EB} definiert.
  • Aus dem bipartiten Graphen B kann ein induzierter bipartiter Graph
    Figure DE102013113570A1_0075
    Figure DE102013113570A1_0076
    definiert werden, wobei die Kantenmenge EB die mögliche Zuordnung zwischen den Objekten in
    Figure DE102013113570A1_0077
    und den segmentierten Clustern
    Figure DE102013113570A1_0078
    repräsentiert. Eine Kante zwischen
    Figure DE102013113570A1_0079
    existiert dann und nur dann, wenn eine Kante (p, q) in B derart existiert, dass p' ∊ p und q' ∊ q ist.
  • Es sei E(p', q') die Teilmenge der Kantenmenge in B, d. h. E(p', q') ≡ {(p, q)|(p, q) ∊ EB ∩ p ∊ p' ∩ q' ∊ q}. Die Gewichtung (p', q') bzw. die Mächtigkeit der Kante (p', q') werden definiert als:
    Figure DE102013113570A1_0080
  • Wenn der induzierte bipartite Graph B' konstruiert wird und wenn die Gewichtung und die Mächtigkeit der Kanten berechnet werden, werden die starke Kante und die weggeschnittene [engl.: ”pruned”] schwache Verbindung unter Verwendung des nachstehenden Algorithmus 3 ausgewählt.
  • 10 ist ein bipartiter Graph 100, d. h. B, auf einer Absuchpunktebene für fünf vorhergesagte Objektmodelle M ~ und fünf Cluster S bei dem aktuellen Zeitschritt t wie oben diskutiert. In dem bipartiten Graphen 100 repräsentieren Punkte 102 die vorhergesagten Objektmodellpunkte und repräsentieren Dreiecke 104 die segmentierten Absuchkartenpunkte. Die Linien 106 zwischen den Punkten 102 und den Dreiecken 104 sind die Kanten des Graphen 100.
  • Daraufhin führt der Algorithmus im Kasten 92 Datenpunktcluster zusammen und teilt sie auf, um detektierte Objekte, die dieselben sind, zu kombinieren und um Objekte, die ursprünglich als ein einzelnes Objekt detektiert wurden, die aber mehrere Objekte gebildet haben, aufzuteilen. Um die Zusammenführung und Aufteilung von Clustern bereitzustellen, stellt der folgende Algorithmus 3 eine Absuchzuordnung bereit.
  • 11 veranschaulicht einen induzierten bipartiten Graphen 110, d. h. B', der durch Zusammenlegen von Punkten zu Gruppen aus dem Graphen B hergeleitet wurde. In dem induzierten bipartiten Graphen 110 repräsentieren die Knoten 114 die Objektmodellpunkte (M), repräsentieren die Knoten 112 die Cluster der segmentierten Absuchpunkte (M) und repräsentieren die Linien 116 die Kanten, die die Anpassung zwischen den Objektmodellpunkten (M) und den segmentierten Absuchpunkten (S) definieren. Wie im Folgenden diskutiert wird, wird M ~1 zum Zeitpunkt t an S1 zum Zeitpunkt t + 1 angepasst, werden M ~2 und M ~3 zu S2 zum Zeitpunkt t + 1 zusammengeführt, wird M ~4 zum Zeitpunkt t in S3 und S4 zum Zeitpunkt t + 1 aufgeteilt, verschwindet M ~5 zum Zeitpunkt t und wird aus der Absuchkarte zum Zeitpunkt t + 1 entfernt und kommt S5 zum Zeitpunkt t + 1 an. In Schritt 3 des Algorithmus 3 werden die Kanten (M ~1, S1), (M ~2, S2), (M ~4, S3) und (M ~4, S4) hervorgehoben. In Schritt 4 wird M ~3 an S2 angepasst, wird die Kante (M ~3, S2) hervorgehoben. Somit wird die Strichlinie (M ~5, S2) in Schritt 5 als die schwache Verbindung weggeschnitten. 11 veranschaulicht, dass M ~1 direkt an S1 angepasst ist, dass die zwei anderen Fälle aber eine Clusterzusammenführung und -aufteilung benötigen.
  • Das vorhergesagte Objektmodell M ~4 wird in zwei angepasste Cluster S3 und S4 aufgeteilt. Die Absuchpunkte der aktuellen Cluster S3 und S4 werden unter Verwendung von Vorkenntnis, dass es in dem vorhergehenden Bildausschnitt ein Objekt gegeben hat, neu gruppiert. Üblicherweise ist ein stärkerer Hinweis auf die Unähnlichkeit notwendig, um ein existierendes nachgeführtes Objekt in zwei Cluster aufzuteilen.
  • Die zwei vorhergesagten Objektmodelle M ~2 und M ~3 werden einem Cluster S2 in dem aktuellen Bildausschnitt zugeordnet. Die Absuchpunkte in dem Cluster S2 werden neu gruppiert, da zwischen den Absuchpunkten eine stärkere Nähe notwendig ist, um die zwei nachgeführten Objekte zu einem Objekt zusammenzuführen.
    Algorithmus 3: Absuchzuordnungsalgorithmus
    Eingabe: die Cluster
    Figure DE102013113570A1_0081
    und die vorhergesagten Objektmodelle
    Figure DE102013113570A1_0082
    Ausgabe: der weggeschnittene induzierte bipartite Graph B'.
    • 1) Konstruiere den bipartiten Graphen B mit Absuchpunkten als die Eckpunkte.
    • 2) Konstruiere den induzierten Graphen B' mit Clustern und Konturen als die Eckpunkte und berechne unter Verwendung der Gleichungen (63) bzw. (64) die Gewichtung und Mächtigkeit der Kante.
    • 3) Ermittle für jedes
      Figure DE102013113570A1_0083
      in der Weise, dass die Mächtigkeit größer als ein Schwellenwert (d. h. c(p ' / *, q') > C) und p ' / * = argminp'∊ w(p', q') ist, w(p', q') und hebe die Kante (p ' / *, q') hervor.
    • 4) Ermittle für jedes
      Figure DE102013113570A1_0084
      das nicht von den hervorgehobenen Kanten bedeckt ist, die Menge
      Figure DE102013113570A1_0085
      derart, dass jedes Element q'' von einer und nur von einer hervorgehobenen Kante bedeckt ist. Ermittle p'' derart, dass (p'', q'') > C und
      Figure DE102013113570A1_0086
      ist, und hebe die Kante (p'', q ' / *) hervor.
    • 5) Schneide alle nicht hervorgehobenen Kanten in B' ab.
  • Wie oben erwähnt wurde, werden im Kasten 94 neue Objekte erzeugt und verschwindende Objekte gelöscht. Insbesondere müssen zwei Spezialfälle behandelt werden, um in der Objektdatei neue Objekte zu erzeugen und vorhandene Objekte zu entfernen, wo keine in das Absuchcluster S5 eintretende Kante existiert. Für das Absuchcluster S5 wird ein Nachführungsinitialisierungsschritt ausgelöst und ein neues Objekt in der Objektdatei hinzugefügt, wobei das vorhergesagte Objektmodell M ~5 verschwindet und aus der Objektdatei entfernt wird, da es keine von ihm eingehende Kante gibt.
  • Wenn in dem Kasten 94 die neuen Objekte erzeugt werden und die verschwindenden Objekte gelöscht werden, stellt der Algorithmus daraufhin im Kasten 96 eine Nachführung und Modellaktualisierung bereit. Der Algorithmus 2 wird für jedes angepasste Paar von Objektmodellen Mt und Absuchclustern St+1, die z. B. durch den Prozess der gegenseitigen Ausrichtung des Absuchens des Algorithmus 1 bereitgestellt werden, für die Nachführung und für die Objektmodellaktualisierung verwendet.
  • Daraufhin wird die Objektdatei 78 im Kasten 98 aktualisiert und für den nächsten Zeitschritt für die Objektdatei 78 gespeichert. Die neue Transformation yt+1 und das aktualisierte Objektmodell Mt jedes Objekts werden in der Objektdatei zurückgespeichert und der Algorithmus wartet in dem nächsten Zeitschritt auf die Ankunft einer neuen Absuchkarte.
  • Falls die Drehung zwischen zwei aufeinanderfolgenden Absuchbildausschnitten klein ist, können die Parameter einer 2D-Transformation genähert werden durch:
    Figure DE102013113570A1_0087
    wobei (x, y) und (x', y') zwei Punkte im vorhergehenden bzw. aktuellen Bildausschnitt sind, ∊ der Drehwinkel ist und (tx, ty) die Translation ist.
  • Es sei mj = (xj, yj) und Sk = (x ' / k, y ' / k). Nach Einsetzen der Gleichungen (65) und (66) in Gleichung (55) können die partiellen Ableitungen für tx, ty und ∊ gebildet und nullgesetzt werden. y ~ = (t ~x, t ~y, ∊ ~)T bezeichne das durch Gleichung (49) vorhergesagte y. Falls ein konstantes Modell angenommen wird, werden t ~x = νxδt, t ~y, = yxδt und ∊ ~ = ωδt bereitgestellt, wobei δt die Dauer zwischen den Zeitschritten t und t – 1 ist.
  • Es können die folgenden Aktualisierungsregeln hergeleitet werden:
    Figure DE102013113570A1_0088
    wobei λx, λy und λ die aus der Kovarianzmatrix Q in Gleichung (50) hergeleiteten Gewichtungen sind.
  • Nach Ersetzen von Gleichung (38) durch die Gleichungen (67)–(69) wird der Algorithmus 1 angewendet, um tx, ty und ∊ als das y t+1 iterativ zu berechnen.
  • νH und ωH bezeichnen die HV-Bodengeschwindigkeit bzw. die Gierrate. Die Bodengeschwindigkeit des Zielfahrzeugs 14 wird berechnet durch:
    Figure DE102013113570A1_0089
    und die Richtung des Zielfahrzeugs 14 durch:
    Figure DE102013113570A1_0090
  • Das Verfahren und die Vorrichtung zum Detektieren und Nachführen mehrerer Objekte wie oben beschrieben können eine 360°-Sehfeldlösung zum Detektieren von Objekten durch das Trägerfahrzeug 12 bereitstellen. Allerdings müssen für einen LiDAR-Sensor die folgenden Probleme behandelt werden.
  • Das erste Problem sind die teilweisen Beobachtungen, die entweder durch Okklusion oder durch Lasermessungsfehler, z. B. durch niedrigen Reflexionsgrad oder durch Spiegelreflexion, verursacht werden. Zum Beispiel ist die Detektierungsentfernung eines Fahrzeugs mit schwarzer Farbe viel kleiner als die eines Fahrzeugs mit weißer Farbe.
  • Das nächste Problem ist die spärliche Messung wegen niedriger Auflösung, die eine niedrige Merkmalssalienz veranlasst und so unzureichend beim Detektieren von Fernfeldobjekten ist.
  • Ein weiteres Problem ist das begrenzte vertikale Sichtfeld wie etwa 4°, das eine fehlende Detektierung von Objekten auf einer nicht ebenen Straßenoberfläche verursacht.
  • Ein weiteres Problem ist das Fehlen von Kontextinformationen, die ein Objekt von einem überhäuften Hintergrund unterscheiden können.
  • Die vorliegende Erfindung schlägt einen verbesserten Vereinigungsalgorithmus zum Behandeln der oben beschriebenen Beschränkungen für die LiDAR-Sensoren vor. Insbesondere verwendet die vorliegende Erfindung Ausgaben von einem Radarsensor und/oder von einem Bilderkennungssystem in dem Fahrzeug, damit diese als ein Aufrufsignal arbeiten, um zu veranlassen, dass die Ausgaben des Vereinigungssystems für den LiDAR-Sensor ein Ziel identifizieren. Üblicherweise haben Radarsensoren eine große Reichweite, aber ein schmales Sichtfeld. Bilderkennungssysteme weisen üblicherweise ein kurzes Sichtfeld auf, stellen aber Kontakte zu dem detektierten Ziel bereit. Wie oben ist das verbesserte Vereinigungssystem, das diskutiert wird, zum Schätzen der Parameter x, y, vx, vy und ξ für jedes detektierte Objekt ausgelegt.
  • 12 ist ein Bild 150 eines innerhalb einer Straße 152 angezeigten Ziels, wie es durch einen LiDAR-Sensor, durch einen Radarsensor und durch ein Bilderkennungssystem in einem Trägerfahrzeug detektiert wird. Insbesondere ist das Ziel in einer ausreichend weiten Entfernung oder verdeckt, so dass es, wie durch die Punkte 156 repräsentiert ist, wenige LiDAR-Absuchpunkte gibt. Um die Detektierung des Ziels zu verbessern, definiert ein Bild 154 des Bilderkennungssystems dasselbe Ziel von einer Bilderkennungssystemausgabe und repräsentiert ein Radardatenpunkt 158 dasselbe Ziel, wie es durch einen Radarsensor detektiert wird.
  • 13 ist eine Darstellung eines Fahrzeugsystems 160 ähnlich dem oben diskutierten System 10 für ein Trägerfahrzeug 162, das einem Zielfahrzeug 164 hinterherfährt und es nachführt. Es sind dieselben Variablen für die Position, für die Geschwindigkeit, für den Richtungswinkel usw. wie in 1 gezeigt verwendet. In diesem Beispiel enthält das Trägerfahrzeug 162 einen LiDAR-Sensor 166, der ein Sichtfeld 168 aufweist, einen Radarsensor 170, der ein Sichtfeld 172 aufweist, und ein Bilderkennungssystem 174, das ein Sichtfeld 176 aufweist. Die Rückgaben von dem LiDAR-Sensor 166 sind als Absuchpunkte 178 gezeigt, die Rückgabe von dem Radarsensor 170 ist als Dreieck 180 bestimmt und die Rückgabe von dem Bilderkennungssystem 174 ist als Kasten 182 dargestellt. Wie im Gebiet bekannt ist, geben Bilderkennungssysteme und Radarsensoren vier Ausgaben von einem Ziel, d. h. die Entfernung zu dem Ziel, die Änderung der Entfernung zu dem Ziel, d. h. die Entfernungsrate, den Richtungswinkel des Ziels und die Änderung des Azimutwinkels des Ziels, d. h. die Azimutwinkelrate, aus.
  • 14 ist ein Blockschaltplan einer allgemeinen Übersicht eines vorgeschlagenen Vereinigungssystems 190. In jedem Zeitschritt wird das von dem Radarsensor 170 und/oder von dem Bilderkennungssystem 174 erfasste Ziel
    Figure DE102013113570A1_0091
    von dem Kasten 192 an einen Aufrufkontextblock 194 gesendet. Wie oben diskutiert wurde, werden im Block 196 die LiDAR-Absuchclusterkarten für einen LiDAR-Nachführungsalgorithmusblock 198 bereitgestellt. Der Nachführungsalgorithmus empfängt von dem Block 194 die Aufrufkontextzieldaten und die Zieldaten werden an das gespeicherte Objektmodell angepasst, wobei der Wert no die Anzahl detektierter Ziele ist. Jedes Ziel oi = (x '' / i, y '' / i, ν '' / i, w '' / i) weist die Parameter der Längsverlagerung (x''), der Querverlagerung (y''), der Radialgeschwindigkeit (ν'') und der Quergeschwindigkeit (w'') auf. Die LiDAR-Absuchkarte
    Figure DE102013113570A1_0092
    mit jedem Absuchpunkt sk enthält einen Längsversatz x '' / i und einen Quersatz y '' / i, wobei N die Anzahl der Absuchpunkte ist. Der Nachführungsalgorithmus überwacht die Eingabe von dem Aufrufkontextkasten 194 und von der LiDAR-Absuchkarte und erzeugt für jedes detektierte Objekt die Ausgabeparameter x, y, vx, vy und ξ. Ein Anwendungsblock 200 verwendet die geschätzten Parameter der Objekte und implementiert aktive Fahrzeugsicherheitsanwendungen wie etwa adaptiven Tempomat, Kollisionsmilderungsbremsung usw.
  • 15 ist ein Ablaufplandiagramm 204 ähnlich dem oben diskutierten Ablaufplandiagramm 80, wobei dieselben Betriebe mit denselben Bezugszeichen identifiziert sind. Das Ablaufplandiagramm 204 enthält den Kasten 206, der die Zieldaten von dem Radarsensor 170 oder von dem Bilderkennungssystem 174 liest. Nachfolgend richtet der Algorithmus in dem Kasten 208 die Zieldaten genau auf das LiDAR-Koordinatensystem aus. Um dies auszuführen, seien y0 die Parameter (Translation und Drehung) der starren Transformation T, die ein Ziel von dem Radarsensor 170 oder von dem Bilderkennungssystem 174 in der Weise auf das LiDAR-Koordinatensystem abbildet, dass die abgebildeten Ziele in dem LiDAR-System wie folgt sind:
    Figure DE102013113570A1_0093
  • Der Parameter y0 für die gegenseitige Ausrichtung kann über angepasste Paare zwischen den nachgeführten LiDAR-Objekten und den Zielen von dem Radarsensor 170 oder von dem Bilderkennungssystem 174 automatisch geschätzt werden. Das US-Patent Nr. 7,991,550 mit dem Titel Method and Apparatus for Onvehicle Calibration and Orientation of Object-Tracking Systems, erteilt am 7. August 2011, übertragen auf den Anmelder dieser Anmeldung und hier durch Bezugnahme mit aufgenommen, offenbart eine für diesen Zweck geeignete Technik.
  • Nachfolgend passt der Algorithmus im Kasten 210 die Zieldaten von dem Radarsensor 170 oder von dem Bilderkennungssystem 174 an Objektmodelle M an. Der Prozess ist in 16 als Bild 230 dargestellt, das ein Trägerfahrzeug 232 enthält, wobei die Punkte 234 Objektmodellpunkte sind, die Dreiecke 236 Radarziele sind und die Rauten 238 virtuelle Absuchpunkte sind, die von den Bilddaten von dem Bilderkennungssystem 174 abgeleitet sind. Ein Radarziel or wird durch einen durch die Dreiecke 236 repräsentierten Punkt modelliert. Ein Bilderkennungsziel Oν wird als ein Rechteck modelliert, das durch eine Liste von Punkten repräsentiert werden kann, die an der Kante des Rechtecks durch von dem Trägerfahrzeug 232 einfallende ”virtuelle Absuchlinien” abgetastet werden. Der Wert Oν = {ol|l = 1, ..., 6} ist als die Rauten 238 gezeigt. Es werden die Menge von Objektmodellen
    Figure DE102013113570A1_0094
    und Absuchpunkten aller Objektmodelle
    Figure DE102013113570A1_0095
    definiert.
    Figure DE102013113570A1_0096
    bezeichne alle Zielpunkte, entweder Dreiecke oder Rauten, von dem Radarsensor 170 bzw. von dem Bilderkennungssystem 174.
  • Die oben diskutierte Prozedur wird zum Konstruieren eines in 17 gezeigten weggeschnittenen Graphen 240 genutzt. Der Graph 240 zeigt die Objektbewegung 242 bei den Knoten 246 und die Objektmodelle 244 bei den Knoten 248, wobei o1 ↔ M ~1, o2 ↔ M ~2, o3 ein Kandidat für die Erzeugung eines neuen Objekts ist und ein vorhergesagtes Objektmodell M ~3, das aus der Objektdatei entfernt werden kann, als verschwindend markiert ist.
  • Der Algorithmus stellt unter Verwendung der vorhergesagten Nachführungsobjektmodelle M ~ von dem Kasten 90, der angepassten Cluster mit vorausgeplanten Objektmodellen M ~ von dem Kasten 88 und der angepassten Zieldaten mit den Objektmodellen von dem Kasten 210 in dem Kasten 212 eine Zusammenführung und Aufteilung von Objektmodellen M bereit. Es werden zwei Fälle, d. h. Bilderkennungsziele und Radarziele, betrachtet. 18 zeigt einen bipartiten Graphen 250 für den Fall, dass zwei vorhergesagte Objektmodelle M ~1 und M ~2 an das Bilderkennungsziel O1 angepasst werden. Diese Aufrufinformationen von dem Bilderkennungssystem 74 weisen nach, dass die zwei Objektmodelle M ~1 und M ~2 als ein neues Objektmodell M ~1-2 zusammengeführt werden müssen.
  • 19 ist ein induzierter bipartiter Graph 252, der die Zusammenführung der Objektmodelle M ~1 und M ~2 bei den Knoten 256 von dem Bilderkennungsziel O1 bei dem Knoten 254 zu dem einzelnen Objektmodell M ~1-2 zeigt.
  • 20 ist ein bipartiter Graph 260, der einen anderen Fall zeigt, in dem ein Objektmodell M ~1 an zwei Bilderkennungsziele O1 und O2 angepasst ist. Die Aufrufinformationen von dem Bilderkennungssystem 174 weisen nach, dass das Objektmodell M ~1 in zwei getrennte Objektmodelle M ~1a und M ~1b aufgeteilt werden muss.
  • 21 ist ein induzierter bipartiter Graph 262, der die Aufteilung des wie durch die zwei durch die Knoten 266 und 268 repräsentierten Bilderkennungsziele O1 und O2 detektierten Objektmodells M ~1 bei dem Knoten 264 in die durch die Knoten 270 bzw. 272 repräsentierten Objektmodelle M ~1a und M ~1b zeigt.
  • 22 ist ein bipartiter Graph 270, der einen Fall zeigt, in dem die Punktmenge
    Figure DE102013113570A1_0097
    für zwei Objektmodelle M ~1 und M ~2 mit drei Radarzielen o1, o2 und o3 angepasst wird.
  • 23 ist ein induzierter bipartiter Graph 276, der die Zuweisung o1 → M ~1, o2 → M ~2 und o3 → M ~2 zeigt. Insbesondere zeigt der Graph 276, dass das Radarziel o1 bei dem Knoten 278 an das Objektmodell M ~1 bei dem Knoten 280 angepasst wird und dass die Radarziele o2 und o3 bei den Knoten 282 bzw. 284 zu einem einzelnen Objektmodell M ~2 bei dem Knoten 286 zusammengeführt werden.
  • Nachfolgend erzeugt der Algorithmus im Kasten 214 neue Objekte und löscht er verschwindende Objekte. Ähnlich der oben für das Ablaufplandiagramm 80 diskutierten Prozedur müssen zwei Spezialfälle behandelt werden, um neue Objekte zu erzeugen und um verschwindende Objekte aus der Objektdatei zu entfernen. Für jedes nicht angepasste Absuchcluster S von einem LiDAR-Segment und für jedes nicht angepasste Ziel von dem Radarsensor 170 oder von dem Bilderkennungssystem 174 wird eine Nachführungsinitialisierungsprozedur verwendet, um ein neues Objekt zu der Objektdatei hinzuzufügen. Falls es für ein Objekt in der Objektdatei keine Anpassung entweder an ein segmentiertes Cluster S von dem LiDAR-Sensor 166 oder an ein Ziel von dem Radarsensor 170 oder von dem Bilderkennungssystem 174 gibt, wird das Objekt als verschwindend gekennzeichnet.
  • Falls das Objekt in mehreren aufeinanderfolgenden Zeitschritten ständig als verschwindend gekennzeichnet wird, wird es aus der Objektdatei entfernt.
  • Nachfolgend stellt der Algorithmus im Kasten 216 eine Nachführung und Modellaktualisierung bereit. Um diese auszuführen, seien oo, ..., ot und ot+1 in dieser Reihenfolge die abgebildeten Messungen in dem LiDAR-Koordinatensystem eines dynamischen Objekts durch den Radarsensor 170 oder durch das Bilderkennungssystem 174 zu den Zeitschritten 0, ..., t und t + 1. Die Messung von dem Zeitschritt 0 bis zu dem Zeitschritt t ist mit
    Figure DE102013113570A1_0098
    bezeichnet.
  • 24 veranschaulicht ein abgeändertes dynamisches Bayes-Netz 290 aus 8, das zwei Zeitschritte des vorgeschlagenen Nachführungsalgorithmus mit Aufrufinformationen repräsentiert. Die Werte yt und yt+1 sind zu schätzende Parameter der Transformation in den Zeitschritten t bzw. t + 1. Die Modelle Mt und Mt+1 sind die Objektmodelle zu den Zeitschritten t und t + 1. In dem Netz 290 sind die Knoten 292 die Zieldaten ot und ot+1 zu den Zeitschritten t und t + 1, sind die Knoten 294 die Transformationsparameter y zu den Zeitschritten t und t + 1, sind die Knoten 296 die Objektmodelle M zu den Zeitschritten t und t + 1 und sind die Knoten 298 die Absuchkarten zu den Zeitschritten t und t + 1.
  • Ähnlich wie in Gleichung (47) werden die Bayes-Regel bzw. die Kettenregel verwendet, um die A-posteriori-PDF bei gegebenen LiDAR-Absuchkarten und Zieldaten von dem Radarsensor 170 oder von dem Bilderkennungssystem 174 bis zu dem Zeitschritt t + 1 wie folgt herzuleiten:
    Figure DE102013113570A1_0099
    wobei y und M kurz für yt+1 und Mt sind, S(0:t+1) Absuchkarten bis zu dem Zeitschritt t + 1 repräsentiert, S die Absuchkarte bei t + 1 ist, o = ot+1 kurz das gemessene Ziel zu dem Zeitschritt t + 1 ist und die letzte Gleichung unter der Annahme einer bedingten Unabhängigkeit bei gegebenen S(0:t) und o(0:t) folgt.
  • In Gleichung (74) ist p(y, M|S(0:t), o(0:t)) die frühere PDF von y zum Zeitschritt t + 1 bei gegebenen vorhergehenden Absuchkarten S(0:t) und Zieldaten o(0:t), die berechnet werden kann als:
    Figure DE102013113570A1_0100
    wobei p(yt|S(0:t), o(0:t)) die A-posteriori-PDF für den Transformationsparameter bei t bezeichnet und p(y|yt) die Anlagenmodellgleichung (49) repräsentiert.
  • Falls p(yt|S(0:t), o(0:t)) als eine Dirac'sche Deltaverteilung mit dem Zentrum bei y t, angenommen ist, kann die frühere PDF zum Zeitschritt t + 1 geschrieben werden als:
    Figure DE102013113570A1_0101
    wobei y ~ der vorhergesagte Werte des folgenden Anlagenmodells des Objekts y ~ = f(y t) ist.
  • Nun wird die A-posteriori-Wahrscheinlichkeit des Objektmodells M betrachtet, wobei
    Figure DE102013113570A1_0102
    ist und wobei
    Figure DE102013113570A1_0103
    in Gleichung (51) definiert ist. Wie in 24 gezeigt ist, kann das frühere Netz für das Objektmodell zum Zeitschritt t geschrieben werden als:
    Figure DE102013113570A1_0104
  • Nun wird das Problem der Schätzung der A-posteriori-Wahrscheinlichkeit zum Zeitschritt t + 1 betrachtet, die faktorisiert wird als:
    Figure DE102013113570A1_0105
    und als die folgenden zwei Schritte unabhängig berechnet wird.
  • Es wird angenommen, dass p(y|S(0:t+1), o(0:t+1)) die Dirac'sche Delta-PDF mit dem Zentrum bei y t+1 ist, die durch Maximieren von Gleichung (74) in Bezug auf y geschätzt werden kann.
  • Das Messmodell der Zieldaten p(o|y) wird wie folgt modelliert:
    Figure DE102013113570A1_0106
    wobei ν eine Gauß'sche Zufallsvariable mit dem Mittelwert null mit der Kovarianzmatrix E ist. Somit ist p(o|y) eine Gauß'sche PDF, d. h.:
    Figure DE102013113570A1_0107
  • Durch Einsetzen der Gleichungen (76) und (81) in Gleichung (74), durch Anwenden eines negativen Logarithmus auf Gleichung (74) und durch Vernachlässigen der für y irrelevanten Terme kann Folgendes erhalten werden:
    Figure DE102013113570A1_0108
    wobei
    Figure DE102013113570A1_0109
    sind.
  • Somit kann Gleichung (38) im Algorithmus 1 durch Gleichung (55) ersetzt werden, um frühere Informationen vorhergehender Zeitschritte und Aufrufinformationen von dem Radarsensor 170 oder von dem Bilderkennungssystem 174 zu integrieren und um daraufhin den Algorithmus 1 anzuwenden, um y t+1 herzuleiten.
  • Wenn p(M/S(o:t+1), 0(0:t+1)) berechnet wird, wird angemerkt, dass Gleichung (78) und Gleichung (53) äquivalent sind und dass somit dieselben oben beschriebenen Aktualisierungsregeln für Hyperparameter angewendet werden.
  • Daraufhin wird die Objektdatei 78 in dem Kasten 98 in der wie oben diskutierten Weise aktualisiert.
  • Wie der Fachmann auf dem Gebiet gut versteht, können sich die mehreren und verschiedenen hier zur Beschreibung der Erfindung diskutierten Schritte und Prozesse auf durch einen Computer, durch einen Prozessor oder durch eine andere elektronische Rechenvorrichtung, die Daten unter Verwendung einer elektrischen Erscheinung manipulieren und/oder transformieren, ausgeführte Betriebe beziehen. Diese Computer und elektronischen Vorrichtungen können verschiedene flüchtige und/oder nicht flüchtige Speicher einschließlich eines nicht vorübergehenden computerlesbaren Mediums mit einem darauf gespeicherten ausführbaren Programm, das verschiedenen Code oder ausführbare Anweisungen enthält, die durch den Computer oder Prozessor ausgeführt werden können, nutzen, wobei der Speicher und/oder das computerlesbare Medium alle Formen und Arten von Speicher und anderen computerlesbaren Medien enthalten kann.
  • Die vorstehende Diskussion hat lediglich beispielhafte Ausführungsformen der vorliegenden Erfindung offenbart und beschrieben. Der Fachmann auf dem Gebiet erkennt aus dieser Diskussion und aus den vorstehenden Zeichnungen und Ansprüchen leicht, dass daran verschiedene Änderungen, Abwandlungen und Veränderungen vorgenommen werden können, ohne von dem wie in den folgenden Ansprüchen definierten Erfindungsgedanken und Schutzumfang der Erfindung abzuweichen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 7991550 [0116]

Claims (10)

  1. Verfahren zum Vereinigen von Ausgaben von mehreren LiDAR-Sensoren in einem Fahrzeug, wobei das Verfahren umfasst: Bereitstellen von Objektdateien für durch die LiDAR-Sensoren zu einem vorhergehenden Abtastzeitpunkt detektierte Objekte, wobei die Objektdateien Objektmodelle aufweisen, die eine Position, eine Orientierung und eine Geschwindigkeit der durch die Sensoren detektierten Objekte identifizieren; Nachführen der Objektmodelle der durch die Sensoren detektierten Objekte; Vorausplanen nachgeführter Objektmodelle in den Objektdateien von dem vorhergehenden Absuchzeitraum, um vorhergesagte Objektmodelle bereitzustellen; Empfangen mehrerer Absuchrückgaben von in einem Sichtfeld der Sensoren zu einem aktuellen Abtastzeitpunkt detektierten Objekten; Konstruieren einer Absuchpunktwolke aus den Absuchrückgaben; Segmentieren der Absuchpunkte in der Punktwolke zu vorhergesagten Absuchclustern, wobei jedes Absuchcluster anfangs ein durch die Sensoren detektiertes Objekt identifiziert; Anpassen der vorhergesagten Absuchcluster an die vorhergesagten Objektmodelle; Zusammenführen vorhergesagter Objektmodelle, die als getrennte Absuchcluster zu dem vorhergehenden Abtastzeitpunkt identifiziert worden sind, nun aber zu dem aktuellen Abtastzeitpunkt als ein einzelnes Absuchcluster identifiziert werden; Aufteilen vorhergesagter Objektmodelle, die zu dem vorhergehenden Abtastzeitpunkt als ein einzelnes Absuchcluster identifiziert worden sind, in dem aktuellen Abtastzeitpunkt nun aber als getrennte Absuchcluster identifiziert werden; Erzeugen neuer Objektmodelle für detektierte Objekte in dem aktuellen Abtastzeitpunkt, die zu dem vorhergehenden Abtastzeitpunkt nicht vorhanden waren; Löschen von Objektmodellen, die in den vorhergesagten Absuchclustern nicht mehr vorhanden sind; Bereitstellen von Objektmodellaktualisierungen auf der Grundlage der zusammengeführten Objektmodelle, der aufgeteilten Objektmodelle, der neuen Objektmodelle und der gelöschten Objektmodelle; und Aktualisieren der Objektdateien für den aktuellen Abtastzeitraum mit den Objektmodellaktualisierungen.
  2. Verfahren nach Anspruch 1, wobei das Segmentieren der Absuchpunkte in der Punktwolke das Aufteilen der Cluster von Absuchpunkten in der Punktwolke in der Weise umfasst, dass die Cluster ein getrenntes Objekt, das nachgeführt wird, identifizieren.
  3. Verfahren nach Anspruch 1, wobei das Anpassen der vorhergesagten Absuchcluster an die vorhergesagten Objektmodelle das Erzeugen eines bipartiten bzw. zweigeteilten Graphen, der die Absuchcluster an die vorhergesagten Objektmodelle anpasst, enthält.
  4. Verfahren nach Anspruch 3, wobei das Erzeugen eines bipartiten Graphen das Positionieren der Absuchpunkte an Eckpunkten des Graphen enthält.
  5. Verfahren nach Anspruch 3, wobei das Zusammenführen vorhergesagter Objektmodelle und das Aufteilen vorhergesagter Objektmodelle das Umsetzen des bipartiten Graphen in einen induzierten bipartiten Graphen umfasst, der die Objektmodelle, die zusammengeführt oder aufgeteilt werden, zeigt.
  6. Verfahren nach Anspruch 5, wobei das Umsetzen des bipartiten Graphen in einen induzierten bipartiten Graphen das Berechnen von Gewichtungen und einer Mächtigkeit von Kanten für den induzierten bipartiten Graphen enthält, wobei jede Gewichtung eine Positionsänderung eines der Absuchpunkte für den wenigstens einen Sensor an einem Ort eines Absuchpunkts für einen anderen der Sensoren identifiziert und wobei die Kanten die Anpassung zwischen Objektmodellpunkten und segmentierten Absuchpunkten definieren.
  7. Verfahren nach Anspruch 6, wobei das Umsetzen des bipartiten Graphen in einen induzierten bipartiten Graphen das Vergleichen der Mächtigkeit der Kanten mit einem Schwellenwert und das Hervorheben der Kante, falls die Mächtigkeit größer als der Schwellenwert ist, enthält und wobei eine Kante entfernt wird, falls sie nicht hervorgehoben ist.
  8. Verfahren nach Anspruch 7, wobei das Löschen von Objektmodellen, die in den vorhergesagten Absuchclustern nicht mehr vorhanden sind, das Löschen eines Objektmodells, das mit einer Kante verbunden war, die entfernt worden ist, enthält.
  9. Verfahren nach Anspruch 1, wobei das Bereitstellen von Objektmodellaktualisierungen das Identifizieren der Zieldaten, eines Transformationsparameters, der Objektmodelle und der Absuchkartencluster in einem Bayes-Netz von dem Bildausschnitt zum vorhergehenden Zeitpunkt zu dem Bildausschnitt zum aktuellen Zeitpunkt enthält.
  10. Verfahren nach Anspruch 1, wobei das Aktualisieren der Objektdateien das Abändern einer Transformation der Sensoren, die einen Orientierungswinkel und eine Position des Sensors identifiziert, enthält.
DE102013113570.6A 2012-03-15 2013-12-05 Bayes-Netz zum Nachführen von Objekten unter Verwendung von Absuchpunkten unter Verwendung mehrerer LiDAR-Sensoren Ceased DE102013113570A1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261611471P 2012-03-15 2012-03-15
US13/789,379 2013-03-07
US13/789,379 US9129211B2 (en) 2012-03-15 2013-03-07 Bayesian network to track objects using scan points using multiple LiDAR sensors

Publications (1)

Publication Number Publication Date
DE102013113570A1 true DE102013113570A1 (de) 2014-09-11

Family

ID=49158455

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013113570.6A Ceased DE102013113570A1 (de) 2012-03-15 2013-12-05 Bayes-Netz zum Nachführen von Objekten unter Verwendung von Absuchpunkten unter Verwendung mehrerer LiDAR-Sensoren

Country Status (3)

Country Link
US (2) US9129211B2 (de)
CN (1) CN104035439B (de)
DE (1) DE102013113570A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11567172B2 (en) 2016-03-24 2023-01-31 Valeo Schalter Und Sensoren Gmbh Method for capturing at least one object, device of a sensor apparatus, sensor apparatus and driver assistance system with at least one sensor apparatus
DE102015122825B4 (de) 2015-01-14 2023-02-16 GM Global Technology Operations LLC Techniken zum Gruppieren von Zielelementen für eine Objektfusion
DE112020006961B4 (de) 2020-05-26 2024-02-29 Mitsubishi Electric Corporation Prädiktive verfolgungsvorrichtung, prädiktives verfolgungsverfahren und prädiktives verfolgungsprogramm

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9129211B2 (en) * 2012-03-15 2015-09-08 GM Global Technology Operations LLC Bayesian network to track objects using scan points using multiple LiDAR sensors
US9361412B1 (en) * 2012-03-26 2016-06-07 The United Sates Of America As Represented By The Secretary Of The Navy Method for the simulation of LADAR sensor range data
US9495874B1 (en) 2012-04-13 2016-11-15 Google Inc. Automated system and method for modeling the behavior of vehicles and other agents
DE102012208852A1 (de) * 2012-05-25 2013-11-28 Robert Bosch Gmbh Detektion von Radarobjekten mit einem Radarsensor eines Kraftfahrzeugs
KR101896715B1 (ko) * 2012-10-31 2018-09-07 현대자동차주식회사 주변차량 위치 추적 장치 및 방법
US9299042B2 (en) * 2013-08-09 2016-03-29 Raytheon Company Predicting edges in temporal network graphs described by near-bipartite data sets
WO2015106799A1 (en) * 2014-01-14 2015-07-23 Sandvik Mining And Construction Oy Mine vehicle, mine control system and mapping method
US9955056B2 (en) * 2015-03-16 2018-04-24 Qualcomm Incorporated Real time calibration for multi-camera wireless device
US9625582B2 (en) * 2015-03-25 2017-04-18 Google Inc. Vehicle with multiple light detection and ranging devices (LIDARs)
US10184974B2 (en) 2015-09-22 2019-01-22 Raytheon Company Systems and methods for determining whether a circuit is operating properly
CN105867373B (zh) * 2016-04-07 2018-09-11 重庆大学 一种基于激光雷达数据的移动机器人位姿推算方法及系统
US11092690B1 (en) 2016-09-22 2021-08-17 Apple Inc. Predicting lidar data using machine learning
US10160448B2 (en) 2016-11-08 2018-12-25 Ford Global Technologies, Llc Object tracking using sensor fusion within a probabilistic framework
US10315649B2 (en) 2016-11-29 2019-06-11 Ford Global Technologies, Llc Multi-sensor probabilistic object detection and automated braking
US10838067B2 (en) 2017-01-17 2020-11-17 Aptiv Technologies Limited Object detection system
US10449956B2 (en) * 2017-01-18 2019-10-22 Ford Global Technologies, Llc Object tracking by unsupervised learning
US10254758B2 (en) 2017-01-18 2019-04-09 Ford Global Technologies, Llc Object tracking by unsupervised learning
CN108732582B (zh) * 2017-04-20 2020-07-10 百度在线网络技术(北京)有限公司 车辆定位方法和装置
WO2018195996A1 (en) * 2017-04-28 2018-11-01 SZ DJI Technology Co., Ltd. Multi-object tracking based on lidar point cloud
CN107240104B (zh) * 2017-04-28 2020-01-21 深圳市速腾聚创科技有限公司 点云数据分割方法和终端
CN107220409B (zh) * 2017-05-02 2021-05-28 哈尔滨工程大学 一种基于粒子机制免疫人群搜索的组网雷达布站方法
US10962641B2 (en) * 2017-09-07 2021-03-30 Magna Electronics Inc. Vehicle radar sensing system with enhanced accuracy using interferometry techniques
CN109839645B (zh) * 2017-11-24 2021-05-25 北京京东乾石科技有限公司 速度检测方法、系统、电子设备和计算机可读介质
JP7103824B2 (ja) * 2018-03-30 2022-07-20 株式会社小松製作所 作業機械の制御システム、作業機械、及び作業機械の制御方法
US11079488B2 (en) * 2018-05-14 2021-08-03 GM Global Technology Operations LLC DBSCAN parameters as function of sensor suite configuration
CN110580038B (zh) * 2018-06-11 2020-11-24 上海交通大学 自动驾驶跟车装置及自动驾驶车队系统
CN108827369B (zh) * 2018-07-20 2020-09-08 重庆长安汽车股份有限公司 提升传感器关联效率的方法
CN108717540B (zh) * 2018-08-03 2024-02-06 浙江梧斯源通信科技股份有限公司 基于2d激光雷达区分行人和车辆的方法及装置
US10677900B2 (en) 2018-08-06 2020-06-09 Luminar Technologies, Inc. Detecting distortion using known shapes
JP6970065B2 (ja) * 2018-09-06 2021-11-24 株式会社Soken 物体検出装置
US10878580B2 (en) * 2018-10-15 2020-12-29 Tusimple, Inc. Point cluster refinement processing of image data for LiDAR-based vehicle tracking system and method
CN111337939A (zh) * 2018-12-19 2020-06-26 上海蔚来汽车有限公司 一种矩形物体外边框的估计方法及装置
US11782158B2 (en) 2018-12-21 2023-10-10 Waymo Llc Multi-stage object heading estimation
CN210212200U (zh) * 2019-01-03 2020-03-31 华域视觉科技(上海)有限公司 三维探测照明系统及汽车
DK180562B1 (en) 2019-01-31 2021-06-28 Motional Ad Llc Merging data from multiple lidar devices
CN110007300B (zh) * 2019-03-28 2021-08-06 东软睿驰汽车技术(沈阳)有限公司 一种得到点云数据的方法及装置
CN110059608B (zh) 2019-04-11 2021-07-06 腾讯科技(深圳)有限公司 一种物体检测方法、装置、电子设备和存储介质
US11460581B2 (en) 2019-06-10 2022-10-04 Toyota Research Institute, Inc. Systems and methods for reducing LiDAR points
US11372091B2 (en) 2019-06-28 2022-06-28 Toyota Research Institute, Inc. Systems and methods for correcting parallax
CN110488809A (zh) * 2019-07-19 2019-11-22 上海景吾智能科技有限公司 一种室内移动机器人的自主建图方法和装置
US11250576B2 (en) * 2019-08-19 2022-02-15 Toyota Research Institute, Inc. Systems and methods for estimating dynamics of objects using temporal changes encoded in a difference map
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
WO2021061795A1 (en) 2019-09-23 2021-04-01 Canoo Inc. Fractional slot electric motors with coil elements having rectangular cross-sections
CN110879598A (zh) * 2019-12-11 2020-03-13 北京踏歌智行科技有限公司 车辆用多传感器的信息融合方法和装置
CN111325757B (zh) * 2020-02-18 2022-12-23 西北工业大学 一种基于贝叶斯神经网络的点云识别与分割方法
CN112365582B (zh) * 2020-11-17 2022-08-16 电子科技大学 一种对抗点云生成方法、存储介质和终端
CN114049385A (zh) * 2021-10-15 2022-02-15 哈尔滨工业大学(威海) 基于自适应配准的多激光雷达自主建网系统、方法、终端

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7991550B2 (en) 2006-02-03 2011-08-02 GM Global Technology Operations LLC Method and apparatus for on-vehicle calibration and orientation of object-tracking systems

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7643966B2 (en) * 2004-03-10 2010-01-05 Leica Geosystems Ag Identification of 3D surface points using context-based hypothesis testing
US7298891B2 (en) * 2004-07-15 2007-11-20 Harris Corporation Bare earth digital elevation model extraction for three-dimensional registration from topographical points
AU2007361324A1 (en) * 2007-11-07 2009-05-14 Tele Atlas B.V. Method of and arrangement for mapping range sensor data on image sensor data
BRPI0917864A2 (pt) * 2008-08-15 2015-11-24 Univ Brown aparelho e método para estimativa da forma corporal
US8260539B2 (en) * 2010-05-12 2012-09-04 GM Global Technology Operations LLC Object and vehicle detection and tracking using 3-D laser rangefinder
US20120022739A1 (en) * 2010-07-20 2012-01-26 Gm Global Technology Operations, Inc. Robust vehicular lateral control with front and rear cameras
US8818702B2 (en) 2010-11-09 2014-08-26 GM Global Technology Operations LLC System and method for tracking objects
US8775064B2 (en) 2011-05-10 2014-07-08 GM Global Technology Operations LLC Sensor alignment process and tools for active safety vehicle applications
CN102542634B (zh) * 2012-01-13 2014-05-21 北京理工大学 一种目标车辆行驶状态测量系统
US9128185B2 (en) * 2012-03-15 2015-09-08 GM Global Technology Operations LLC Methods and apparatus of fusing radar/camera object data and LiDAR scan points
US9329269B2 (en) * 2012-03-15 2016-05-03 GM Global Technology Operations LLC Method for registration of range images from multiple LiDARS
US9129211B2 (en) * 2012-03-15 2015-09-08 GM Global Technology Operations LLC Bayesian network to track objects using scan points using multiple LiDAR sensors
CA2872491A1 (en) * 2012-05-04 2013-11-07 Fedex Corporate Services, Inc. Systems, methods, and computer-readable media for logical clustering of package data and derived analytics and sharing of sensor information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7991550B2 (en) 2006-02-03 2011-08-02 GM Global Technology Operations LLC Method and apparatus for on-vehicle calibration and orientation of object-tracking systems

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015122825B4 (de) 2015-01-14 2023-02-16 GM Global Technology Operations LLC Techniken zum Gruppieren von Zielelementen für eine Objektfusion
US11567172B2 (en) 2016-03-24 2023-01-31 Valeo Schalter Und Sensoren Gmbh Method for capturing at least one object, device of a sensor apparatus, sensor apparatus and driver assistance system with at least one sensor apparatus
DE112020006961B4 (de) 2020-05-26 2024-02-29 Mitsubishi Electric Corporation Prädiktive verfolgungsvorrichtung, prädiktives verfolgungsverfahren und prädiktives verfolgungsprogramm

Also Published As

Publication number Publication date
US20150356454A1 (en) 2015-12-10
US9129211B2 (en) 2015-09-08
CN104035439B (zh) 2017-04-26
US20130246020A1 (en) 2013-09-19
CN104035439A (zh) 2014-09-10
US9378463B2 (en) 2016-06-28

Similar Documents

Publication Publication Date Title
DE102013113570A1 (de) Bayes-Netz zum Nachführen von Objekten unter Verwendung von Absuchpunkten unter Verwendung mehrerer LiDAR-Sensoren
DE102013113571A1 (de) Verfahren und Vorrichtungen zum Vereinigen von Radar/Kamera-Objektdaten und LiDAR-Absuchpunkten
DE102013102153A1 (de) Verfahren zur Registrierung von Entfernungsbildern von mehreren LiDAR-Sensoren
US9329269B2 (en) Method for registration of range images from multiple LiDARS
DE102013113619B4 (de) Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem
DE102015122825B4 (de) Techniken zum Gruppieren von Zielelementen für eine Objektfusion
DE102018114042A1 (de) Vorrichtung, verfahren und system zur multimodalen fusionsverarbeitung von daten mit mehreren verschiedenen formaten, die von heterogenen vorrichtungen erfasst wurden
DE102011117585B4 (de) Systeme und Verfahren zum Verfolgen von Objekten
DE102018205915A1 (de) Monokulare Lokalisierung in städtischen Umgebungen unter Verwendung von Straßenmarkierungen
DE102011119767A1 (de) Erscheinungsbild-gestützte vereinigung von kamera- undentfernungssensordaten für mehrere objekte
DE102018124108A1 (de) VERFAHREN UND VORRICHTUNG ZUM ERFASSEN EINER STRAßENBEGRENZUNG
DE102016212193A1 (de) Vorrichtung und Verfahren zur Detektion eines Objekts auf einer Strasse
DE112021006299T5 (de) Verfahren und Systeme zur Bodensegmentierung mittels Graphenschnitten
DE102021100351A1 (de) Adaptive untersuchung für lidar-basiertes gruppieren
DE102022102934A1 (de) Ereignisbasierte fahrzeugposenschätzung unter verwendung monochromatischer bildgebung
EP1205765A2 (de) Verfahren zur Leitungserkennung für tieffliegende Fluggeräte
DE102022108712A1 (de) Gemeinsame Schätzung und Korrektur eines Ausrichtungsfehlers einer LIDAR-Mittelachse und eines Lokalisierungsfehlers eines Trägerfahrzeugs
DE112019005326T5 (de) Objektverfolgungsvorrichtung
DE102022211987A1 (de) Verfahren, Computerprogramm, maschinenlesbares Speichermedium und System zur Klassifizierung von Geisterobiekten in einer Umgebung eines Straßenfahrzeugs, eines Beförderungssystems und/oder einer Komponente einer Verkehrsinfrastruktur
DE112022002046T5 (de) Fahrvorrichtung, fahrzeug und verfahren zum automatisierten fahren und/oder assistierten fahren
DE102021130241A1 (de) Kartengestützte Zielfahrtrichtungs-Disambiguierung
DE102019216373A1 (de) Verfahren zur Erfassung eines Zielobjekts
DE102019126074A1 (de) Analyse einer Umgebung eines aktiven optischen Sensorsystems
DE102017113635A1 (de) Klassifikation und Lokalisation eines Objektes durch eine Lidar-Sensorvorrichtung eines Kraftfahrzeugs
DE102016123058A1 (de) Optischer Fluss mit Konfidenzschätzung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final