DE102011117585A1 - Systeme und Verfahren zum Verfolgen von Objekten - Google Patents

Systeme und Verfahren zum Verfolgen von Objekten Download PDF

Info

Publication number
DE102011117585A1
DE102011117585A1 DE102011117585A DE102011117585A DE102011117585A1 DE 102011117585 A1 DE102011117585 A1 DE 102011117585A1 DE 102011117585 A DE102011117585 A DE 102011117585A DE 102011117585 A DE102011117585 A DE 102011117585A DE 102011117585 A1 DE102011117585 A1 DE 102011117585A1
Authority
DE
Germany
Prior art keywords
new
group
kinematic model
points
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102011117585A
Other languages
English (en)
Other versions
DE102011117585B4 (de
Inventor
Shuqing Zeng
Yuanhong Li
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102011117585A1 publication Critical patent/DE102011117585A1/de
Application granted granted Critical
Publication of DE102011117585B4 publication Critical patent/DE102011117585B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)

Abstract

Ein Verfahren zum Verfolgen von Objekten, indem kinematische Modelle, die den Objekten entsprechen, unter Verwendung eines rechnergestützten Objektverfolgungssystems erzeugt werden, das ein Datensammelmodul enthält, das Abtastdaten, die einem Objekt zugeordnet sind, empfängt und unter Verwendung der Abtastdaten ein neues Gerüst F erzeugt, das einem neuen Zeitpunkt t + dt zugeordnet ist und neue Punkte X enthält. Ein Gruppenbildungsmodul identifiziert eine neue Gruppe G von neuen Punkten Xi des neuen Gerüsts F. Ein Datenzuordnungsmodul ordnet die neue Gruppe G dem Objekt auf der Grundlage vorheriger Informationen, die dem Objekt zugeordnet sind, zu. Ein Verfolgungsmodul bestimmt ein neues kinematisches Modell [engl: module] M, das dem Objekt entspricht, auf der Grundlage der neuen Gruppe G.

Description

  • TECHNISCHES GEBIET
  • Das technische Gebiet betrifft allgemein Systeme und Verfahren zum Verfolgen von Objekten.
  • HINTERGRUND
  • Viele moderne Kraftfahrzeuge verfügen über Fahrzeugdetektionssysteme, die halbautonome und autonome Fahrmerkmale wie etwa eine Kollisionsvermeidung ermöglichen. Die Fahrzeugdetektionssysteme verwenden verschiedene Verfahren zum Verarbeiten von Daten von einer Abtastvorrichtung des Fahrzeugs, um die Anwesenheit anderer Fahrzeuge zu detektieren und deren Dynamik zu bestimmen. Diese Verfahren umfassen Hough-Abgleichverfahren und parametrische L-Form-Verfahren [engl: L-shape methods].
  • Allerdings weisen Hough-Abgleichverfahren und parametrische L-Form-Verfahren Beschränkungen auf. Hough-Abgleichverfahren sind rechentechnisch aufwendig und erzeugen Profile, die eine diskrete Auflösung und eine festgelegte Größe aufweisen. Derartige Profile beschreiben die Größe oder Gestalt vieler Objekte nicht genau. Parametrische L-Form-Verfahren sind instabil und im Allgemeinen nur nützlich bei Objekten mit rechteckigen Profilen. Bei Kurvenprofilen kann eine L-Form auf verschiedene Weisen an die Kurve angepasst werden, was die Bestimmung der Orientierung des Objekts erschwert.
  • ZUSAMMENFASSUNG
  • Die vorliegende Offenbarung betrifft Verfahren und rechnergestützte Objektverfolgungssysteme zum Verfolgen von Objekten, indem kinematische Modelle erzeugt werden, die den Objekten entsprechen. Bei einer beispielhaften Ausführungsform umfasst das rechnergestützte Objektverfolgungssystem ein Datensammelmodul, ein Gruppenbildungsmodul, ein Datenzuordnungsmodul und ein Verfolgungsmodul.
  • Das Datensammelmodul des Objektverfolgungssystems empfängt Abtastdaten, die einem Objekt zugeordnet sind, und erzeugt unter Verwendung der Abtastdaten eine neues Gerüst F, das einem neuen Zeitpunkt t + dt zugeordnet ist und neue Punkte X enthält.
  • Das Gruppenbildungsmodul des Objektverfolgungssystems identifiziert eine neue Gruppe G aus neuen Punkten Xi des neuen Gerüsts F, wobei i = 1, ...N, wobei N eine positive Ganzzahl ist, die einer Anzahl der neuen Punkte entspricht.
  • Das Datenzuordnungsmodul des Objektverfolgungssystems ordnet auf der Grundlage vorheriger Informationen, die dem Objekt zugeordnet sind, die neue Gruppe G dem Objekt zu.
  • Das Verfolgungsmodul des Objektsverfolgungssystems ermittelt ein neues kinematisches Modell [engl: module] M, das dem Objekt entspricht, auf der Grundlage der neuen Gruppe G.
  • Bei einigen Ausführungsformen enthält das rechnergestützte Objektverfolgungssystem ein Vorverarbeitungsmodul, das ausgestaltet ist, um das neue Gerüst F vor dem Gruppenbildungsmodul zu verarbeiten, das die neue Gruppe G von neuen Punkten Xi des neuen Gerüsts F identifiziert. Bei einigen Ausführungsformen umfasst das Verarbeiten des neuen Gerüsts F durch das Vorverarbeitungsmodul, dass das Vorverarbeitungsmodul das neue Gerüst F filtert, um das neue Gerüst F durch Fahrzeugbezugskoordinaten und/oder Bodenbezugskoordinaten darzustellen.
  • Im Vorstehenden wurden einige des Aspekte und Merkmale der verschiedenen Ausführungsformen grob umrissen, was so aufgefasst werden soll, dass verschiedene potentielle Anwendungen veranschaulicht werden. Andere nützliche Ergebnisse können erhalten werden, indem die offenbarten Informationen auf eine andere Weise angewendet werden oder indem verschiedene Aspekte der offenbarten Ausführungsformen kombiniert werden. Entsprechend können andere Aspekte und ein umfassenderes Verständnis durch Bezugnahme auf die genaue Beschreibung der beispielhaften Ausführungsformen in Verbindung mit den beiliegenden Zeichnungen zusätzlich zu dem Schutzumfang, der durch die Ansprüche definiert ist, erhalten werden.
  • BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine schematische Darstellung eines Fahrzeugs, das ein Objektverfolgungssystem gemäß einer beispielhaften Ausführungsform enthält.
  • 2 ist ein Blockdiagramm von Schritten eines Verfahrens, das von dem Objektverfolgungssystem von 1 durchgeführt wird.
  • 36 sind schematische Ansichten, die Schritte des Verfahrens von 2 darstellen.
  • GENAUE BESCHREIBUNG
  • Wie gefordert werden hier detaillierte Ausführungsformen offenbart. Es versteht sich, dass die offenbarten Ausführungsformen nur beispielhaft für verschiedene und alternative Formen und Kombinationen daraus sind. Das Wort ”beispielhaft” wird hier ausgiebig verwendet, um Ausführungsformen zu bezeichnen, die als Darstellungen, Muster, Modelle oder Vorlagen dienen. Die Figuren sind nicht unbedingt maßstabgetreu und einige Merkmale können vergrößert oder minimiert sein, um Details spezieller Komponenten zu zeigen. In anderen Fällen wurden gut bekannte Komponenten, Systeme, Materialien oder Verfahren, die dem Fachmann auf dem Gebiet bekannt sind, nicht im Detail beschrieben, um ein Verschleiern der vorliegenden Offenbarung zu vermeiden. Daher sollen spezifische strukturelle und funktionale Details, die hier offenbart sind, nicht als Beschränkung interpretiert werden, sondern nur als eine Grundlage für die Ansprüche und als eine repräsentative Grundlage zur Unterrichtung des Fachmanns.
  • ALLGEMEINER ÜBERBLICK
  • Die Ausführungsformen der vorliegenden Offenbarung stellen Systeme und Verfahren zur genauen, stabilen und schnellen Verfolgung von Objekten (z. B. anderen Fahrzeugen), die verschiedene Größen und Formen aufweisen, bereit. Die Genauigkeit, die Stabilität und die Geschwindigkeit der Verfolgung werden zumindest teilweise verbessert, indem kinetische Parameter von Objekten direkt aus Abtastpunkten (z. B. Pixeln) berechnet werden, die durch Sensoren beschafft werden, etwa einem Entfernungsmesser. Mit dieser direkten Analyse auf Pixelebene wird die Leistung nicht durch die Begrenzungen (oder den Diskretisierungseffekt) beim Vorberechnen von Profilen mit einer diskreten Auflösung auf beim Versuchen eines genauen Abgleichs eines Objekts mit derartigen Profilen mit diskreter Auflösung behindert.
  • Im Gegensatz dazu berechnen herkömmliche Hough-Abgleichverfahren kinetische Parameter, indem ein Objekt mit einem oder mehreren zuvor erzeugten diskreten Profilen in Übereinstimmung gebracht wird, und herkömmliche parametrische L-Form-Verfahren berechnen kinetische Parameter auf der Grundlage von oftmals ungenauen parametrischen L-Form-Modellen. Diese herkömmlichen Verfahren beruhen zu einem großen Teil auf der flüchtigen Genauigkeit, mit der abstrakte Profile das tatsächliche Objekt beschreiben.
  • Die Systeme und Verfahren erweitern und verbessern auf diese und andere hier bereitgestellte Weisen die Objektdetektion und -verfolgung. Die Systeme und Verfahren detektieren die Objektgröße, -form und -orientierung derart, dass Objekte kategorisiert werden können, zum Beispiel als Fahrzeug, Lastwagen, Motorrad oder Fußgänger.
  • SYSTEM: Fig. 1
  • Mit Bezug auf die Figuren und insbesondere auf die erste Figur, veranschaulicht 1 auf schematische Weise Komponenten eines beispielhaften Fahrzeugs 10. Das Fahrzeug 10 enthält ein Objektverfolgungssystem 20 und Fahrzeugzusatzsysteme 22, wie etwa Systeme zum autonomen Fahren mit eingeschränkten Fähigkeiten auf Schnellstraßen (FLAAD-Systeme, FLAAD von Freeway Limited Ability Autonomous Driving), Systeme zur verbesserten Kollisionsvermeidung (ECA-Systeme), Systeme mit konstantem Lenkwinkel und konstanter Geschwindigkeit (CSAV-Systeme, CSAV von Constant Steering Angle and Velocity) und dergleichen.
  • Das Objektverfolgungssystem 20 ist ausgestaltet, um Daten zu erzeugen, die verfolgten Objekten zugeordnet sind, und die Fahrzeugzusatzsysteme 22 sind ausgestaltet, um die Daten verfolgter Objekte zum Steuern des Fahrzeugs 10 und/oder zum Bereitstellen von nützlichen Informationen für einen Bediener des Fahrzeugs 10 zu verwenden. Die Daten verfolgter Objekte können beispielsweise die Identifikation (z. B. eine Liste) von mindestens einem Objekt 40 und erzeugte kinematische Modelle M enthalten, die den Objekten entsprechen. Ein kinematisches Modell M kann die Position, die Geschwindigkeit, die Beschleunigung, die Richtung der Geschwindigkeit, die Richtung der Beschleunigung und andere Bewegungsparameter umfassen, wie nachstehend in weiterem Detail beschrieben wird.
  • Bei einer Ausführungsform enthält das Objektverfolgungssystem 20 einen Entfernungsmesser 30, eine Recheneinheit 32, einen Geschwindigkeitssensor 34 und einen Gierratensensor 36. Diese Komponenten werden hier beispielhaft bezeichnet und nachstehend beschrieben, da das Objektverfolgungssystem 20 diese und/oder andere Komponenten in verschiedenen Kombinationen enthalten kann. Es wird beispielsweise in Betracht gezogen, dass das System 20 beliebige von verschiedenen Typen von Beschleunigungsmessgeräten und Objektsensoren, wie etwa eine Kamera, enthalten kann.
  • Der Entfernungsmesser 30, der Geschwindigkeitssensor 34 und der Gierratensensor 36 sind ausgestaltet, um Daten zu messen, die an die Recheneinheit 32 als Eingabe geliefert werden. Der Entfernungsmesser 30 ist ausgestaltet, um Abtastdaten zu messen (welche in Gerüsten F klassifiziert werden können, wie nachstehend weiter beschrieben wird), der Geschwindigkeitssensor 34 ist ausgestaltet, um die Geschwindigkeit des Fahrzeugs 10 zu messen, und der Gierratensensor 36 ist ausgestaltet, um die Gierrate des Fahrzeugs 10 zu messen. Die Abtastdaten enthalten Distanzen D (in 3 bezeichnet) vom Entfernungsmesser 30 zu Punkten an Objekten, die bei Winkelpositionen A gemessen werden (ebenfalls in 3 bezeichnet). Zu Lehrzwecken ist der Entfernungsmesser 30 in 1 und 3 so dargestellt, dass er eine Abtastung eines Objekts 40 durchführt. Von dem vorliegenden Fahrzeug 10 verfolgte Objekte 40 können Fahrzeuge, Fußgänger, Motorräder und andere sein.
  • Die Entfernungsmesser 30 können ein Ultraschallentfernungsmodul, einen optischen Entfernungssensor, einen Lichtdetektions- und Entfernungssensor (LiDAR-Sensor) eine Entfernungsmesser-Kamera, einen Schnittbildentfernungsmesser (Stadimeter), einen Laser-Entfernungsmesser, ein Makrometer, Abtastvorrichtungen, Kombinationen daraus und dergleichen enthalten. Zu Lehrzwecken wird ein LiDAR-Sensor in weiterem Detail beschrieben. LiDAR-Sensoren messen eine Entfernung unter Verwendung eines ”Time-Of-Flight”- bzw. Lichtlaufzeit-Prinzips. Ein Lichtimpuls wird eine definierte Zeitspanne lang ausgesendet, von einem Zielobjekt reflektiert, und über die gleiche Strecke (Sichtlinie) empfangen, entlang der er gesendet wurde. Da sich das Licht mit konstanter Geschwindigkeit fortbewegt, ist das Zeitintervall zwischen dem Aussenden und dem Detektieren proportional zu einer Distanz zwischen dem Sensor und dem Reflexionspunkt.
  • Die Recheneinheit 32 enthält einen Prozessor 50, ein konkretes, nicht flüchtiges computerlesbares Medium (durch einen Speicher 52 dargestellt), und Programmmodule 54, die im Speicher 52 gespeichert sind. Bei einer Ausführungsform enthalten die Programmmodule 54 ein Datensammelmodul 54a, ein Vorverarbeitungsmodul 54b, ein Gruppenbildungsmodul 54c, ein Datenzuordnungsmodul 54d und ein Verfolgungsmodul 54e.
  • Die Programmmodule 54 enthalten von einem Computer ausführbare Anweisungen, die, wenn sie von dem Prozessor 50 ausgeführt werden, veranlassen, dass der Prozessor 50 ein in 2 dargestelltes Verfahren 100 zur Bestimmung von Daten verfolgter Objekte durchführt. Bei dem Verfahren 100 von 2 enthält allgemein das Datensammelmodul 54a von einem Computer ausführbare Anweisungen zum Durchführen eines Datensammelschritts 102; das Vorverarbeitungsmodul 54b enthält von einem Computer ausführbare Anweisungen zum Durchführen eines Vorverarbeitungsschritts 104; das Gruppenbildungsmodul 54c enthält von einem Computer ausführbare Anweisungen zum Durchführen eines Gruppenbildungsschritts 106; das Datenzuordnungsmodul 54d enthält von einem Computer ausführbare Anweisungen zum Durchführen eines Datenzuordnungsschritts 108 und das Verfolgungsmodul 54e enthält von einem Computer ausführbare Anweisungen zum Durchführen eines Verfolgungsschritts 110.
  • VERFAHREN: Fig. 2–Fig. 6
  • Die Schritte des Verfahrens 100 werden nun in weiterem Detail beschrieben. Im Allgemeinen erzeugt das Verfahren 100 Daten verfolgter Objekte, die eine Liste verfolgter Objekte 40 und zugeordnete kinematische Modelle M enthalten. Das beispielhafte Verfahren 100 enthält ein örtlich begrenztes Punktabgleichschema und ein Wahrscheinlichkeitsmaximierungsschema, wie nachstehend mit Bezug auf einen Verfolgungsschritt 110 des Verfahrens 100 in weiterem Detail beschrieben wird.
  • Das Verfahren 100 erzeugt Daten verfolgter Objekte aus Abtastdaten, die zu verschiedenen Zeitpunkten oder Zeitperioden durch den Entfernungsmesser 30 gemessen werden. Abtastdaten, die einem bestimmten Zeitpunkt zugeordnet sind, werden hier als ein Gerüst F bezeichnet. Im Allgemeinen werden Gerüste F periodisch erzeugt und gespeichert und das Verfahren 100 wird für jedes neue Gerüst F ausgeführt, um ein entsprechendes neues kinematisches Modell M zu erzeugen.
  • Gerüste F, die zu verschiedenen Zeitpunkten (z. B. aufeinander folgenden Zeitpunkten) gemessen werden, sind durch eine Zeitdifferenz getrennt, die hier als dt bezeichnet wird (z. B. 3, 4 und 6). Beispielsweise wird in 4 ein vorheriges Gerüst F zu einem vorherigen Zeitpunkt t gemessen und ein neues Gerüst F wird zu einem neuen Zeitpunkt t + dt gemessen. Um Elemente, die dem neuen Zeitpunkt t + dt zugeordnet sind, in der vorliegenden Beschreibung von Elementen zu unterscheiden, die dem vorherigen Zeitpunkt t zugeordnet sind, werden die Begriffe ”neu” und ”vorherig” verwendet. In den Zeichnungen werden die Zeitpunkte t, t + dt in Verbindung mit verschiedenen dargestellten Elementen verwendet.
  • Mit Bezug auf 26 werden die Schritte des Verfahrens 100 mit Bezug auf ein bestimmtes verfolgtes Objekt 40 beschrieben. Im Allgemeinen wird für das verfolgte Objekt 40 ein neues kinematisches Modell M, welches dem verfolgten Objekt 40 zugeordnet ist, als Funktion jedes neuen Gerüsts F erzeugt. Das Verfahren 100 ist ausgestaltet, um Objekte gleichzeitig zu verfolgen und zugeordnete Gerüste F gleichzeitig zu initialisieren und zu entfernen.
  • In Übereinstimmung mit dem Datensammelschritt 102 in Verbindung mit einem neuen Zeitpunkt t + dt weist das Datensammelmodul 54a den Entfernungsmesser 30 an, einen Winkelbereich R abzutasten (z. B. 90°, 180°, 360° usw.), etwa in einer zweidimensionalen Messebene, um das Gebiet in dem Bereich zur Erzeugung eines neuen Gerüsts F zu messen. Bei einer in Betracht gezogenen Ausführungsform führt der Entfernungsmesser 30 diese Abtastaufgabe automatisch oder auf andere Weise ohne eine direkte Anweisung von dem Datensammelmodul 54 aus.
  • Das neue Gerüst F enthält beispielsweise Distanzen D1, D2, ...DZ bei jedem Winkel A1, A2, ...AZ im Winkelbereich R, wie in 3 dargestellt ist, wobei Z eine Gesamtanzahl von Datenpunkten im Gerüst F ist. Die Distanzen D liegen zwischen dem Entfernungsmesser 30 und neuen Punkten X1, X2, ...XN auf dem Objekt 40.
  • Bei einigen Ausführungsformen sind die Winkel A im Winkelbereich R in Übereinstimmung mit einer Winkelauflösung, wie etwa 0,25 Grad zwischen Winkeln getrennt, und die Distanzen D werden mit einer gewählten Distanzauflösung, wie etwa ein Millimeter gemessen. Das Datensammelmodul 54a zeichnet das neue Gerüst F im Speicher 52 auf, wo ein oder mehrere vorherige Gerüste F ebenfalls gespeichert sind.
  • In Übereinstimmung mit dem Vorverarbeitungsschritt 104 verarbeitet das Vorverarbeitungsmodul 54b das neue Gerüst F nach Bedarf, was ein Filtern des Gerüsts F umfassen kann. Das Vorverarbeitungsmodul 54b kann ausgestaltet sein, um das neue Gerüst F zu filtern, um beispielsweise das neue Gerüst F durch Fahrzeugbezugskoordinaten in der Form von Polarkoordinaten, kartesischen Koordinaten (z. B. mit dem Fahrzeug als Ursprung), oder durch Bodenbezugskoordinaten (z. B. mit einem festgelegten Punkt auf dem Boden als Ursprung) darzustellen.
  • Bei einigen Ausführungsformen filtert das Verarbeitungsmodul 54b das neue Gerüst F gemäß den Bedürfnissen einer oder mehrerer Anwendungen des Fahrzeugs 10, welche die gefilterten Gerüstdaten verwenden werden. Zum Beispiel ist das Vorverarbeitungsmodul 54b bei einigen Ausführungsformen ausgestaltet, um das neue Gerüst F auf eine Weise darzustellen, die von mindestens einer Fahrzeuganwendung benötigt wird, wie etwa durch Fahrzeugbezugskoordinaten in der Form von Polarkoordinaten, kartesischen Koordinaten, und/oder durch Bodenbezugskoordinaten, wie es für die spezielle(n) Anwendung(en) am besten geeignet ist.
  • Bei verschiedenen Ausführungsformen umfasst der Vorverarbeitungsschritt 104 eine Rauschreduktion, eine Punktabtastung und/oder dergleichen.
  • In Übereinstimmung mit dem Gruppenbildungsschritt 106 von 2 identifiziert das Gruppenbildungsmodul 54c mit Bezug auf 4 neue Gruppen G von Punkten X in dem neuen Gerüst F auf der Grundlage einer Affinitätseigenschaft (z. B. einem Maß) zwischen bestimmten der neuen Punkte X. Zum Beispiel werden neue Punkte X, die innerhalb einer bestimmten Distanz zueinander liegen, zu einer neuen Gruppe G zusammengefasst. Zu Lehrzwecken enthält die in 4 dargestellte neue Gruppe G neue Punkte Xi (wobei i = 1, ... N). Aus dem neuen Gerüst F können mehrere neue Gruppen G gebildet werden, und das neue Gerüst F kann segmentiert werden, um neue Gruppen G zu Verarbeitungszwecken zu isolieren.
  • Das Verfahren 100 ist auch ausgestaltet, um Objekte während des Datenzuordnungsschritts 108 zu initialisieren und zu entfernen, wie nachstehend weiter beschrieben wird.
  • Während eines Initialisierungsteilschritts des Datenzuordnungsschritts 108 wird ein Objekt, wenn es gegenwärtig nicht verfolgt wird und mehrere Gerüste lang beobachtet wurde, in dem konkreten nicht flüchtigen computerlesbaren Medium des Objektverfolgungssystems als ein verfolgtes Objekt gespeichert und das kinematische Modell des Objekts wird in Übereinstimmung mit den Schritten des Verfahrens 100 erzeugt. Das Datenzuordnungsmodul ist in verschiedenen Ausführungsformen ausgestaltet, um ein neues Objekt zu initialisieren, wenn das Objekt gegenwärtig nicht verfolgt wird und das neue Objekt zwei aufeinander folgende Gerüste lang, drei aufeinander folgende Gerüste lang, vier aufeinander folgende Gerüste lang oder usw. beobachtet wurde.
  • Während eines Entfernungsteilschritts des Datenzuordnungsschritts 108 wird ein verfolgtes Objekt, wenn es mehrere Gerüste lang nicht gesehen wurde, entfernt. Das Datenzuordnungsmodul ist bei verschiedenen Ausführungsformen ausgestaltet, um das verfolgte Objekt aus einem konkreten nicht flüchtigen computerlesbaren Medium zu entfernen, wenn das Objekt zwei aufeinander folgende Gerüste lang, drei aufeinander folgende Gerüste lang, vier aufeinander folgende Gerüste lang oder usw. in den Daten des neuen Gerüsts nicht wahrgenommen wird.
  • In Übereinstimmung mit dem Datenzuordnungsschritt 108 ordnet das Datenzuordnungsmodul 54d ferner die neue Gruppe G dem Objekt 40 im computerlesbaren Medium zu. Zum Beispiel ordnet das Datenzuordnungsmodul 54d die neue Gruppe G dem Objekt 40 in Ansprechen auf das Bestimmen einer Beziehung zwischen neuen kinematischen Eigenschaften (z. B. Distanz zu oder Ort von Punkten X, Winkel, die Punkten entsprechen, Geschwindigkeiten, Bewegungsrichtungen) und vorherigen kinematischen Eigenschaften (z. B. Eigenschaften eines kinematischen Modells M), einer Distanz zwischen der neuen Gruppe G und einer vorherigen Gruppe G und einer Ähnlichkeit bei der Geometrie und/oder der Größe zwischen der neuen Gruppe G und der vorherigen Gruppe G zu.
  • Die neue Gruppe G ist die aktuelle Darstellung des Objekts 40 und wird in Übereinstimmung mit dem Verfahren 100 (z. B. Schritt 110, der nachstehend beschrieben wird) verwendet, um das neue kinematische Modell M des Objekts 40 zu bestimmen.
  • In Übereinstimmung mit dem Verfolgungsschritt 110 bestimmt das Verfolgungsmodul 54e das neue kinematische Modell M des Objekts 40 als Funktion der neuen Gruppe G und einer oder mehrerer vorheriger Gruppen G, die das Objekt 40 darstellen. Das Verfolgungsmodul 54e bestimmt in einigen Ausführungsformen das neue kinematische Modell M des Objekts 40 als Funktion der neuen Gruppe G und (i) einer oder mehrerer vorheriger Gruppen G, die das Objekt 40 darstellen, und/oder (ii) eines oder mehrerer vorheriger kinematischer Modelle.
  • Mit Bezug auf 2 und 4 enthält der Verfolgungsschritt 110 einen Vorhersageteilschritt 120, bei dem eine vorhergesagte Gruppe Gp erzeugt wird. Die vorhergesagte Gruppe Gp wird als Funktion des vorherigen kinematischen Modells M, der vorherigen Gruppe G und eines Translationsvektors T erzeugt. Bei einer Ausführungsform ist die vorhergesagte Gruppe Gp für einen zukünftigen Zeitpunkt t + δt gegeben durch:
    Figure 00130001
  • Der Translationsvektor T enthält x-Richtungs- und y-Richtungskomponenten dx, dy, die als Funktion einer Geschwindigkeit Vt und einer Geschwindigkeitsrichtung θt des vorherigen kinematischen Modells M bestimmt werden. Beispielsweise stehen die Komponenten dx, dy bei einigen Ausführungsformen wie folgt mit der Geschwindigkeit Vt und der Geschwindigkeitsrichtung θt in Beziehung:
    Figure 00140001
    wobei IN eine Identitätsmatrix ist (z. B. ein 1×N-Einheitsvektor, dessen Elemente alle gleich 1 sind).
  • Der Translationsvektor T bildet jeden Punkt der vorherigen Gruppe G (durch vorherige Punkte X dargestellt) auf die vorhergesagte Gruppe Gp ab, sodass die vorhergesagte Gruppe Gp die Position der neuen Gruppe G schätzt. Während des Verfolgungsschritts 110 wird die vorhergesagte Gruppe Gp ferner, falls notwendig, iterativ an die neue Gruppe G angepasst. Insbesondere wird der Translationsvektor T iteriert, bis die vorhergesagte Gruppe Gp mit der neuen Gruppe G übereinstimmt. Techniken wie etwa ein örtlich begrenzter Punktabgleich und die maximale Wahrscheinlichkeit werden verwendet, um einen Translationsjustierungsvektor ΔT zu bestimmen, der verwendet wird, um den Translationsvektor T iterativ zu justieren. Diese Techniken werden in weiterem Detail nachstehend in Verbindung mit den Schritten 122 und 124 des Verfahrens 100 von 2 und mit 4 beschrieben.
  • Ein Teilschritt 122 zum örtlich begrenzten Punktabgleich des Verfolgungsschritts 110 umfasst das Bestimmen einer Anzahl Ki benachbarter Vorhersagepunkte Xj in der vorhergesagten Gruppe Gp für jeden neuen Punkt Xi in der neuen Gruppe G. Beispielsweise liegt eine Anzahl Ki benachbarter Vorhersagepunkte Xj für jeden neuen Punkt Xi innerhalb einer gewählten Distanz, z. B. einer radialen Distanz r, jedes neuen Punktes Xi. Mit Bezug auf 4 sind benachbarte Vorhersagepunkte Xj (schattiert) der vorhergesagten Gruppe Gp so gezeigt, dass sie in eine radiale Distanz zu einem der neuen Punkte Xi (schattiert) der neuen Gruppe G fallen. Ferner verläuft ein Distanzvektor DV zwischen jedem neuen Punkt Xi und jedem der benachbarten Vorhersagepunkte Xj.
  • In Übereinstimmung mit einem Teilschritt 124 der maximalen Wahrscheinlichkeit des Verfolgungsschritts 110 bestimmt das Verfolgungsmodul 54e den Translationsjustierungsvektor ΔT, um die Wahrscheinlichkeit zu maximieren, dass die vorhergesagte Gruppe Gp mit der neuen Gruppe G übereinstimmt. Der Translationsjustierungsvektor ΔT wird bestimmt, wenn jeder neue Punkt Xi mit seinen benachbarten Vorhersagepunkten Xj abgeglichen wird. Um beispielsweise jeden neuen Punkt Xi mit seinen benachbarten Vorhersagepunkten Xj abzugleichen, wird die Gesamtsumme der Distanzen zwischen jedem neuen Punkt Xi und seinen benachbarten Vorhersagepunkten Xj minimiert.
  • Mit Bezug auf 5 enthält der Translationsjustierungsvektor ΔT x-Richtungs- und y-Richtungskomponenten Δdx, Δdy und wird zum anfänglichen Translationsvektor T addiert, um einen iterierten Translationsvektor T' zu erhalten. Der Translationsjustierungsvektor ΔT stellt die Differenz zwischen dem aktuellen Translationsvektor T und der nächsten Iteration des Translationsvektors T' dar.
  • Die Wahrscheinlichkeit einer Übereinstimmung zwischen allen neuen Punkten Xi und deren Ki benachbarten Vorhersagepunkten Xj kann gegeben werden durch:
    Figure 00150001
    wobei P(x) eine Funktion ist, welche die Verteilung der Nachbarpunkte Xj zu einem Punkt Xi darstellt. P(x) ist beispielsweise eine Gaußsche Kernfunktion, die gegeben ist durch:
    Figure 00160001
    wobei Sigma σ die Parzen-Fenstergröße ist.
  • Der Einfachheit halber wird der Logarithmus der Wahrscheinlichkeitsfunktion, log L oder ln L, genannt die log-Wahrscheinlichkeit, verwendet und die Punkte Xi, Xj (Positionsvektoren) werden durch ihre x-Richtungs- und ihre y-Richtungskomponenten (xi, yi, xj, yj) dargestellt. Ferner wird die Wahrscheinlichkeitsfunktion modifiziert, um Komponenten Δdx, Δdy des Translationsjustierungsvektors ΔT aufzunehmen. Der Logarithmus der modifizierten Wahrscheinlichkeitsfunktion ist gegeben als:
    Figure 00160002
  • Die modifizierte log-Wahrscheinlichkeitsfunktion wird verwendet, um Werte für die Elemente Δdx, Δdy des Translationsjustierungsvektors ΔT zu bestimmen, welche die log-Wahrscheinlichkeit maximieren. Um die Elemente Δdx, Δdy des Translationsjustierungsvektors zu bestimmen, wird die Ableitung der log-Wahrscheinlichkeit bzgl. sowohl der x-Richtung als auch der y-Richtung wie folgt auf Null gesetzt:
    Figure 00160003
    Figure 00170001
  • Das Auflösen nach den Translationsvektorelementen Δdx, Δdy ergibt:
    Figure 00170002
  • Nachdem die Komponenten Δdx, Δdy des Translationsjustierungsvektors ΔT bestimmt sind, bestimmt das Verfolgungsmodul 54e mit Bezug auf 5 den iterierten Translationsvektor T', indem der anfängliche Translationsvektor T und der Translationsjustierungsvektor ΔT addiert werden.
  • In Übereinstimmung mit einem Iterationsentscheidungsteilschritt 126 in dem Verfahren 100 von 2 bestimmt das Verfolgungsmodul 54e, ob der iterierte Translationsvektor T' so konvergiert ist, dass die vorhergesagte Gruppe Gp mit der neuen Gruppe G übereinstimmt. Beispielsweise bestimmt das Verfolgungsmodul 54e die Konvergenz als Funktion der Größe des Translationsjustierungsvektors ΔT. Wenn die Größe des Translationsjustierungsvektors ΔT über einem vorbestimmten Schwellenwert liegt, wird der iterierte Translationsvektor T' als ein anfänglicher Translationsvektor behandelt und in Übereinstimmung mit den Teilschritten 120, 122, 124, 126 des Verfolgungsschritts 110 weiter iteriert. Wenn die Größe des Translationsjustierungsvektors ΔT innerhalb des vorbestimmten Schwellenwerts liegt, wird der iterierte Translationsvektor T' verwendet, um Parameter des neuen kinematischen Modells M bei einem Modellierungsteilschritt 130 zu bestimmen.
  • Nachdem der iterierte Translationsvektor T' konvergiert ist, gleicht der iterierte Translationsvektor T' die vorhergesagte Gruppe Gp mit der neuen Gruppe G ab. In Übereinstimmung mit dem Modellierungsteilschritt 130 bestimmt das Verfolgungsmodul 54e, wenn die neue Gruppe G und die vorhergesagte Gruppe Gp ausreichend übereinstimmen, das neue kinematische Modell M als Funktion von Komponenten dx', dy' des iterierten Translationsvektors T'. Beispielsweise werden die Komponenten dx', dy' des iterierten Translationsvektors T' verwendet, um die Geschwindigkeit Vt und den Winkel der Geschwindigkeit θt für das neue kinematische Modell M zu bestimmen gemäß:
    Figure 00180001
  • Ferner wird in einigen Ausführungsformen das neue kinematische Modell M mit der Fahrzeuggeschwindigkeit und der Gierrate, die durch den Geschwindigkeitssensor 34 und den Gierratensensor 36 bereitgestellt werden, im Modellierungsteilschritt 130 des Verfolgungsschritts 110 kombiniert. Diese Kombination kann bei allen oder bei gewählten Szenarien durchgeführt werden. Das Durchführen der Kombination oder das Verwenden des kombinierten Ergebnisses kann von einer Anwendung des Fahrzeugs 10 oder einer Anforderung des Bedieners des Fahrzeugs 10 abhängen. Wenn beispielsweise Abtastpunkte auf Fahrzeugbezugskoordinaten beruhen, kann dieser Kombinationsschritt durchgeführt werden, um kinematische Parameter mit Bodenbezug für einen Klassifizierungszweck bereitzustellen. Beispielhafte Klassifizierungen in diesem Kontext umfassen ein Kategorisieren des Objekts in Übereinstimmung mit seinen kinematischen Eigenschaften, wie etwa ein Klassifizieren des Objekts als sich bewegend oder still stehend.
  • Das Verfolgungsmodul 54e gibt das neue kinematische Modell M an die Fahrzeugzubehörsysteme 22 aus, wie in 1 gezeigt ist.
  • Die vorstehend beschriebenen Ausführungsformen sind nur beispielhafte Darstellungen von Implementierungen, die für ein klares Verständnis der Prinzipien offengelegt sind. Variationen, Modifikationen und Kombinationen können an den vorstehend beschriebenen Ausführungsformen durchgeführt werden, ohne den Umfang der Ansprüche zu verlassen. Alle derartigen Variationen, Modifikationen und Kombinationen sind hier durch den Umfang dieser Offenbarung und die folgenden Ansprüche umfasst.

Claims (10)

  1. Verfahren zum Verfolgen von Objekten, indem kinematische Modelle, die den Objekten entsprechen, unter Verwendung eines rechnergestützten Objektverfolgungssystems erzeugt werden, wobei das Verfahren umfasst, dass: ein Datensammelmodul des Objektverfolgungssystems Abtastdaten empfängt, die einem Objekt zugeordnet sind, und unter Verwendung der Abtastdaten ein neues Gerüst F erzeugt, das einem neuen Zeitpunkt t + dt zugeordnet ist und neue Punkte X enthält; ein Gruppenbildungsmodul des Objektverfolgunsgsystems eine neue Gruppe G von neuen Punkten Xi des neuen Gerüsts F identifiziert, wobei i = 1, ... N, wobei N eine positive Ganzahl ist, die einer Anzahl der neuen Punkte entspricht; ein Datenzuordnungsmodul des Objektverfolgungssystems die neue Gruppe G dem Objekt auf der Grundlage von vorherigen Informationen zuordnet, die dem Objekt zugeordnet sind; und ein Verfolgungsmodul des Objektverfolgungssystems ein neues kinematisches Modell [engl: module] M, das dem Objekt entspricht, auf der Grundlage der neuen Gruppe G bestimmt.
  2. Verfahren nach Anspruch 1, wobei das Datenzuordnungsmodul die neue Gruppe G dem Objekt in Ansprechen auf das Bestimmen einer Beziehung zwischen neuen kinematischen Eigenschaften, die dem neuen Gerüst F zugeordnet sind, und vorherigen Informationen, die das Objekt darstellen, zuordnet.
  3. Verfahren nach Anspruch 1, wobei das Bestimmen des neuen kinematischen Modells [engl: module] M, das dem Objekt entspricht, auf der Grundlage der neuen Gruppe G durch das Verfolgungsmodul umfasst, dass das Verfolgungsmodul das neue kinematische Modell M, das dem Objekt entspricht, als Funktion der neuen Gruppe G und einer oder mehreren vorherigen Gruppen G, die das Objekt darstellen, und/oder einem oder mehreren vorherigen kinematischen Modellen, die das Objekt darstellen, bestimmt.
  4. Verfahren nach Anspruch 1, wobei das Bestimmen des neuen kinematischen Modells [engl: module] M, das dem Objekt entspricht, auf der Grundlage der neuen Gruppe G durch das Verfolgungsmodul umfasst, dass das Verfolgungsmodul eine vorhergesagte Gruppe Gp erzeugt.
  5. Verfahren nach Anspruch 4, wobei: das Verfolgungsmodul die vorhergesagte Gruppe Gp als Funktion eines vorherigen kinematischen Modells, das das Objekt darstellt, der vorherigen Gruppe G und eines Translationsvektors T erzeugt; die vorhergesagte Gruppe Gp einem zukünftigen Zeitpunkt t + δt entspricht und bestimmt wird in Übereinstimmung mit:
    Figure 00210001
    der Translationsvektor T eine x-Richtungs-Translationskomponente dx und eine y-Richtungs-Translationskomponente dy enthält; die Translationskomponenten als Funktion einer Geschwindigkeit Vt und einer Geschwindigkeitsrichtung θt des vorherigen kinematischen Modells, das das Objekt darstellt, bestimmt werden; und die Translationskomponenten dx, dy mit der Geschwindigkeit Vt und der Geschwindigkeitsrichtung θt des vorherigen kinematischen Modells, das das Objekt darstellt, in Beziehung stehen in Übereinstimmung mit:
    Figure 00220001
    wobei IN eine Identitätsmatrix ist.
  6. Verfahren nach Anspruch 4, wobei das Verfolgungsmodul bei der Bestimmung des neuen kinematischen Modells [engl: module] M die vorhergesagte Gruppe Gp mit der neuen Gruppe G iterativ abgleicht.
  7. Konkretes, nicht flüchtiges computerlesbares Medium zur Verwendung in einem Fahrzeug, um ein physikalisches Objekt außerhalb des Fahrzeugs zu verfolgen, wobei das computerlesbare Medium Anweisungen speichert, die, wenn sie von einem Prozessor ausgeführt werden, veranlassen, dass der Prozessor Schritte eines Verfahrens durchführt, das umfasst, dass: Abtastdaten, die einem Objekt zugeordnet sind, empfangen werden und unter Verwendung der Abtastdaten ein neues Gerüst F erzeugt wird, das einem neuen Zeitpunkt t + dt zugeordnet ist und neue Punkte X enthält; eine neue Gruppe G von neuen Punkten Xi des neuen Gerüsts F identifiziert wird, wobei i = 1, ... N, wobei N eine positive Ganzzahl ist, die einer Anzahl der neuen Punkte entspricht; die neue Gruppe G dem neuen Objekt auf der Grundlage von vorherigen Informationen, die dem Objekt zugeordnet sind, zugeordnet wird; und ein neues kinematisches Modell [engl: module] M, das dem Objekt entspricht, auf der Grundlage der neuen Gruppe G bestimmt wird.
  8. Konkretes nicht flüchtiges computerlesbares Medium nach Anspruch 7, wobei die Anweisungen zum Bewirken, dass der Prozessor das neue kinematische Modell [engl: module] M, das dem Objekt entspricht, auf der Grundlage der neuen Gruppe G bestimmt, veranlassen, dass der Prozessor eine vorhergesagte Gruppe Gp erzeugt.
  9. Konkretes nicht flüchtiges computerlesbares Medium nach Anspruch 8, wobei die Anweisungen zum Bewirken, dass der Prozessor das neue kinematische Modell [engl: module] M bestimmt, veranlassen, dass der Prozessor die vorhergesagte Gruppe Gp mit der neuen Gruppe G iterativ abgleicht.
  10. Transportfahrzeug, umfassend: einen Entfernungssensor; ein Board-Computersystem, umfassend: einen Prozessor; und ein computerlesbares Medium, das Anweisungen speichert, die, wenn sie von einem Prozessor ausgeführt werden, bewirken, dass der Prozessor Schritte eines Verfahrens ausführt, das umfasst, dass: Abtastdaten, die einem Objekt zugeordnet sind, von dem Entfernungssensor empfangen werden und unter Verwendung der Abtastdaten ein neues Gerüst F erzeugt wird, das einem neuen Zeitpunkt t + dt zugeordnet ist und neue Punkte X enthält; eine neue Gruppe G aus neuen Punkten Xi des neuen Gerüsts F identifiziert wird, wobei i = 1, ... N, wobei N eine positive Ganzzahl ist, die einer Anzahl der neuen Punkte entspricht; die neue Gruppe G dem Objekt auf der Grundlage vorheriger Informationen zugeordnet wird, welche dem Objekt zugeordnet sind; und ein neues kinematisches Modell [engl: module] M, das dem Objekt entspricht, auf der Grundlage der neuen Gruppe G bestimmt wird.
DE102011117585.0A 2010-11-09 2011-11-03 Systeme und Verfahren zum Verfolgen von Objekten Active DE102011117585B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/942,456 2010-11-09
US12/942,456 US8818702B2 (en) 2010-11-09 2010-11-09 System and method for tracking objects

Publications (2)

Publication Number Publication Date
DE102011117585A1 true DE102011117585A1 (de) 2012-05-10
DE102011117585B4 DE102011117585B4 (de) 2022-08-04

Family

ID=45971391

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011117585.0A Active DE102011117585B4 (de) 2010-11-09 2011-11-03 Systeme und Verfahren zum Verfolgen von Objekten

Country Status (3)

Country Link
US (1) US8818702B2 (de)
CN (1) CN102463990B (de)
DE (1) DE102011117585B4 (de)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9128185B2 (en) 2012-03-15 2015-09-08 GM Global Technology Operations LLC Methods and apparatus of fusing radar/camera object data and LiDAR scan points
US9129211B2 (en) 2012-03-15 2015-09-08 GM Global Technology Operations LLC Bayesian network to track objects using scan points using multiple LiDAR sensors
US9329269B2 (en) 2012-03-15 2016-05-03 GM Global Technology Operations LLC Method for registration of range images from multiple LiDARS
EP2654028B1 (de) * 2012-04-20 2018-09-26 Honda Research Institute Europe GmbH Orientierungssensibles Verkehrskollisionswarnsystem
CN103879404B (zh) * 2012-12-19 2016-08-31 财团法人车辆研究测试中心 可追踪移动物体的防撞警示方法及其装置
AT515134A1 (de) * 2013-11-29 2015-06-15 Kuhn Andreas Dr Kraftfahrzeug
DE102014201382A1 (de) * 2014-01-27 2015-07-30 Robert Bosch Gmbh Verfahren zum Betreiben eines Fahrerassistenzsystems und Fahrerassistenzsystem
US9616886B2 (en) * 2015-07-16 2017-04-11 Toyota Motor Engineering & Manufacturing North America, Inc. Size adjustment of forward objects for autonomous vehicles
JP6860586B2 (ja) * 2016-03-31 2021-04-14 エヌイーシー ラボラトリーズ ヨーロッパ ゲーエムベーハー 物体の動作を予測する方法
JP6194520B1 (ja) * 2016-06-24 2017-09-13 三菱電機株式会社 物体認識装置、物体認識方法および自動運転システム
CN106447698B (zh) * 2016-09-28 2019-07-02 深圳市鸿逸达科技有限公司 一种基于距离传感器的多行人跟踪方法和系统
US10254758B2 (en) 2017-01-18 2019-04-09 Ford Global Technologies, Llc Object tracking by unsupervised learning
US10449956B2 (en) * 2017-01-18 2019-10-22 Ford Global Technologies, Llc Object tracking by unsupervised learning
WO2018195996A1 (en) * 2017-04-28 2018-11-01 SZ DJI Technology Co., Ltd. Multi-object tracking based on lidar point cloud
US10401862B2 (en) 2017-10-31 2019-09-03 Waymo Llc Semantic object clustering for autonomous vehicle decision making
AU2018358932B2 (en) * 2017-10-31 2020-12-03 Waymo Llc Semantic object clustering for autonomous vehicle decision making
US10713940B2 (en) 2017-10-31 2020-07-14 Waymo Llc Detecting and responding to traffic redirection for autonomous vehicles
US11017550B2 (en) * 2017-11-15 2021-05-25 Uatc, Llc End-to-end tracking of objects
US10816344B2 (en) * 2018-03-07 2020-10-27 Aptiv Technologies Limited Method and system for determining the pointing angle of a moving object
US10878580B2 (en) * 2018-10-15 2020-12-29 Tusimple, Inc. Point cluster refinement processing of image data for LiDAR-based vehicle tracking system and method

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5587929A (en) 1994-09-02 1996-12-24 Caterpillar Inc. System and method for tracking objects using a detection system
US6085151A (en) * 1998-01-20 2000-07-04 Automotive Systems Laboratory, Inc. Predictive collision sensing system
SE510844C2 (sv) * 1997-11-03 1999-06-28 Celsiustech Syst Ab Automatisk kompensering av systematiska fel vid målföljning med flera sensorer
WO2001065520A2 (en) * 2000-02-28 2001-09-07 Veridian Engineering, Incorporated System and method for avoiding accidents in intersections
DE10160719B4 (de) 2001-12-11 2011-06-16 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Erkennung und Wiedererkennung von sich bewegenden Objekten
JP4297501B2 (ja) * 2004-08-11 2009-07-15 国立大学法人東京工業大学 移動体周辺監視装置
JP4328692B2 (ja) * 2004-08-11 2009-09-09 国立大学法人東京工業大学 物体検出装置
JP3937414B2 (ja) * 2004-08-11 2007-06-27 本田技研工業株式会社 平面検出装置及び検出方法
US7460951B2 (en) * 2005-09-26 2008-12-02 Gm Global Technology Operations, Inc. System and method of target tracking using sensor fusion
US7991550B2 (en) * 2006-02-03 2011-08-02 GM Global Technology Operations LLC Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
JP2007249309A (ja) * 2006-03-13 2007-09-27 Toshiba Corp 障害物追跡装置及びその方法
DE102009007412B4 (de) 2009-02-04 2012-12-06 Audi Ag Verfahren zur Verfolgung wenigstens eines Objekts
DE102009051264A1 (de) 2009-10-29 2010-09-09 Daimler Ag Verfahren zur Detektion und Verfolgung von Objekten in Bildsequenzen
US8718323B2 (en) * 2010-10-19 2014-05-06 Raytheon Company Batch detection association for enhanced target descrimination in dense detection environments

Also Published As

Publication number Publication date
CN102463990A (zh) 2012-05-23
US20120116662A1 (en) 2012-05-10
DE102011117585B4 (de) 2022-08-04
CN102463990B (zh) 2015-10-28
US8818702B2 (en) 2014-08-26

Similar Documents

Publication Publication Date Title
DE102011117585B4 (de) Systeme und Verfahren zum Verfolgen von Objekten
DE102018116111B4 (de) Ein einheitliches tiefes faltendes neuronales Netzwerk für die Abschätzung von Freiraum, die Abschätzung der Objekterkennung und die der Objektstellung
CN109087510B (zh) 交通监测方法及装置
DE102006012914B4 (de) System und Verfahren zur Bestimmung des Abstands zu einem vorausfahrenden Fahrzeug
DE102011100927B4 (de) Objekt- und Fahrzeugdetektion und -verfolgung unter Verwendung von 3-D-Laserentfernungsmesser
EP2043045B1 (de) Verfahren zur Objektverfolgung
DE102018100469A1 (de) Generierten von simulierten sensordaten zum trainieren und überprüfen von erkennungsmodellen
DE102011078615B4 (de) Objekterfassungsvorrichtung und objekterfassungsprogramm
DE102017116192A1 (de) Verwenden von virtuellen Daten zum Testen und Trainieren von Parkplatzerfassungssystemen
DE102015214338A1 (de) Bestimmung einer Anordnungsinformation für ein Fahrzeug
DE102014223363A1 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
DE102017203344A1 (de) Erfassen von langen objekten durch sensorfusion
DE102019115455A1 (de) Fokus-basiertes markieren von sensordaten
DE102011119767A1 (de) Erscheinungsbild-gestützte vereinigung von kamera- undentfernungssensordaten für mehrere objekte
DE112017008149B4 (de) Vorrichtung für eine von einem Fahrzeug ausgehende Kommunikation, Verfahren zum Kommunizieren von einem Fahrzeug nach außen Informationsverarbeitungsvorrichtung und computerlesbares Medium
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
DE102018008442A1 (de) Verfahren zur Wetter- und/oder Sichtweitenerkennung
DE102021002798A1 (de) Verfahren zur kamerabasierten Umgebungserfassung
DE102015207903A1 (de) Vorrichtung und Verfahren zum Erfassen eines Verkehrszeichens vom Balkentyp in einem Verkehrszeichen-Erkennungssystem
DE102018132805A1 (de) Verfahren für eine verbesserte Objekterfassung
DE102020200169B3 (de) Verfahren zur Zusammenführung mehrerer Datensätze für die Erzeugung eines aktuellen Spurmodells einer Fahrbahn und Vorrichtung zur Datenverarbeitung
EP3637311A1 (de) Vorrichtung und verfahren zum ermitteln von höheninformationen eines objekts in einer umgebung eines fahrzeugs
DE102019130096A1 (de) Verfahren zur Ermittlung einer Radarinformation, Simulationsverfahren, Klassifizierungsverfahren, Computerprogramm und Berechnungssystem
DE102020214596A1 (de) Verfahren zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten einer Umfeldsensorik eines Fahrzeugs, Verfahren zum Erzeugen eines solchen Erkennungsmodells und Verfahren zum Ansteuern einer Aktorik eines Fahrzeugs
DE102020105192A1 (de) Verfahren zum Detektieren bewegter Objekte in einer Fahrzeugumgebung und Kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final