DE102015100134B4 - Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren - Google Patents

Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren Download PDF

Info

Publication number
DE102015100134B4
DE102015100134B4 DE102015100134.9A DE102015100134A DE102015100134B4 DE 102015100134 B4 DE102015100134 B4 DE 102015100134B4 DE 102015100134 A DE102015100134 A DE 102015100134A DE 102015100134 B4 DE102015100134 B4 DE 102015100134B4
Authority
DE
Germany
Prior art keywords
cluster
stationary
point
radar
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102015100134.9A
Other languages
English (en)
Other versions
DE102015100134A1 (de
Inventor
Shuqing Zeng
Jeremy A. Salinger
Bakhtiar B. Litkouhi
Kevin A. O'Dea
Joel Pazhayampallil
Mohannad Murad
James N. Nickolaou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102015100134A1 publication Critical patent/DE102015100134A1/de
Application granted granted Critical
Publication of DE102015100134B4 publication Critical patent/DE102015100134B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/878Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9029SAR image post-processing techniques specially adapted for moving target detection within a single SAR image or within multiple SAR images taken at the same time
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren, das umfasst, dass:Objekte relativ zu einem Host-Fahrzeug (12, 50) aus Radardaten, die durch eine Erfassungseinrichtung erzeugt werden, detektiert werden, wobei die Radardaten Doppler-Messdaten umfassen;durch einen Prozessor als Funktion der Radardaten Cluster gebildet werden, wobei jedes Cluster ein jeweiliges Objekt darstellt;durch den Prozessor jedes jeweilige Objekt basierend auf den Doppler-Messdaten jedes Objekts und einer Fahrzeuggeschwindigkeit des Host-Fahrzeugs (12, 50) als stationär oder nicht stationär klassifiziert wird; undin Ansprechen darauf, dass das Objekt als nicht stationäres Objekt klassifiziert wird, durch den Prozessor eine Zielverfolgung auf ein Objekt unter Verwendung von Doppler-Messdaten über der Zeit angewandt wird, andernfalls ein Belegungsgitter in Ansprechen auf das Klassifizieren des Objekts als stationäres Objekt aktualisiert wird;wobei das Klassifizieren jedes jeweiligen Objekts als stationär oder nicht stationär die folgenden Schritte umfasst:Identifizieren einer Geschwindigkeit für jeden Punkt in einem Cluster;Identifizieren eines Einheitsvektors für jeden Punkt mit dem Cluster;Ermitteln eines Entfernungsänderungsrestwerts für jeden Punkt in dem Cluster;Ermitteln, dass das Cluster ein stationäres Cluster ist, wenn ein vorbestimmter Prozentsatz der Entfernungsänderungsrestwerte innerhalb eines Restschwellenwerts liegt; ansonsten, Ermitteln, dass das Cluster ein dynamisches Cluster ist.

Description

  • HINTERGRUND DER ERFINDUNG
  • Eine Ausführungsform bezieht sich auf eine Objektsensorvereinigung.
  • Radarsysteme werden verwendet, um Objekte auf der Fahrstraße zu detektieren. Derartige Systeme verwenden eine kontinuierliche oder periodische Verfolgung von Objekten über der Zeit, um verschiedene Parameter eines Objekts zu ermitteln. Oftmals werden Daten, wie beispielsweise Objektort, Entfernung und Entfernungsänderung, unter Verwendung der Daten von Radarsystemen berechnet. Eingänge von Radaren sind jedoch oftmals wenige verfolgte Ziele. Darüber hinaus basieren Radarsysteme oftmals auf der Annahme, dass das Ziel ein einzelner Punkt ist, was es noch mehr erschwert, nahe Ziele zu bewerten.
  • NGUYEN, Thien-Nghia et al.: Stereo-camera-based urban environment perception using occupancy grid and object tracking, in: IEEE Transactions on Intelligent Transportation Systems, Vol. 13, 2012, No. 1, S. 154-165, ISSN 1524-9050 beschreibt eine Kombination eines objektbasierten und eines gitterbasierten Verfahrens zur Bereitstellung von relevanter Information für eine Umgebungswahrnehmung. Weiterer Stand der Technik ist aus DE 10 2004 030 752 A1 und KELLNER, Dominik et al.: Instantaneous lateral velocity estimation of a vehicle using Doppler radar, in: 2013 16th international conference on information fusion (FUSION 2013), 9-12 July 2013, Vol. 2, S. 877-884, ISBN 978-1-4799-0284-2 bekannt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Aufgabe der Erfindung ist es, ein verbessertes Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren bereitzustellen.
  • Zur Lösung der Aufgabe ist ein Verfahren mit den Merkmalen des Anspruchs 1 vorgesehen. Vorteilhafte Ausbildungen der Erfindung sind den Unteransprüchen, der Beschreibung und den Zeichnungen zu entnehmen.
  • Ein Vorteil einer Ausführungsform ist das verbesserte Verfolgen einer Objektposition und -orientierung relativ zu einem Host-Fahrzeug. Das Host-Fahrzeug verwendet Doppler-Messdaten, um zu ermitteln, welche Teile der Radardaten ein Cluster bilden, sowie zum Ermitteln, ob das Cluster stationär oder dynamisch ist. Das Verfolgen einer Position und der Form des Objekts ermöglicht dem Host-Fahrzeug, die Orientierung des Objekts während jedes Zeit-Frames zu ermitteln. Da sich eine Objektform von einem Host-Fahrzeug aus gesehen ändert, kann die Orientierung auf der Grundlage der Änderungen der Form zu jedem Zeitpunkt ermittelt und dementsprechend verfolgt werden. Folglich kann das jeweilige Verfolgungssystem die Orientierung, Position und Geschwindigkeit eines entfernten Fahrzeugs zu anderen Fahrzeugsubsystemen für deren Verwendung hinsichtlich Objekten außerhalb des Fahrzeugs übermitteln.
  • Eine Ausführungsform zieht ein Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung von mehreren Radarsensoren in Betracht. Es werden Objekte relativ zu einem Host-Fahrzeug aus Radardaten detektiert, die durch eine Erfassungseinrichtung erzeugt werden. Die Radardaten umfassen Doppler-Messdaten. Durch einen Prozessor werden Cluster als Funktion der Radardaten gebildet. Jedes Cluster stellt ein jeweiliges Objekt dar. Jedes jeweilige Objekt wird durch den Prozessor als stationär oder nicht stationär basierend auf den Doppler-Messdaten jedes Objekts und einer Fahrzeuggeschwindigkeit des Host-Fahrzeugs klassifiziert. In Ansprechen darauf, dass das Objekt als nicht stationäres Objekt klassifiziert wird, wird eine Zielverfolgung durch den Prozessor auf ein Objekt unter Verwendung der Doppler-Messdaten über der Zeit angewandt; andernfalls wird in Ansprechen auf das Klassifizieren des Objekts als stationäres Objekt ein Belegungsgitter aktualisiert. Das Klassifizieren jedes jeweiligen Objekts als stationär oder nicht stationär umfasst die folgenden Schritte: Identifizieren einer Geschwindigkeit für jeden Punkt in einem Cluster; Identifizieren eines Einheitsvektors für jeden Punkt mit dem Cluster; Ermitteln eines Entfernungsänderungsrestwerts für jeden Punkt in dem Cluster; Ermitteln, dass das Cluster ein stationäres Cluster ist, wenn ein vorbestimmter Prozentsatz der Entfernungsänderungsrestwerte innerhalb eines Restschwellenwerts liegt; ansonsten, Ermitteln, dass das Cluster ein dynamisches Cluster ist.
  • Figurenliste
    • 1 ist eine bildliche Darstellung eines Fahrzeugumgebungserfassungssystems.
    • 2 ist ein Blockdiagramm eines Objektdetektions- und -verfolgungssystems.
    • 3 ist eine beispielhafte Darstellung eines Radars, das ein Zielfahrzeug detektiert.
    • 4a ist eine beispielhafte Darstellung eines Radars, das ein sich bewegendes Ziel detektiert.
    • 4b ist ein Resthistogramm zum Ermitteln eines dynamischen oder stationären Ziels in 4a.
    • 5a ist eine beispielhafte Darstellung eines Radars, das ein stationäres Ziel detektiert.
    • 5b ist ein Resthistogramm zum Ermitteln eines dynamischen oder stationären Ziels in 5b.
    • 6 ist eine beispielhafte Darstellung von über der Zeit verfolgten Radardaten für ein Fahrzeug.
    • 7 ist ein Flussdiagramm zum Aktualisieren eines Objektmodells und einer Objektbewegung.
    • 8 ist ein Flussdiagramm einer Verfolgungstechnik eines Bayes'schen Netzes.
    • 9 ist eine Darstellung eines Systems einer dynamischen Ziellokalisierung unter Verwendung von Radnaben eines Fahrzeugs.
    • 10 ist eine Radnabe zum Ermitteln der Geschwindigkeit eines Fahrzeugs.
  • DETAILLIERTE BESCHREIBUNG
  • 1 zeigt ein Fahrzeugumgebungserfassungssystem 10 zum Detektieren von Objekten 360 Grad um ein Fahrzeug 12. Das System 10 umfasst eine erste Erfassungseinrichtung 14, eine zweite Erfassungseinrichtung 16, eine dritte Erfassungseinrichtung 18 und eine vierte Erfassungseinrichtung 20. Jeder der Sensoren detektiert Objekte in einer erfassten Region, die das Fahrzeug 12 umgibt. Die Daten von jedem der Sensoren werden vereinigt, um zusammenwirkend Objekte außerhalb des Fahrzeugs 12 zu verfolgen. Es sei angemerkt, dass die Anzahl von Sensoren wie in 1 gezeigt beispielhaft ist, und dass entweder einer oder mehrere Sensoren verwendet werden können, ohne von dem Schutzumfang der Erfindung abzuweichen.
  • Nahbereichsradarsensoren weisen typischerweise ein schmales Band auf und weisen Probleme beim Erfassen von Objekten, die sich in einer kompakten Szene befinden, oder nahen ausgedehnten Objekten aufgrund von fehlender Entfernung auf. Wenn beispielsweise ein Host-Fahrzeug auf einer Autobahn fährt, wobei sich ein entferntes Fahrzeug auf einer Seite des Host-Fahrzeugs und eine Leitplanke auf der anderen Seite des Fahrzeugs befinden, sind derartige Objekte schwierig zu unterscheiden, wenn Daten von Nahbereichsradarsensoren verwendet werden. Das heißt, die Auflösung beider Objekte sieht gleich aus, so dass nicht ermittelt werden kann, ob beide Objekte dynamisch oder stationär sind. Dies ist auf die Punktzielannahme zurückzuführen, die bei der Verfolgung verwendet wird, welche aufgrund von Schwierigkeiten bei der Datenassoziierung nicht geeignet ist.
  • In 1 umfasst jede der Erfassungseinrichtungen 14-20 Bildgebungseinrichtungen eines Radars mit synthetischer Apertur (SAR von synthetic aperture radar), die eine hohe Auflösung aufweisen, um lange ausdehnbare Objekte, wie beispielsweise Leitplanken, Betonwände und Lastkraftwagen, zu detektieren und zu verfolgen. Ferner umfasst das SAR Doppler-Messungen, die verwendet werden können, um ein stationäres Objekt von einem dynamischen Objekt zu unterscheiden. Nachdem die Objekte als stationär oder dynamisch klassifiziert wurden, können die Objekte über einen Konturabgleich zwischen benachbarten Frames verfolgt werden, um die Orientierung des Fahrzeugs konstant zu überwachen. Ferner kann eine Radnabendetektion verwendet werden, um die Position des Objekts zu verbessern, wenn das Objekt ein Fahrzeug ist.
  • 2 zeigt ein Blockdiagramm einer Übersicht für eine Cluster-Verfolgung. Die Kreise bezeichnen die Radarreflektoren von dem vorderen entfernten sich bewegenden Fahrzeug, während die Quadrate die Radarreflektoren von stationären Objekten am Straßenrand bezeichnen. Da diese beiden Gruppen unterschiedliche Attribute einer relativen Radialgeschwindigkeit aufweisen, werden die beiden Gruppen in zwei Cluster geclustert: Fahrzeug gegen stationäres Objekt am Straßenrand (d.h. Leitplanke).
  • In Kasten 30 werden Radardaten von Objektdetektionssensoren erhalten. Wie zuvor beschrieben, sind die Objektdetektionssensoren vorzugsweise SAR-Sensoren; es können jedoch auch andere Sensoren verwendet werden, die ähnliche Daten erhalten. Es können ein oder mehrere SAR-Sensoren verwendet werden, um Objekte zu detektieren, die die Fahrzeuge umgeben. Es sei angemerkt, dass das SAR eine Form von Radar ist, dessen definierende Charakteristik im Gegensatz zu herkömmlichen Radarsystemen seine Verwendung der relativen Bewegung (zwischen einer Antenne und seiner Zielregion) ist, um unterscheidbare Langzeitabweichungen eines kohärenten Signals bereitzustellen, um die räumliche Auflösung auszunutzen.
  • Das SAR ist an dem Host-Fahrzeug angebracht, welches eine sich bewegende Plattform ist, und erzeugt eine einzelne Beamforming-Antenne. Eine Szene (z.B. eine Zielregion) wird wiederholt mit Impulsen von Funkwellen beleuchtet. Die Wellenformen werden als Ergebnis dessen, dass sich das Host-Fahrzeug bewegt, nacheinander an den verschiedenen Antennenpositionen empfangen. Derartige Positionen werden kohärent detektiert, gespeichert und zusammenwirkend verarbeitet, um Objekte in einem Bild der Zielregion zu detektieren. Es sei angemerkt, dass jede empfangene Wellenform einem Radarpunkt, im Gegensatz zu dem gesamten Objekt, entspricht. Daher werden mehrere Wellenformen empfangen, die verschiedene Radarpunkte, im Gegensatz zu dem gesamten Objekt, darstellen. Folglich ist es beim Betrachten der Rohdaten unklar, ob benachbarte Punkte ein gleiches Objekt oder unterschiedliche Objekte darstellen. Daher wird während dieses Schritts jeder Punkt als seine eigene Entität/sein eigenes Cluster betrachtet.
  • In Kasten 31 wird eine Sensorregistrierung durchgeführt. Eine Sensorregistrierung ist ein Prozess eines Transformierens verschiedener Sätze von Daten unter einem Koordinatensystem. Eine Registrierung ist notwendig, um dazu in der Lage zu sein, Daten, die von verschiedenen Sensoren erhalten werden, zu integrieren und zu vergleichen.
  • In Kasten 32 wird das Clustern auf jede Position, die in den Radardaten detektiert wird, durch einen Prozessor angewandt. Eine Position allein kann nicht zwei detektierte benachbarte Positionen unterscheiden. Beispielsweise überträgt ein Host-Fahrzeug 12 in 3 Radarsignale zum Detektieren von Objekten außerhalb des Fahrzeugs. Wie es in 3 gezeigt ist, stellt der Satz von Quadraten eine Leitplanke 42 dar und stellt der Satz von Punkten ein hinteres Ende eines entfernten Fahrzeugs 44 dar. Durch Betrachten der Radardaten als Ganzes kann jedoch nicht ermittelt werden, welche jeweiligen Punkte Teil welches Objekts sind. Folglich können Doppler-Messdaten verwendet werden, um Cluster voneinander zu unterscheiden. Ein Doppler-Radar ist ein spezialisiertes Radar, das den DopplerEffekt verwendet, um Geschwindigkeitsdaten hinsichtlich Objekten in einer Distanz zu erzeugen. Es wird ein Mikrowellensignal zu einem gewünschten Ziel übertragen, und ein Empfänger horcht die Reflexion des Signals ab und analysiert dann, wie die Frequenz des zurückgegebenen Signals durch die Bewegung des Objekts geändert wurde.
  • In Kasten 32 wird, um zu ermitteln, ob ein Satz von Punkten innerhalb eines gleichen Clusters liegt, die folgende Cluster-Technik durch den Prozessor verwendet. Erstens werden alle detektierten Punkte von den Radardaten anfänglich als separate Cluster behandelt. Jeder Punkt ist ein 3-D-Punkt im Raum (x, y, d), wobei x eine Breitengradkoordinate relativ zu dem Host-Fahrzeug ist, y eine Längengradkoordinate relativ zu dem Host-Fahrzeug ist und d Doppler-Daten umfasst, die eine Radialgeschwindigkeitsinformation relativ zu dem Host-Fahrzeug bereitstellen. Zweitens wird jeder Punkt mit seinem benachbarten Punkt verglichen. Wenn ein Ähnlichkeitsmaß zwischen einem jeweiligen Punkt und seinem Nachbar kleiner als ein Ähnlichkeitsschwellenwert ist, werden die beiden Punkte zu einem einzelnen Cluster zusammengefasst. Wenn das Ähnlichkeitsmaß größer als ein Ähnlichkeitsschwellenwert ist, bleiben die beiden Punkte separate Cluster. Folglich werden ein oder mehrere Cluster für jeden der detektierten Punkte gebildet. Um diese Technik zu beschleunigen, können Radarpunkte unter Verwendung eines k-d-Baums oder einer Hash-Nachschlagetabelle indiziert werden.
  • In Kasten 33 wird eine Klassifizierung durch einen Klassifizierer auf die Cluster angewandt, um zu ermitteln, ob jedes identifizierte Cluster ein stationäres Objekt (Grundgeschwindigkeit Null) oder ein dynamisches Objekt (Grundgeschwindigkeit nicht Null) ist. Eine Klassifizierung kann unter Verwendung des Prozessors durchgeführt werden, der die Radardaten clustert, oder kann eine separate Verarbeitungseinheit sein. Um zu ermitteln, ob ein Objekt stationär oder dynamisch ist, werden die Fahrzeuggeschwindigkeit des Host-Fahrzeugs und Doppler-Messdaten verwendet. Die Fahrzeuggeschwindigkeitsdaten des Host-Fahrzeugs werden in Kasten 34 erhalten. Es sei angemerkt, dass jede Einrichtung oder jeder Prozess verwendet werden kann, um die Geschwindigkeit des Host-Fahrzeugs zu ermitteln (z.B. Beispiele für solche Einrichtungen umfassen einen Raddrehzahlsensor, einen Motordrehzahlsensor, GPS, sind jedoch nicht darauf beschränkt.
  • Um die Klassifizierungstechnik in Kasten 33 zu initiieren, wird zuerst angenommen, dass das analysierte Cluster stationär ist. Das Cluster wird durch eine Liste von Punkten (xi, yi, di) i = 1, ..., N dargestellt, wobei xi, yi, di ein Ort und eine Radialgeschwindigkeit von Radarreflektoren von einer Kontur des Ziels sind. Die Prüfung wird durchgeführt, um zu ermitteln, ob ein vorbestimmter Prozentsatz, vorzugsweise 80%, einer vorhergesagten Entfernungsänderung mit tatsächlichen Doppler-Messungen übereinstimmt. Wenn 80% der Restwerte innerhalb eines Schwellenwerts liegen, wird ermittelt, dass das Cluster stationär ist, andernfalls wird ermittelt, dass das Cluster dynamisch ist.
  • Um den Restwert der Entfernungsänderung zu ermitteln, wird die Host-Fahrzeugkinematik durch die Host-Fahrzeuggeschwindigkeit vH und die Host-Fahrzeuggierrate ωH bezeichnet. Bei einem stationären Ziel bewegen sich die detektierten Radarpunkte mit Geschwindigkeiten v i
    Figure DE102015100134B4_0001
    Diese Geschwindigkeit kann unter Verwendung der folgenden Formeln ermittelt werden: v x i = y i ω H v H
    Figure DE102015100134B4_0002
    v y i = x i ω H
    Figure DE102015100134B4_0003
  • Wenn ein Einheitsvektor von dem Radarmittelpunkt zu dem i-ten Punkt durch n i
    Figure DE102015100134B4_0004
    dargestellt wird, kann der Entfernungsänderungsrest v i
    Figure DE102015100134B4_0005
    für einen i-ten Punkt durch die folgende Gleichung dargestellt werden: ε i = | v i n i d i | ,
    Figure DE102015100134B4_0006
  • Daher wird, unter Verwendung von 80% als der beispielhafte vorbestimmte Prozentsatzwert, wenn 80% der Restwerte innerhalb eines Restschwellenwerts, wie beispielsweise 0,5 m/s liegen, das Cluster als stationäres Cluster identifiziert; andernfalls wird das Cluster als dynamisches Cluster identifiziert.
  • 4 und 5 zeigen Beispiele eines Klassifizierens eines dynamischen Clusters bzw. eines stationären Clusters. In 4a fährt ein Fahrzeug 50 benachbart zu einem Lastkraftwagen 52, wobei beide Fahrzeuge eine Grundgeschwindigkeit haben, die größer als Null ist. Bei diesem Beispiel fährt das Host-Fahrzeug mit 30 m/s, wohingegen der Lastkraftwagen 52 mit 20 m/s fährt. Das Host-Fahrzeug 50 überträgt einen Radarstrahl, der unter Verwendung der SAR-Einrichtungen an dem Lastkraftwagen 52 an verschiedenen Punkten reflektiert wird. Wie zuvor beschrieben, nimmt das Host-Fahrzeug 50 anfänglich an, dass das Cluster ein stationäres Cluster ist. Bei diesem Beispiel würde die vorhergesagte Differenz, wenn der Lastkraftwagen beispielsweise stationär wäre, -19 m/s für Punkte in dem Cluster vor dem Host-Fahrzeug 52 und 19 m/s für Punkte des Clusters hinter dem Host-Fahrzeug 52 betragen. In Ansprechen auf das Empfangen der reflektierten Radarsignale geben Doppler-Messdaten an, dass das Cluster (d.h. der Lastkraftwagen 52) eine Differenz von -7 m/s und 7 m/s aufweist.
  • 4b zeigt ein Resthistogramm für die Doppler-Messdaten. Element 54 (z.B. +/-0,5 m/s) stellt den Restschwellenwert dar. Wie in 4b gezeigt liegen weit über 80% der Werte nicht innerhalb des Restschwellenwertbereichs. Daher wird das Cluster (d.h. der Lastkraftwagen 52) als dynamisches Cluster identifiziert.
  • 5a zeigt das Fahrzeug 50, das benachbart zu einer Leitplanke 56 fährt, wobei das Fahrzeug 50 eine Grundgeschwindigkeit aufweist, die größer als Null ist, und die Leitplanke eine Grundgeschwindigkeit aufweist, die Null ist. Das Host-Fahrzeug 50 nimmt anfänglich an, dass das benachbarte Cluster ein stationäres Cluster ist. Daher würde die vorhergesagte Differenz, wenn die Leitplanke stationär ist, -19 m/s für Punkte in dem Cluster vor dem Host-Fahrzeug 52 und 19 m/s für Punkte in dem Cluster hinter dem Host-Fahrzeug 52 betragen. In Ansprechen auf das Empfangen der reflektierten Radarsignale geben Doppler-Messdaten an, dass das Cluster (d.h. die Leitplanke 56) eine Differenz von -19 m/s und 19 m/s aufweist. Dies entspricht der vorhergesagten Geschwindigkeit.
  • 5b zeigt ein Resthistogramm für die Doppler-Messdaten. Element 58 (d.h. +/-0,5 m/s) stellt den Restschwellenwert dar, wenn das Cluster stationär ist. Wie in 5b gezeigt, liegen weit über 80% der Werte in dem Schwellenwertbereich. Folglich wird das Cluster als stationäres Cluster identifiziert.
  • Wieder auf 2 Bezug nehmend wird in Kasten 35 basierend auf der in Kasten 33 identifizierten Klassifizierung durch den Prozessor ermittelt, ob das Cluster stationär ist. Wenn das Cluster als stationär ermittelt wird, fährt die Routine mit Kasten 36 fort; ansonsten fährt die Routine mit Kasten 37 fort.
  • In Kasten 36 wird durch den Prozessor ein Belegungsgitter erzeugt. Dieses identifiziert alle stationären Objekte in der Region außerhalb des Fahrzeugs, die durch die Sensoren detektiert wurden. Da die Objekte stationär sind, müssen sie nicht hinsichtlich einer Bewegung verfolgt werden, und somit wird ihre Belegung in Bezug auf ihre Position in einer Abtastkarte aktualisiert.
  • In Kasten 37 wird eine Bayes'sche Regel verwendet, um das Belegungsgitter zu aktualisieren.
  • Wieder auf Kasten 35 Bezug nehmend fährt die Routine mit Schritt 38 fort, um das Cluster zu verfolgen, wenn herausgefunden wurde, dass das Cluster nicht stationär ist. Um das Cluster zu verfolgen, stellt das SAR-Bildradar Radarortspunkte, die die Form des Clusters bilden, und Doppler-Messdaten zum Verfolgen der Kontur des Clusters, wie sie durch die SAR-Objektdetektionseinrichtungen gesehen wird, bereit. Für die Zwecke hierin wird eine Punktzielannahme, wie beispielsweise, dass ein Fahrzeug eine reguläre Form beibehält, nicht als Annahme beibehalten, was der Grund dafür ist, das herkömmliche Kalman-Filter oder Partikelfilter Schwierigkeiten bei einer Datenassoziierung hätten.
  • Um ein Cluster zu verfolgen, muss eine starre Transformation zwischen zwei benachbarten Frames aufgelöst werden, um einen Radarmessabgleich zu verwenden, was eine Verschiebung in Längsrichtung, eine seitliche Verschiebung und Doppler umfasst. 6 zeigt einen Satz von Punkten, die für ein Cluster zu einem vorherigen Zeitpunkt detektiert wurden (M), und einen Satz von Punkten, die für ein Cluster zu einem aktuellen Zeitpunkt detektiert wurden (S). Mit dem gegebenen Eingang des Objektmodells M auf der Grundlage der vorherigen Radarkarte, einer aktuellen Radarkarte S und einer Ermittlung einer vorherigen starren Bewegung v von M nach S wird eine aktuelle starre Bewegung v ermittelt.
  • Eine 2-dimensionale starre Bewegung weist sowohl eine lineare Geschwindigkeit vt als auch eine Winkelgeschwindigkeit ω auf. Daher kann die folgende Formel verwendet werden, um die aktualisierte starre Bewegung v' iterativ zu berechnen, bis eine Konvergenz erhalten wird. v ' = a r g m i n v k j a k j ( s k T v ( m k ) 2 σ 1 + d k v j n j 2 σ 2 )
    Figure DE102015100134B4_0007
    wobei sk ein Radarpunkt ist, mj ein Modellpunkt ist, Tv(x) ein Operator ist, der eine starre Bewegung während v während Δt für einen Punkt x anwendet, akj die Wahrscheinlichkeit ist, dass der Radarpunkt sk einem Modellpunkt mj zugehörig ist (d.h. der Messung des Modellpunkts mj), dk die Doppler-Messung des Punkts sk ist, nj die Einheitsrichtung von dem Radarmittelpunkt zu dem Modellpunkt mj ist und vj die in Verbindung stehende Geschwindigkeit für den Modellpunkt mj ist. Es sei angemerkt, dass in der obigen Gleichung der Term d k v j n j 2 σ 2
    Figure DE102015100134B4_0008
    der Doppler-Term ist.
  • Der in Verbindung stehende Geschwindigkeitsterm vj für den Modellpunkt mj kann wie folgt berechnet werden: v j = v t + ( m j o ) × ω
    Figure DE102015100134B4_0009
    wobei (vt, ω) eine Translations- und eine Winkelgeschwindigkeit der starren Bewegung v sind.
  • Eine starre Transformation wird verwendet, um zusammenwirkend einen Ort und eine Orientierung von Objekten zu verifizieren, die durch die Radareinrichtungen zwischen zwei Zeitpunkten detektiert werden. Folglich ermöglicht eine Orientierung des Fahrzeugs unter Verwendung der mehreren Verfolgungspunkte, dass die Fahrzeugposition und -orientierung genau verfolgt werden.
  • In Kasten 40 erhalten Ausgabeeinrichtungen, die Kollisionswarneinrichtungen und -systeme umfassen, jedoch nicht darauf beschränkt sind, die Verfolgungsdaten zum Verfolgen möglicher Kollisionen mit anderen Fahrzeugen und Alarmieren der Fahrt dementsprechend.
  • 7 und 8 zeigen eine Übersicht des Rahmenwerks zum Vereinigen einer Information für ein dynamisches Cluster. 7 zeigt ein Blockflussdiagramm, bei dem das Verfolgen als das Problem von sowohl (i) Schätzen der Bewegung des Objekts als auch (ii) Aktualisieren des Objektmodells, wenn ein neuer Frame einer Radarabtastkarte empfangen wird, behandelt werden kann. Wie es in 7 gezeigt ist, ist ein Objektmodell bei 60 gezeigt und ist eine Objektbewegungsschätzung bei 62 gezeigt. Die Objektbewegung wird unter Verwendung des Objektmodells rekursiv geschätzt, wohingegen das Objektmodell unter Verwendung der Objektbewegungsschätzung rekursiv aktualisiert wird.
  • 8 zeigt ein dynamisches Bayes'sches Netz, das zwei Schritte der hierin beschriebenen Verfolgungstechnik darstellt. Für die Verfolgungstechnik sind in der Routine S0, ..., St und St+1 abgetastete Radarkarten, welche ein dynamisches Cluster zu Zeitschritten 0, ..., t bzw. t+1 bilden. vt und vt+1 sind (zu schätzende) Parameter der starren Transformation zu den Zeitschritten t bzw. t+1. Mt und Mt+1 sind Objektmodelle zu den Zeitschritten t bzw. t+1.
  • Bei einem aktuellen Zeitschritt (t) wird der für den aktuellen Zeitschritt (t) geschätzte Transformationsparameter auf das Objektmodell für den aktuellen Zeitschritt (t) und auch die Radarkarte zum aktuellen Zeitschritt (t) angewandt. Ähnlich wird mit fortschreitender Zeit bei einem nächsten Zeitschritt (t+1) der für den nächsten Zeitschritt (t+1) geschätzte Transformationsparameter auf das Objektmodell für den nächsten Zeitschritt (t+1) und auch die Radarkarte zum nächsten Zeitschritt (t+1) angewandt. Das Ergebnis ist eine Bayes-basierte Technik, die die Bewegung rekursiv schätzt und das Objektmodell für eine Verfolgung basierend auf Parametern einer starren Transformation aktualisiert.
  • 9 zeigt ein dynamisches Ziellokalisierungssystem durch Verfolgen des Fahrzeugs unter Verwendung der Radnabe des Fahrzeugs. Die Position zweier Radnaben kann verwendet werden, um eine Position eines Zielfahrzeugs zu ermitteln, um einen Ort des Fahrzeugs zur Verwendung bei der Zielverfolgungstechnik, die hier beschrieben wird, zu verbessern. Da Radnaben gute Reflektoren sind, stellen Radardaten, die von dem SAR-System erhalten werden, genauere Daten bereit. Radnaben bewegen sich mit unterschiedlichen Geschwindigkeiten relativ zu der Fahrzeugkarosserie. 10 zeigt die Geschwindigkeit einer Radnabe an verschiedenen Orten der Radnabe. Beispielsweise ist die Geschwindigkeit an einem äußeren Abschnitt der Radnabe doppelt so groß wie die Geschwindigkeit an einem Mittelpunkt der Radnabe.
  • Wieder auf 9 Bezug nehmend werden zwei Radarpunkte 60 und 62 als Radnaben eines Zielfahrzeugs unter Verwendung von Maximum-Doppler-Messungen identifiziert. Es wird eine Basislinienbreite (W) zwischen den beiden Naben berechnet. Zwischen dem ersten Punkt 60 und dem zweiten Punkt 62 wird eine Orientierung θ ermittelt. Unter Verwendung der ersten Nabe 60 als Scheitel des Orientierungswinkels θ legen das Segment, das zwischen der ersten Nabe 60 und der zweiten Nabe 62 dargestellt ist, und der Vektor, in dem der durch das Host-Fahrzeug übertragene Radarstrahl auf die erste Nabe 60 trifft, den Orientierungswinkel θ fest. Daher können durch Verfolgen der Orientierung und der Basislinie des Zielfahrzeugs eine Position, Orientierung, Geschwindigkeit des Zielfahrzeugs konstant ermittelt und verfolgt werden.
  • Während bestimmte Ausführungsformen der vorliegenden Erfindung ausführlich beschrieben wurden, werden Fachleute, die diese Erfindung betrifft, verschiedene alternative Entwürfe und Ausführungsformen zum Ausführen der Erfindung wie durch die folgenden Ansprüche definiert erkennen.

Claims (3)

  1. Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren, das umfasst, dass: Objekte relativ zu einem Host-Fahrzeug (12, 50) aus Radardaten, die durch eine Erfassungseinrichtung erzeugt werden, detektiert werden, wobei die Radardaten Doppler-Messdaten umfassen; durch einen Prozessor als Funktion der Radardaten Cluster gebildet werden, wobei jedes Cluster ein jeweiliges Objekt darstellt; durch den Prozessor jedes jeweilige Objekt basierend auf den Doppler-Messdaten jedes Objekts und einer Fahrzeuggeschwindigkeit des Host-Fahrzeugs (12, 50) als stationär oder nicht stationär klassifiziert wird; und in Ansprechen darauf, dass das Objekt als nicht stationäres Objekt klassifiziert wird, durch den Prozessor eine Zielverfolgung auf ein Objekt unter Verwendung von Doppler-Messdaten über der Zeit angewandt wird, andernfalls ein Belegungsgitter in Ansprechen auf das Klassifizieren des Objekts als stationäres Objekt aktualisiert wird; wobei das Klassifizieren jedes jeweiligen Objekts als stationär oder nicht stationär die folgenden Schritte umfasst: Identifizieren einer Geschwindigkeit für jeden Punkt in einem Cluster; Identifizieren eines Einheitsvektors für jeden Punkt mit dem Cluster; Ermitteln eines Entfernungsänderungsrestwerts für jeden Punkt in dem Cluster; Ermitteln, dass das Cluster ein stationäres Cluster ist, wenn ein vorbestimmter Prozentsatz der Entfernungsänderungsrestwerte innerhalb eines Restschwellenwerts liegt; ansonsten, Ermitteln, dass das Cluster ein dynamisches Cluster ist.
  2. Verfahren nach Anspruch 1, wobei die Geschwindigkeit jedes Punkts in dem Cluster durch die folgende Gleichung ermittelt wird: v x i = y i ω H v H
    Figure DE102015100134B4_0010
    v y i = x i ω H
    Figure DE102015100134B4_0011
    wobei vxi eine Quergeschwindigkeit eines i-ten Punkts ist, vyi eine Längsgeschwindigkeit des i-ten Punkts ist, yi eine Längengradkoordinate relativ zu dem Fahrzeug des i-ten Punkts ist, xi eine Breitengradkoordinate relativ zu dem Fahrzeug des i-ten Punkts ist, ωH eine Gierrate ist und vH eine Geschwindigkeit ist.
  3. Verfahren nach Anspruch 2, wobei der Entfernungsänderungsrestwert durch die folgende Gleichung ermittelt wird: ε i = | v i n i d i |
    Figure DE102015100134B4_0012
    wobei vi die ermittelte Geschwindigkeit ist, ni ein Einheitsvektor ist und di eine Radialgeschwindigkeit ist.
DE102015100134.9A 2014-01-16 2015-01-08 Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren Active DE102015100134B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/156,681 2014-01-16
US14/156,681 US9255988B2 (en) 2014-01-16 2014-01-16 Object fusion system of multiple radar imaging sensors

Publications (2)

Publication Number Publication Date
DE102015100134A1 DE102015100134A1 (de) 2015-07-16
DE102015100134B4 true DE102015100134B4 (de) 2022-07-14

Family

ID=53485092

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015100134.9A Active DE102015100134B4 (de) 2014-01-16 2015-01-08 Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren

Country Status (3)

Country Link
US (1) US9255988B2 (de)
CN (1) CN104793202B (de)
DE (1) DE102015100134B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017110808B4 (de) 2016-06-03 2023-11-30 Fujitsu Ten Limited Radarvorrichtung und signalverarbeitungsverfahren

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2793041A1 (de) * 2013-04-15 2014-10-22 Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO Gesicherte Fahrzeugabsolutlokalisierung
US9733350B2 (en) * 2014-07-03 2017-08-15 GM Global Technology Operations LLC Vehicle radar control
US20160047907A1 (en) * 2014-08-14 2016-02-18 Google Inc. Modular Planar Multi-Sector 90 Degrees FOV Radar Antenna Architecture
US11137490B2 (en) * 2014-09-16 2021-10-05 Teknologian Tutkimuskeskus Vtt Navigational aid with adaptive radar
US9469248B2 (en) * 2014-10-10 2016-10-18 Honda Motor Co., Ltd. System and method for providing situational awareness in a vehicle
US9239384B1 (en) * 2014-10-21 2016-01-19 Sandia Corporation Terrain detection and classification using single polarization SAR
DE102015119658A1 (de) * 2015-11-13 2017-05-18 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erfassen eines Umgebungsbereichs eines Kraftfahrzeugs mit Objektklassifizierung, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
US10386480B1 (en) 2016-02-02 2019-08-20 Waymo Llc Radar based mapping and localization for autonomous vehicles
US10191144B2 (en) * 2016-02-26 2019-01-29 Waymo Llc Radar mounting estimation with unstructured data
US10088553B2 (en) * 2016-03-14 2018-10-02 GM Global Technology Operations LLC Method of automatic sensor pose estimation
EP3239737B1 (de) * 2016-04-29 2018-11-28 Veoneer Sweden AB Fehlausrichtungserkennung für einen fahrzeugradarsensor
EP3252501B1 (de) * 2016-06-03 2022-06-08 Veoneer Sweden AB Verbesserte objekterkennung und bewegungsstatusschätzung für ein fahrzeugumgebungserkennungssystem
CN107561537B (zh) * 2016-06-30 2024-04-30 北京行易道科技有限公司 雷达系统、交通工具、无人机以及探测方法
JP6597517B2 (ja) * 2016-08-10 2019-10-30 株式会社デンソー 物標検出装置
US10066946B2 (en) 2016-08-26 2018-09-04 Here Global B.V. Automatic localization geometry detection
EP3293545A1 (de) * 2016-09-09 2018-03-14 Autoliv Development AB Bestimmung der relativen geschwindigkeit in einem kraftfahrzeugradarsystem
JP6824686B2 (ja) * 2016-10-21 2021-02-03 株式会社デンソーテン レーダ装置および物標グループ化方法
US20180120419A1 (en) * 2016-10-27 2018-05-03 GM Global Technology Operations LLC Vehicle radar control
US10338208B2 (en) * 2016-10-27 2019-07-02 GM Global Technology Operations LLC Object detection in multiple radars
US10315649B2 (en) 2016-11-29 2019-06-11 Ford Global Technologies, Llc Multi-sensor probabilistic object detection and automated braking
US10444347B2 (en) * 2016-11-30 2019-10-15 GM Global Technology Operations LLC Accurate self localization using automotive radar synthetic aperture radar
EP3349033A1 (de) 2017-01-13 2018-07-18 Autoliv Development AB Verbesserte objekterkennung und bewegungsschätzung für ein fahrzeugumgebungserkennungssystem
US9940826B1 (en) * 2017-02-22 2018-04-10 Honeywell International Inc. Sensor data processing system for various applications
US10139833B1 (en) * 2017-05-17 2018-11-27 GM Global Technology Operations LLC Six-dimensional point cloud system for a vehicle
JP6805970B2 (ja) * 2017-06-09 2020-12-23 トヨタ自動車株式会社 物標情報取得装置
JP6816658B2 (ja) * 2017-06-09 2021-01-20 トヨタ自動車株式会社 物標情報取得装置
US10890919B2 (en) 2017-09-22 2021-01-12 Waymo Llc Calculating velocity of an autonomous vehicle using radar technology
US10691135B2 (en) 2017-09-22 2020-06-23 Waymo Llc Detecting motion of an autonomous vehicle using radar technology
US20190107615A1 (en) * 2017-10-05 2019-04-11 GM Global Technology Operations LLC Method of tracking an object
US10466346B2 (en) * 2017-11-17 2019-11-05 Gm Global Technology Operations, Llc Method and apparatus for continuous tracking in a multi-radar system
DE102018202294A1 (de) * 2018-02-15 2019-08-22 Robert Bosch Gmbh Schätzung von kartesischen Geschwindigkeiten von ausgedehnten Radarobjekten mit einem Radarsensor
US11093759B2 (en) 2018-03-06 2021-08-17 Here Global B.V. Automatic identification of roadside objects for localization
US11275170B2 (en) * 2018-04-06 2022-03-15 Electromagnetic Systems, Inc. Use of dual processing channels for stationary and moving objects illuminated by radar
EP3553559B1 (de) * 2018-04-11 2022-06-01 Aptiv Technologies Limited Verfahren zur erkennung von objekten
EP3561542A1 (de) 2018-04-27 2019-10-30 Veoneer Sweden AB Generische objektverfolgung auf basis von bedeutenden punkten
US11372424B2 (en) * 2018-05-10 2022-06-28 GM Global Technology Operations LLC Generalized 3D inverse sensor model
US11079488B2 (en) * 2018-05-14 2021-08-03 GM Global Technology Operations LLC DBSCAN parameters as function of sensor suite configuration
US10365364B1 (en) * 2018-05-18 2019-07-30 Zendar Inc. Systems and methods for detecting objects
US10371797B1 (en) 2018-05-23 2019-08-06 Zendar Inc. Systems and methods for enhancing target detection
US10642275B2 (en) 2018-06-18 2020-05-05 Zoox, Inc. Occulsion aware planning and control
US10935652B2 (en) * 2018-06-26 2021-03-02 GM Global Technology Operations LLC Systems and methods for using road understanding to constrain radar tracks
EP3588136B1 (de) 2018-06-28 2021-03-03 Veoneer Sweden AB Objektdarstellung und -klassifizierung basierend auf fahrzeugsensorerkennungen
DE102018210814A1 (de) * 2018-06-30 2020-01-02 Robert Bosch Gmbh Verfahren zur Erkennung statischer Radarziele mit einem Radarsensor für Kraftfahrzeuge
US11035943B2 (en) * 2018-07-19 2021-06-15 Aptiv Technologies Limited Radar based tracking of slow moving objects
US10914813B2 (en) * 2018-08-21 2021-02-09 Aptiv Technologies Limited Classifying potentially stationary objects tracked by radar
US11353577B2 (en) * 2018-09-28 2022-06-07 Zoox, Inc. Radar spatial estimation
CN109212514B (zh) * 2018-09-29 2022-10-14 河北德冠隆电子科技有限公司 一种雷达检测设备对运动以及静止目标持续跟踪关联方法
CN110376583B (zh) * 2018-09-30 2021-11-19 毫末智行科技有限公司 用于车辆传感器的数据融合方法及装置
CN110378178B (zh) * 2018-09-30 2022-01-28 毫末智行科技有限公司 目标跟踪方法及装置
DE102018124215A1 (de) * 2018-10-01 2020-04-02 Conti Temic Microelectronic Gmbh Verfahren zur Erfassung von Umgebungsinformationen mittels mehrerer Radarsensoren
US10838054B2 (en) 2018-10-08 2020-11-17 Aptiv Technologies Limited Detection system and method
KR102569900B1 (ko) * 2018-12-04 2023-08-23 현대자동차주식회사 전방위 센서퓨전 장치 및 그의 센서퓨전 방법과 그를 포함하는 차량
US11092668B2 (en) * 2019-02-07 2021-08-17 Aptiv Technologies Limited Trailer detection system and method
US11828848B2 (en) * 2019-03-14 2023-11-28 Aeva, Inc. Velocity estimation using doppler per point LiDAR systems
US10887928B2 (en) * 2019-04-24 2021-01-05 Here Global B.V. Lane aware clusters for vehicle to vehicle communication
US11300677B2 (en) * 2019-07-08 2022-04-12 GM Global Technology Operations LLC Automated driving systems and control logic for host vehicle velocity estimation using wide aperture radar
CN110361722B (zh) * 2019-07-17 2023-03-31 四川川大智胜软件股份有限公司 一种多雷达信号融合方法及系统
EP4042196A4 (de) * 2019-10-10 2023-11-15 Thales Canada Inc. System und verfahren zur bestimmung der geschwindigkeit und des stationären zustands eines schienenfahrzeugs
CN111007454B (zh) * 2019-10-28 2022-07-01 重庆邮电大学 一种基于合作目标信息的扩展目标跟踪方法
DE112019007916T5 (de) * 2019-11-28 2022-10-13 Mitsubishi Electric Corporation Objekterkennungsvorrichtung, Objekterkennungsverfahren und Objekterkennungsprogramm
CN111091148B (zh) * 2019-12-10 2021-07-27 成都纳雷科技有限公司 一种基于目标先验信息的车载雷达目标跟踪方法及装置
CN110940959B (zh) * 2019-12-13 2022-05-24 中国电子科技集团公司第五十四研究所 一种用于低分辨雷达地面目标的人车分类识别方法
CN111239702B (zh) * 2019-12-30 2022-03-01 北京润科通用技术有限公司 一种目标对象运动状态确定方法及装置
US11255957B2 (en) 2020-01-27 2022-02-22 Ford Global Technologies, Llc Target velocity detection
CN111289969B (zh) * 2020-03-27 2022-03-04 北京润科通用技术有限公司 一种车载雷达运动目标融合方法及装置
DE102020204592A1 (de) * 2020-04-09 2021-10-14 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zur Verarbeitung von Radardaten und Radarsystem
DE102020116027A1 (de) 2020-06-17 2021-12-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Ermittlung von Belegungsinformation für einen Umfeldpunkt auf Basis von Radardetektionen
DE102020116225B3 (de) 2020-06-19 2021-08-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum radarbasierten Nachverfolgen von fahrzeugexternen Objekten, Objektnachverfolgungseinrichtung und Kraftfahrzeug
CN111832635B (zh) * 2020-06-28 2023-12-05 北方工业大学 地基sar图像与激光点云地形数据的匹配方法及装置
CN112036471B (zh) * 2020-08-28 2022-02-08 四川长虹电器股份有限公司 一种基于毫米波雷达的多人跟踪方法
JP2022043413A (ja) * 2020-09-04 2022-03-16 株式会社Subaru 車外環境認識装置
US11841439B2 (en) * 2020-11-02 2023-12-12 Waymo Llc Point cloud segmentation using a coherent lidar for autonomous vehicle applications
US11656629B1 (en) 2020-12-08 2023-05-23 Waymo Llc Detection of particulate matter in autonomous vehicle applications
CN114002674A (zh) * 2021-10-08 2022-02-01 电子科技大学 一种基于sbrim的多重叠动目标位置与速度估计方法
EP4194885A1 (de) * 2021-12-09 2023-06-14 Aptiv Technologies Limited Verfahren zur bestimmung des mobilitätszustands eines zielobjekts
CN114220237B (zh) * 2021-12-10 2024-04-05 昆仑杰信(北京)科技有限责任公司 安防雷达防盗防跌落报警方法
US20230195854A1 (en) * 2021-12-22 2023-06-22 Julien Ip Filtering of dynamic objects from vehicle generated map
EP4220224A1 (de) * 2022-01-26 2023-08-02 Robert Bosch GmbH Verfahren und vorrichtung zur erkennung und verfolgung von objekten und fahrerassistenzsystem
DE102022116054A1 (de) 2022-06-28 2023-12-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Erkennung und/oder zur Nachverfolgung von Objekten
DE102022208465A1 (de) 2022-08-15 2024-02-15 Volkswagen Aktiengesellschaft Verfahren zur Korrektur eines Radarsignals zum Bestimmen einer synthetischen Apertur, Computerprogramm, Vorrichtung und Fahrzeug
DE102022125695A1 (de) 2022-10-05 2024-04-11 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Einrichtung zur effizienten Objektnachverfolgung und entsprechend eingerichtetes Kraftfahrzeug
US20240142614A1 (en) * 2022-11-01 2024-05-02 Ford Global Technologies, Llc Systems and methods for radar perception
CN117269951B (zh) * 2023-08-21 2024-03-26 中国电子科技集团公司第五十四研究所 空地多视角信息增强的目标跟踪方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004030752A1 (de) 2004-06-25 2006-01-19 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kursprädikation bei Kraftfahrzeugen

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4818999A (en) * 1986-10-29 1989-04-04 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method and apparatus for measuring frequency and phase difference
US5087918A (en) * 1990-04-02 1992-02-11 Delco Electronics Corporation FMCW/2FD implementation for vehicle near obstacle detection system
FR2690755B1 (fr) * 1992-04-30 1994-08-26 Thomson Csf Procédé et système de détection d'un ou plusieurs objets dans une zone angulaire, et applications.
US5754099A (en) * 1994-03-25 1998-05-19 Nippondenso Co., Ltd. Obstacle warning system for a vehicle
JP3401913B2 (ja) * 1994-05-26 2003-04-28 株式会社デンソー 車両用障害物認識装置
JP2768439B2 (ja) * 1994-11-08 1998-06-25 本田技研工業株式会社 Fm−cw方式マルチビームレーダー装置
JP3266827B2 (ja) * 1997-06-25 2002-03-18 本田技研工業株式会社 車両の物体検知装置
US6317073B1 (en) * 1998-09-07 2001-11-13 Denso Corporation FM-CW radar system for measuring distance to and relative speed of a target
JP3512066B2 (ja) * 1998-12-10 2004-03-29 トヨタ自動車株式会社 車載用レーダ装置
JP2000206241A (ja) * 1999-01-13 2000-07-28 Honda Motor Co Ltd レ―ダ装置
JP2000298164A (ja) * 1999-04-15 2000-10-24 Honda Motor Co Ltd マルチ・チャンネルレーダ装置
US6121916A (en) * 1999-07-16 2000-09-19 Eaton-Vorad Technologies, L.L.C. Method and apparatus for recognizing stationary objects with a moving side-looking radar
JP4115638B2 (ja) * 1999-10-19 2008-07-09 本田技研工業株式会社 物体認識装置
DE19953790A1 (de) * 1999-11-09 2001-05-10 Bosch Gmbh Robert Verfahren zur Erfassung von bewegten und/oder festen Objekten im Kursverlauf eines Fahrzeuges
DE10113323C2 (de) * 2001-03-20 2003-04-03 Bosch Gmbh Robert Radarsensorplattform
DE10206764A1 (de) * 2002-02-19 2003-08-28 Bosch Gmbh Robert Verfahren zum Einparken eines Fahrzeugs
US6888622B2 (en) * 2002-03-12 2005-05-03 Nissan Motor Co., Ltd. Method for determining object type of reflective object on track
US6628227B1 (en) * 2002-07-23 2003-09-30 Ford Global Technologies, Llc Method and apparatus for determining a target vehicle position from a source vehicle using a radar
JP4293865B2 (ja) * 2003-09-02 2009-07-08 富士通テン株式会社 物体検出装置
US7071867B2 (en) * 2004-06-25 2006-07-04 The Boeing Company Method, apparatus, and computer program product for radar detection of moving target
JP4829517B2 (ja) * 2005-03-31 2011-12-07 株式会社デンソーアイティーラボラトリ レーダ信号処理装置
DE102005017422A1 (de) * 2005-04-15 2006-10-19 Robert Bosch Gmbh Fahrerassistenzsystem mit Einrichtung zur Erkennung von stehenden Objekten
US7460951B2 (en) * 2005-09-26 2008-12-02 Gm Global Technology Operations, Inc. System and method of target tracking using sensor fusion
JP4265803B2 (ja) * 2005-11-22 2009-05-20 三菱電機株式会社 レーダシステム
JP4371115B2 (ja) * 2006-03-01 2009-11-25 トヨタ自動車株式会社 物体検出装置
US7518545B2 (en) * 2006-10-26 2009-04-14 Infineon Technologies Ag Driver assistance system
DE102007020264A1 (de) * 2007-04-30 2008-11-20 Tyco Electronics Amp Gmbh Verfahren und Messvorrichtung zum Bestimmen einer Relativgeschwindigkeit
JP5380788B2 (ja) * 2007-05-30 2014-01-08 トヨタ自動車株式会社 物体検出装置、及び車両用制御装置
DE102007054821A1 (de) * 2007-11-16 2009-05-20 Robert Bosch Gmbh Verfahren zur Schätzung der Breite von Radarobjekten
AT507035B1 (de) * 2008-07-15 2020-07-15 Airbus Defence & Space Gmbh System und verfahren zur kollisionsvermeidung
US7737880B2 (en) * 2008-10-22 2010-06-15 Honeywell International Inc. Microwave and millimeterwave radar sensors
US8818703B2 (en) * 2009-01-29 2014-08-26 Toyota Jidosha Kabushiki Kaisha Object recognition device and object recognition method
US8717225B2 (en) * 2009-07-31 2014-05-06 Honda Motor Co., Ltd. Object detection device for vehicle and object detection method for vehicle
JP5666987B2 (ja) * 2011-05-25 2015-02-12 株式会社デンソー 移動物体検出装置
DE102013102153A1 (de) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC Verfahren zur Registrierung von Entfernungsbildern von mehreren LiDAR-Sensoren

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004030752A1 (de) 2004-06-25 2006-01-19 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kursprädikation bei Kraftfahrzeugen

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KELLNER, Dominik [et al.]: Instantaneous lateral velocity estimation of a vehicle using Doppler radar. In: 2013 16th international conference on information fusion (FUSION 2013), 9-12 July 2013. Vol. 2. S. 877-884. – ISBN 978-1-4799-0284-2
NGUYEN, Thien-Nghia [et al.]: Stereo-camera-based urban environment perception using occupancy grid and object tracking. In: IEEE Transactions on Intelligent Transportation Systems, Vol. 13, 2012, No. 1, S. 154-165. – ISSN 1524-9050

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017110808B4 (de) 2016-06-03 2023-11-30 Fujitsu Ten Limited Radarvorrichtung und signalverarbeitungsverfahren

Also Published As

Publication number Publication date
US9255988B2 (en) 2016-02-09
CN104793202A (zh) 2015-07-22
US20150198711A1 (en) 2015-07-16
CN104793202B (zh) 2018-03-30
DE102015100134A1 (de) 2015-07-16

Similar Documents

Publication Publication Date Title
DE102015100134B4 (de) Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren
DE102015122825B4 (de) Techniken zum Gruppieren von Zielelementen für eine Objektfusion
EP3485290B1 (de) Verfahren und system zur abtastung eines objekts
EP3175256B1 (de) Verfahren zum klassifizieren eines objektes in einem umgebungsbereich eines kraftfahrzeugs, fahrerassistenzsystem und kraftfahrzeug
EP2561419B1 (de) Verfahren zur bestimmung des fahrbahnverlaufes für ein kraftfahrzeug
DE102015107388A1 (de) Kollisionsvermeidung mit statischen Zielobjekten in engen Räumen
EP3540457A1 (de) Identifikation von objekten mittels radardaten
DE19532597A1 (de) System und Verfahren zur Objektverfolgung unter Verwendung eines Detektorsystems
DE102008029613A1 (de) Verfahren zur Schätzung der Elevation eines Zielobjekts unter Verwendung einer Radar-Datenfusion
DE102017102506B4 (de) Verfahren zum erfassen anderer fahrzeuge relativ zu einem trägerfahrzeug mittels raderfassung
DE102018111626A1 (de) Sechsdimensionales punktwolkensystem für ein fahrzeug
DE102017203344A1 (de) Erfassen von langen objekten durch sensorfusion
DE102012200139A1 (de) Verfahren und Vorrichtung zur radunabhängigen Geschwindigkeitsmessung bei einem Fahrzeug
DE102013113619A1 (de) Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem
EP2140287A1 (de) Fahrerassistenzsystem und verfahren zur objektplausibilisierung
EP3538843A1 (de) Schätzen einer eigenposition
DE102016225494B4 (de) Verfahren und vorrichtung zum erfassen eines zielobjekts
DE102018000517A1 (de) Verfahren zur radarbasierten Vermessung und/oder Klassifizierung von Objekten in einer Fahrzeugumgebung
DE112019005326T5 (de) Objektverfolgungsvorrichtung
DE102018202864A1 (de) Verfahren und System für Synthetische-Apertur-Radarsignalverarbeitung
WO2003001233A1 (de) Verfahren zum passiven bestimmen von zieldaten
DE102020123293A1 (de) Verfahren, Radarsystem und Fahrzeug zur Signalverarbeitung von Radarsignalen
WO2020229140A1 (de) Ermittlung der geschwindigkeit und des abstands von objekten zu einem sensorsystem
DE112019006516T5 (de) Fahrassistenzvorrichtung
WO2019063393A1 (de) Verfahren und system zur bestimmung zumindest einer bewegungskomponente einer absolutbewegung eines objektes im ruhenden bezugssystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final