DE102020215504A1 - Verfahren und Vorrichtung zum Detektieren von Objekten in einer Umgebung eines Fahrzeugs - Google Patents

Verfahren und Vorrichtung zum Detektieren von Objekten in einer Umgebung eines Fahrzeugs Download PDF

Info

Publication number
DE102020215504A1
DE102020215504A1 DE102020215504.6A DE102020215504A DE102020215504A1 DE 102020215504 A1 DE102020215504 A1 DE 102020215504A1 DE 102020215504 A DE102020215504 A DE 102020215504A DE 102020215504 A1 DE102020215504 A1 DE 102020215504A1
Authority
DE
Germany
Prior art keywords
reference point
object frame
point
orientation
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020215504.6A
Other languages
English (en)
Inventor
Ruediger Jordan
Diego Gil Vazquez
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102020215504.6A priority Critical patent/DE102020215504A1/de
Priority to PCT/EP2021/085019 priority patent/WO2022122933A1/de
Publication of DE102020215504A1 publication Critical patent/DE102020215504A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zum Detektieren von Objekten (104) in einer Umgebung eines Fahrzeugs (100). Das Verfahren umfasst die folgenden Schritte: Empfangen von die Objekte (104) anzeigenden Radardaten (108); Bestimmen eines ersten Objektrahmens (208) für jedes Objekt (104) basierend auf den Radardaten (108), wobei der erste Objektrahmen (208) eine über mehrere Zeitschritte geschätzte Position (dx,dy) und/oder Orientierung (φ) des Objekts (104) anzeigt und eine Position und/oder Orientierung des ersten Objektrahmens (208) durch eine definierte Anzahl erster Referenzpunkte (212, 212') in einem zweidimensionalen Koordinatensystem (202) festgelegt ist; Bestimmen eines zweiten Objektrahmens (210) für jedes Objekt (104) basierend auf den Radardaten (108), wobei der zweite Objektrahmen (210) eine in einem aktuellen Zeitschritt gemessene Position und/oder Orientierung des Objekts (104) anzeigt und eine Position und/oder Orientierung des zweiten Objektrahmens (210) durch eine definierte Anzahl zweiter Referenzpunkte (214) in dem zweidimensionalen Koordinatensystem (202) festgelegt ist; Bestimmen von Referenzpunktpaaren (216) aus je einem ersten Referenzpunkt (212, 212') und einem zweiten Referenzpunkt (214); Bestimmen eines Referenzpunktabstands zwischen dem ersten Referenzpunkt (212, 212') und dem zweiten Referenzpunkt (214) eines jeden Referenzpunktpaares (216); Bestimmen mindestens eines bevorzugten Referenzpunkts (220) basierend auf den Referenzpunktabständen; und Aktualisieren der geschätzten Position (dx,dy) und/oder Orientierung (φ) des Objekts (104) basierend auf dem mindestens einen bevorzugten Referenzpunkt (220).

Description

  • Gebiet der Erfindung
  • Die Erfindung betrifft ein Verfahren zum Detektieren von Objekten in einer Umgebung eines Fahrzeugs. Des Weiteren betrifft die Erfindung eine Vorrichtung, ein Computerprogramm und ein computerlesbares Medium zum Ausführen des genannten Verfahrens.
  • Stand der Technik
  • Zur Detektion von Objekten in einer Umgebung eines Fahrzeugs, etwa eines teil- oder vollautomatisiert fahrenden Kraftfahrzeugs oder eines autonomen Roboters, kann beispielweise eine hochauflösende Radarsensorik eingesetzt werden.
  • Zur Verarbeitung der von der Radarsensorik erzeugten Radardaten können Tracking-Algorithmen wie beispielsweise Bayes-Filter, Partikel-Filter oder Kalman-Filter verwendet werden, die eine relativ genaue Schätzung eines jeweiligen Zustands der detektierten Objekte, etwa einer jeweiligen Position, Orientierung oder Geschwindigkeit relativ zum Fahrzeug, ermöglichen.
  • Derartige Algorithmen können beispielsweise Rohdaten bezüglich einer Entfernung, einer Radialgeschwindigkeit und eines Azimutwinkels verarbeiten. Für eine hinreichend genaue Schätzung nicht direkt messbarer Größen wie Objektposition, Objektgeschwindigkeit oder Objektbeschleunigung sind in der Regel mehrere Messzyklen erforderlich. Dies kann insbesondere bei starken Änderungen des Bewegungszustands der Objekte zu entsprechenden Verzögerungen bei der Schätzung der genannten Größen führen.
  • Um die geschätzte Position eines ausgedehnten Objekts aktualisieren zu können, ist in der Regel zunächst die Auswahl eines geeigneten Bezugspunkts erforderlich. Beispielsweise kann hierzu ein Mittelpunkt eines dem Objekt zugeordneten Punktclusters bestimmt werden und dieser Mittelpunkt als Bezugspunkt verwendet werden.
  • Eine weitere Möglichkeit ist die Positionsschätzung mithilfe eines basierend auf den Radardaten gelernten Objektmodells, etwa eines Fahrzeugmodells. Siehe hierzu: A. Scheel and K. Dietmayer, „Tracking Multiple Vehicles Using a Variational Radar Model,“ in IEEE Transactions on Intelligent Transportation Systems, vol. 2.
  • Zur vollständigen Erfassung des Bewegungszustands der Objekte innerhalb eines Messzyklus können auch mehrere Radarsensoren mit überlappenden Erfassungsbereichen eingesetzt werden. Siehe hierzu: D. Kellner, M. Barjenbruch und J. Klappstein, „Instantane Bestimmung der vollständigen Objektbewegung ausgedehnter Objekte mittels hochauflösendem Radar“, 30. VDI/VW-Gemeinschaftskonferenz Fahrerassistenz und integrierte Sicherheit, 2014.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Detektieren von Objekten in einer Umgebung eines Fahrzeugs, eine Vorrichtung, ein Computerprogramm und ein computerlesbares Medium gemäß den unabhängigen Ansprüchen vorgestellt. Vorteilhafte Weiterbildungen und Verbesserungen des hier vorgestellten Ansatzes ergeben sich aus der Beschreibung und sind in den abhängigen Ansprüchen beschrieben.
  • Vorteile der Erfindung
  • Ausführungsformen der vorliegenden Erfindung ermöglichen es in vorteilhafter Weise, Positionen von Objekten in der Umgebung eines Fahrzeugs unter Verwendung eines einzelnen Radarsensors mit hoher Genauigkeit und geringen Latenzen zu bestimmen.
  • Ein erster Aspekt der Erfindung betrifft ein computerimplementiertes Verfahren zum Detektieren von Objekten in einer Umgebung eines Fahrzeugs. Das Verfahren umfasst zumindest die folgenden Schritte: Empfangen von die Objekte anzeigenden Radardaten; Bestimmen eines ersten Objektrahmens für jedes Objekt basierend auf den Radardaten, wobei der erste Objektrahmen eine über mehrere Zeitschritte geschätzte Position und/oder Orientierung des Objekts anzeigt und eine Position und/oder Orientierung des ersten Objektrahmens durch eine definierte Anzahl erster Referenzpunkte in einem zweidimensionalen Koordinatensystem festgelegt ist; Bestimmen eines zweiten Objektrahmens für jedes Objekt basierend auf den Radardaten, wobei der zweite Objektrahmen eine in einem aktuellen Zeitschritt gemessene Position und/oder Orientierung des Objekts anzeigt und eine Position und/oder Orientierung des zweiten Objektrahmens durch eine definierte Anzahl zweiter Referenzpunkte in dem zweidimensionalen Koordinatensystem festgelegt ist; Bestimmen von Referenzpunktpaaren aus je einem ersten Referenzpunkt und einem zweiten Referenzpunkt; Bestimmen eines Referenzpunktabstands zwischen dem ersten Referenzpunkt und dem zweiten Referenzpunkt eines jeden Referenzpunktpaares; Bestimmen mindestens eines bevorzugten Referenzpunkts basierend auf den Referenzpunktabständen; und Aktualisieren der geschätzten Position und/oder Orientierung des Objekts basierend auf dem mindestens einen bevorzugten Referenzpunkt.
  • Das Verfahren kann beispielsweise automatisch durch einen Prozessor ausgeführt werden.
  • Die Radardaten können beispielsweise unter Verwendung einer Radarsensorik zum Erfassen der Umgebung des Fahrzeugs erzeugt worden sein.
  • Das Fahrzeug kann ein Kraftfahrzeug, etwa in Form eines Pkw, Lkw, Busses oder eines Motorrads, sein. Im weiteren Sinn kann unter einem Fahrzeug auch ein autonomer, mobiler Roboter verstanden werden. Bei der Radarsensorik kann es sich beispielweise um einen einzelnen hochauflösenden Radarsensor handeln. Die Radarsensorik kann beispielsweise im Bereich eines vorderen oder hinteren Stoßfängers des Fahrzeugs positioniert sein. Möglich sind jedoch auch andere Einbauorte. Zusätzlich zur Radarsensorik kann das Fahrzeug beispielsweise weitere Umfeldsensoren wie etwa eine Kamera, einen Ultraschall- oder Lidarsensor, und/oder Fahrdynamiksensoren wie etwa einen Beschleunigungs-, Raddrehzahl- oder Lenkradwinkelsensor aufweisen. Ferner kann das Fahrzeug einen Ortungssensor zur Bestimmung einer absoluten Position des Fahrzeugs mithilfe eines globalen Navigationssatellitensystems wie GPS, GLONASS o. Ä. aufweisen.
  • Es ist möglich, dass das Fahrzeug mit einem Fahrerassistenzsystem bzw. Robotersteuersystem zum teil- oder vollautomatisierten Ansteuern einer Aktorik des Fahrzeugs basierend auf den Radardaten ausgestattet ist. Das Fahrerassistenzsystem bzw. Robotersteuersystem kann als Hardware und/oder Software beispielsweise in einem Steuergerät des Fahrzeugs implementiert sein. Die Aktorik kann beispielsweise konfiguriert sein, um das Fahrzeug zu lenken, zu beschleunigen, abzubremsen und/oder zu navigieren. Hierzu kann die Aktorik beispielsweise einen Lenkaktor, einen Bremsaktor, ein Motorsteuergerät, einen Elektromotor oder eine Kombination aus zumindest zwei der genannten Beispiele umfassen.
  • Beispielsweise können basierend auf den Radardaten Reflexionsorte bestimmt werden, an denen durch die Radarsensorik ausgesandte Radarstrahlen reflektiert wurden. Hierzu können beispielsweise Peaks in einem durch (Fast-) Fouriertransformation der Radardaten erzeugten Frequenzspektrum detektiert werden. Die Reflexionsorte können beispielsweise durch einen Radialabstand, eine Radialgeschwindigkeit und/oder einen Azimutwinkel definiert sein.
  • Anschließend können die Reflexionsorte beispielsweise durch Bündelung bestimmten Objekten in der Umgebung des Fahrzeugs zugeordnet werden, was auch als Clustering bezeichnet werden kann.
  • Die Objektrahmen können beispielsweise durch einen speziellen Objektrahmenerzeugungsalgorithmus erzeugt werden. Der Objektrahmenerzeugungsalgorithmus kann beispielsweise ein entsprechend trainierter Klassifikator sein, etwa ein künstliches neuronales Netz o. Ä. Möglich sind aber auch andere Arten von Algorithmen. Unter einem ersten bzw. zweiten Objektrahmen kann im Allgemeinen eine eine Außenkontur eines Objekts anzeigende Geometrie, etwa in Form eines Rechtecks, Parallelogramms, Trapezes o. Ä. verstanden werden. Es ist möglich, dass der erste bzw. zweite Objektrahmen zusätzlich zu den Außenkanten eine oder mehrere Innenkanten umfasst. Unter einem ersten bzw. zweiten Referenzpunkt kann beispielsweise ein Eckpunkt oder ein Mittelpunkt zwischen zwei Eckpunkten des ersten bzw. zweiten Objektrahmens verstanden werden. Dabei kann der Mittelpunkt ein Mittelpunkt einer Außenkante oder ein auf einer (eventuell gedachten) Diagonalen liegender Rahmenmittelpunkt des ersten bzw. zweiten Objektrahmens sein.
  • Um die Auswahl der Referenzpunkte zwischen dem (aus historischen Messwerten prädizierten) ersten Objektrahmen und dem (aktuell gemessenen) zweiten Objektrahmen zu ermöglichen, kann der erste Objektrahmen beispielsweise mit einem entsprechenden Dynamikmodell auf einen Messzeitpunkt des zweiten Objektrahmens prädiziert werden. Somit ist gewährleistet, dass der erste Objektrahmen und der zweite Objektrahmen bei der Zuordnung der Referenzpunkte den gleichen Zeitpunkt beschreiben.
  • Das zweidimensionale Koordinatensystem kann beispielsweise ein Fahrzeugkoordinatensystem des Fahrzeugs und/oder ein Sensorkoordinatensystem der Radarsensorik sein. Dabei kann der Ursprung des zweidimensionalen Koordinatensystems beispielsweise an einer Achse des Fahrzeugs oder einem Einbauort der Radarsensorik im Fahrzeug festgelegt sein.
  • Die geschätzte Position und/oder Orientierung des Objekts kann beispielsweise mithilfe eines Kalman-Filters oder eines sonstigen geeigneten Tracking- Filters oder Zustandsschätzers bestimmt werden.
  • Beim Bestimmen der Referenzpunktpaare können beispielsweise nur bestimmte ausgewählte Referenzpunkte des ersten und zweiten Objektrahmens miteinander verknüpft werden. Insbesondere kann es sein, dass dabei nur diejenigen Referenzpunkte berücksichtigt werden, die von der Radarsensorik mit hinreichender Genauigkeit erfasst werden können. Bei den Referenzpunkten eines Referenzpunktpaares kann es sich beispielsweise um Referenzpunkte handeln, die an zueinander ähnlichen Stellen des ersten bzw. zweiten Objektrahmens angeordnet sind, beispielsweise an ähnlichen Ecken und/oder ähnlichen Kanten. Beispielsweise ist es möglich, dass ein erster Referenzpunkt in Form eines linken unteren Eckpunkts des ersten Objektrahmens nur mit einem zweiten Referenzpunkt in Form eines linken unteren Eckpunkts des zweiten Objektrahmens zu einem Referenzpunktpaar kombiniert wird usw. Dementsprechend können der erste Objektrahmen und der zweite Objektrahmen jeweils gleich viele Referenzpunkte aufweisen.
  • Bei dem Referenzpunktabstand kann es sich geometrisch gesehen um die Länge einer gedachten Verbindungslinie zwischen den Referenzpunkten eines Referenzpunktpaares handeln.
  • Bei dem bevorzugten Referenzpunkt kann es sich beispielsweise um mindestens einen der beiden Referenzpunkte des Referenzpunktpaares mit dem geringsten Referenzpunktabstand, um einen vordefinierten Referenzpunkt aus einer Menge der ersten und/oder zweiten Referenzpunkte oder auch um einen neu definierten Referenzpunkt, der weder einer der ersten Referenzpunkte noch einer der zweiten Referenzpunkte ist, handeln.
  • Zum Aktualisieren der geschätzten Position und/oder Orientierung des Objekts können beispielsweise die Koordinatenwerte des bevorzugten Referenzpunkts und/oder auf den Koordinatenwerten des bevorzugten Referenzpunkts basierende Positionswerte in den weiter oben erwähnten Kalman-Filter eingegeben werden. In diesem Fall kann beispielsweise zusätzlich ein dem bevorzugten Referenzpunkt zugeordneter Schätzfehler, etwa in Form einer Kovarianzmatrix, beispielsweise einer Messkovarianzmatrix, bestimmt werden. Die Aktualisierung der geschätzten Position und/oder Orientierung des Objekts kann dann zusätzlich basierend auf dem Schätzfehler erfolgen.
  • Der hier und im Folgenden beschriebene Ansatz ermöglicht die genaue und robuste Schätzung von Positionen von (ausgedehnten) Objekten in der Umgebung des Fahrzeugs, ohne dass hierzu mehrere Radarsensoren oder komplexe Modelle der zu detektierenden Objekte erforderlich sind, was zum einen die Herstellungskosten, zum anderen die Komplexität der technischen Umsetzung signifikant reduziert. Vorteilhaft ist außerdem, dass bereits mit einem einzigen Messzyklus eine hinreichend genaue Positionsschätzung sichergestellt werden kann, insbesondere auch dann, wenn sich die zu detektierenden Objekte stark in ihrer Größe unterscheiden. Dadurch können unerwünschte Verzögerungen bei der Objektdetektion und -verfolgung vermieden werden. Zudem kann ein solches Verfahren als separates Modul unabhängig von etwaigen anderen Zustandsschätzern, etwa zum Schätzen von Geschwindigkeiten der Objekte, implementiert werden.
  • Ein zweiter Aspekt der Erfindung betrifft eine Vorrichtung zur Datenverarbeitung. Die Vorrichtung kann ein Computer, beispielsweise in Form eines Steuergeräts, eines Servers o. Ä., sein. Die Vorrichtung umfasst einen Prozessor, der konfiguriert ist, um das Verfahren gemäß einer Ausführungsform des ersten Aspekts der Erfindung auszuführen. Die Vorrichtung kann Hardware- und/oder Softwaremodule umfassen. Zusätzlich zum Prozessor kann die Vorrichtung einen Speicher und Datenkommunikationsschnittstellen zur Datenkommunikation mit Peripheriegeräten umfassen. Merkmale des Verfahrens gemäß einer Ausführungsform des ersten Aspekts der Erfindung können auch Merkmale der Vorrichtung sein und umgekehrt.
  • Ein dritter Aspekt der Erfindung betrifft ein Computerprogramm. Das Computerprogramm umfasst Befehle, die einen Prozessor bei Ausführung des Computerprogramms durch den Prozessor veranlassen, das Verfahren gemäß einer Ausführungsform des ersten Aspekts der Erfindung auszuführen.
  • Ein vierter Aspekt der Erfindung betrifft ein computerlesbares Medium, auf dem das Computerprogramm gemäß einer Ausführungsform des dritten Aspekts der Erfindung gespeichert ist. Das computerlesbare Medium kann ein flüchtiger oder nicht flüchtiger Datenspeicher sein. Beispielsweise kann das computerlesbare Medium eine Festplatte, ein USB-Speichergerät, ein RAM, ROM, EPROM oder Flash-Speicher sein. Das computerlesbare Medium kann auch ein einen Download eines Programmcodes ermöglichendes Datenkommunikationsnetzwerk wie etwa das Internet oder eine Datenwolke (Cloud) sein.
  • Merkmale des Verfahrens gemäß einer Ausführungsform des ersten Aspekts der Erfindung können auch Merkmale des Computerprogramms und/oder des computerlesbaren Mediums sein und umgekehrt.
  • Ideen zu Ausführungsformen der vorliegenden Erfindung können unter anderem als auf den nachfolgend beschriebenen Gedanken und Erkenntnissen beruhend angesehen werden.
  • Gemäß einer Ausführungsform wurden die Radardaten unter Verwendung einer Radarsensorik zum Erfassen der Umgebung des Fahrzeugs erzeugt. Dabei wird mindestens eine der Radarsensorik zugewandte Kante des ersten Objektrahmens identifiziert und es werden ausgewählte erste Referenzpunkte bestimmt, die auf der mindestens einen der Radarsensorik zugewandten Kante des ersten Objektrahmens liegen. Die Referenzpunktpaare werden aus je einem ausgewählten ersten Referenzpunkt und einem zweiten Referenzpunkt gebildet.
  • Eine der Radarsensorik zugewandte Kante kann beispielsweise basierend auf einer Position und/oder Orientierung der Kante relativ zur Radarsensorik, beispielsweise relativ zum Ursprung des zweidimensionalen Koordinatensystems, identifiziert werden. Die auf der identifizierten Kante oder den identifizierten Kanten liegenden ersten Referenzpunkte können beispielsweise Eckpunkte oder zwischen zwei Eckpunkten liegende Punkte, etwa Mittelpunkte, sein. Durch diese Ausführungsform kann sichergestellt werden, dass nur solche Referenzpunkte für die Aktualisierung der geschätzten Position und/oder Orientierung der Objekte verwendet werden, die tatsächlich in einem Erfassungsbereich der Radarsensorik liegen. Dadurch kann eine hohe Genauigkeit des Verfahrens erreicht werden.
  • Gemäß einer Ausführungsform wird der bevorzugte Referenzpunkt aus dem Referenzpunktpaar mit dem geringsten Referenzpunktabstand ausgewählt. Anders ausgedrückt kann der bevorzugte Referenzpunkt aus denjenigen Referenzpunkten mit der größten Übereinstimmung ausgewählt oder bestimmt werden. Dadurch kann der bevorzugte Referenzpunkt mit wenigen, einfachen Rechenschritten ermittelt werden.
  • Gemäß einer Ausführungsform wird der geringste Referenzpunktabstand mit einem Schwellenwert verglichen. Dabei kann ein vordefinierter Referenzpunkt als der bevorzugte Referenzpunkt verwendet werden, wenn der geringste Referenzpunktabstand größer als der Schwellenwert ist. Der vordefinierte Referenzpunkt kann ein innerhalb des ersten bzw. zweiten Objektrahmens liegender Referenzpunkt sein, etwa ein Rahmenmittelpunkt oder (geschätzter) Drehpunkt des jeweiligen Objekts. Durch diese Ausführungsform kann vermieden werden, dass der bevorzugte Referenzpunkt basierend auf zu weit auseinanderliegenden ersten und zweiten Referenzpunkten bestimmt wird. Damit können gröbere Schätzfehler beim Aktualisieren der geschätzten Position und/oder Orientierung der Objekte vermieden werden.
  • Gemäß einer Ausführungsform ist der vordefinierte Referenzpunkt ein Mittelpunkt des ersten Objektrahmens und/oder des zweiten Objektrahmens. Somit kann die geschätzte Position und/oder Orientierung der Objekte auch dann noch mit hinreichender Genauigkeit aktualisiert werden, wenn sich keiner der ersten bzw. zweiten Referenzpunkte als der bevorzugte Referenzpunkt eignet.
  • Es ist denkbar, dass der vordefinierte Referenzpunkt auch dann als der bevorzugte Referenzpunkt ausgewählt wird, wenn gleichzeitig mehrere der ersten bzw. zweiten Referenzpunkte als bevorzugte Referenzpunkte infrage kommen.
  • Gemäß einer Ausführungsform wird ein Schätzfehler bezüglich der geschätzten Position und/oder Orientierung des Objekts abhängig von einer Position des bevorzugten Referenzpunkts an dem ersten Objektrahmen und/oder dem zweiten Objektrahmen bestimmt. Beispielsweise kann der Schätzfehler umso größer ausfallen, je weiter der bevorzugte Referenzpunkt von der Radarsensorik, etwa vom Ursprung des zweidimensionalen Koordinatensystems, entfernt ist. Ähnlich wie bereits weiter oben beschrieben, kann hierzu beispielsweise bestimmt werden, ob der bevorzugte Referenzpunkt auf einer der Radarsensorik zugewandten oder abgewandten Kante liegt und/oder ein Eckpunkt, ein Außenkantenmittelpunkt oder ein Rahmenmittelpunkt des jeweiligen Objektrahmens ist. Dadurch kann der Schätzfehler mit einfachen Mitteln und hinreichender Genauigkeit ermittelt werden.
  • Gemäß einer Ausführungsform wird ein kleinerer Schätzfehler bestimmt, wenn der bevorzugte Referenzpunkt ein Eckpunkt ist, und ein größerer Schätzfehler bestimmt wird, wenn der bevorzugte Referenzpunkt kein Eckpunkt ist. Unter der Annahme, dass die Radarsensorik Eckpunkte in der Regel sehr genau erfasst, kann der Schätzfehler auf diese Weise sehr einfach ermittelt werden.
  • Gemäß einer Ausführungsform werden die Referenzpunktabstände mit Wahrscheinlichkeiten gewichtet. Dabei wird der bevorzugte Referenzpunkt basierend auf einer Summe der mit den Wahrscheinlichkeiten gewichteten Referenzpunktabstände bestimmt. Dadurch kann die Zuverlässigkeit des Verfahrens weiter erhöht werden, insbesondere in Fällen, in denen zur Bestimmung des bevorzugten Referenzpunkts entweder keiner der ersten bzw. zweiten Referenzpunkte infrage käme oder mehrere konkurrierende erste bzw. zweite Referenzpunkte infrage kämen.
  • Gemäß einer Ausführungsform werden für jedes Objekt mindestens drei Referenzpunktpaare bestimmt. Dadurch kann die Wahrscheinlichkeit dafür, dass ein geeigneter bevorzugter Referenzpunkt aus den ersten bzw. zweiten Referenzpunkten bestimmt werden kann, im Vergleich zu Ausführungen, bei denen weniger als drei Referenzpunktpaare für jedes Objekt bestimmt werden, deutlich erhöht werden.
  • Gemäß einer Ausführungsform sind die ersten Referenzpunkte Eckpunkte des ersten Objektrahmens und die zweiten Referenzpunkte Eckpunkte des zweiten Objektrahmens. Dabei werden die Referenzpunktpaare aus je einem Eckpunkt des ersten Objektrahmens und einem korrespondierenden Eckpunkt des zweiten Objektrahmens gebildet. Zusätzlich oder alternativ können die ersten Referenzpunkte Mittelpunkte zwischen zwei Eckpunkten des ersten Objektrahmens und die zweiten Referenzpunkte Mittelpunkte zwischen zwei Eckpunkten des zweiten Objektrahmens sein. Dabei können die Referenzpunktpaare aus je einem Mittelpunkt des ersten Objektrahmens und einem korrespondierenden Mittelpunkt des zweiten Objektrahmens gebildet werden. Dadurch können Abweichungen zwischen der geschätzten und gemessenen Position bzw. Orientierung des Objekts mit verhältnismäßig geringem Rechenaufwand bestimmt werden.
  • Gemäß einer Ausführungsform umfasst das Verfahren ferner: Bestimmen einer Radialgeschwindigkeit und eines Azimutwinkels für mindestens zwei Reflexionsorte eines jeden Objekts basierend auf den Radardaten; Bestimmen geschätzter Winkelparameter einer Winkelfunktion, die die Radialgeschwindigkeit abhängig von dem Azimutwinkel beschreibt, wobei die geschätzten Winkelparameter für jedes Objekt basierend auf den dem Objekt zugeordneten Radialgeschwindigkeiten und Azimutwinkeln bestimmt werden; Bestimmen eines geschätzten Drehpunkts für jedes Objekt basierend auf den Radardaten; Bestimmen einer Geschwindigkeit für jedes Objekt als Funktion der geschätzten Orientierung, des geschätzten Drehpunkts und der geschätzten Winkelparameter des Objekts. Unter einem Azimutwinkel kann ein Winkel zwischen einem Vektor der Radialgeschwindigkeit und einer Bezugsachse des zweidimensionalen Koordinatensystems verstanden werden. Als Winkelfunktion kann beispielsweise die folgende Funktion, auch Dopplerprofil genannt, verwendet werden: vd = C cos(θ) + S sin(θ). Theoretisch sind aber auch anderslautende Winkelfunktionen denkbar. Dabei steht C für einen ersten Winkelparameter, S für einen zweiten Winkelparameter, vd für die Radial- oder Dopplergeschwindigkeit und θ für den Azimutwinkel. Die Winkelparameter können beispielsweise über die Methode der kleinsten Quadrate oder eine sonstige geeignete Optimierungsmethode aus einer Mehrzahl von Radialgeschwindigkeits- und Azimutwinkelwerten je Objekt berechnet werden. Diese Ausführungsform ermöglicht die schnelle und genaue Berechnung der Geschwindigkeiten der Objekte unter Verwendung eines einzelnen Radarsensors. Insbesondere können die Geschwindigkeiten der Objekte mit hinreichender Genauigkeit berechnet werden, ohne dass hierdurch unerwünschte Verzögerungen bei der Aktualisierung des jeweiligen Objektzustands der Objekte auftreten.
  • Gemäß einer Ausführungsform wird zum Bestimmen der Geschwindigkeit mindestens einer der folgenden Berechnungsschritte ausgeführt:
    • - Berechnen einer ersten Geschwindigkeitskomponente mit v x = C y R C sin ( φ S cos ( φ ) ) x R cos ( φ ) + y R sin ( φ ) ;
      Figure DE102020215504A1_0001
    • - Berechnen einer zweiten Geschwindigkeitskomponente mit v y = S + y R C sin ( φ ) S cos ( φ ) x R cos ( φ ) + y R sin ( φ ) ;
      Figure DE102020215504A1_0002
    • - Berechnen einer Drehgeschwindigkeit bezüglich des geschätzten Drehpunkts des Objekts mit
    ω = C sin ( φ ) S cos ( φ ) x R cos ( φ ) + y R sin ( φ ) .
    Figure DE102020215504A1_0003
    • Dabei steht
    • vx für die erste Geschwindigkeitskomponente,
    • vy für die zweite Geschwindigkeitskomponente,
    • ω für die Drehgeschwindigkeit,
    • C für einen ersten Winkelparameter der Winkelfunktion,
    • S für einen zweiten Winkelparameter der Winkelfunktion,
    • φ für die geschätzte Orientierung des Objekts,
    • xR für eine x-Koordinate des geschätzten Drehpunkts des Objekts und
    • yR für eine y-Koordinate des geschätzten Drehpunkts des Objekts.
  • Durch diese Ausführungsform kann die Berechnung der Geschwindigkeit(en) eines jeden detektierten Objekts besonders effizient erfolgen.
  • Zur Bestimmung des Bewegungszustandes des Objekts kann zusätzlich ein entsprechender Geschwindigkeitsschätzfehler, etwa in Form einer Kovarianzmatrix für mindestens eine der genannten Geschwindigkeiten, berechnet und berücksichtigt werden.
  • Figurenliste
  • Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, wobei weder die Zeichnungen noch die Beschreibung als die Erfindung einschränkend auszulegen sind.
    • 1 zeigt schematisch ein Fahrzeug mit einem Steuergerät gemäß einem Ausführungsbeispiel der Erfindung.
    • 2 zeigt schematisch verschiedene Module des Steuergeräts aus 1.
    • 3 zeigt ein Koordinatensystem mit Objektrahmen, die durch das Steuergerät aus 1 erzeugt wurden.
    • 4 zeigt ein Koordinatensystem mit Objektrahmen, die durch das Steuergerät aus 1 erzeugt wurden.
    • 5 zeigt ein Diagramm zur Veranschaulichung geometrischer Größen, wie sie zur Objektdetektion in einem Verfahren gemäß einem Ausführungsbeispiel der Erfindung verwendet werden.
  • Die Figuren sind lediglich schematisch und nicht maßstabsgetreu. Gleiche Bezugszeichen bezeichnen in den Figuren gleiche oder gleichwirkende Merkmale.
  • Ausführungsformen der Erfindung
  • 1 zeigt ein Fahrzeug 100 mit einer Radarsensorik 102 zum Erfassen von Objekten 104 in einer Umgebung des Fahrzeugs 100, hier beispielhaft eines vorausfahrenden Fahrzeugs 104, und einem Steuergerät 106 zum Auswerten von durch die Radarsensorik 102 erzeugten Radardaten 108. Die Radarsensorik 102 sendet Radarstrahlen 109 aus, die an mehreren Reflexionsorten 110 des vorausfahrenden Fahrzeugs 104, etwa an dessen Heck und/oder dessen Hinterachse, auftreffen und von dort teilweise zurück zur Radarsensorik 102 reflektiert werden. Dabei können die Radardaten 108 durch eine entsprechende Vorverarbeitung des reflektierten Anteils der Radarstrahlen 109, beispielsweise durch Demodulation, Verstärkung und/oder Digitalisierung, erzeugt werden. Das Steuergerät 106 ist konfiguriert, um ein im Folgenden näher beschriebenes Verfahren zur Detektion des Objekts 104 basierend auf den Radardaten 108 auszuführen. Hierzu umfasst das Steuergerät 106 einen Speicher 112, auf dem ein Computerprogramm gespeichert ist, sowie einen Prozessor 114 zum Ausführen des Computerprogramms, wobei das genannte Verfahren durch Ausführen des Computerprogramms ausgeführt werden kann.
  • Es ist möglich, dass das Steuergerät 106 basierend auf den Radardaten 108 ein Steuersignal 116 zum automatisierten Ansteuern einer Aktorik 118 des Fahrzeugs 100 erzeugt, etwa eines Lenk- oder Bremsaktors, eines Motorsteuergeräts oder eines Elektromotors des Fahrzeugs 100. Beispielsweise kann das Fahrzeug 100 hierzu mit einer geeigneten Fahrerassistenzfunktion ausgestattet sein, die in das Steuergerät 106 integriert sein kann. Alternativ kann es sich bei dem Fahrzeug 100 um einen autonomen Roboter mit einem geeigneten Robotersteuerprogramm zum automatisierten Ansteuern der Aktorik 118 handeln.
  • 2 zeigt verschiedene Module des Steuergeräts 106. Dabei kann es sich um Hardware- und/oder Softwaremodule handeln.
  • Die Radardaten 108 werden zunächst in einem Bündelungsmodul 200 empfangen. Das Bündelungsmodul 200 kann beispielsweise konfiguriert sein, um die Reflexionsorte 110 basierend auf den Radardaten 108 als Punkte in einem zweidimensionalen Koordinatensystem 202 zu verorten und diese Punkte zu Clustern zu bündeln, die je einem erfassten Objekt 104, hier dem vorausfahrenden Fahrzeug 104, zugeordnet sind. Das Koordinatensystem 202 kann beispielsweise ein Sensorkoordinatensystem der Radarsensorik 102 sein, dessen Ursprung am Einbauort der Radarsensorik 102 fixiert sein kann. Beispielhaft erstreckt sich die x-Achse des Koordinatensystems 202 hier in Längsrichtung des Fahrzeugs 100. Als Ergebnis einer solchen Bündelung, auch Clustering genannt, erzeugt das Bündelungsmodul 200 entsprechende Clusterdaten 204 und gibt diese an ein Objektrahmenerzeugungsmodul 206 aus.
  • In dem Objektrahmenerzeugungsmodul 206 werden die Clusterdaten 204 in einen Objektrahmenerzeugungsalgorithmus eingegeben, der konfiguriert sein kann, um aus den Clusterdaten 204 für jedes Objekt 104 einen ersten Objektrahmen 208 und einen zweiten Objektrahmen 210 zu erzeugen. Beispielsweise kann es sich bei dem Objektrahmenerzeugungsalgorithmus um einen entsprechend trainierten Klassifikator, etwa in Form eines künstlichen neuronalen Netzes, handeln.
  • Der erste Objektrahmen 208 zeigt dabei eine über mehrere Zeitschritte durch einen Zustandsschätzer (nicht gezeigt) geschätzte Position und/oder Orientierung des Objekts 104 an. Der Zustandsschätzer kann beispielsweise ein Kalman-Filter sein oder auf einem Kalman-Filter basieren. In diesem Beispiel wird der erste Objektrahmen 208 in Form eines Rechtecks erzeugt, dessen Position und/oder Orientierung in dem Koordinatensystem 202 durch eine definierte Anzahl erster Referenzpunkte 212, hier durch neun erste Referenzpunkte 212, festgelegt ist (in 2 mit fetten Punkten markiert).
  • Der zweite Objektrahmen 210 zeigt hingegen eine in einem aktuellen Zeitschritt durch die Radarsensorik 102 gemessene Position und/oder Orientierung des Objekts 104 an. Analog zum ersten Objektrahmen 208 wird der zweite Objektrahmen 210 in diesem Beispiel ebenfalls in Form eines Rechtecks erzeugt, dessen Position und/oder Orientierung in dem Koordinatensystem 202 durch eine definierte Anzahl zweiter Referenzpunkte 214, hier durch neun zweite Referenzpunkte 214, festgelegt ist (in 2 mit Kreuzen markiert). Anders ausgedrückt können der erste Objektrahmen 208 und der zweite Objektrahmen 210 eine identische Anzahl an Referenzpunkten 212 bzw. 214 aufweisen.
  • Wie in 2, 3 und 4 beispielhaft gezeigt, kann es sich bei den Referenzpunkten 212 bzw. 214 um Eckpunkte, Außenkantenmittelpunkte oder Rahmenmittelpunkte des ersten Objektrahmens 208 bzw. des zweiten Objektrahmens 210 handeln. Je nach Form des ersten Objektrahmens 208 bzw. des zweiten Objektrahmens 210 sind aber auch andere Arten von Referenzpunkten 212 bzw. 214 möglich.
  • Nach dem Generieren der Objektrahmen 208, 210 bestimmt das Objektrahmenerzeugungsmodul 206 mehrere Referenzpunktpaare 216 aus je einem ersten Referenzpunkt 212 und einem zweiten Referenzpunkt 214. Dabei können die ersten Referenzpunkte 212 jeweils mit einem ähnlich positionierten zweiten Referenzpunkt 214 verknüpft werden, wie in 2 schematisch angedeutet.
  • Anschließend werden Referenzpunktabstände zwischen den beiden Referenzpunkten 212, 214 eines jeden Referenzpunktpaares 216 durch das Objektrahmenerzeugungsmodul 206 bestimmt. Die Referenzpunktabstände können beispielsweise jeweils als Länge einer (gedachten) geraden Verbindungslinie (in 2 als gestrichelte Linie eingezeichnet) zwischen den jeweiligen Referenzpunkten 212, 214 berechnet werden.
  • In Abhängigkeit von den Referenzpunktabständen bestimmt das Objektrahmenerzeugungsmodul 206 dann einen oder mehrere bevorzugte Referenzpunkte 220. Beispielsweise kann der erste Referenzpunkt 212 bzw. der zweite Referenzpunkt 214 des Referenzpunktpaares 216 mit dem geringsten Referenzpunktabstand als der bevorzugte Referenzpunkt 220 ausgewählt werden. Möglich sind aber auch andere Auswahlverfahren, wie weiter unten näher beschrieben.
  • Anhand des bevorzugten Referenzpunkts 220 aktualisiert der Zustandsschätzer schließlich die geschätzte Position und/oder Orientierung des Objekts 104 und gibt entsprechend aktualisierte Positionswerte dx, dy für die Position des Objekts 104 und/oder einen entsprechend aktualisierten Orientierungswert φ für die Orientierung des Objekts 104 aus.
  • Um den ersten Objektrahmen 208 bzw. den zweiten Objektrahmen 210 erzeugen zu können, sollten mindestens drei Reflexionsorte 110 für das Objekt 104 bestimmt werden. Der erste Objektrahmen 208 bzw. der zweite Objektrahmen 210 kann dann um diese mindestens drei Reflexionsorte 110 gelegt werden.
  • Das Objektrahmenerzeugungsmodul 206 kann konfiguriert sein, um Eckpunkte und/oder Mittelpunkte zwischen zwei Eckpunkten, d. h. Kantenmittelpunkte oder Rahmenmittelpunkte, als Referenzpunkte 212 bzw. 214 zu bestimmen (siehe auch 3 und 4).
  • Da der Radarsensorik 102 zugewandte Objektkanten des Objekts 104 in der Regel besonders zuverlässig erkannt werden können, ist es vorteilhaft, wenn das Objektrahmenerzeugungsmodul 206 der Radarsensorik 102 zugewandte Kanten des ersten Objektrahmens 208 identifiziert, beispielsweise anhand deren jeweiliger Position und/oder Orientierung relativ zur Radarsensorik 102, und ausgewählte erste Referenzpunkte 212' bestimmt, die auf diesen identifizierten Kanten liegen (in 3 und 4 mit fetten Linien markiert). Bei den als zugewandt identifizierten Kanten kann es sich etwa um zwei Kanten handeln, die an einem der Radarsensorik 102 nächstliegenden Eckpunkt des ersten Objektrahmens 208 zusammenstoßen. Beispielsweise kann das Objektrahmenerzeugungsmodul 206 mindestens drei ausgewählte erste Referenzpunkte 212' für das Objekt 104 bestimmen. In diesem Beispiel (siehe 3 und 4) werden die zwei äußersten ersten Referenzpunkte 212, die zwar auf den der Radarsensorik 102 zugewandten Kanten liegen, aber am weitesten von der Radarsensorik 102 entfernt sind und folglich weniger zuverlässig erfasst werden können, verworfen. Für den Fall, dass nur eine Kante des ersten Objektrahmens 208 als der Radarsensorik 102 zugewandt erkannt wird, beispielsweise wenn das Objekt 104 in geringem Abstand quer zum Fahrzeug 100 ausgerichtet ist, können jedoch auch beide Eckpunkte dieser Kante als ausgewählte erste Referenzpunkte 212' bestimmt werden. Auf diese Weise wird sichergestellt, dass immer drei Referenzpunkte 212' als Kandidaten für die Aktualisierung der geschätzten Position und/oder Orientierung des Objekts 104 ausgewählt werden.
  • Der bevorzugte Referenzpunkt 220 kann anhand der Referenzpunkte 212' bzw. 214 beispielsweise folgendermaßen ausgewählt werden.
  • Zunächst werden drei Referenzpunktpaare 216 aus je einem der ausgewählten ersten Referenzpunkte 212' und einem der zweiten Referenzpunkte 214 gebildet. Dabei werden nur gleichartige Referenzpunkte miteinander kombiniert. Beispielsweise wird der linke, hintere Eckpunkt des ersten Objektrahmens 208 mit dem linken, hinteren Eckpunkt des zweiten Objektrahmens 210 kombiniert usw. Anschließend werden die entsprechenden Referenzpunktabstände bestimmt. Die Referenzpunkte 212', 214, die am nächsten beieinander liegen, werden schließlich für die Aktualisierung ausgewählt (in 3 und 4 mit kleinen Kreisen markiert).
  • Es ist möglich, dass ein vordefinierter Referenzpunkt ausgewählt wird, wenn der Referenzpunktabstand der ausgewählten Referenzpunkte 212', 214 einen bestimmten Schwellenwert überschreitet. Der vordefinierte Referenzpunkt kann beispielsweise ein Rahmenmittelpunkt des ersten Objektrahmens 208 bzw. des zweiten Objektrahmens 210 sein.
  • Nach der Auswahl des bevorzugten Referenzpunkts 220 kann zusätzlich ein Schätzfehler in Form einer Kovarianzmatrix berechnet werden. Der Schätzfehler kann in Abhängigkeit von einer jeweiligen Position des bevorzugten Referenzpunkts 220 erfolgen. Hierbei können drei Fälle unterschieden werden.
  • Im ersten Fall ist der bevorzugte Referenzpunkt 220 ein Eckpunkt. Es wird angenommen, dass dessen Position relativ genau erfasst wurde. Dementsprechend wird eine kreisförmige Kovarianz K geringer Größe bestimmt.
  • Im zweiten Fall ist der bevorzugte Referenzpunkt 220 ein Mittelpunkt einer Außenkante. Bezüglich der Position des bevorzugten Referenzpunkts 220 wird eine höhere Messunsicherheit als im ersten Fall angenommen. Somit wird eine Kovarianz K bestimmt, die in Richtung der jeweiligen Außenkante zu einer Ellipse auseinandergezogen ist, wobei die Länge der Ellipse von der Länge der jeweiligen Außenkante abhängig sein kann.
  • Im dritten Fall befindet sich der bevorzugte Referenzpunkt 220 in der Mitte des jeweiligen Objektrahmens 208 bzw. 210. Es konnte also kein geeigneter Referenzpunkt an der Objektoberfläche, d. h. an den Außenkanten des Objektrahmens 208 bzw. 210, bestimmt werden. Dementsprechend wird eine vergleichsweise hohe Kovarianz K bestimmt, die von der Länge und Breite des Objekts 104 abhängig sein kann. Die geschätzte Position und/oder Orientierung des Objekts 104 wird dementsprechend nur geringfügig angepasst.
  • Die jeweiligen Schätzfehler, d. h. die jeweiligen Kovarianzen K, der als bevorzugte Referenzpunkte 220 infrage kommenden Referenzpunkte 212' sind in 3 und 4 beispielhaft mit größeren Kreisen bzw. Ellipsen markiert.
  • Prinzipiell kann der Objektrahmenerzeugungsalgorithmus beispielsweise folgende Schritte ausführen:
    1. 1. Berechnen der der Radarsensorik 102 zugewandten Kanten des ersten Objektrahmens 208.
    2. 2. Auswählen der drei nächstliegenden ersten Referenzpunkte 212' auf den zugewandten Kanten.
    3. 3. Erzeugen des zweiten Objektrahmens 210 basierend auf den mit den ausgewählten ersten Referenzpunkten 212' assoziierten Reflexionsorten 110.
    4. 4. Auswählen der mit den drei ausgewählten ersten Referenzpunkten 212' korrespondierenden drei zweiten Referenzpunkte 214.
    5. 5. Suchen der zwei Referenzpunkte 212', 214 mit dem geringsten Referenzpunktabstand zueinander. Auswählen des Rahmenmittelpunkts des Objektrahmens 208 bzw. 210, wenn der geringste Referenzpunktabstand zu groß ist.
    6. 6. Berechnen einer Kovarianzmatrix für jeden der gefundenen Referenzpunkte 212', 214 bzw. für den Rahmenmittelpunkt abhängig von deren jeweiliger Position und/oder abhängig von einer geschätzten Objektgröße des Objekts 104.
  • In manchen Fällen kann es schwierig sein, den bevorzugten Referenzpunkt 220 zu bestimmen, beispielsweise wenn zwei oder mehr Referenzpunkte 212 bzw. 214 verwendbar sind oder keiner der Referenzpunkte 212 bzw. 214 verwendbar ist. In solchen Fällen kann der bevorzugte Referenzpunkt 220 beispielsweise durch Berechnen einer gewichteten Summe aller Möglichkeiten berechnet werden, wie es im Folgenden beschrieben wird.
  • Hierzu kann das Objektrahmenerzeugungsmodul 206 zusätzlich einen geeigneten PDA-Algorithmus ausführen (PDA = probabilistic data association; „probabilistische Datenassoziation“).
  • Im Unterschied zu den vorangehend beschriebenen Beispielen wird die benötigte Information zur Aktualisierung der geschätzten Position und/oder Orientierung des Objekts 104 hier gewissermaßen aus einer gewichteten Summe mehrerer Referenzpunkte 212 bzw. 214 berechnet. Dabei ist zu beachten, dass die gewichtete Summe nicht aus den Referenzpunkten 212 bzw. 214 an sich, sondern aus den zugehörigen Referenzpunktabständen in Form eines Innovationsvektors berechnet wird. Das fusionierte Ergebnis kann dann mit einem beliebigen Referenzpunkt 212 bzw. 214 verknüpft werden.
  • Die probabilistische Datenassoziation wurde ursprünglich entwickelt, um das Messassoziationsproblem bei Vorhandensein fehlerhafter Messwerte zu lösen. Dazu wird eine gewichtete Summe aller Messungen berechnet, die im Assoziationstor gefunden wurden. Das Gewicht hängt von den Abweichungen zwischen dem erwarteten Objekt und der Messung ab. Je besser Erwartung und Messungen übereinstimmen, desto höher ist das Gewicht für diese Messung. Schließlich wird ein fusionierter Pseudomessungs- oder Innovationsvektor berechnet, der für die Aktualisierung verwendet werden kann, zum Beispiel in einem Kalman-Filter. Weiterhin wird eine fusionierte Assoziationswahrscheinlichkeit berechnet, die den Gesamterfolg ausdrückt. Wenn mindestens eine Messung gut übereinstimmt, wird ein hoher Wert von annähernd 1 ausgegeben. Wenn keine der Messungen mit der Erwartung übereinstimmt, liegt die Wahrscheinlichkeit der fusionierten Assoziation bei annähernd 0.
  • Für die Berechnung der Assoziation ist es erforderlich, Annahmen über die Erkennungswahrscheinlichkeiten und Fehlalarmraten zu treffen. Es ist üblich, die beiden Hypothesen H0 und H1 zu betrachten, wobei H1 besagt, dass ein reales Ziel vorhanden ist, und H0 besagt, dass kein reales Ziel vorhanden ist, sondern möglicherweise ein Geisterobjekt. Damit können die beiden bedingten Erkennungswahrscheinlichkeiten Pj(D|H1) und Pj(D|H0) definiert werden.
  • Das Wahrscheinlichkeitsverhältnis p j '
    Figure DE102020215504A1_0004
    für jede Messung j sowie die Wahrscheinlichkeit, dass keine Erkennung mit dem Index 0 erfolgt, können folgendermaßen berechnet werden. p j ' = P j ( D | H 1 ) β j 1 ( 2 π ) M det ( S ) e d j 2 / 2
    Figure DE102020215504A1_0005
    β j = P j ( D | H 0 ) V C
    Figure DE102020215504A1_0006
    d j 2 = e j T S j 1 e j
    Figure DE102020215504A1_0007
    e j = x H y j
    Figure DE102020215504A1_0008
    S j = H P H T + R j
    Figure DE102020215504A1_0009
    p 0 ' = [ 1 P G a t e P ( D | H 1 ) ]
    Figure DE102020215504A1_0010
  • Dabei steht y für die Messung, R für deren Kovarianz, x für den erwarteten oder vorhergesagten Zustand, P für dessen Kovarianz, H für die Messmatrix, Vc für das Messvolumen, βj für die Fehlerkennungsdichte, e für den Innovationsvektor und S für dessen Kovarianz.
  • Berechnung der zugehörigen Assoziationswahrscheinlichkeiten durch Normierung: p j = p j ' p 0 ' + i p j '
    Figure DE102020215504A1_0011
    p 0 = p 0 ' p 0 ' + i p j '
    Figure DE102020215504A1_0012
  • Dabei ist pj die Wahrscheinlichkeit, dass die Messung j zum vorhergesagten Objekt gehört, und p0 die Wahrscheinlichkeit, dass keine Messung zum vorhergesagten Objekt gehört.
  • Berechnung des fusionierten Innovationsvektors und seiner Wahrscheinlichkeit: e ƒ u s = j [ p j p ƒ u s e j ]
    Figure DE102020215504A1_0013
    p ƒ u s = j p j
    Figure DE102020215504A1_0014
  • Berechnung der fusionierten Kovarianzmatrix: R ƒ u s = j [ p j p ƒ u s ( R i + ( e ƒ u s e j ) ( e ƒ u s e j ) T ) ]
    Figure DE102020215504A1_0015
  • Hierbei werden alle der Radarsensorik 102 zugewandten Referenzpunkte als Messungen betrachtet. Die zugehörigen Kovarianzmatrizen werden im Vorfeld berechnet. Die ersten Referenzpunkte 212 werden als vorhergesagter Zustand x verwendet. Daraus werden die zugehörigen Innovationsvektoren e berechnet. Der PDA-Algorithmus wird wie oben beschrieben ausgeführt. Die Endergebnisse sind der fusionierte Innovationsvektor und die fusionierte Kovarianzmatrix. Der Innovationsvektor wird zu einem beliebigen ersten Referenzpunkt 212, 212' des ersten Objektrahmens 208 hinzugefügt und für die Positionsaktualisierung verwendet. Es ist vorteilhaft, den nächstliegenden oder am besten passenden ersten Referenzpunkt 212, 212' für die Aktualisierung auszuwählen.
  • Die fusionierte Wahrscheinlichkeit kann nicht nur zur Gewichtung der Aktualisierung, sondern auch als Ablehnungskriterium verwendet werden. Wenn die Fusionswahrscheinlichkeit zu niedrig ist, wird die Aktualisierung mit dem Mittelpunkt des jeweiligen Objektrahmens mit entsprechend hohen Kovarianzen ausgeführt.
  • Durch den PDA-Algorithmus berechnete, beispielhafte Gewichte für jeden der ausgewählten ersten Referenzpunkte 212' sind in 4 mit Rechtecken umrahmt. Der bevorzugte Referenzpunkt 220 ergibt sich hier aus der gewichteten Summe der Innovationsvektoren. In diesem Beispiel wird der bevorzugte Referenzpunkt 220 dem Rahmenmittelpunkt des ersten Objektrahmens 208 zugewiesen.
  • Zusätzlich kann das Steuergerät 106 konfiguriert sein, um eine Geschwindigkeit des Objekts 104 zu bestimmen. Hierzu bestimmt das Bündelungsmodul 200 basierend auf den Radardaten 108 eine Radial- oder Dopplergeschwindigkeit vd und einen zugehörigen Azimutwinkel θ für mindestens zwei unterschiedliche Reflexionsorte 110 des detektierten Objekts 104. Anschließend werden in einem Winkelparameterschätzmodul 222 basierend auf den dem Objekt 104 zugeordneten Radialgeschwindigkeiten vd und Azimutwinkeln θ Parameter eines Dopplergeschwindigkeitsprofils geschätzt, genauer ein erster Winkelparameter C und ein zweiter Winkelparameter S einer Winkelfunktion 223, die die Radialgeschwindigkeit vd in Abhängigkeit vom Azimutwinkel θ als sinusförmige Kurve beschreibt.
  • Die Winkelparameter C,S können dann zusammen mit dem Orientierungswert φ und Drehpunktkoordinaten xR, yR eines geschätzten Drehpunkts des Objekts 104, die beispielsweise von dem Objektrahmenerzeugungsmodul 206 geschätzt und bereitgestellt werden können, in ein Geschwindigkeitsschätzmodul 224 eingegeben werden, das aus den genannten Größen schließlich die Geschwindigkeit des Objekts 104 berechnet, beispielsweise eine Translationsgeschwindigkeit v mit einer ersten Geschwindigkeitskomponente vx und einer zweiten Geschwindigkeitskomponente vy und/oder eine Drehgeschwindigkeit ω bezüglich der Drehpunktkoordinaten xR, yR. Die zur Bestimmung der Geschwindigkeit verwendeten geometrischen Größen sind in 5 veranschaulicht. Zusätzlich zu den Drehpunktkoordinaten xR, yR sind in das Koordinatensystem 202 von 5 Polarkoordinaten r, β des Drehpunkts sowie Abstände Δxi, Δyi des Drehpunkts von einem der Reflexionsorte 110 des Objekts 104 eingezeichnet.
  • Zum Ansteuern der Aktorik 118 kann das Steuergerät 106 ferner ein Steuermodul 226 umfassen, das konfiguriert sein kann, um aus der geschätzten Position, Orientierung und/oder Geschwindigkeit des Objekts 104, d. h. aus den Positionswerten dx, dy, dem Orientierungswert φ, der ersten Geschwindigkeitskomponente vx, der zweiten Geschwindigkeitskomponente vy und/oder der Drehgeschwindigkeit ω, das Steuersignal 116 zu erzeugen und an die Aktorik 118 auszugeben. Das Steuersignal 116 kann die Aktorik 118 beispielsweise veranlassen, das Fahrzeug 100 in entsprechender Weise zu beschleunigen, abzubremsen und/oder zu lenken.
  • Im Folgenden wird die Berechnung der Geschwindigkeit des Objekts 104 näher beschrieben.
  • Die Winkelfunktion 223 kann folgendermaßen definiert werden: vd = C cos(θ) + S sin(θ). Dabei können die Winkelparameter C,S aus den Radardaten 108 geschätzt werden, wenn mindestens zwei Reflexionsorte 110 des Objekts 104 unter verschiedenen Azimutwinkeln θ gemessen wurden.
  • Die Winkelparameter C,S haben selbst keine physikalische Bedeutung, können jedoch beispielswiese verwendet werden, um einen Kalman-Filter bei Verwendung eines geeigneten Beobachtungsmodells direkt zu aktualisieren, sodass das Beobachtungsmodell den vollständigen Bewegungszustand des verfolgten Objekts 104 schätzen kann.
  • Das Geschwindigkeitsprofil in Form der Winkelfunktion 223 beschreibt die kinematische Ausdehnung eines einzelnen starren Körpers mit mehreren Reflexionsorten 110 oder einer Gruppe von Objekten mit identischem Bewegungszustand, beispielsweise einer Gruppe stationärer Objekte, mit mindestens zwei Reflexionsorten 110. Dabei wird die Dopplergeschwindigkeit vd über den Azimutwinkel θ untersucht. Die gemessene Geschwindigkeitskurve entspricht einer Kosinuskurve mit den zwei Freiheitsgraden Amplitude und Phasenverschiebung.
  • Die Gleichung für das gemessene Geschwindigkeitsprofil lautet: v d = ( v x + y R ω ) cos ( θ ) + ( v y x R ω ) sin ( θ )
    Figure DE102020215504A1_0016
    v d = C cos ( θ ) + S sin ( θ )
    Figure DE102020215504A1_0017
    mit S = v y ω x R C = v x + ω y R
    Figure DE102020215504A1_0018
  • Die gesuchten Winkelparameter C,S können über die Methode der kleinsten Quadrate bestimmt werden. Dazu werden die Systemgleichungen wie folgt zusammengesetzt: y = M p
    Figure DE102020215504A1_0019
    M = [ cos ( θ 1 ) sin ( θ 1 ) cos ( θ i ) sin ( θ i ) ]
    Figure DE102020215504A1_0020
    y = [ v d ,1 v d , i ]
    Figure DE102020215504A1_0021
    p = [ C S ]
    Figure DE102020215504A1_0022
  • Die Anpassung mit der Methode der kleinsten Quadrate liefert den gesuchten Merkmalsvektor p: p = ( M T M ) 1 M T y
    Figure DE102020215504A1_0023
  • Die Kovarianzmatrix Q C S = [ σ C 2 σ C S 2 σ S C 2 σ S 2 ]
    Figure DE102020215504A1_0024
    wird über die Jacobi-Matrix J = [ C θ 1 C θ 2 C v 1 C v 2 S θ 1 S θ 2 S v 1 S v 2 ]
    Figure DE102020215504A1_0025
    und die gemessene Azimutwinkel- und Dopplergeschwindigkeits-Kovarianzmatrix der beiden äußersten Reflexionsorte C = [ σ θ 1 2 0 0 0 0 σ θ 2 2 0 0 0 0 σ v 1 2 0 0 0 0 σ v 2 2 ]
    Figure DE102020215504A1_0026
    durch Q C S = J C J T
    Figure DE102020215504A1_0027
    berechnet. Diese Formel wird auch als allgemeines Fehlerfortpflanzungsgesetz bezeichnet.
  • Die partiellen Ableitungen der Jacobi-Matrix ] können durch Auflösen des Gleichungssystems y = M · p nach den Winkelparametern C,S direkt berechnet werden, sofern nur die beiden äußersten Reflexionsorte, d. h. die beiden Reflexionsorte mit dem kleinsten bzw. größten Azimutwinkel, berücksichtigt werden. Zudem können die beiden resultierenden Gleichungen teilweise abgeleitet werden.
  • Es kann festgestellt werden, dass die bloße Anzahl der Reflexionsorte nicht der entscheidende Faktor für die Genauigkeit der Winkelparameter C,S ist. Entscheidend ist vielmehr, dass der Abstand zwischen den äußersten Reflexionsorten, d. h. der erfasste Winkelabschnitt, groß genug ist und dass die Messabweichungen von Azimutwinkel und Dopplergeschwindigkeit ausreichend niedrig sind. Selbst wenn der Winkelabschnitt relativ klein ist und nur wenige Reflexionsorte gemessen werden, kann der Winkelparameter C immer noch relativ genau geschätzt werden, wenn das jeweilige Objekt in der Mitte des Sichtfelds der Radarsensorik 102 platziert ist.
  • Wenn der Objektrahmen 208 bzw. 210 um die Reflexionsorte 110 groß genug und gut ausgerichtet ist, kann dessen Orientierung φ verwendet werden, um vx, vy und ω unmittelbar aus den vorberechneten Winkelparametern C,S zu berechnen. Dies ist mit nur einem Radarsensor in nur einem Messzyklus möglich.
  • Die Winkelparameter C,S können wie folgt definiert werden: C = v x + ω y R
    Figure DE102020215504A1_0028
    S = v y ω x R
    Figure DE102020215504A1_0029
  • Unter der Annahme, dass die Orientierung des Objektrahmens 208 bzw. 210 der Bewegungsrichtung des Objekts 104 entspricht, kann geschrieben werden: tan ( φ ) = v y v x
    Figure DE102020215504A1_0030
  • Damit kann die Drehgeschwindigkeit ω als Funktion der Winkelparameter C,S berechnet werden: ω = C sin ( φ ) S cos ( φ ) x R cos ( φ ) + y R sin ( φ )
    Figure DE102020215504A1_0031
  • Mit vx = C - ω · yR und vy = S + ω · yR erhält man direkt: v x = C y R C sin ( φ S cos ( φ ) ) x R cos ( φ ) + y R sin ( φ )
    Figure DE102020215504A1_0032
    v y = S + y R C sin ( φ ) S cos ( φ ) x R cos ( φ ) + y R sin ( φ )
    Figure DE102020215504A1_0033
  • Zur Berechnung der jeweiligen Kovarianzmatrizen von ω, vx und vy wird die folgende Jacobi-Matrix berechnet: J f m = [ ω C ω S ω φ v x C v x S v x φ v y C v y S v y φ ]
    Figure DE102020215504A1_0034
    ω C = sin ( φ ) x R cos ( φ ) + y R sin ( φ )
    Figure DE102020215504A1_0035
    v x C = x R cos ( φ ) x R cos ( φ ) + y R sin ( φ )
    Figure DE102020215504A1_0036
    v y C = x R sin ( φ ) x R cos ( φ ) + y R sin ( φ )
    Figure DE102020215504A1_0037
    ω S = cos ( φ ) x R cos ( φ ) + y R sin ( φ )
    Figure DE102020215504A1_0038
    v x S = y R cos ( φ ) x R cos ( φ ) + y R sin ( φ )
    Figure DE102020215504A1_0039
    v y S = y R sin ( φ ) x R cos ( φ ) + y R sin ( φ )
    Figure DE102020215504A1_0040
    ω φ = C x R + S y R ( x R cos ( φ ) + y R sin ( φ ) ) 2
    Figure DE102020215504A1_0041
    v x φ = y R ( C x R + S y R ) ( x R cos ( φ ) + y R sin ( φ ) ) 2
    Figure DE102020215504A1_0042
    v y φ = x R ( C x R + S y R ) ( x R cos ( φ ) + y R sin ( φ ) ) 2
    Figure DE102020215504A1_0043
  • Aus der gegebenen Kovarianzmatrix von S, C und φ Q SC φ = [ σ C 2 σ C S 2 0 σ S C 2 σ S 2 0 0 0 σ φ 2 ]
    Figure DE102020215504A1_0044
    ergibt sich die Kovarianz des Bewegungszustands zu Q f m = [ σ ω 2 σ ω , v x 2 σ ω , v y 2 σ ω , v x 2 σ v x 2 σ v x , v y 2 σ ω , v y 2 σ v x , v y 2 σ v y 2 ]
    Figure DE102020215504A1_0045
  • Diese kann ausgerechnet werden mit: Q f m = J f m Q SC φ J f m '
    Figure DE102020215504A1_0046
  • Abschließend wird darauf hingewiesen, dass Begriffe wie „aufweisend“, „umfassend“ etc. keine anderen Elemente oder Schritte ausschließen und Begriffe wie „eine“ oder „ein“ keine Vielzahl ausschließen. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen.

Claims (15)

  1. Verfahren zum Detektieren von Objekten (104) in einer Umgebung eines Fahrzeugs (100), wobei das Verfahren umfasst: Empfangen von die Objekte (104) anzeigenden Radardaten (108); Bestimmen eines ersten Objektrahmens (208) für jedes Objekt (104) basierend auf den Radardaten (108), wobei der erste Objektrahmen (208) eine über mehrere Zeitschritte geschätzte Position (dx,dy) und/oder Orientierung (φ) des Objekts (104) anzeigt und eine Position und/oder Orientierung des ersten Objektrahmens (208) durch eine definierte Anzahl erster Referenzpunkte (212, 212') in einem zweidimensionalen Koordinatensystem (202) festgelegt ist; Bestimmen eines zweiten Objektrahmens (210) für jedes Objekt (104) basierend auf den Radardaten (108), wobei der zweite Objektrahmen (210) eine in einem aktuellen Zeitschritt gemessene Position und/oder Orientierung des Objekts (104) anzeigt und eine Position und/oder Orientierung des zweiten Objektrahmens (210) durch eine definierte Anzahl zweiter Referenzpunkte (214) in dem zweidimensionalen Koordinatensystem (202) festgelegt ist; Bestimmen von Referenzpunktpaaren (216) aus je einem ersten Referenzpunkt (212, 212') und einem zweiten Referenzpunkt (214); Bestimmen eines Referenzpunktabstands zwischen dem ersten Referenzpunkt (212, 212') und dem zweiten Referenzpunkt (214) eines jeden Referenzpunktpaares (216); Bestimmen mindestens eines bevorzugten Referenzpunkts (220) basierend auf den Referenzpunktabständen; und Aktualisieren der geschätzten Position (dx, dy) und/oder Orientierung (φ) des Objekts (104) basierend auf dem mindestens einen bevorzugten Referenzpunkt (220).
  2. Verfahren nach Anspruch 1, wobei die Radardaten (108) unter Verwendung einer Radarsensorik (102) zum Erfassen der Umgebung des Fahrzeugs (100) erzeugt wurden; wobei mindestens eine der Radarsensorik (102) zugewandte Kante des ersten Objektrahmens (208) identifiziert wird und ausgewählte erste Referenzpunkte (212') bestimmt werden, die auf der mindestens einen der Radarsensorik (102) zugewandten Kante des ersten Objektrahmens (208) liegen; wobei die Referenzpunktpaare (216) aus je einem ausgewählten ersten Referenzpunkt (212') und einem zweiten Referenzpunkt (214) gebildet werden.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei der bevorzugte Referenzpunkt (220) aus dem Referenzpunktpaar (216) mit dem geringsten Referenzpunktabstand ausgewählt wird.
  4. Verfahren nach Anspruch 3, wobei der geringste Referenzpunktabstand mit einem Schwellenwert verglichen wird; wobei ein vordefinierter Referenzpunkt als der bevorzugte Referenzpunkt (220) verwendet wird, wenn der geringste Referenzpunktabstand größer als der Schwellenwert ist.
  5. Verfahren nach Anspruch 4, wobei der vordefinierte Referenzpunkt ein Mittelpunkt des ersten Objektrahmens (208) und/oder des zweiten Objektrahmens (210) ist.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei ein Schätzfehler (K) bezüglich der geschätzten Position (dx,dy) und/oder Orientierung (φ) des Objekts (104) abhängig von einer Position des bevorzugten Referenzpunkts (220) an dem ersten Objektrahmen (208) und/oder dem zweiten Objektrahmen (210) bestimmt wird.
  7. Verfahren nach Anspruch 6, wobei ein kleinerer Schätzfehler (K) bestimmt wird, wenn der bevorzugte Referenzpunkt (220) ein Eckpunkt ist, und ein größerer Schätzfehler (K) bestimmt wird, wenn der bevorzugte Referenzpunkt (220) kein Eckpunkt ist.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Referenzpunktabstände mit Wahrscheinlichkeiten gewichtet werden und der bevorzugte Referenzpunkt (220) basierend auf einer Summe der mit den Wahrscheinlichkeiten gewichteten Referenzpunktabstände bestimmt wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, wobei für jedes Objekt (104) mindestens drei Referenzpunktpaare (216) bestimmt werden.
  10. Verfahren nach einem der vorhergehenden Ansprüche, wobei die ersten Referenzpunkte (212, 212') Eckpunkte des ersten Objektrahmens (208) sind und die zweiten Referenzpunkte (214) Eckpunkte des zweiten Objektrahmens (210) sind und die Referenzpunktpaare (216) aus je einem Eckpunkt des ersten Objektrahmens (208) und einem korrespondierenden Eckpunkt des zweiten Objektrahmens (210) gebildet werden; und/oder wobei die ersten Referenzpunkte (212, 212') Mittelpunkte zwischen zwei Eckpunkten des ersten Objektrahmens (208) sind und die zweiten Referenzpunkte (214) Mittelpunkte zwischen zwei Eckpunkten des zweiten Objektrahmens (210) sind und die Referenzpunktpaare (216) aus je einem Mittelpunkt des ersten Objektrahmens (208) und einem korrespondierenden Mittelpunkt des zweiten Objektrahmens (210) gebildet werden.
  11. Verfahren nach einem der vorhergehenden Ansprüche, ferner umfassend: Bestimmen einer Radialgeschwindigkeit (vd) und eines Azimutwinkels (θ) für mindestens zwei Reflexionsorte (110) eines jeden Objekts (104) basierend auf den Radardaten (108); Bestimmen geschätzter Winkelparameter (C,S) einer Winkelfunktion (223), die die Radialgeschwindigkeit (vd) abhängig von dem Azimutwinkel (θ) beschreibt, wobei die geschätzten Winkelparameter (C,S) für jedes Objekt (104) basierend auf den dem Objekt (104) zugeordneten Radialgeschwindigkeiten (vd) und Azimutwinkeln (θ) bestimmt werden; Bestimmen eines geschätzten Drehpunkts (xR,yR) für jedes Objekt (104) basierend auf den Radardaten (108); Bestimmen einer Geschwindigkeit (v, vx, vy, ω) für jedes Objekt (104) als Funktion der geschätzten Orientierung (φ), des geschätzten Drehpunkts (xR,yR) und der geschätzten Winkelparameter (C,S) des Objekts (104).
  12. Verfahren nach Anspruch 11, wobei zum Bestimmen der Geschwindigkeit (v, vx, vy, ω) mindestens einer der folgenden Berechnungsschritte ausgeführt wird: Berechnen einer ersten Geschwindigkeitskomponente (vx) mit v x = C y R C sin ( φ S cos ( φ ) ) x R cos ( φ ) + y R sin ( φ ) ;
    Figure DE102020215504A1_0047
    Berechnen einer zweiten Geschwindigkeitskomponente (vy) mit v y = S + y R C sin ( φ ) S cos ( φ ) x R cos ( φ ) + y R sin ( φ ) ;
    Figure DE102020215504A1_0048
    Berechnen einer Drehgeschwindigkeit (ω) bezüglich des geschätzten Drehpunkts (xR,yR) des Objekts (104) mit ω = C sin ( φ ) S cos ( φ ) x R cos ( φ ) + y R sin ( φ ) ;
    Figure DE102020215504A1_0049
    wobei vx für die erste Geschwindigkeitskomponente, vy für die zweite Geschwindigkeitskomponente, ω für die Drehgeschwindigkeit, C für einen ersten Winkelparameter der Winkelfunktion (223), S für einen zweiten Winkelparameter der Winkelfunktion (223), φ für die geschätzte Orientierung des Objekts (104), xR für eine x-Koordinate des geschätzten Drehpunkts des Objekts (104) und yR für eine y-Koordinate des geschätzten Drehpunkts des Objekts (104) steht.
  13. Vorrichtung (106) zur Datenverarbeitung, umfassend einen Prozessor (114), der konfiguriert ist, um das Verfahren nach einem der vorhergehenden Ansprüche auszuführen.
  14. Computerprogramm, umfassend Befehle, die einen Prozessor (114) bei Ausführung des Computerprogramms durch den Prozessor (114) veranlassen, das Verfahren nach einem der Ansprüche 1 bis 12 auszuführen.
  15. Computerlesbares Medium, auf dem das Computerprogramm nach Anspruch 14 gespeichert ist.
DE102020215504.6A 2020-12-09 2020-12-09 Verfahren und Vorrichtung zum Detektieren von Objekten in einer Umgebung eines Fahrzeugs Pending DE102020215504A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102020215504.6A DE102020215504A1 (de) 2020-12-09 2020-12-09 Verfahren und Vorrichtung zum Detektieren von Objekten in einer Umgebung eines Fahrzeugs
PCT/EP2021/085019 WO2022122933A1 (de) 2020-12-09 2021-12-09 Verfahren und vorrichtung zum detektieren von objekten in einer umgebung eines fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020215504.6A DE102020215504A1 (de) 2020-12-09 2020-12-09 Verfahren und Vorrichtung zum Detektieren von Objekten in einer Umgebung eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102020215504A1 true DE102020215504A1 (de) 2022-06-09

Family

ID=79185624

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020215504.6A Pending DE102020215504A1 (de) 2020-12-09 2020-12-09 Verfahren und Vorrichtung zum Detektieren von Objekten in einer Umgebung eines Fahrzeugs

Country Status (2)

Country Link
DE (1) DE102020215504A1 (de)
WO (1) WO2022122933A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022209126A1 (de) 2022-09-02 2024-03-07 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Verarbeitung von Radardaten, Radarsystem
DE102022124192A1 (de) 2022-09-21 2024-03-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Aktualisierung des Objektzustands eines Objektes

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116824213A (zh) * 2023-05-17 2023-09-29 杭州新中大科技股份有限公司 一种基于多视角特征融合的渣土车带泥检测方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3349033A1 (de) * 2017-01-13 2018-07-18 Autoliv Development AB Verbesserte objekterkennung und bewegungsschätzung für ein fahrzeugumgebungserkennungssystem
KR102569904B1 (ko) * 2018-12-18 2023-08-24 현대자동차주식회사 표적 차량 추적 장치 및 그의 표적 차량 추적 방법과 그를 포함하는 차량
DE102019109332A1 (de) * 2019-04-09 2020-10-15 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Verarbeitungseinheit zur Ermittlung eines Objekt-Zustands eines Objektes

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KELLNER, Dominik ; BARJENBRUCH, Michael ; KLAPPSTEIN, Jens: Instantane Bestimmung der vollständigen Objektbewegung ausgedehnter Objekte mittels hochauflösendem Radar. In: Fahrerassistenz und Integrierte Sicherheit : 30. VDI/VW-Gemeinschaftstagung - 14. und 15. Oktober 2014 - Wolfsburg, 2014, S. 135-151. - ISBN 978-3-18-092223-2. - VDI-Berichte 2223
SCHEEL, Alexander ; DIETMAYER, Klaus: Tracking multiple vehicles using a variational radar model. In: IEEE Transactions on Intelligent Transportation Systems (T-ITS), Bd. 20, 2019, H. 10, S. 3721 - 3736. - ISSN 1558-0016 (E); 1524-9050 (P). DOI: 10.1109/TITS.2018.2879041. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8533431 [abgerufen am 2021-02-17].

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022209126A1 (de) 2022-09-02 2024-03-07 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Verarbeitung von Radardaten, Radarsystem
DE102022124192A1 (de) 2022-09-21 2024-03-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Aktualisierung des Objektzustands eines Objektes

Also Published As

Publication number Publication date
WO2022122933A1 (de) 2022-06-16

Similar Documents

Publication Publication Date Title
DE102020215504A1 (de) Verfahren und Vorrichtung zum Detektieren von Objekten in einer Umgebung eines Fahrzeugs
EP3177498B1 (de) Verfahren zum erzeugen einer umgebungskarte eines umgebungsbereichs eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
DE102016106298B4 (de) Fusionsverfahren für eine Querverkehr-Applikation unter Verwenden von Radargeräten und einer Kamera
EP2561419B1 (de) Verfahren zur bestimmung des fahrbahnverlaufes für ein kraftfahrzeug
DE102011103795A1 (de) Verfahren und System zur Kollisionsbewertung für Fahrzeuge
DE102019115240A1 (de) Systeme und verfahren für die anwendung von landkarten zur verbesserung von objektverfolgung, fahrstreifenzuordnung und klassifizierung
EP1634241B1 (de) Verfahren und vorrichtung zur objektbestimmung in fahrerassistenzsystemen für kraftfahrzeuge
DE102018000517A1 (de) Verfahren zur radarbasierten Vermessung und/oder Klassifizierung von Objekten in einer Fahrzeugumgebung
DE102019132150A1 (de) Verfahren zum automatischen Kalibrieren eines Umfeldsensors, insbesondere eines Lidar-Sensors, eines Fahrzeugs auf Grundlage von Belegungskarten sowie Recheneinrichtung
DE112020002753T5 (de) Fahrzeugsteuerverfahren, fahrzeugsteuervorrichtung und fahrzeugsteuersystem diese enthaltend
DE102020105192A1 (de) Verfahren zum Detektieren bewegter Objekte in einer Fahrzeugumgebung und Kraftfahrzeug
EP3809316A1 (de) Vorhersage eines strassenverlaufs auf basis von radardaten
DE102018216999A1 (de) Verfahren, Computerprogramm und Messsystem für die Auswertung von Bewegungsinformationen
DE102022101054A1 (de) Verfahren zum Planen eines Pfades für ein wenigstens teilweise automatisiertes Kraftfahrzeug, Computerprogrammprodukt, computerlesbares Speichermedium sowie Assistenzsystem
DE102020116027A1 (de) Verfahren und Vorrichtung zur Ermittlung von Belegungsinformation für einen Umfeldpunkt auf Basis von Radardetektionen
DE102019211327B4 (de) Vorrichtung, Fahrzeug und Verfahren zur verbesserten Multi-Radar-Sensor-Kalibration
DE102021111143A1 (de) Schätzung der fahrzeuggeschwindigkeit anhand von radardaten
DE102021111114A1 (de) Fahrspurunbestimmtheitsmodellierung und -verfolgung in einem Fahrzeug
DE102020205468A1 (de) Autonomes und/oder assistiertes Kuppeln eines Anhängers unter Berücksichtigung des Höhenprofils des Untergrunds
DE102019131334A1 (de) Verfahren zur Spur verfolgen von ausgedehnten Objekten mit wenigstens einer Detektionsvorrich-tung und Detektionsvorrichtung
DE102019204408B4 (de) Verfahren zur Bestimmung der Gierrate eines Zielobjekts auf Grundlage der Sensordaten beispielsweise eines hochauflösenden Radars
DE102018104311A1 (de) Verfahren und System zum Abschätzen der Form eines dynamischen Objekts und zum Nachverfolgen dieses Objekts
DE102022204767A1 (de) Verfahren und Vorrichtung zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs
DE102021202641A1 (de) Verfahren zur Bestimmung eines Bewegungszustands eines starren Körpers
DE102021202019A1 (de) Verfahren und Vorrichtung zum Ermitteln eines Aufenthaltsbereichs eines Objekts

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01S0013931000

Ipc: G01S0013660000

R163 Identified publications notified