DE102020206639B4 - Erkennung und/oder Ortung von Objekten anhand von Radardaten - Google Patents

Erkennung und/oder Ortung von Objekten anhand von Radardaten Download PDF

Info

Publication number
DE102020206639B4
DE102020206639B4 DE102020206639.6A DE102020206639A DE102020206639B4 DE 102020206639 B4 DE102020206639 B4 DE 102020206639B4 DE 102020206639 A DE102020206639 A DE 102020206639A DE 102020206639 B4 DE102020206639 B4 DE 102020206639B4
Authority
DE
Germany
Prior art keywords
measurement
measurement data
detection
location
evaluated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102020206639.6A
Other languages
English (en)
Other versions
DE102020206639A1 (de
Inventor
Thomas Gussner
Stefan Lang
Diego Gil Vazquez
Peter Brosseit
Ruediger Jordan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102020206639.6A priority Critical patent/DE102020206639B4/de
Publication of DE102020206639A1 publication Critical patent/DE102020206639A1/de
Application granted granted Critical
Publication of DE102020206639B4 publication Critical patent/DE102020206639B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren (100) zur Erkennung und/oder Ortung von Objekten (2) anhand von Messdaten (11), die mit mindestens einem Radarsensor (1) aufgenommen wurden, mit den Schritten:• auf der Basis von Zusatzinformationen (12) hinsichtlich des Typs und/oder der räumlichen Ausdehnung mindestens eines von dem Radarsensor erfassten Objekts (2), einer physikalischen Beschaffenheit dieses Objekts (2), der Entfernung dieses Objekts (2) zum Radarsensor (1), und/oder Randbedingungen bezüglich der Kinematik des Objekts (2), wird mindestens ein Messmodell (13, 13a-13c) ausgewählt (110), wobei dieses Messmodell (13, 13a-13c) angibt, wie sich das Vorhandensein eines Objekts (2) an einem Ort, und/oder eine Bewegung des Objekts (2), in den Messdaten (11) manifestiert, wobei dieses Messmodell (13, 13a-13c) freie Parameter (13*) aufweist, wobei die Starrheit des erfassten Objekts (2) anhand eines Anteils der Messdaten (11), der auf den Doppler-Effekt zurückgeht, als Zusatzinformation (12) aus den Messdaten (11) ausgewertet wird (111, 111a);• das Messmodell (13) wird durch Optimieren seiner freien Parameter (13*) an die Messdaten (11) gefittet (120);• aus der beim Fitten (120) erzielten Übereinstimmung und den beim Fitten erhaltenen Werten der freien Parameter (13*) wird die Erkennung und/oder Ortung (2*) des Objekts (2) ausgewertet (130), wobei• mehrere Messmodelle (13a-13c) ausgewählt (110) und an die Messdaten (11) gefittet werden (120);• das Messmodell (13a-13c), und/oder die beim Fitten (120) erzielte Übereinstimmung, und/oder die beim Fitten (120) erhaltenen Werte der freien Parameter (13*), und/oder eine hieraus ausgewertete Kandidaten-Erkennung und/oder Kandidaten-Ortung, im Hinblick auf ihre Plausibilität mit einem Gütemaß (15) bewertet wird (160); und• eine Kandidaten-Erkennung bzw. Kandidaten-Ortung, die zu dem besten Gütemaß (15) korrespondiert, zum Endergebnis der Erkennung bzw. Ortung (2*) erhoben wird (170).

Description

  • Die vorliegende Erfindung betrifft die Erkennung und/oder Ortung von Objekten
  • Stand der Technik
  • Damit sich ein Fahrzeug zumindest teilweise automatisiert im Straßenverkehr bewegen kann, ist es erforderlich, das Umfeld des Fahrzeugs zu erfassen und Gegenmaßnahmen einzuleiten, falls eine Kollision mit einem Objekt im Umfeld des Fahrzeugs droht. Auch die Erstellung einer Umfeld-Repräsentation und Lokalisierung sind für sicheres automatisiertes Fahren notwendig.
  • Die Erfassung von Objekten mittels Radar ist von den Lichtverhältnissen unabhängig und beispielsweise auch bei Nacht auf größere Entfernung möglich, ohne dass der Gegenverkehr durch Fernlicht geblendet wird. Aus den Radardaten gehen weiterhin unmittelbar die Entfernung und Geschwindigkeit von Objekten hervor. Diese Informationen sind wichtig für die Beurteilung, ob es zu einer Kollision mit den Objekten kommen kann. Um welchen Typ von Objekt es sich handelt, ist jedoch aus Radarsignalen nicht unmittelbar erkennbar. Diese Erkennung wird aktuell durch die Berechnung von Attributen aus der Digitalen Signalverarbeitung gelöst.
  • Die US 8 682 821 B2 offenbart, Radarsignale mittels maschinellem Lernen dahingehend zu klassifizieren, ob sie von der Bewegung bestimmter Objekte oder nichtmenschlicher Tiere herrühren. Diese Erkenntnis kann genutzt werden, um bei der Überwachung eines Bereichs auf menschliche Eindringlinge Falschalarme zu vermeiden, oder auch um beim zumindest teilweise automatisierten Fahren die richtige Aktion zur Kollisionsvermeidung auszuwählen.
  • EP 3 553 551 A1 offenbart ein Verfahren zur Erkennung eines Objekts mittels Radarstrahlung. Eine geglättete Kurve wird an einen periodischen Anteil des Radarsignals gefittet, und es werden die Positionen von Bergen und Tälern der Kurve bestimmt, aus denen wiederum die Periodizität hervorgeht.
  • DE 10 2018 217 533 A1 offenbart ein Verfahren zur Klassifikation eines Objekts mittels eines Radarsensors. Für einen aus den Radardaten abgeleiteten Radarquerschnitt wird eine Regression bestimmt, und anhand eines von der Regression abgeleiteten Parameters wird die Klassifikation des Objekts ermittelt.
  • DE 10 2018 123 779 A1 offenbart ein Verfahren zum Verbessern einer Objekterkennung eines Radargeräts. Aus mehreren Algorithmen für die Erkennung von Objekten wird ein Algorithmus anhand einer Beurteilung durch eine Gütefunktion ausgewählt.
  • DE 10 2016 103 251 A1 offenbart ein weiteres Verfahren zum Betreiben mindestens eines Sensors zur Umfelderfassung eines Fahrzeugs.
  • Offenbarung der Erfindung
  • Im Rahmen der Erfindung wurde ein Verfahren zur Erkennung und/oder Ortung von Objekten anhand von Messdaten, die mit mindestens einem Radarsensor aufgenommen wurden, entwickelt. Die Messdaten können in beliebiger Form vorliegen und beispielsweise die Position von Radarreflexen, sowie optional auch deren Doppler-Geschwindigkeiten, in zwei- oder dreidimensionalen Polarkoordinaten enthalten. Die Ortung kann insbesondere beispielsweise über die bloße Ortsbestimmung hinaus auch noch eine Angabe der Geschwindigkeit und/oder Bewegungsrichtung des Objekts umfassen.
  • Die Erkennung und/oder Ortung erfolgt auf der Basis von Messmodellen. Ein Messmodell gibt in diesem Kontext an, wie sich das Vorhandensein eines Objekts an einem Ort, und/oder eine Bewegung dieses Objekts, in den Messdaten manifestiert. Dieses Messmodell enthält freie Parameter, mit denen es an die Messdaten gefittet werden kann. Wenn das Messmodell beim Fitten in Einklang mit den Messdaten gebracht werden kann, ist die Information gewonnen, dass dieses Messmodell die Messdaten erklärt. Wenn das Messmodell dann beispielsweise von der Hypothese ausgegangen ist, dass ein bestimmter Typ von Objekt (etwa ein Fahrzeug) sich an einem bestimmten Ort befindet, dann wird durch einen erfolgreichen Fit des Modells an die Messdaten diese Hypothese gestützt oder bestätigt. Dabei können die freien Parameter des Messmodells insbesondere beispielsweise den Typ des Objekts, Koordinaten des Orts, an dem sich dieses Objekt befindet, oder andere interessierende Messgrößen beinhalten. Dies ist jedoch nicht zwingend erforderlich. Es kann also beispielsweise in dem Messmodell die Hypothese, dass sich ein Fahrzeug in 25 m Abstand in Fahrtrichtung voraus befindet, fest „eingelötet“ sein, und andere Parameter können variiert werden, um dieses Messmodell an die Messdaten zu fitten.
  • Das Messmodell wird auf der Basis von Zusatzinformationen hinsichtlich des Typs und/oder der räumlichen Ausdehnung mindestens eines von dem Radarsensor erfassten Objekts, einer physikalischen Beschaffenheit dieses Objekts, der Entfernung dieses Objekts zum Radarsensor, und/oder Randbedingungen bezüglich der Kinematik des Objekts ausgewählt. Das Messmodell wird durch Optimieren seiner freien Parameter an die Messdaten gefittet. Aus der beim Fitten erzielten Übereinstimmung und den beim Fitten erhaltenen Werten der freien Parameter wird die Erkennung und/oder Ortung des Objekts ausgewertet.
  • Es wurde erkannt, dass durch den Einsatz spezialisierter Messmodelle, die die vorliegende Situation detailreich und passgenau wiedergeben, die Genauigkeit der Erkennung, und/oder der Ortung, deutlich gesteigert werden kann. So kann beispielsweise ein Messmodell darauf ausgelegt sein, anhand von Radar-Messdaten eine Unterscheidung zwischen bestimmten unterschiedlichen Verkehrsteilnehmer-Typen zu ermöglichen. Damit ein solches spezialisiertes Messmodell eine brauchbare Aussage liefern kann, muss aber ein zur aktuellen Situation passendes Messmodell eingesetzt werden. So liefert etwa das besagte Messmodell, das zwischen bestimmten Verkehrsteilnehmer-Typen unterscheidet, auf jeden Fall ein unzutreffendes Ergebnis, wenn es auf Messdaten angewendet wird, die sich auf einen in diesem Messmodell nicht vorgesehenen Verkehrsteilnehmer-Typ beziehen.
  • Durch die Nutzung der genannten Zusatzinformation kann im günstigsten Fall direkt dasjenige Messmodell aufgefunden werden, das für die vorliegende Situation am besten geeignet ist. Dies ist jedoch nicht zwingend erforderlich. Es genügt bereits, wenn durch die Nutzung der Zusatzinformation der Kreis der in Frage kommenden Messmodelle deutlich eingeschränkt werden kann, so dass aus dieser engeren Wahl mit anderen Methoden (etwa durch eine Plausibilitätsprüfung und/oder ein Voting) das letztendlich passendste Messmodell ermittelt werden kann.
  • Dies ist ein Stück weit vergleichbar mit der Effizienz einer Hausdurchsuchung bei einem Beschuldigten. Wenn die Polizei nicht weiß, wonach sie suchen muss, stellt sie alles auf den Kopf, übersieht aber möglicherweise das entscheidende Beweisstück. Wird hingegen etwa eine konkrete Tatwaffe gesucht, führt die Suche mit höherer Wahrscheinlichkeit zum Erfolg.
  • Eine wichtige physikalische Beschaffenheit von Objekten im Zusammenhang mit Radarmessungen ist ihre Starrheit So ist etwa das Rückstreuverhalten von starren Fahrzeugen völlig anders als das von nicht starren Fußgängern. Daher wird die Starrheit von durch den Radarsensor erfassten Objekten als Zusatzinformation ermittelt und in die Auswahl des Messmodels einbezogen. Die Starrheit von Objekten kann beispielsweise anhand eines Anteils der Messdaten, die auf den Doppler-Effekt zurückgeht, ermittelt werden. Starre Objekte erzeugen über ihre ganze räumliche Ausdehnung immer ein gewisses Doppler-Profil in den Messdaten.
  • Eine weitere Zusatzinformation, die für die Wahl des Messmodells wichtig ist, ist die Entfernung des Objekts zum Radarsensor. Je näher das Objekt am Radarsensor ist, desto mehr vom Radarsensor unterscheidbare Radarreflexe kann es prinzipiell abgeben. Ist das Objekt sehr weit vom Radarsensor entfernt, wird es nur noch sehr wenige unterscheidbare Radarreflexe abgeben, möglicherweise nur noch einen. Dann erübrigt sich der Versuch, hieraus beispielsweise noch detaillierte Informationen über den Typ des Objekts zu extrahieren. Es kann dann beispielsweise ein generisches Messmodell zum Einsatz kommen, das für alle Situationen geeignet ist, dafür aber auch in keiner Situation mit besonderem Detailreichtum oder besonderer Genauigkeit brilliert.
  • In diesem Zusammenhang ist auch die Größe des Objekts eine wichtige Zusatzinformation. Die Größe entscheidet im Zusammenspiel mit der Entfernung zum Radarsensor, welchen Raumwinkel das Objekt abdeckt, und dies entscheidet wiederum darüber, wie viele unterscheidbare Radarreflexe das Objekt abgeben kann.
  • Der Doppler-Effekt ist nur ein Beispiel dafür, wie Zusatzinformationen, die sich für die Auswahl des Messmodells nutzen lassen, direkt aus den noch unverarbeiteten Messdaten ausgewertet werden können. Es ist allgemein vorteilhaft, mindestens eine Zusatzinformation aus den Messdaten auszuwerten.
  • In einer besonders vorteilhaften Ausgestaltung wird mindestens eine Zusatzinformation aus eine vorangegangenen Erkennung und/oder Ortung eines Objekts ausgewertet. Die Erkennung und/oder Ortung neuer Objekte, wie auch die Weiterverfolgung bereits zuvor erkannter Objekte, fängt dann nicht jeweils bei Null an, sondern baut auf dem bisherigen Informationsstand auf.
  • Beispielsweise können die Erkennungen und/oder Ortungen einer nachgeschalteten Instanz zugeführt werden, die die Bewegungen von Objekten nachverfolgt und verwaltet. Diese nachgeschaltete Instanz kann insbesondere beispielsweise auch Erkennungen und/oder Ortungen berücksichtigen, die aus Sensordaten von anderen Sensoren gewonnen wurden. Diese Sensordaten von anderen Sensoren können auch in beliebiger sonstiger Weise mit den Erkennungen und/oder Ortungen aus Radardaten zusammengeführt werden. So kann beispielsweise die Position eines Objekts aus den Radardaten erkannt werden, und anhand von Kamerabildern kann das Objekt dann genauer identifiziert werden. Die aus allen Quellen gesammelte Information über erkannte Objekte, also insbesondere Positionen, Geschwindigkeiten, Orientierungen im Raum, physikalische Beschaffenheiten und Entfernungen zum Radarsensor, können dann als Zusatzinformationen herangezogen und zur Auswahl von für die aktuelle Situation passenden Messmodellen verwendet werden.
  • Somit kann insbesondere eine vorangegangene Erkennung und/oder Ortung zumindest teilweise auf Messdaten zurückgehen, die mit mindestens einem weiteren, von dem Radarsensor verschiedenen Sensor aufgenommen wurden, und/oder sie kann in sonstiger Weise mit solchen Messdaten von dem weiteren Sensor zusammengeführt werden.
  • In einer besonders vorteilhaften Ausgestaltung wird nach dem Fitten des Messmodells an die Messdaten geprüft, ob die beim Fitten erzielte Übereinstimmung, und/oder die beim Fitten erhaltenen Werte der freien Parameter, und/oder eine hieraus ausgewertete Kandidaten-Erkennung und/oder Kandidaten-Ortung, ein vorgegebenes Plausibilitätskriterium erfüllen. Wenn dieses Plausibilitätskriterium erfüllt ist, wird die Kandidaten-Erkennung, bzw. Kandidaten-Ortung, zum Endergebnis der Erkennung bzw. Ortung erhoben. Ist das Plausibilitätskriterium hingegen nicht erfüllt, wird ein weiteres Messmodell ausgewählt und an die Messdaten gefittet. Die Verwendung der Zusatzinformation für die Auswahl des Messmodells sorgt hier dafür, dass nur aussichtsreiche Messmodelle in dieser Weise getestet werden.
  • Insbesondere kann beispielsweise anhand mindestens einer Zusatzinformation eine vorgegebene Abfolge mehrerer Messmodelle in absteigender Richtung nach Wahrscheinlichkeiten geordnet werden, mit denen bei Verwendung des jeweiligen Messmodells das Plausibilitätskriterium erfüllt ist. Je weniger Messmodelle getestet werden müssen, bevor sich eines durch Erfüllung des Plausibilitätskriteriums als passend erweist, desto schneller wird das Endergebnis der Erkennung bzw. Ortung erhalten.
  • Mehrere Messmodelle werden ausgewählt und an die Messdaten gefittet. Das Messmodell, und/oder beim Fitten erzielte Übereinstimmung, und/oder die beim Fitten erhaltenen Werte der freien Parameter, und/oder eine hieraus ausgewertete Kandidaten-Erkennung und/oder Kandidaten-Ortung, wird im Hinblick auf ihre Plausibilität mit einem Gütemaß bewertet. Das Gütemaß kann insbesondere beispielsweise mehrere der genannten Komponenten miteinander kombinieren. Eine Kandidaten-Erkennung bzw. Kandidaten-Ortung, die zu dem besten Gütemaß korrespondiert, wird zum Endergebnis der Erkennung bzw. Ortung erhoben.
  • Beispielsweise kann das einem Messmodell zugeordnete Gütemaß umso höher sein, je umfangreicher die Datenbasis ist, die es heranzieht. Wenn beispielsweise ein erstes Messmodell eine neue Position eines Objekts auf der Basis eines Clusters von Einzel-Ortsbestimmungen ermittelt, während ein zweites Messmodell nur mit einer Einzel-Ortsbestimmung arbeitet, ist zu erwarten, dass die von dem ersten Messmodell ermittelte neue Position verlässlicher ist. Es kann dann diesem Messmodell der Vorzug vor dem zweiten Messmodell gegeben werden.
  • Das Gütemaß kann auch beispielsweise eine anhand einer beliebigen Metrik gemessene Differenz zwischen den Messdaten, die gemäß dem jeweiligen Messmodell zu erwarten sind („synthetische Messung“), und den tatsächlichen Messdaten beinhalten.
  • Wenn die Position eines zuvor bereits erkannten Objekts anhand der Messdaten verfolgt wird, kann das Gütemaß beispielsweise auch eine Existenzwahrscheinlichkeit des Objekts beinhalten, die anhand des jeweiligen Messmodells ermittelt wird. Da es sich um ein bereits zuvor erkanntes Objekt handelt, ist bekannt, dass es existiert, d.h., die wahre Existenzwahrscheinlichkeit ist 1. Je näher die von dem jeweiligen Messmodell bestimmte Existenzwahrscheinlichkeit an diesen wahren Wert herankommt, desto plausibler ist es, dass dieses Messmodell auf die aktuelle Situation passt.
  • Es kann auch beispielsweise in das Gütemaß eingehen, ob von dem jeweiligen Messmodell ermittelte Bewegungen von Objekten innerhalb bestimmter Plausibilitätsgrenzen liegen, die wiederum vom Typ des Objekts abhängen können. So ist beispielsweise für Fußgänger nur eine recht geringe Geschwindigkeit oder für Fahrzeuge nur eine bestimmte maximale laterale Beschleunigung plausibel. Weiterhin können Prognosen des Verhaltens des Objekts auf Grund der ermittelten Kinematik mit dem Verhalten verglichen werden, das das Objekt später tatsächlich zeigt.
  • Der Zusammenhang, welches Messmodell in welcher Situation am besten geeignet ist, ist auch dem maschinellen Lernen zugänglich. Es kann also beispielsweise zu einer durch die Messdaten einerseits sowie durch die bereits erkannten Objekte und ihre Kinematiken andererseits charakterisierten Situation aus einem entsprechend trainierten neuronalen Netzwerk abgerufen werden, welches Messmodell in dieser Situation am besten geeignet ist, um aus den aktuellen Messdaten Erkennungen und/oder Ortungen von Objekten auszuwerten.
  • Immer dann, wenn kein spezialisiertes Messmodell Erfolg verspricht, kann das zuvor beschriebene generische Messmodell als Rückfallebene verwendet werden. Dieses generische Messmodell ist für alle Situationen geeignet und liefert zumindest eine durchschnittliche Erkennungsleistung.
  • In einer besonders vorteilhaften Ausgestaltung werden Messdaten gewählt, die zumindest teilweise von einem Sensor aufgenommen wurden, der an einem Fahrzeug montiert ist. Insbesondere kann ein Cluster aus hochauflösenden Radarsensoren, die an verschiedenen Positionen an einem Fahrzeug montiert sind, verwendet werden. Gerade für die Begutachtung von Verkehrssituationen und die Auswahl von Aktionen für das eigene Fahrzeug (Ego-Fahrzeug) kommt es darauf an, möglichst alle dynamischen Objekte erstmals zu erfassen (auch „spawning“ genannt) und ihre Positionen sowie Kinematiken fortwährend zu aktualisieren (auch „updating“ genannt). Die von den Sensoren am Fahrzeug aufgenommen Messdaten können auch durch Messdaten von Sensoren ergänzt werden, die in einer festen Infrastruktur verbaut sind. Beispielsweise können an unübersichtlichen Kreuzungen Radarsensoren als feste Infrastruktur montiert sein. Diese Radarsensoren können ihre Messdaten Fahrzeugen, die sich der Kreuzung nähern, zur Verfügung stellen. Derartige festinstallierte Radarsensoren sind also gewissermaßen ein Äquivalent zu Verkehrsspiegeln, die an unübersichtlichen Kreuzungen angebracht werden, damit sie besser eingesehen werden können.
  • In einer weiteren besonders vorteilhaften Ausgestaltung wird aus einer Verkehrssituation, in der sich das Fahrzeug mit dem Sensor befindet, eine Zusatzinformation dahingehend abgeleitet, dass das Vorhandensein eines ersten Typs von Objekten im Erfassungsbereich des Sensors unwahrscheinlicher ist als das Vorhandensein eines zweiten Typs von Objekten in diesem Erfassungsbereich. Insbesondere kann es von der Kategorie der aktuell von dem Fahrzeug benutzten Straße abhängig sein, mit welchen Typen von Objekten dort am ehesten zu rechnen ist. So sind beispielsweise auf Autobahnen Radfahrer und Fußgänger in der Regel nicht anzutreffen, während deren Erkennung andererseits im Stadtverkehr auf Grund des Verletzungsrisikos eine hohe Priorität hat. Die Fokussierung auf Messmodelle für diejenigen Objekte, deren Auftreten am wahrscheinlichsten ist, verbessert sowohl die Geschwindigkeit als auch die Genauigkeit der Objekterkennung.
  • Das Verfahren kann insbesondere ganz oder teilweise computerimplementiert sein. Daher bezieht sich die Erfindung auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, das beschriebene Verfahren auszuführen. In diesem Sinne sind auch Steuergeräte für Fahrzeuge und Embedded-Systeme für technische Geräte, die ebenfalls in der Lage sind, maschinenlesbare Anweisungen auszuführen, als Computer anzusehen.
  • Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger und/oder auf ein Downloadprodukt mit dem Computerprogramm. Ein Downloadprodukt ist ein über ein Datennetzwerk übertragbares, d.h. von einem Benutzer des Datennetzwerks downloadbares, digitales Produkt, das beispielsweise in einem Online-Shop zum sofortigen Download feilgeboten werden kann.
  • Weiterhin kann ein Computer mit dem Computerprogramm, mit dem maschinenlesbaren Datenträger bzw. mit dem Downloadprodukt ausgerüstet sein. Beispielsweise kann das Computerprogramm auf einem Erweiterungsmodul für einen Computer oder ein Steuergerät verkörpert sein, das sowohl einen nichtflüchtigen Speicher mit dem Computerprogramm als auch einen Hardwarebeschleuniger (etwa einen Grafikprozessor, GPU) für von dem Computerprogramm häufig ausgeführte Rechenoperationen enthält.
  • Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.
  • Ausführungsbeispiele
  • Es zeigt:
    • 1 Ausführungsbeispiel des Verfahrens 100;
    • 2 Beispielhafte Integration des Verfahrens 100 in ein Fahrzeug 50;
    • 3 Beispielhafte Realisierung des Fitmoduls 51;
    • 4 Beispielhafte Verkehrssituationen 50a und ihre Auswirkungen auf die Messdaten 11.
  • 1 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 100. In Schritt 110 wird auf der Basis von Zusatzinformationen 12 mindestens ein Messmodell 13 für die Auswertung von Messdaten 11 ausgewählt, die mit mindestens einem Radarsensor 1 aufgenommen wurden. Dieses Messmodell 13 wird in Schritt 120 an die Messdaten 11 gefittet. Aus der hierbei erzielten Übereinstimmung zwischen Messmodell 13 und Messdaten 11, und/oder den hierbei erhaltenen Werten der freien Parameter 13* des Messmodells 13, wird in Schritt 130 die Erkennung und/oder Ortung 2* mindestens eines Objekts 2 ausgewertet.
  • Diese Erkennung und/oder Ortung 2* kann unmittelbar weiterverarbeitet werden. Gemäß Block 140 kann jedoch stattdessen zunächst geprüft werden, ob das Ergebnis des Fittens, bzw. die hieraus ausgewertete Erkennung und/oder Ortung 2*, einem Plausibilitätskriterium 14 genügt. Ist dies der Fall (Wahrheitswert 1), kann die Erkennung und/oder Ortung 2* als Endergebnis verwendet werden. Ist das Plausibilitätskriterium hingegen nicht erfüllt (Wahrheitswert 0), kann zu Schritt 110 zurückverzweigt und ein neues Messmodell 13 ausgewählt werden.
  • Es können auch mehrere Messmodelle 13a-13c an Stelle eines einzigen Messmodells 13 genutzt werden. Diese Messmodelle 13a-13c, bzw. die damit jeweils erzielten Ergebnisse, können dann in Schritt 160 mit einem Gütemaß 15 bewertet werden. Das Arbeitsergebnis mit dem besten Gütemaß 15 kann dann in Schritt 170 zum Endergebnis der Erkennung bzw. Ortung 2* erhoben werden.
  • Innerhalb des Kastens 110 sind mehrere beispielhafte Möglichkeiten dargestellt, wie Zusatzinformationen 12 und Messmodelle 13, 13a-3c erhalten werden können.
  • Gemäß Block 111 kann mindestens eine Zusatzinformation 12 aus den Messdaten 11 ausgewertet werden. Hierbei kann insbesondere gemäß Block 111a die Starrheit des erfassten Objekts 2 anhand eines Anteils der Messdaten 11, der auf den Doppler-Effekt zurückgeht, ermittelt werden.
  • Gemäß Block 112 kann mindestens eine Zusatzinformation 12 aus einer vorangegangenen Erkennung und/oder Ortung 2* eines Objekts 2 ausgewertet werden. Diese vorangegangene Erkennung und/oder Ortung 2* kann gemäß Block 112a zumindest teilweise auf Messdaten 11' zurückgeht, die mit mindestens einem weiteren, von dem Radarsensor 1 verschiedenen Sensor aufgenommen wurden, und/oder sie kann mit solchen Messdaten 11' von dem weiteren Sensor zusammengeführt werden.
  • Gemäß Block 113 kann anhand mindestens einer Zusatzinformation 12 eine vorgegebene Abfolge mehrerer Messmodelle 13 in absteigender Richtung nach Wahrscheinlichkeiten geordnet werden, mit denen bei Verwendung des jeweiligen Messmodells 13 das Plausibilitätskriterium 14 erfüllt ist.
  • Gemäß Block 114 kann aus einer Verkehrssituation 50a, in der sich das Fahrzeug 50 mit dem Sensor 1 befindet, eine Zusatzinformation 12 dahingehend abgeleitet werden, dass das Vorhandensein eines ersten Typs von Objekten 2 im Erfassungsbereich des Sensors 1 unwahrscheinlicher ist als das Vorhandensein eines zweiten Typs von Objekten 2 in diesem Erfassungsbereich.
  • 2 zeigt ein Ausführungsbeispiel, wie das Verfahren 100 in ein Fahrzeug 50 integriert werden kann. Messdaten 11 aus einem Radarsensor 1 des Fahrzeugs 50 werden einem Fitmodul 51 zugeführt, das auf der Basis von Zusatzinformationen 12 ein oder mehrere Messmodelle 13, 13a-13c auswählt und auf die Messdaten 11 anwendet, um in der zuvor beschriebenen Weise zu einer Erkennung und/oder Ortung 2* von Objekten 2 zu gelangen. Die Erkennung und/oder Ortung 2* wird einem Objektverfolgungsmodul 52 zugeführt, das zusätzlich auch Messdaten 11' von anderen Sensoren als dem Radarsensor 1 erhält und alle Erkennungen und/oder Ortungen 2* von Objekten 2, gleich aus welcher Quelle, verwaltet. Erkennungen und/oder Ortungen 2* können aus dem Objektverfolgungsmodul 52 in das Fitmodul 51 zurückgespielt werden und dort zumindest einen Teil der für die Auswahl von Messmodellen 13, 13a-13c genutzten Zusatzinformation 12 bilden.
  • Die gesammelten Erkennungen und/oder Ortungen 2** aus dem Objektverfolgungsmodul 52 werden einer automatisierten Fahrfunktion 53 zugeführt, die Ansteuersignale 53a für Aktoren 54 des Fahrzeugs 50 bilden. Die Aktoren 54 wirken physikalisch auf die Fahrdynamik des Fahrzeugs 50.
  • 3 zeigt eine beispielhafte Realisierung des Fitmoduls 51. Ein Vorauswahlmodul 51a wählt für konkrete Messdaten 11 anhand von Zusatzinformation 12, die insbesondere bereits ermittelte Erkennungen und/oder Ortungen 2* sowie Messdaten 11' anderer Sensoren umfassen kann, mehrere Messmodelle 13a-13c aus. Ein Ausführungsmodul 51b wendet diese Messmodelle 13a-13c auf die Messdaten 11 an. Die jeweiligen Arbeitsergebnisse 2* werden in einem Abstimmungsmodul 51c anhand des Gütemaßes 15 miteinander verglichen, so dass eines dieser Arbeitsergebnisse 2* schließlich als Endergebnis ausgegeben wird.
  • 4 zeigt beispielhaft, wie sich unterschiedliche Verkehrssituationen 50a auf die Verfügbarkeit von Messdaten 11 auswirken.
  • In 4a befindet sich ein Fremdfahrzeug 60 als Objekt 2 nahe am Ego-Fahrzeug 50, das den Radarsensor 1 trägt. Das Fremdfahrzeug 60 ist massiv und starr, und es deckt vom Ego-Fahrzeug 50 aus gesehen einen großen Raumwinkel ab. Daher entstehen viele mit Sternen gekennzeichnete Radarreflexe als Messdaten 11.
  • In 4b befindet sich in der gleichen geringen Entfernung zum Ego-Fahrzeug 50 ein Fußgänger 61 als Objekt 2. Der Fußgänger 61 ist kleiner als ein Fahrzeug, deckt also vom Ego-Fahrzeug 50 aus gesehen nur einen kleinen Raumwinkel ab. Außerdem ist er weniger starr als ein Fahrzeug und daher von vornherein ein schlechterer Reflektor für Radarstrahlung. Daher entstehen weniger Radarreflexe als Messdaten 11.
  • In 4c befinden sich sowohl ein Fremdfahrzeug 60 als auch ein Fußgänger 61 als Objekte 2 relativ weit entfernt vom Ego-Fahrzeug 50. Beide Objekte 2 decken daher nur einen sehr geringen Raumwinkel ab und erzeugen jeweils nur einen Radarreflex als Messdaten 11. Daher es schwieriger, allein anhand dieser Messdaten 11 die beiden Objekte 2 zu klassifizieren und/oder ihre Bewegungen zu verfolgen.

Claims (10)

  1. Verfahren (100) zur Erkennung und/oder Ortung von Objekten (2) anhand von Messdaten (11), die mit mindestens einem Radarsensor (1) aufgenommen wurden, mit den Schritten: • auf der Basis von Zusatzinformationen (12) hinsichtlich des Typs und/oder der räumlichen Ausdehnung mindestens eines von dem Radarsensor erfassten Objekts (2), einer physikalischen Beschaffenheit dieses Objekts (2), der Entfernung dieses Objekts (2) zum Radarsensor (1), und/oder Randbedingungen bezüglich der Kinematik des Objekts (2), wird mindestens ein Messmodell (13, 13a-13c) ausgewählt (110), wobei dieses Messmodell (13, 13a-13c) angibt, wie sich das Vorhandensein eines Objekts (2) an einem Ort, und/oder eine Bewegung des Objekts (2), in den Messdaten (11) manifestiert, wobei dieses Messmodell (13, 13a-13c) freie Parameter (13*) aufweist, wobei die Starrheit des erfassten Objekts (2) anhand eines Anteils der Messdaten (11), der auf den Doppler-Effekt zurückgeht, als Zusatzinformation (12) aus den Messdaten (11) ausgewertet wird (111, 111a); • das Messmodell (13) wird durch Optimieren seiner freien Parameter (13*) an die Messdaten (11) gefittet (120); • aus der beim Fitten (120) erzielten Übereinstimmung und den beim Fitten erhaltenen Werten der freien Parameter (13*) wird die Erkennung und/oder Ortung (2*) des Objekts (2) ausgewertet (130), wobei • mehrere Messmodelle (13a-13c) ausgewählt (110) und an die Messdaten (11) gefittet werden (120); • das Messmodell (13a-13c), und/oder die beim Fitten (120) erzielte Übereinstimmung, und/oder die beim Fitten (120) erhaltenen Werte der freien Parameter (13*), und/oder eine hieraus ausgewertete Kandidaten-Erkennung und/oder Kandidaten-Ortung, im Hinblick auf ihre Plausibilität mit einem Gütemaß (15) bewertet wird (160); und • eine Kandidaten-Erkennung bzw. Kandidaten-Ortung, die zu dem besten Gütemaß (15) korrespondiert, zum Endergebnis der Erkennung bzw. Ortung (2*) erhoben wird (170).
  2. Verfahren (100) nach Anspruch 1, wobei mindestens eine Zusatzinformation (12) aus einer vorangegangenen Erkennung und/oder Ortung (2*) eines Objekts (2) ausgewertet wird (112).
  3. Verfahren (100) nach Anspruch 2, wobei die vorangegangene Erkennung und/oder Ortung (2*) zumindest teilweise auf Messdaten (11') zurückgeht, die mit mindestens einem weiteren, von dem Radarsensor (1) verschiedenen Sensor aufgenommen wurden, und/oder mit solchen Messdaten (11') von dem weiteren Sensor zusammengeführt wird (112a).
  4. Verfahren (100) nach einem der Ansprüche 1 bis 3, wobei • nach dem Fitten (120) geprüft wird (140), ob die beim Fitten (120) erzielte Übereinstimmung, und/oder die beim Fitten (120) erhaltenen Werte der freien Parameter (13*), und/oder eine hieraus ausgewertete Kandidaten-Erkennung und/oder Kandidaten-Ortung, ein vorgegebenes Plausibilitätskriterium (14) erfüllen; und • in Antwort darauf, dass das Plausibilitätskriterium (14) erfüllt ist, die Kandidaten-Erkennung, bzw. Kandidaten-Ortung, zum Endergebnis der Erkennung bzw. Ortung (2*) erhoben wird (150), während • in Antwort darauf, dass das Plausibilitätskriterium (14) nicht erfüllt ist, ein weiteres Messmodell ausgewählt (110) und an die Messdaten gefittet wird (120).
  5. Verfahren (100) nach Anspruch 4, wobei anhand mindestens einer Zusatzinformation (12) eine vorgegebene Abfolge mehrerer Messmodelle (13) in absteigender Richtung nach Wahrscheinlichkeiten geordnet wird (113), mit denen bei Verwendung des jeweiligen Messmodells (13) das Plausibilitätskriterium (14) erfüllt ist.
  6. Verfahren (100) nach einem der Ansprüche 1 bis 5, wobei Messdaten (11) gewählt werden, die zumindest teilweise von einem Sensor (1) aufgenommen wurden, der an einem Fahrzeug (50) montiert ist.
  7. Verfahren (100) nach Anspruch 6, wobei aus einer Verkehrssituation (50a), in der sich das Fahrzeug (50) mit dem Sensor (1) befindet, eine Zusatzinformation (12) dahingehend abgeleitet wird (114), dass das Vorhandensein eines ersten Typs von Objekten (2) im Erfassungsbereich des Sensors (1) unwahrscheinlicher ist als das Vorhandensein eines zweiten Typs von Objekten (2) in diesem Erfassungsbereich.
  8. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, das Verfahren (100) nach einem der Ansprüche 1 bis 7 auszuführen.
  9. Maschinenlesbarer Datenträger und/oder Downloadprodukt mit dem Computerprogramm nach Anspruch 8.
  10. Computer mit dem Computerprogramm nach Anspruch 8, und/oder mit dem maschinenlesbaren Datenträger und/oder Downloadprodukt nach Anspruch 9.
DE102020206639.6A 2020-05-27 2020-05-27 Erkennung und/oder Ortung von Objekten anhand von Radardaten Active DE102020206639B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020206639.6A DE102020206639B4 (de) 2020-05-27 2020-05-27 Erkennung und/oder Ortung von Objekten anhand von Radardaten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020206639.6A DE102020206639B4 (de) 2020-05-27 2020-05-27 Erkennung und/oder Ortung von Objekten anhand von Radardaten

Publications (2)

Publication Number Publication Date
DE102020206639A1 DE102020206639A1 (de) 2021-12-02
DE102020206639B4 true DE102020206639B4 (de) 2022-12-01

Family

ID=78508815

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020206639.6A Active DE102020206639B4 (de) 2020-05-27 2020-05-27 Erkennung und/oder Ortung von Objekten anhand von Radardaten

Country Status (1)

Country Link
DE (1) DE102020206639B4 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8682821B2 (en) 2011-08-08 2014-03-25 Robert Bosch Gmbh Method for detection of movement of a specific type of object or animal based on radar signals
DE102016103251A1 (de) 2016-02-24 2017-08-24 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben von mindestens einem Sensor zur Umfelderfassung eines Fahrzeugs
EP3553551A1 (de) 2018-04-10 2019-10-16 Aptiv Technologies Limited Verfahren zur erkennung eines objekts
DE102018123779A1 (de) 2018-09-26 2020-03-26 HELLA GmbH & Co. KGaA Verfahren und Vorrichtung zum Verbessern einer Objekterkennung eines Radargeräts
DE102018217533A1 (de) 2018-10-12 2020-04-16 Conti Temic Microelectronic Gmbh Verfahren zur Klassifikation eines Objekts

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8682821B2 (en) 2011-08-08 2014-03-25 Robert Bosch Gmbh Method for detection of movement of a specific type of object or animal based on radar signals
DE102016103251A1 (de) 2016-02-24 2017-08-24 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben von mindestens einem Sensor zur Umfelderfassung eines Fahrzeugs
EP3553551A1 (de) 2018-04-10 2019-10-16 Aptiv Technologies Limited Verfahren zur erkennung eines objekts
DE102018123779A1 (de) 2018-09-26 2020-03-26 HELLA GmbH & Co. KGaA Verfahren und Vorrichtung zum Verbessern einer Objekterkennung eines Radargeräts
DE102018217533A1 (de) 2018-10-12 2020-04-16 Conti Temic Microelectronic Gmbh Verfahren zur Klassifikation eines Objekts

Also Published As

Publication number Publication date
DE102020206639A1 (de) 2021-12-02

Similar Documents

Publication Publication Date Title
DE102011117585B4 (de) Systeme und Verfahren zum Verfolgen von Objekten
DE102017209772A1 (de) Objekterkennungsverarbeitungsvorrichtung, Objekterkennungsverarbeitungsverfahren und autonomes Fahrsystem
US8731816B2 (en) Method for classifying an object as an obstacle
DE102018220024B3 (de) Verfahren zur Fusion von Sensordaten von mehreren Sensoren und Fusionsvorrichtung zum Fusionieren von Sensordaten von mehreren Sensoren
DE102017200562A1 (de) Objekterkennung-integrationsvorrichtung und objekterkennung-integrationsverfahren
DE102015117379A1 (de) Verfahren zum Erfassen eines dynamischen Objekts in einem Umgebungsbereich eines Kraftfahrzeugs auf Basis von Informationen einer kraftfahrzeugseitigen Ultraschalldetektionseinrichtung, Fahrerassistenzsystem und Kraftfahrzeug
DE102010005290A1 (de) Vereinigungsmodul für mehrere Objekte für ein Kollisionsvorbereitungssystem
DE102012103087A1 (de) Objektidentifizierungsvorrichtung und Objektidentifizierungsverfahren
DE112018004835T5 (de) Kollisionsvorhersagevorrichtung, Kollisionsvorhersageverfahren und Programm
DE102015226116A1 (de) Verfahren zum Bewerten einer durch zumindest einen Sensor eines Fahrzeugs erfassten Gefahrensituation, Verfahren zum Steuern einer Wiedergabe einer Gefahrenwarnung und Verfahren zum Wiedergeben einer Gefahrenwarnung
US11269059B2 (en) Locating and/or classifying objects based on radar data, with improved reliability at different distances
DE102016015405A1 (de) Umfassende Umgebungserfassung für einen Kraftwagen mittels Radar
WO2020104551A1 (de) Objekterkennung mittels sensorsystem von fahrzeugen
WO2022069399A1 (de) Verfahren zur bestimmung eines sensor-degradations-status
DE112021004200T5 (de) Objekterkennungsvorrichtung
DE102020206639B4 (de) Erkennung und/oder Ortung von Objekten anhand von Radardaten
DE102020105192B4 (de) Verfahren zum Detektieren bewegter Objekte in einer Fahrzeugumgebung und Kraftfahrzeug
WO2021165077A1 (de) Verfahren und vorrichtung zur bewertung eines bildklassifikators
DE20311636U1 (de) Vorrichtung zur Bestimmung der Position von Objekten im Umfeld eines Fahrzeuges
JPH11142168A (ja) 環境認識装置
CN114822044B (zh) 一种基于隧道的行车安全预警方法及设备
DE102019202266A1 (de) Verfahren und Computerprogrammprodukt zum Adaptieren einer Auflösung eines Multisensorsystems eines Straßenfahrzeuges und Steuergerät für ein Multisensorsystem und Computerprogrammprodukt
DE102020203828A1 (de) Verfahren zum Erkennen einer Umgebung eines Fahrzeugs
CN116964472A (zh) 用于借助于雷达传感器系统的反射信号来探测环境的至少一个对象的方法
DE112020001528T5 (de) Erfassungsvorrichtung und erfassungsverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final