DE102019115080A1 - Verfahren zum vereindeutigen mehrdeutiger erkennungen in sensorfusionssystemen - Google Patents

Verfahren zum vereindeutigen mehrdeutiger erkennungen in sensorfusionssystemen Download PDF

Info

Publication number
DE102019115080A1
DE102019115080A1 DE102019115080.9A DE102019115080A DE102019115080A1 DE 102019115080 A1 DE102019115080 A1 DE 102019115080A1 DE 102019115080 A DE102019115080 A DE 102019115080A DE 102019115080 A1 DE102019115080 A1 DE 102019115080A1
Authority
DE
Germany
Prior art keywords
candidate
detection
recognition
module
select
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019115080.9A
Other languages
English (en)
Inventor
Lawrence A. Bush
Brent N. Bacchus
Shuqing Zeng
Stephen W. Decker
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102019115080A1 publication Critical patent/DE102019115080A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar

Abstract

Ein Vereindeutigungssystem zum Vereindeutigen zwischen mehrdeutigen Erkennungen wird bereitgestellt. Das System beinhaltet eine Vielzahl von Modulen, wobei jedes Modul konfiguriert ist, um zwischen mehrdeutigen Erkennungen zu vereindeutigen, indem es als eine wahre Erkennung eine Kandidatenerkennung in einem Satz mehrdeutiger Erkennungen wählt, und wobei jedes Modul konfiguriert ist, um eine andere Auswahltechnik anzuwenden. Das System beinhaltet: ein oder mehrere Module, die konfiguriert sind, um die echte Erkennung zu wählen, wobei die Kandidatenerkennung näher an einer Position liegt, die durch andere Daten angezeigt wird, und ein oder mehrere Module, die konfiguriert sind, um die wahre Erkennung zu wählen, wobei die Kandidatenerkennung mit der höchsten Wahrscheinlichkeit, dass sie basierend auf anderen Sensordaten wahr ist, als wahr erachtet wird.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung bezieht sich im Allgemeinen auf die Objekterkennung und -verfolgung und insbesondere auf Systeme und Verfahren in einem Fahrzeug zum Vereindeutigen mehrdeutiger Erkennungen, wie beispielsweise mehrdeutigen Radarerkennungen.
  • Fahrzeugwahrnehmungssysteme wurden in Fahrzeuge integriert, um es einem Fahrzeug zu ermöglichen, seine Umgebung zu erkennen und in einigen Fällen dem Fahrzeug zu ermöglichen, autonom oder teilautonom zu navigieren. Abtastvorrichtungen, die in Fahrzeugwahrnehmungssystemen eingesetzt werden können, beinhalten Radar, Lidar, Bildsensoren und andere.
  • Während in den letzten Jahren signifikante Fortschritte bei Fahrzeugwahrnehmungssystemen zu verzeichnen waren, könnten solche Systeme in mehrfacher Hinsicht noch verbessert werden. Radare, insbesondere jene, die in Automobilanwendungen verwendet werden, können mehr als eine mehrdeutige Positionserkennung für ein einzelnes Ziel zurückgeben, wie beispielsweise zwei in Frage kommende Azimut- oder Elevationswinkel. Radarhardware allein kann diese Mehrdeutigkeit nicht lösen.
  • Dementsprechend ist es wünschenswert, verbesserte Systeme und Verfahren zum Vereindeutigen der mehrdeutigen Erkennungen bereitzustellen. Ferner werden andere wünschenswerte Funktionen und Merkmale der vorliegenden Erfindung aus der nachfolgenden ausführlichen Beschreibung und den beigefügten Ansprüchen, in Verbindung mit den beigefügten Zeichnungen, sowie mit dem vorangehenden technischen Gebiet und Hintergrund ersichtlich offensichtlich.
  • KURZDARSTELLUNG
  • Systeme und Verfahren für ein verbessertes Radarerkennungssystem werden bereitgestellt. In einer Ausführungsform ist ein Vereindeutigungssystem zum Vereindeutigen zwischen mehrdeutigen Erkennungen vorgesehen. Das System beinhaltet eine Vielzahl von Modulen, wobei jedes Modul konfiguriert ist, um zwischen mehrdeutigen Erkennungen zu vereindeutigen, indem es als eine wahre Erkennung eine Kandidatenerkennung in einem Satz mehrdeutiger Erkennungen wählt, und wobei jedes Modul konfiguriert ist, um eine andere Auswahltechnik anzuwenden. Das System beinhaltet: ein oder mehrere Module, die durch einen Prozessor konfiguriert sind, um als die echte Erkennung auszuwählen, wobei die Kandidatenerkennung näher an einer Position liegt, die durch andere Daten angezeigt wird, und ein oder mehrere Module, die durch einen Prozessor konfiguriert sind, um als die wahre Erkennung zu wählen, wobei die Kandidatenerkennung mit der höchsten Wahrscheinlichkeit, dass sie basierend auf anderen Sensordaten wahr ist, als die tatsächliche Erkennung ausgewählt wird.
  • In einer Ausführungsform beinhalten die mehrdeutigen Erkennungen mehrdeutige Radarerkennungen, wobei der Satz mehrdeutiger Erkennungen zwei mehrdeutige Radarerkennungen beinhaltet und das Auswählen als eine tatsächliche Erkennung einer Kandidatenerkennung in einem Satz mehrdeutiger Erkennungen das Auswählen als wahr erfasstes Radar in einem Satz von zwei mehrdeutigen Radarerkennungen beinhaltet.
  • In einer Ausführungsform beinhalten das eine oder die mehreren Module, die konfiguriert sind, um als die tatsächliche Erkennung der Kandidatenerkennung zu wählen, deren zugehörige Position näher an einer durch andere Daten angegebenen Position liegt, eines oder mehrere der Folgenden: ein erstes Modul, das konfiguriert ist, um als eine echte Erkennung die Kandidatenerkennung auszuwählen, die einer vorhergesagten nächsten Position für ein Ziel am nächsten ist; ein zweites Modul, das dazu konfiguriert ist, als eine wahre Erkennung die Kandidatenerkennung auszuwählen, die einem ersten bekannten Fahrweg am nächsten ist; ein drittes Modul, das dazu konfiguriert ist, als eine echte Erkennung die Kandidatenerkennung auszuwählen, die eine Position und Geschwindigkeit angibt, die mit einem Ziel übereinstimmt, das auf einem zweiten bekannten Fahrweg fährt; und ein viertes Modul, das dazu konfiguriert ist, als eine echte Erkennung die Kandidatenerkennung auszuwählen, die eine Position anzeigt, die einer Position am nächsten ist, die durch eine Erkennung von einem anderen Sensor angezeigt wird.
  • In einer Ausführungsform ist das erste Modul konfiguriert, um eine Abstandsmetrik aus der letzten Position eines verfolgten Ziels zu jeder Kandidatenerkennung zu berechnen, eine nächste Position für das verfolgte Ziel vorherzusagen und eine Kandidatenerkennung auszuwählen, deren Entfernung von der vorhergesagten nächsten Position kleiner als ein Schwellenabstand ist.
  • In einer Ausführungsform wird der erste bekannte Fahrtweg aus Kartendaten bestimmt und wobei das zweite Modul konfiguriert ist, um die Kandidatenerkennung auszuwählen, die dem ersten bekannten Fahrtweg und innerhalb einer Schwellenwertentfernung vom ersten bekannten Fahrtweg am nächsten liegt.
  • In einer Ausführungsform wird der erste bekannte Fahrtweg durch Bildgebungsdaten bestimmt und wobei das zweite Modul konfiguriert ist, um die Kandidatenerkennung auszuwählen, die dem ersten bekannten Fahrtweg und innerhalb eines Schwellenwertabstandes vom Verfahrweg am nächsten liegt.
  • In einer Ausführungsform ist das dritte Modul konfiguriert, um eine scheinbare statische Bereichsrate eines Ziels basierend auf einer Kandidatenerkennung zu berechnen, die Straßengeschwindigkeit zu berechnen und Kandidatenerkennungen herauszufiltern, die ein Ziel mit einer Position und einer berechneten Geschwindigkeit anzeigen, die inkonsistent mit dem Fahren auf dem zweiten bekannten Weg ist.
  • In einer Ausführungsform ist das vierte Modul konfiguriert, um die Kandidatenerkennung mit Daten von einem zweiten Sensor, der ein überlapptes Sichtfeld aufweist, zu vergleichen.
  • In einer Ausführungsform beinhaltet der zweite Sensor eine Bildgebungsvorrichtung.
  • In einer Ausführungsform beinhaltet der zweite Sensor einen Radarsensor.
  • In einer Ausführungsform beinhaltet das eine oder die mehreren Module, die dazu konfiguriert sind, die Kandidatenerkennung mit der höchsten Wahrscheinlichkeit zu wählen, basierend auf anderen Sensordaten, eines oder mehrere von: einem fünften Modul, das konfiguriert ist, um eine Gauß‘sche Verteilung für jede Kandidatenerkennung und Bilddaten mit einem Sichtfeld zu berechnen, das die Kandidatenerkennung umfasst, die Wahrscheinlichkeit, dass die Kandidatenerkennung real ist, basierend auf der berechneten Gauß‘schen Verteilung, und die Kandidatenerkennung auszuwählen, welche die höchste Wahrscheinlichkeit hat, dass sie real ist; und ein sechstes Modul, das konfiguriert ist, um eine Gauß‘sche Verteilung für jede Kandidatenerkennung und Radarmerkmalsdaten mit einem Sichtfeld zu berechnen, das die Kandidatenerkennung umfasst, die Wahrscheinlichkeit, dass die Kandidatenerkennung real ist, basierend auf der berechneten Gauß‘schen Verteilung, und die Kandidatenerkennung auszuwählen, welche die höchste Wahrscheinlichkeit hat, real zu sein.
  • In einer Ausführungsform beinhaltet das System ferner ein siebtes Modul, das ein Modell beinhaltet, das unter Verwendung von maschinellen Lerntechniken trainiert wird, um die Kandidatenerkennung auszuwählen, die eine Position anzeigt, die mit einem erlernten fahrbaren Weg konsistent ist.
  • In einer Ausführungsform wurde das Modell unter Verwendung von Verstärkungslerntechniken trainiert, die einen Datensatz von früheren mehrdeutigen Radardaten und zeitbegrenzten Bruchstücken von fahrbaren Pfaden verwenden und wobei das siebte Modul konfiguriert ist, um die Kandidatenerkennung auszuwählen, die wahrscheinlich zu einem der befahrbaren Pfade beigetragen hat.
  • In einer anderen Ausführungsform wird ein Fahrzeug, einschließlich einer Radarerkennungsvorrichtung, einer zweiten Sensorvorrichtung und eines Vereindeutigungssystems zum Vereindeutigen zwischen mehrdeutigen Radarerkennungen bereitgestellt. Das Vereindeutigungssystem beinhaltet eine Vielzahl von Modulen, wobei jedes Modul konfiguriert ist, um zwischen mehrdeutigen Radarerkennungen zu vereindeutigen, indem es als eine wahre Erkennung eine Kandidatenradarerkennung in einem Satz von mehrdeutigen Radarerkennungen wählt, und wobei jedes Modul konfiguriert ist, um eine andere Auswahltechnik anzuwenden. Das Vereindeutigungssystem beinhaltet: ein oder mehrere Module, die konfiguriert sind, um als die echte Erkennung auszuwählen, wobei die Kandidatenradarkennung näher an einer Position liegt, die durch Daten von der zweiten Erkennungsvorrichtung angegeben ist; und ein oder mehrere Module, die konfiguriert sind, um als die echte Erkennung auszuwählen, wobei die Kandidatenerkennung mit der höchsten Wahrscheinlichkeit, dass sie auf anderen Sensordaten basieren, wahr ist.
  • In einer Ausführungsform beinhalten das eine oder die mehreren Module, die konfiguriert sind, um als die tatsächliche Erkennung der Kandidatenerkennung zu wählen, deren zugehörige Position näher an einer durch andere Daten angegebenen Position liegt, eines oder mehrere der Folgenden: ein erstes Modul, das konfiguriert ist, um als eine echte Erkennung die Kandidatenerkennung auszuwählen, die einer vorhergesagten nächsten Position für ein Ziel am nächsten ist; ein zweites Modul, das dazu konfiguriert ist, als eine wahre Erkennung die Kandidatenerkennung auszuwählen, die einem ersten bekannten Fahrweg am nächsten ist; ein drittes Modul, das dazu konfiguriert ist, als eine echte Erkennung die Kandidatenerkennung auszuwählen, die eine Position und Geschwindigkeit angibt, die mit einem Ziel übereinstimmt, das auf einem zweiten bekannten Fahrweg fährt; und ein viertes Modul, das dazu konfiguriert ist, als eine echte Erkennung die Kandidatenerkennung auszuwählen, die eine Position anzeigt, die einer Position am nächsten ist, die durch eine Erkennung von einem anderen Sensor angezeigt wird.
  • In einer Ausführungsform ist das erste Modul konfiguriert, um eine Abstandsmetrik aus der letzten Position eines verfolgten Ziels zu jeder Kandidatenerkennung zu berechnen, eine nächste Position für das verfolgte Ziel vorherzusagen und eine Kandidatenerkennung auszuwählen, deren Entfernung von der vorhergesagten nächsten Position kleiner als eine Schwellenentfernung ist; der erste bekannte Fahrtweg aus Kartendaten oder Bildgebungsdaten bestimmt wird und wobei das zweite Modul konfiguriert ist, um die Kandidatenerkennung auszuwählen, die dem ersten bekannten Fahrtweg am nächsten liegt und innerhalb eines Schwellenwertabstandes vom ersten bekannten Fahrtweg; das dritte Modul dazu konfiguriert ist, eine scheinbare statische Bereichsrate eines Ziels basierend auf einer Kandidatenerkennung zu berechnen, die Straßengeschwindigkeit zu berechnen und Kandidatenerkennungen herauszufiltern, die ein Ziel mit einer Position und einer berechneten Geschwindigkeit anzeigen, die inkonsistent mit dem Fahren auf dem zweiten bekannten Weg ist; das vierte Modul dazu konfiguriert ist, die Kandidatenerkennung mit Daten von einem zweiten Sensor zu vergleichen, der ein überlapptes Sichtfeld aufweist; und der zweite Sensor eine Bildgebungsvorrichtung oder einen Radarsensor beinhaltet.
  • In einer Ausführungsform beinhaltet das eine oder die mehreren Module, die dazu konfiguriert sind, die Kandidatenerkennung mit der höchsten Wahrscheinlichkeit zu wählen, basierend auf anderen Sensordaten, eines oder mehrere von: einem fünften Modul, das konfiguriert ist, um eine Gauß‘sche Verteilung für jede Kandidatenerkennung und Bilddaten mit einem Sichtfeld zu berechnen, das die Kandidatenerkennung umfasst, die Wahrscheinlichkeit, dass die Kandidatenerkennung real ist, basierend auf der berechneten Gauß‘schen Verteilung, und die Kandidatenerkennung auszuwählen, welche die höchste Wahrscheinlichkeit hat, dass sie real ist; und ein sechstes Modul, das konfiguriert ist, um eine Gauß‘sche Verteilung für jede Kandidatenerkennung und Radarmerkmalsdaten mit einem Sichtfeld zu berechnen, das die Kandidatenerkennung umfasst, die Wahrscheinlichkeit, dass die Kandidatenerkennung real ist, basierend auf der berechneten Gauß‘schen Verteilung, und die Kandidatenerkennung auszuwählen, welche die höchste Wahrscheinlichkeit hat, real zu sein.
  • In einer Ausführungsform beinhaltet das Fahrzeug ferner ein siebtes Modul, das ein Modell beinhaltet, das unter Verwendung von maschinellen Lerntechniken trainiert wird, um die Kandidatenerkennung auszuwählen, die eine Position anzeigt, die mit einem erlernten fahrbaren Weg konsistent ist.
  • In einer Ausführungsform wurde das Modell unter Verwendung von Verstärkungslerntechniken trainiert, die einen Datensatz von früheren mehrdeutigen Radardaten und zeitbegrenzten Bruchstücken von fahrbaren Pfaden verwenden und wobei das siebte Modul konfiguriert ist, um die Kandidatenerkennung auszuwählen, die wahrscheinlich zu einem der befahrbaren Pfade beigetragen hat.
  • In einer anderen Ausführungsform ist ein Vereindeutigungssystem zum Vereindeutigen zwischen mehrdeutigen Erkennungen vorgesehen. Das System beinhaltet: ein erstes Modul, das konfiguriert ist, um als eine echte Erkennung die Kandidatenerkennung zu wählen, die einer vorhergesagten nächsten Position für ein Ziel am nächsten ist, wobei das erste Modul konfiguriert ist, um eine Abstandsmetrik aus der letzten Position eines verfolgten Ziels zu jeder Kandidatenerkennung zu berechnen, eine nächste Position für das verfolgte Ziel vorherzusagen und eine Kandidatenerkennung auszuwählen, deren Entfernung von der vorhergesagten nächsten Position kleiner als eine Schwellenentfernung ist; ein zweites Modul, das konfiguriert ist, um als eine wahre Erkennung die Kandidatenerkennung auszuwählen, die einem ersten bekannten Fahrtweg am nächsten liegt, wobei der erste bekannte Fahrtweg aus Kartendaten oder Bildgebungsdaten bestimmt wird und das zweite Modul konfiguriert ist, um die Kandidatenerkennung auszuwählen, die dem ersten bekannten Fahrtweg am nächsten liegt und innerhalb eines Schwellenwertes von dem ersten bekannten Fahrtweg; ein drittes Modul, das konfiguriert ist, um als eine echte Erkennung die Kandidatenerkennung auszuwählen, die eine Position und Geschwindigkeit angibt, die mit einem Ziel, das auf einem zweiten bekannten Bewegungspfad übereinstimmt, übereinstimmt, wobei das dritte Modul konfiguriert ist, um eine scheinbare statische Bereichsrate eines Ziels basierend auf einer Kandidatenerkennung zu berechnen, die Straßengeschwindigkeit zu berechnen und Kandidatenerkennungen herauszufiltern, die ein Ziel mit einer Position und einer berechneten Geschwindigkeit anzeigen, die inkonsistent mit dem Fahren auf dem zweiten bekannten Weg ist; ein viertes Modul, das konfiguriert ist, um als eine echte Erkennung die Kandidatenerkennung auszuwählen, die eine Position anzeigt, die einer Position am nächsten liegt, die durch eine Erkennung von einem anderen Sensor angezeigt wird, wobei das vierte Modul konfiguriert ist, um die Kandidatenerkennung mit Daten von einem zweiten Sensor zu vergleichen, der ein überlapptes Sichtfeld aufweist, und der zweite Sensor eine Bildgebungsvorrichtung oder einen Radarsensor beinhaltet; ein fünftes Modul, das dazu konfiguriert ist, eine Gauß‘sche Verteilung für jede Kandidatenerkennung und Bilddaten mit einem Sichtfeld, das die Kandidatenerkennung umfasst, zu berechnen, die Wahrscheinlichkeit zu schätzen, dass die Kandidatenerkennung real ist, basierend auf der berechneten Gauß‘schen Verteilung, und die Kandidatenerkennung auszuwählen, welche die höchste Wahrscheinlichkeit hat, real zu sein; ein sechstes Modul, das dazu konfiguriert ist, eine Gauß‘sche Verteilung für jede Kandidatenerkennung und Radarmerkmalsdaten mit einem Sichtfeld, das die Kandidatenerkennung umfasst, zu berechnen, die Wahrscheinlichkeit zu schätzen, dass die Kandidatenerkennung real ist, basierend auf der berechneten Gauß‘schen Verteilung, und die Kandidatenerkennung auszuwählen, welche die höchste Wahrscheinlichkeit hat, real zu sein, und ein siebtes Modul, das ein Modell beinhaltet, das unter Verwendung von maschinellen Lerntechniken trainiert ist, um die Kandidatenerkennung auszuwählen, die eine mit einem erlernten fahrbaren Weg übereinstimmende Position angibt, wobei das Modell unter Verwendung von Verstärkungslerntechniken trainiert wurde, die einen Datensatz mit früheren mehrdeutigen Radardaten und zeitbegrenzten Bruchstücken von fahrbaren Pfaden verwenden und wobei das siebte Modul dazu konfiguriert ist, die Kandidatenerkennung auszuwählen, die zu einem der befahrbaren Pfade beigetragen hat.
  • Figurenliste
  • Die exemplarischen Ausführungsformen werden nachfolgend in Verbindung mit den folgenden Zeichnungen beschrieben, wobei gleiche Bezugszeichen gleiche Elemente bezeichnen, und wobei gilt:
    • 1 zeigt ein exemplarisches Fahrzeug, das ein Radarerkennungs-Vereindeutigungsmodul zur Verwendung mit einem Radarsystem gemäß verschiedenen Ausführungsformen beinhaltet;
    • 2 ist ein Funktionsblockdiagramm, das ein autonomes Antriebssystem (ADS) in Verbindung mit einem autonomen Fahrzeug gemäß verschiedenen Ausführungsformen veranschaulicht;
    • 3 ist ein Blockdiagramm, das ein exemplarisches Radarerkennungs-Vereindeutigungsmodul zur Verwendung in einem Fahrzeug gemäß verschiedenen Ausführungsformen darstellt;
    • 4 ist ein Diagramm, das eine exemplarische Darstellung der Verwendung eines exemplarischen Spurangussmoduls darstellt, um die wahrscheinlichere Erkennung zwischen mehreren mehrdeutigen Radarkandidatenerkennungen, die von Radarsensoren empfangen werden, gemäß verschiedenen Ausführungsformen zu wählen;
    • 5A ist ein Diagramm, das eine exemplarische Darstellung der Verwendung eines exemplarischen Kartenabgleichmoduls mit einer zuvor festgelegten Karte darstellt, um die wahrscheinlichere Erkennung zwischen mehreren mehrdeutigen Radarkandidatenerkennungen, die von Radarsensoren empfangen werden, gemäß verschiedenen Ausführungsformen zu wählen;
    • 5B ist ein Diagramm, das eine exemplarische Darstellung der Verwendung eines exemplarischen Kartenabgleichungsmoduls darstellt, das Kameradaten oder Wegplandaten verwendet, um die wahrscheinlichere Erkennung zwischen mehreren mehrdeutigen Radarkandidatenerkennungen, die von Radarsensoren empfangen werden, gemäß verschiedenen Ausführungsformen zu wählen;
    • 6A und 6B sind Diagramme, die eine exemplarische Darstellung der Verwendung eines Beispiels für ein Bayes'sches kartenbasiertes Straßengeschwindigkeits-Modellierungsmodul zur Auswahl der wahrscheinlicheren tatsächlichen Erkennung zwischen mehreren mehrdeutigen Radarkandidatenerkennungen gemäß verschiedenen Ausführungsformen darstellen;
    • 7 ist ein Diagramm, das eine exemplarische Darstellung der Verwendung eines exemplarischen Quersensorzuordnungsmoduls darstellt, um die wahrscheinlichere wahre Erkennung zwischen mehreren mehrdeutigen Radarkandidatenerkennungen, die von Radarsensoren empfangen werden, gemäß verschiedenen Ausführungsformen zu wählen;
    • 8A ist ein proorganisches Diagramm, das eine exemplarische Darstellung der Verwendung eines exemplarischen ersten bi-modalen Messmoduls unter Verwendung von Bilddaten darstellt, um die wahrscheinlichere Erkennung zwischen mehreren mehrdeutigen Radarkandidatenerkennungen gemäß verschiedenen Ausführungsformen zu wählen;
    • 8B ist ein Prozessablaufdiagramm, das einen exemplarischen Prozess in einem exemplarischen ersten bi-modalen Messmodul zum Auswählen der wahrscheinlicheren echten Erkennung gemäß verschiedenen Ausführungsformen darstellt;
    • 9A ist ein voraussichtliches Diagramm, das eine exemplarische Darstellung der Verwendung eines exemplarischen zweiten bi-modalen Messmoduls unter Verwendung von Radarerkennungseigenschaften darstellt, um die wahrscheinlichere Erkennung zwischen mehreren mehrdeutigen Radarkandidatenerkennungen gemäß verschiedenen Ausführungsformen auszuwählen;
    • 9B ist ein Prozessablaufdiagramm, das einen exemplarischen Prozess in einem exemplarischen zweiten bi-modalen Messmodul zum Auswählen der wahrscheinlicheren echten Erkennung gemäß verschiedenen Ausführungsformen darstellt;
    • 10A ist ein Diagramm, das ein exemplarisches Betriebsszenario darstellt, in dem ein exemplarisches Fahrzeug mit einem Verstärkungslerndiskriminatormodul ausgestattet ist, das ein ML-Modell (maschinelles Lernen) beinhaltet, das zum Vorhersagen von fahrbaren Pfaden basierend auf mehrdeutigen Radarkandidatenerkennungen gemäß verschiedenen Ausführungsformen geschult wurde;
    • 10B ist ein Prozessablaufdiagramm, das einen exemplarischen Prozess darstellt, in dem ein ML-Modell trainiert und verwendet wird, wenn eine wahrscheinliche tatsächliche Radarerkennung vorhergesagt wird, gemäß verschiedenen Ausführungsformen; und
    • 11 ist ein Prozessablaufdiagramm, das einen exemplarischen Prozess zum Auswählen der wahrscheinlicheren tatsächlichen Erkennung zwischen mehreren mehrdeutigen Radarkandidatenerkennungen gemäß verschiedenen Ausführungsformen darstellt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende ausführliche Beschreibung dient lediglich als Beispiel und soll die Anwendung und Verwendung in keiner Weise einschränken. Weiterhin besteht keine Absicht, im vorstehenden technischen Bereich, Hintergrund, der Zusammenfassung oder der folgenden ausführlichen Beschreibung an eine ausdrücklich oder implizit vorgestellte Theorie gebunden zu sein. Der hierin verwendete Begriff „Modul“ bezieht sich auf alle Hardware-, Software-, Firmwareprodukte, elektronische Steuerkomponenten, Verarbeitungslogik und/oder Prozessorgeräte, einzeln oder in allen Kombinationen, unter anderem beinhaltend, eine anwendungsspezifische integrierte Schaltung (ASIC), ein feldprogrammierbares Gate-Array (FPGA), eine elektronische Schaltung, einen Prozessor (gemeinsam genutzt, dediziert oder Gruppenprozessor) und einen Speicher, der ein oder mehrere Software- oder Firmwareprogramme, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten ausführt, welche die beschriebene Funktionalität bieten.
  • Ausführungsformen der vorliegenden Offenbarung können hierin als funktionale und/oder logische Blockkomponenten und verschiedene Verarbeitungsschritte beschrieben sein. Es ist zu beachten, dass derartige Blockkomponenten aus einer beliebigen Anzahl an Hardware-, Software- und/oder Firmware-Komponenten aufgebaut sein können, die zur Ausführung der erforderlichen Funktionen konfiguriert sind. Zum Beispiel kann eine Ausführungsform der vorliegenden Offenbarung eines Systems oder einer Komponente verschiedene integrierte Schaltungskomponenten, z. B. Speicherelemente, digitale Signalverarbeitungselemente, Logikelemente, Wertetabellen oder dergleichen, einsetzen, die mehrere Funktionen unter der Steuerung eines oder mehrerer Mikroprozessoren oder anderer Steuervorrichtungen durchführen können. Zudem werden Fachleute auf dem Gebiet erkennen, dass die exemplarischen Ausführungsformen der vorliegenden Offenbarung in Verbindung mit einer beliebigen Anzahl an Systemen eingesetzt werden können, und dass das hierin beschriebene System lediglich eine exemplarische Ausführungsform der vorliegenden Offenbarung darstellt.
  • Der Kürze halber können konventionelle Techniken in Verbindung mit der Signalverarbeitung, Datenübertragung, Signalgebung, Steuerung, Maschinenlernmodelle, Radar, Lidar, Bildanalyse und weiteren funktionalen Aspekten der Systeme (und den einzelnen Bedienkomponenten der Systeme) hierin nicht im Detail beschrieben werden. Weiterhin sollen die in den verschiedenen Figuren dargestellten Verbindungslinien exemplarische Funktionsbeziehungen und/oder physikalische Verbindungen zwischen den verschiedenen Elementen darstellen. Es sollte beachtet werden, dass viele alternative oder zusätzliche funktionale Beziehungen oder physikalische Verbindungen in einer Ausführungsform der vorliegenden Offenbarung vorhanden sein können.
  • Die hierin offenbarten Vorrichtungen, Systeme, Verfahren können Ergebnisse von anderen Sensoren verwenden, die in einem Fahrzeug vorhanden sind (z. B. Kameras, andere Radare), um die Mehrdeutigkeit zwischen mehrdeutigen Erkennungsergebnissen aufzulösen. Die hierin offenbarten Vorrichtungen, Systeme, Verfahren können die Radarerkennung von Fehlalarmen durch Verringern der Unordnung reduzieren. Die hierin offenbarten Vorrichtungen, Systeme, Verfahren können mehrere Ansätze kombinieren, um die Mehrdeutigkeit zwischen mehrdeutigen Erkennungsergebnissen aufzulösen.
  • 1 zeigt ein exemplarisches Fahrzeug 100, das ein Radarerkennungs-Vereindeutigungsmodul 302 zur Verwendung mit einem Radarsystem beinhaltet. Wie in 1 dargestellt, beinhaltet das Fahrzeug 100 im Allgemeinen ein Fahrgestell 12, eine Karosserie 14, Vorderräder 16 und Hinterräder 18. Die Karosserie 14 ist auf dem Fahrgestell 12 angeordnet und umhüllt im Wesentlichen die anderen Komponenten des Fahrzeugs 100. Die Karosserie 14 und das Fahrgestell 12 können gemeinsam einen Rahmen bilden. Die Räder 16-18 sind jeweils mit dem Fahrgestell 12 in der Nähe einer jeweiligen Ecke der Karosserie 14 drehbar gekoppelt.
  • In einigen Ausführungsformen kann das Fahrzeug 100 ein autonomes oder ein halbautonomes Fahrzeug sein. Ein autonomes Fahrzeug 100 ist beispielsweise ein Fahrzeug, das automatisch gesteuert wird, um Passagiere von einem Ort zu einem anderen zu befördern. Das Fahrzeug 100 ist in der veranschaulichten Ausführungsform als Pkw dargestellt, wobei jedoch auch jedes andere Fahrzeug einschließlich Motorräder, Lastwagen, Sportfahrzeuge (SUVs), Freizeitfahrzeuge (RVs), Schiffe, Flugzeuge usw. verwendet werden kann.
  • Wie dargestellt, beinhaltet das Fahrzeug 100 im Allgemeinen ein Antriebssystem 20, ein Übertragungssystem 22, ein Lenksystem 24, ein Bremssystem 26, ein Sensorsystem 28, ein Stellgliedsystem 30, mindestens einen Datenspeicher 32, mindestens eine Steuerung 34 und ein Kommunikationssystem 36. Das Antriebssystem 20 kann in verschiedenen Ausführungsformen einen Verbrennungsmotor, eine elektrische Maschine, wie beispielsweise einen Traktionsmotor und/oder ein Brennstoffzellenantriebssystem, beinhalten. Das Übertragungssystem 22 ist dazu konfiguriert, Leistung vom Antriebssystem 20 auf die Fahrzeugräder 16 und 18 gemäß den wählbaren Übersetzungsverhältnissen zu übertragen. Gemäß verschiedenen Ausführungsformen kann das Getriebesystem 22 ein Stufenverhältnis-Automatikgetriebe, ein stufenlos verstellbares Getriebe oder ein anderes geeignetes Getriebe beinhalten.
  • Das Bremssystem 26 ist dazu konfiguriert, den Fahrzeugrädern 16 und 18 ein Bremsmoment bereitzustellen. Das Bremssystem 26 kann in verschiedenen Ausführungsformen Reibungsbremsen, Bake-by-Wire, ein regeneratives Bremssystem, wie beispielsweise eine elektrische Maschine und/oder andere geeignete Bremssysteme, beinhalten.
  • Das Lenksystem 24 beeinflusst eine Position der Fahrzeugräder 16 und/oder 18. Während in einigen Ausführungsformen innerhalb des Umfangs der vorliegenden Offenbarung zur Veranschaulichung als ein Lenkrad 25 dargestellt, kann das Lenksystem 24 kein Lenkrad beinhalten.
  • Das Sensorsystem 28 beinhaltet eine oder mehrere Sensorvorrichtungen 40a-40n, die beobachtbare Zustände der äußeren Umgebung und/oder der inneren Umgebung des Fahrzeugs 100 (zum Beispiel den Zustand eines oder mehrerer Insassen) erkennen und entsprechende Sensordaten erzeugen. Sensorvorrichtungen 40a-40n können, sind jedoch nicht beschränkt auf, Radare (z. B. Langstrecken-, Mittelstrecken-Kurzbereich), Lidare, globale Positionierungssysteme, optische Kameras (z. B. nach vorne gerichtet, 360 Grad, nach hinten gerichtet, seitlich gerichtet, Stereo, usw.), beinhalten, Wärmebildkameras (z. B. Infrarot), Ultraschallsensoren, Geschwindigkeitsmesssensoren (z. B. Encoder) und/oder andere Sensoren, die in Verbindung mit Systemen und Verfahren gemäß dem vorliegenden Gegenstand verwendet werden können.
  • Das Stellgliedsystem 30 beinhaltet ein oder mehrere Stellgliedvorrichtungen 42a-42n, die ein oder mehrere Fahrzeugeigenschaften wie zum Beispiel das Antriebssystem 20, das Getriebesystem 22, das Lenksystem 24 und das Bremssystem 26 steuern, sind aber nicht darauf beschränkt. In verschiedenen Ausführungsformen kann das Fahrzeug 100 auch Fahrzeug-Innen- und/oder Außenausstattungen beinhalten, die nicht in 1 dargestellt sind, wie beispielsweise verschiedene Türen, Kofferraum- und Kabinenausstattungen, wie Luft, Musik, Beleuchtung, Berührungsbildschirm-Display-Komponenten (wie sie in Verbindung mit Navigationssystemen verwendet werden) und dergleichen.
  • Die Datenspeichervorrichtung 32 speichert Daten zur Verwendung beim automatischen Steuern des Fahrzeugs 100. In verschiedenen Ausführungsformen speichert das Datenspeichergerät 32 definierte Landkarten der navigierbaren Umgebung. In verschiedenen Ausführungsformen können die definierten Landkarten vordefiniert und von einem entfernten System abgerufen werden. So können beispielsweise die definierten Landkarten durch das entfernte System zusammengesetzt und dem Fahrzeug 100 (drahtlos und/oder drahtgebunden) mitgeteilt und in der Datenspeichervorrichtung 32 gespeichert werden. Routeninformationen können auch in der Datenspeichervorrichtung 32 gespeichert werden - d. h. in einer Reihe von Straßenabschnitten (die geografisch mit einer oder mehreren der definierten Karten verknüpft sind), die zusammen eine Route definieren, die der Benutzer von einem Startort (z. B. dem aktuellen Standort des Benutzers) zu einem Zielort zurücklegen kann. Wie ersichtlich, kann die Datenspeichervorrichtung 32 ein Teil der Steuerung 34, von der Steuerung 34 getrennt, oder ein Teil der Steuerung 34 und Teil eines separaten Systems sein.
  • Die Steuerung 34 beinhaltet mindestens einen Prozessor 44 und eine computerlesbare Speichervorrichtung oder Medien 46. Der Prozessor 44 kann eine Spezialanfertigung oder ein handelsüblicher Prozessor sein, eine Zentraleinheit (CPU), eine Grafikprozessoreinheit (GPU), eine anwendungsspezifische integrierte Schaltung (ASIC) (z. B. eine benutzerdefinierte ASIC, die ein neuronales Netzwerk implementiert), ein feldprogrammierbares Gate-Array (FPGA), ein Hilfsprozessor unter mehreren Prozessoren, verbunden mit der Steuerung 34, ein Mikroprozessor auf Halbleiterbasis (in Form eines Mikrochips oder Chip-Satzes) eine Kombination derselben oder allgemein jede beliebige Vorrichtung zur Ausführung von Anweisungen. Die computerlesbare Speichervorrichtung oder Medien 46 können flüchtige und nicht-flüchtige Speicher in einem Nur-Lese-Speicher (ROM), einem Speicher mit direktem Zugriff (RAM) und einem Keep-Alive-Memory (KAM) beinhalten. KAM ist ein persistenter oder nicht-flüchtiger Speicher, der verwendet werden kann, um verschiedene Betriebsvariablen zu speichern, während der Prozessor 44 ausgeschaltet ist. Die computerlesbare Speichervorrichtung oder Medien 46 können unter Verwendung einer beliebigen einer Anzahl an bekannten Speichervorrichtungen, wie beispielsweise PROMs (programmierbarer Nur-Lese-Speicher), EPROMs (elektrische PROM), EEPROMs (elektrisch löschbarer PROM), Flash-Speicher oder beliebige andere elektrischen, magnetischen, optischen oder kombinierten Speichervorrichtungen, implementiert werden, die Daten speichern können, von denen einige ausführbare Anweisungen darstellen, die von der Steuerung 34 beim Steuern des Fahrzeugs 100 verwendet werden. In verschiedenen Ausführungsformen ist die Steuerung 34 konfiguriert, um das im Folgenden ausführlich erläuterte Kartierungssystem zu implementieren.
  • Die Anweisungen können ein oder mehrere separate Programme beinhalten, von denen jede eine geordnete Auflistung von ausführbaren Anweisungen zum Implementieren von logischen Funktionen umfasst. Die Anweisungen empfangen und verarbeiten, wenn diese vom Prozessor 44 ausgeführt werden, Signale (z. B. Sensordaten) vom Sensorsystem 28, führen Logik, Berechnungen, Verfahren und/oder Algorithmen zur automatischen Steuerung der Komponenten des Fahrzeugs 100 durch und erzeugen Steuersignale, die an das Stellgliedsystem 30 übertragen werden, um die Komponenten des Fahrzeugs 100 basierend auf der Logik, den Berechnungen, den Verfahren und/oder Algorithmen automatisch zu steuern. Obwohl in 1 nur eine Steuerung 34 dargestellt ist, können Ausführungsformen des Fahrzeugs 100 eine beliebige Anzahl an Steuerungen 34 beinhalten, die über ein geeignetes Kommunikationsmedium oder eine Kombination von Kommunikationsmedien kommunizieren und zusammenwirken, um die Sensorsignale zu verarbeiten, Logiken, Berechnungen, Verfahren und/oder Algorithmen durchzuführen, und Steuersignale zu erzeugen, um die Funktionen des autonomen Fahrzeugs 100 automatisch zu steuern.
  • Das Kommunikationssystem 36 ist konfiguriert, um Informationen drahtlos an und von anderen Einheiten 48, wie beispielsweise, jedoch nicht beschränkt auf andere Fahrzeuge („V2V“-Kommunikation,) Infrastruktur („V2I“-Kommunikation), Netzwerke („V2N“-Kommunikation), Fußgänger („V2P“-Kommunikation), entfernte Transportsysteme und/oder Benutzervorrichtungen zu übermitteln. In einer exemplarischen Ausführungsform ist das Kommunikationssystem 36 ein drahtloses Kommunikationssystem, das dazu konfiguriert, über ein drahtloses lokales Netzwerk (WLAN) unter Verwendung des IEEE 802.11-Standards oder mittels einer mobilen Datenkommunikation zu kommunizieren. Im Geltungsbereich der vorliegenden Offenbarung werden jedoch auch zusätzliche oder alternative Kommunikationsverfahren, wie beispielsweise ein dedizierter Nahbereichskommunikations-(DSRC)-Kanal, berücksichtigt. DSRC-Kanäle beziehen sich auf Einweg- oder Zweiwege-Kurzstrecken- bis Mittelklasse-Funkkommunikationskanäle, die speziell für den Automobilbau und einen entsprechenden Satz von Protokollen und Standards entwickelt wurden.
  • Gemäß verschiedenen Ausführungsformen kann die Steuerung 34 ein autonomes Antriebssystem (ADS) 70 implementieren, wie in 2 dargestellt. Das heißt, dass geeignete Soft- und/oder Hardwarekomponenten der Steuerung 34 (z. B. der Prozessor 44 und das computerlesbare Speichermedium 46) verwendet werden, um ein autonomes Antriebssystem 70 bereitzustellen, das in Verbindung mit dem Fahrzeug 100 verwendet wird.
  • In verschiedenen Ausführungsformen können die Anweisungen des autonomen Antriebssystems 70 je nach Funktion oder System gegliedert sein. Das autonome Antriebssystem 70 kann beispielsweise, wie in 2 dargestellt, ein Wahrnehmungssystem 74, ein Positioniersystem 76, ein Wegplanungssystem 78 und ein Fahrzeugsteuerungssystem 80 beinhalten. Wie ersichtlich ist, können die Anweisungen in verschiedenen Ausführungsformen in beliebig viele Systeme (z. B. kombiniert, weiter unterteilt, usw.) gegliedert werden, da die Offenbarung nicht auf die vorliegenden Beispiele beschränkt ist.
  • In verschiedenen Ausführungsformen synthetisiert und verarbeitet das Wahrnehmungssystem 74 die erfassten Sensordaten und prognostiziert Anwesenheit, Standort, Klassifizierung und/oder Verlauf von Objekten und Merkmalen der Umgebung des Fahrzeugs 100. In verschiedenen Ausführungsformen kann das Wahrnehmungssystem 74 Informationen von mehreren Sensoren (z. B. dem Sensorsystem 28) beinhalten, einschließlich, aber nicht beschränkt auf Kameras, Lidars, Radars und/oder eine beliebige Anzahl anderer Arten von Sensoren. In verschiedenen Ausführungsformen können alle oder Teile des Radarerkennungs-Vereindeutigungsmodul 302 im Wahrnehmungssystem 74 enthalten sein.
  • Das Positioniersystem 76 verarbeitet Sensordaten zusammen mit anderen Daten, um eine Position (z. B. eine lokale Position in Bezug auf eine Karte, eine exakte Position in Bezug auf die Fahrspur einer Straße, Fahrzeugrichtung, usw.) des Fahrzeugs 100 in Bezug auf die Umgebung zu bestimmen. Wie zu erkennen ist, können verschiedene Techniken eingesetzt werden, um diese Lokalisierung durchzuführen, beispielsweise simultane Lokalisierung und Kartierung (SLAM), Partikelfilter, Kalman-Filter, Bayes'sche Filter und dergleichen.
  • Das Wegplanungssystem 78 verarbeitet Sensordaten zusammen mit anderen Daten, um einen Weg zu bestimmen, dem das Fahrzeug 100 folgen soll. Das Fahrzeugsteuerungssystem 80 erzeugt Steuersignale zum Steuern des Fahrzeugs 100 entsprechend der ermittelten Strecke.
  • In verschiedenen Ausführungsformen implementiert die Steuerung 34 maschinelle Lerntechniken, um die Funktionalität der Steuerung 34 zu unterstützen, wie z. B. Merkmalerkennung/Klassifizierung, Hindernisminderung, Routenüberquerung, Kartierung, Sensorintegration, Boden-Wahrheitsbestimmung und dergleichen.
  • 3 ist ein Blockdiagramm, das ein exemplarisches Radarerkennungs-Vereindeutigungsmodul 302 zur Verwendung in einem Fahrzeug darstellt. Das exemplarische Radarerkennungs-Vereindeutigungsmodul 302 ist konfiguriert, um ein oder mehrere Vereindeutigungsmodule anzuwenden, um zu bestimmen, welche aus einer Vielzahl von mehrdeutigen Radarerkennungen 301 eine wahrscheinliche wahre Erkennung 303 ist. Die Vielzahl von Vereindeutigungsmodulen in dem exemplarischen Radarerkennungs-Vereindeutigungsmodul 302 beinhaltet ein Spurangussmodul 304, ein Kartenabgleichmodul 306, ein Bayes'sches kartenbasiertes Straßengeschwindigkeits-Modellierungsmodul 308, ein Kreuzsensorassoziationsmodul 310, ein erstes bi-modales Messmodul 312, ein zweites bi-modales Messmodul 314 und ein Verstärkungslerndiskriminatormodul 316. Das exemplarische Radarerkennungs-Vereindeutigungsmodul 302 beinhaltet ferner ein Auswahlmodul 318, das konfiguriert ist, um das eine oder die mehreren Vereindeutigungsmodule auszuwählen, um zu bestimmen, welche aus einer Vielzahl von mehrdeutigen Radarerkennungen 301 eine wahrscheinliche wahre Erkennung 303 ist. Das exemplarische Radarerkennungs-Vereindeutigungsmodul 302 ist ferner konfiguriert, um die wahrscheinliche Erkennung, die durch ein Vereindeutigungsmodul bestimmt wird, auszugeben. Das Radarerkennungs-Vereindeutigungsmodul 302 kann auf der Steuerung 34 von 1, auf einer separaten Steuerung oder auf einer Kombination von Steuerungen in verschiedenen Ausführungsformen implementiert werden.
  • Das exemplarische Spurangussmodul 304 ist konfiguriert, um die wahrscheinlichere wahre Erkennung 303 zwischen mehreren mehrdeutigen Radarkandidatenerkennungen 301 auszuwählen, indem ein Kandidat ausgewählt wird, der einer vorhergesagten Zielposition für eine Radarerkennung am nächsten liegt. Das Auswahlmodul 318 kann das Spurangussmodul 304 auswählen, wenn die Radarspuren bereits für ein Ziel vorhanden sind und/oder alternative Vereindeutigungsverfahren nicht verfügbar sind. Das exemplarische Spurangussmodul 304 ist konfiguriert, um (a) für jede vorhandene Radarspur eine Entfernungsmetrik zu jeder mehrdeutigen Kandidatenerkennung zu berechnen; (b) Vorhersagen einer nächsten Position einer Zielposition unter Verwendung eines Vorhersagefilters (z. B., einen Kalman-Filter); und (c) die mehrdeutigen Radarkandidatenerkennungen 301 auswählen, die der vorhergesagten nächsten Position am nächsten und kleiner als ein Schwellenabstand von der vorhergesagten nächsten Position entfernt sind. Die Entfernungsmetrik kann beinhalten, ist aber nicht beschränkt auf, die euklidische Entfernung oder die Mahalanobis-Entfernung; die letztere kann mit Kenntnis der vorhergesagten Positionskovarianz. Berechnet werden, die von einem Kalman-Filter erhalten wird.
  • In einem Beispiel kann das Spurangussmodul 304 einen Kandidaten auswählen, der einer vorhergesagten Zielposition für eine Radarerkennung am nächsten liegt, indem es für jede vorhandene Radarspur eine Entfernungsmetrik von der letzten Position eines verfolgten Ziels zu jeder mehrdeutigen Kandidatenerkennung berechnet; Anwenden eines Kalman-Filters, um die nächste Position des verfolgten Ziels vorherzusagen und die vorhergesagte nächste Position in die Messebene umzuwandeln (z. B., für lineare KF, y- = HFx̂); Berechnung des quadrierten Mahalanobis-Abstands d k 2 = ( y ) T S 1 y
    Figure DE102019115080A1_0001
    wobei S = R + HP- HT zur Kandidatenerkennung k ∈ {1,2,...} (kann alternativ auch Euklidienabstand verwenden); und, für jede bestehende Radarspur, das Eingreifen der Kandidatenerkennung unter Verwendung der Kenntnis, dass d k 2
    Figure DE102019115080A1_0002
    chi-quadriert verteilt ist, um einen Schwellenwert T für ein Perzentil P (z. B., 95 %) zu erhalten und Zuordnen der Erkennung k zu der Spur d k 2 < T .
    Figure DE102019115080A1_0003
    In dem Fall, dass mehrere mehrdeutige Erkennungen innerhalb des Gates liegen, wird die Erkennung mit dem kürzesten Mahalanobis-Abstand gewählt.
  • 4 stellt eine exemplarische Darstellung der Verwendung eines exemplarischen Spurangussmoduls 304 zur Auswahl der wahrscheinlicheren tatsächlichen Erkennung 303 zwischen mehreren mehrdeutigen Radarkandidatenerkennungen 301, die von Radarsensoren 407 empfangen werden, dar. Dargestellt sind drei Sätze mehrdeutiger Kandidatenerkennungen, Kandidatenerkennungssatz 1, die Kandidatenerkennungen 402a und 402b, Kandidatenerkennungssatz 2, die Kandidatenerkennungen 404a und 404b beinhaltet, und Kandidatenerkennungssatz 3, die Kandidatenerkennungen 406a und 406b beinhaltet, beinhaltet. Das exemplarische Spurangussmodul 304 ist konfiguriert, um auf einen Vorhersagefilter zuzugreifen (z. B., einen Kalman-Filter), um einen vorhergesagten Standort 401 für ein Ziel basierend auf der letzten Position 403 für das Ziel zu erhalten. Unter Verwendung des vorhergesagten Standorts 401 ist das exemplarische Spurangussmodul 304 konfiguriert, um einen Bereich 405 (z. B., eine Sperre anwenden) zu identifizieren, die sich innerhalb eines Schwellenwertabstandes von dem nächsten vorhergesagten Ort 401 weg befindet. Das exemplarische Spurangussmodul 304 ist konfiguriert, um die wahrscheinliche echte Erkennung durch Auswählen der nächstgelegenen mehrdeutigen Kandidatenerkennung auszuwählen (z. B., Kandidatenerkennung 402b), die sich innerhalb des Gate-Bereichs 405 als wahrscheinliche echte Erkennung mit dem Kandidaten-Erkennungssatz 1 befindet. Das exemplarische Spurangussmodul 304 ist so konfiguriert, dass es die wahrscheinliche Erkennung des Kandidaten-Erkennungssatzes 2 und des Kandidaten-Erkennungssatzes 3 in gleicher Weise wählt.
  • Unter erneuter Bezugnahme auf 3 ist das exemplarische Kartenabgleichmodul 306 konfiguriert, um die wahrscheinlichere wahre Erkennung 303 zwischen mehreren mehrdeutigen Radarkandidatenerkennungen 301 auszuwählen, indem eine Kandidatenerkennung ausgewählt wird, die einem bekannten Zielweg am nächsten liegt und weniger als eine maximale Entfernung des Abstandsschwellenwertes T vom Zielweg entfernt ist. Das Auswahlmodul 318 kann das Kartenabgleichmodul 306 auswählen, um die wahrscheinlichere wahre Erkennung 303 auszuwählen, wenn eine Karte des Bereichs in der Nähe des Fahrzeugs verfügbar ist und/oder alternative Vereindeutigungsverfahren nicht verfügbar sind.
  • Das exemplarische Kartenabgleichmodul 306 ist konfiguriert, um die Position einer Straße auf einer Bereichskarte zu verwenden, um die Kenntnis gültiger Zielpositionen zu erhalten, wenn eine Flächenkarte verfügbar ist. Das exemplarische Kartenabgleichmodul 306 ist auch konfiguriert, um eine gültige Zielposition aus Kameradaten oder Wegplandaten abzuleiten (z. B., von Fahrspur, Bordsteinerkennung, Zielweg). Das exemplarische Kartenabgleichmodul 306 ist konfiguriert, um die Kandidatenerkennung auszuwählen, die einem bekannten Zielweg am nächsten (z. B. Straße) und weniger als ein maximaler Schwellenabstand T weg vom Zielweg liegt. Die Karte könnte eine zuvor vorhandene, zuvor vorhandene Karte oder ein grober Kartenbereich sein, der von den Erkennungsergebnissen aus einer Bildgebungsvorrichtung, wie einer Kamera, abgeleitet wird.
  • 5A stellt eine exemplarische Darstellung der Verwendung eines exemplarischen Kartenabgleichmoduls 306 mit einer zuvor vorhandenen Karte 500 dar, um die wahrscheinlichere wahre Erkennung 303 zwischen mehreren mehrdeutigen Radarkandidatenerkennungen 301, die von Radarsensoren 501 empfangen werden, auszuwählen. Dargestellt sind drei Sätze mehrdeutiger Kandidatenerkennungen, Kandidatenerkennungssatz 1, die Kandidatenerkennungen 502a und 502b, Kandidatenerkennungssatz 2, die Kandidatenerkennungen 504a und 504b beinhaltet, und Kandidatenerkennungssatz 3, die Kandidatenerkennungen 506a und 506b beinhaltet, beinhaltet. Das exemplarische Kartenabgleichmodul 306 ist konfiguriert, um den Standort der mehrdeutigen Kandidatenerkennungen auf der Karte 500 abzubilden und auf Kartendaten zuzugreifen, um den Standort einer Straße 508 zu erhalten. Das exemplarische Kartenabgleichmodul 306 ist konfiguriert, um die Kandidatenerkennung in jedem Satz von Kandidatenerkennungen zu bestimmen, die der Straße 508 am nächsten ist. Wenn die Kandidatenerkennung, die der Straße am nächsten liegt (z. B., 502b, 504b, 506b), liegt sie auch innerhalb eines Schwellenabstandes von der Straße, wobei das exemplarische Kartenabgleichmodul 306 konfiguriert ist, um die Kandidatenerkennung (z. B., 502b, 504b, 506b) als eine wahrscheinliche wahre Erkennung 303 zu identifizieren. Durch Ermitteln der wahrscheinlichen wahren Erkennung 303 kann das Fahrzeug einen wahren Zielort 510 identifizieren.
  • 5B stellt eine exemplarische Darstellung der Verwendung eines exemplarischen Kartenabgleichungsmoduls 306 ohne eine zuvor vorhandene Karte dar, sondern stattdessen mit Kameradaten oder Wegplandaten, um die wahrscheinlichere wahre Erkennung 303 zwischen mehreren mehrdeutigen Radarkandidatenerkennungen 301, die von Radarsensoren 511 empfangen werden, auszuwählen. Dargestellt sind drei Sätze mehrdeutiger Kandidatenerkennungen, Kandidatenerkennungssatz 1, die Kandidatenerkennungen 512a und 512b, Kandidatenerkennungssatz 2, die Kandidatenerkennungen 514a und 514b beinhaltet, und Kandidatenerkennungssatz 3, die Kandidatenerkennungen 516a und 516b beinhaltet, beinhaltet. Das exemplarische Kartenabgleichmodul 306 ist konfiguriert, um die Position der mehrdeutigen Kandidatenerkennungen relativ zu einem erfassten Straßenbereich 518 aus Kameradaten zu ermitteln. Das exemplarische Kartenabgleichmodul 306 ist konfiguriert, um die Kandidatenerkennung in jedem Satz von Kandidatenerkennungen zu bestimmen, die dem erfassten Straßenbereich 518 am nächsten liegt. Wenn die Kandidatenerkennung dem erfassten Straßenbereich 518 am nächsten ist (z. B., die Kandidatenerkennungen 512b, 514b, 516b), liegen sie ebenfalls innerhalb einer Schwellenwertentfernung von dem erfassten Straßenbereich 518, wobei das exemplarische Kartenabgleichmodul 306 konfiguriert ist, um diese Kandidatenerkennung (z. B., Kandidatenerkennungen 512b, 514b, 516b) als eine wahrscheinliche wahre Erkennung 303 zu identifizieren. Durch Ermitteln der wahrscheinlichen wahren Erkennung 303 kann das Fahrzeug eine tatsächliche Zielposition 520 identifizieren.
  • Unter erneuter Bezugnahme auf 3 ist das exemplarische Bayes'sche kartenbasierte Straßengeschwindigkeits-Modellierungsmodul 308 konfiguriert, um die wahrscheinlichere wahre Erkennung 303 zwischen mehreren mehrdeutigen Radarkandidatenerkennungen 301 auszuwählen, indem bestimmt wird, ob die Position und Geschwindigkeit (Geschwindigkeit und Richtung) der durch die Kandidatenerkennungen für ein Ziel angezeigten Fahrt mit einer Fahrt auf einer Straße oder Fahrspur übereinstimmt, die auf einer Karte abgebildet ist. Das Auswahlmodul 318 kann das auf Bayes'sche kartenbasierte Fahrgeschwindigkeits-Modellierungsmodul 308 auswählen, um die wahrscheinlichere wahre Erkennung 303 auszuwählen, wenn eine Karte des Bereichs in der Nähe des Fahrzeugs verfügbar ist. Das Bayes'sche straßengeschwindigkeits-basierte Straßengeschwindigkeits-Modellierungsmodul 308 ist konfiguriert, um die scheinbare statische Bereichsrate eines Ziels zu berechnen, die Fahrgeschwindigkeit zu berechnen, die es vornimmt, auf der Straße, und Inkonsistenzen über die Zeit zu ausfiltern.
  • 6A und 6B stellen eine exemplarische Darstellung der Verwendung eines Beispiels für ein Bayes'sches kartenbasiertes Straßengeschwindigkeits-Modellierungsmodul 308 zur Auswahl der wahrscheinlicheren tatsächlichen Erkennung 303 zwischen mehreren mehrdeutigen Radarkandidatenerkennungen 301 bereit. In den 6A und 6B sind jeweils Straßen 602, 612 dargestellt. Ein erstes Ziel 604 von einer ersten Kandidatenerkennung und ein zweites Ziel 614 von einer zweiten Kandidatenerkennung sind ebenfalls in den 6A und 6B dargestellt. Das exemplarische Bayes'sche straßengeschwindigkeits-basierte Straßengeschwindigkeits-Modellierungsmodul 308 ist zu diskreten Zeitpunkten konfiguriert, um (a) die scheinbare statische Bereichsrate (srr) 606, 616 jedes Ziels 604, 614 zu berechnen; (b) Berechnen der Fahrgeschwindigkeit 608, 618 jedes Ziels 604, 614, vorausgesetzt, das Ziel fährt auf der Straße 602, 612; und (c) herauszufiltern (z. B., Ablehnen) von Kandidatenerkennungen, die mit einem Ziel 604, 614 inkonsistent sind, das auf der Straße 602, 612 fährt. In diesem Beispiel von 6A ist das Ziel 604 zu diesem Zeitpunkt nicht auf der Straße positioniert und seine zugehörige Kandidatenerkennung wird herausgefiltert. Im Beispiel von 6B ist das Ziel 614, zu diesem Zeitpunkt, in einer Fahrspur 620 auf der Straße 602, seine Fahrtrichtung konsistent mit der Fahrtrichtung für die Fahrspur 620 und seine Geschwindigkeit entspricht der Geschwindigkeitsbegrenzung für die Fahrspur 620. Folglich wird die mit dem Ziel 614 verbundene Kandidatenerkennung zu diesem Zeitpunkt nicht herausgefiltert.
  • Unter Bezugnahme auf 3 ist das exemplarische Quersensorzuordnungsmodul 310 konfiguriert, um die wahrscheinlichere wahre Erkennung 303 zwischen mehreren mehrdeutigen Radarkandidatenerkennungen 301 durch Verwendung eines oder mehrerer zusätzlicher Sensoren auszuwählen (z. B., eine Bildgebungsvorrichtung, wie eine Kamera für Langstreckenradar oder ein anderes Radar des gleichen Typs) mit einem überlappten Sichtfeld, um die Genauigkeit einer Kandidatenerkennung zu bestätigen. Das QuersensorZuordnungsmodul 310 ist konfiguriert, um die Kandidatenerkennung auszuwählen, die eine Zielposition bereitstellt, die einer Erkennung von einem zusätzlichen Sensor am nächsten liegt und die kleiner als eine maximale Schwellenwertentfernung weg von der vom zusätzlichen Sensor angezeigten Zielposition ist. Das Auswahlmodul 318 kann das Kreuzsensorzuordnungsmodul 310 auswählen, um die wahrscheinlichere echte Erkennung 303 auszuwählen, wenn Daten von einem anderen Sensor verfügbar sind.
  • 7 stellt eine exemplarische Darstellung der Verwendung eines exemplarischen Quersensorassoziationsmoduls 310 zur Auswahl der wahrscheinlicheren tatsächlichen Erkennung 303 zwischen mehreren mehrdeutigen Radarkandidatenerkennungen 301, die von Radarsensoren 701 empfangen werden, dar. Dargestellt sind drei Sätze mehrdeutiger Kandidatenerkennungen, Kandidatenerkennungssatz 1, die Kandidatenerkennungen 702a und 702b, Kandidatenerkennungssatz 2, die Kandidatenerkennungen 704a und 704b beinhaltet, und Kandidatenerkennungssatz 3, die Kandidatenerkennungen 706a und 706b beinhaltet, beinhaltet. Das exemplarische Quersensorassoziationsmodul 310 ist konfiguriert, um auf eine zusätzliche Erkennung 708 zuzugreifen und die Kandidatenerkennung in jedem Satz von Kandidatenerkennungen zu identifizieren, die der zusätzlichen Erkennung 708 am nächsten ist. Wenn die Kandidatenerkennung der zusätzlichen Erkennung 708 am nächsten ist (z. B. die Kandidatenerkennungen 702b, 704b, 706b), liegen sie ebenfalls innerhalb eines Schwellenabstandes von der zusätzlichen Erkennung 708, wobei das exemplarische Quersensorassoziationsmodul 310 konfiguriert ist, um die Kandidatenerkennung (z. B., Kandidatenerkennungen 702b, 704b, 706b) als eine wahrscheinliche wahre Erkennung 303 zu identifizieren. Durch Ermitteln der wahrscheinlichen wahren Erkennung 303 kann das Fahrzeug eine tatsächliche Zielposition 710 identifizieren.
  • Unter erneuter Bezugnahme auf 3 ist das exemplarische erste bi-modale Messmodul 312 konfiguriert, um die wahrscheinlichere wahre Erkennung 303 zwischen mehreren mehrdeutigen Radarkandidatenerkennungen 301 durch Vergleichen von Kandidatenerkennungsdaten mit Daten von einem Bildsensor auszuwählen. Das erste bi-modale Messmodul ist konfiguriert, um die Wahrscheinlichkeit einer Kandidatenerkennung zu ermitteln, die die wahre Erkennung durch Berechnen eines Gauß‘schen Modells ist, z. B., i = 1 2 λ i N ( μ i , Σ i ) ,
    Figure DE102019115080A1_0004
    die eine Gauß‘sche Verteilung für jede Radarkandidatenerkennung und eine Komponente für die Bilddaten beinhaltet, wobei λi sich auf Bildattribute und µi,∑i sich auf Radarattribute beziehen. Das erste bi-modale Messmodul 312 ist konfiguriert, um die Kandidatenerkennung auszuwählen, die höchste Wahrscheinlichkeit aufweist, dass sie die wahre Erkennung ist. Das Auswahlmodul 318 kann das erste bi-modale Messmodul 312 auswählen, um die wahrscheinlichere wahre Erkennung 303 auszuwählen, wenn Daten von einem Bildgebungssensor verfügbar sind.
  • 8A und 8B stellen eine exemplarische Darstellung der Verwendung eines exemplarischen ersten bi-modalen Messmoduls 312 unter Verwendung von Bilddaten bereit, um die wahrscheinlichere wahre Erkennung 303 zwischen mehreren mehrdeutigen Radarkandidatenerkennungen 301 auszuwählen. 8A ist ein voraussichtliches Diagramm, das eine exemplarische erste Kandidatenerkennung 802 veranschaulicht, die ein Interessenbereich (ROI) 804 in einem Bild 806 offenbart, der als ein Lastwagen offenbart ist, mit einer 99 %-ige Wahrscheinlichkeit, die wahre Erkennung zu sein, und einer exemplarischen zweiten Kandidatenerkennung 808, die eine ROI 810 im Bild 806 als ein grbauender Bereich über einer Leitwand offenbart, mit einer 1 % Wahrscheinlichkeit der eigentlichen Erkennung.
  • 8B ist ein Prozessablaufdiagramm, das einen exemplarischen Prozess 812 in einem exemplarischen ersten bi-modalen Messmodul 312 zum Auswählen der wahrscheinlicheren wahren Erkennung 303 darstellt. Der exemplarische Prozess 812 beinhaltet das Extrahieren eines interessierenden Bereichs (ROI) für jeden Radarrückläufer, der um den Radar herum von Bilddaten von Kameras geortet wird (Vorgang 814). Anschließend beinhaltet der exemplarische Prozess 812 das Berechnen eines Bildmerkmalsvektors für jeden ROI (z. B., Merkmalsexvektorextraktion) (Operation 816). Dann beinhaltet der exemplarische Prozess 812 das Schätzen der Wahrscheinlichkeit, dass jeder der gepaarten Kandidaten real ist, λi (i=1,2), aus dem Bildmerkmalsvektor über einen logistischen Klassifizierer (z. B. Klassifizierung) (Vorgang 818). Anschließend beinhaltet der exemplarische Prozess 812 das Ableiten der Messung des Ziels (Wahrscheinlichkeitsdichtefunktion) (bi-modal): i = 1 2 λ i N ( μ i , Σ i ) ,
    Figure DE102019115080A1_0005
    wobei N eine normale Gauß‘sche Verteilung ist, µi die Radarrücklaufmessungen (Bereich, Bereichsrate, Azimut) und ∑i die Kovarianzmatrix (Vorgang 820) sind. Abschließend beinhaltet der exemplarische Prozess 812 das Zuordnen und Aktualisieren der MHT (Multiple Hypothese Tracker)-Population basierend auf der Messung (Vorgang 822). In diesem konkreten Beispiel kann der Vorgang 816 durch ein allgemeines Merkmalsvektorextraktionsmodul durchgeführt werden und der Vorgang 818 kann von einem logistischen Merkmalsklassifikator durchgeführt werden. In anderen Ausführungsformen kann Vorgang 816 (z. B. Merkmalsextraktion) und Vorgang 818 (z. B. die Klassifizierung) kann durch eine andere Art von trainiertem Detektor im Bildraum durchgeführt werden, der eine probabilistische Ausgabe bereitstellt, λi (i=1,2), wie beispielsweise ein neuronales Netzwerk oder eine SVM (Unterstützungsvektormaschine).
  • Unter Bezugnahme auf 3 ist das Beispiel eines zweiten bi-modalen Messmoduls 314 konfiguriert, um die wahrscheinlichere wahre Erkennung 303 zwischen mehreren mehrdeutigen Radarkandidatenerkennungen 301 unter Verwendung von Radarmerkmalen auszuwählen. Das exemplarische zweite bi-modale Messmodul 314 erfordert keine Daten von einem zweiten Sensor, sondern verwendet stattdessen Radarsignaturdaten, um die wahrscheinlichere echte Erkennung 303 auszuwählen. Das zweite bi-modale Messmodul 314 ist konfiguriert, um die Wahrscheinlichkeit einer Kandidatenerkennung zu ermitteln, die die 2 wahre Erkennung durch Berechnen eines Gauß‘schen Modells ist, i = 1 2 λ i N ( μ i , Σ i ) ,
    Figure DE102019115080A1_0006
    die eine Gauß‘sche Verteilung für jede Radarkandidatenerkennung hat, wobei λi sich auf Radarsignaturdaten und µi, ∑i sich auf Radarpositionseigenschaften beziehen. Das zweite bi-modale Messmodul 314 ist konfiguriert, um die Kandidatenerkennung auszuwählen, die höchste Wahrscheinlichkeit aufweist, dass sie die wahre Erkennung ist.
  • 9A und 9B stellen eine exemplarische Darstellung der Verwendung eines exemplarischen zweiten bi-modalen Messmoduls 314 unter Verwendung von Radarerkennungseigenschaften bereit, um die wahrscheinlichere wahre Erkennung 303 zwischen mehreren mehrdeutigen Radarkandidatenerkennungen 301 auszuwählen. 9A ist ein voraussichtliches Diagramm, das eine exemplarische erste Kandidatenerkennung 902 darstellt, mit einer ROI 904 mit Radarsignaturdaten 906, die eine 1 %-ige Wahrscheinlichkeit sind, die wahre Erkennung zu sein und eine exemplarische zweite Kandidatenerkennung 908, mit einem ROI 910 mit Radarsignaturdaten 912, mit einer 99 %-igen Wahrscheinlichkeit der eigentlichen Erkennung.
  • 9B ist ein Prozessablaufdiagramm, das einen exemplarischen Prozess 914 in einem exemplarischen zweiten bi-modalen Messmodul 314 zum Auswählen der wahrscheinlicheren wahren Erkennung 303 darstellt. Der exemplarische Prozess 914 beinhaltet das Extrahieren von Radarerkennungen aus Bereichen von Interesse (ROI) um die Radarrückgaben (Vorgang 916). Als nächstes beinhaltet der exemplarische Prozess 914 das Berechnen eines Radarmerkmalsvektors für beide ROI-Sätze (z. B., Merkmalsexvektorextraktion) aus Radarsignaturdaten (Operation 918). Dann beinhaltet der exemplarische Prozess 914 das Schätzen der Wahrscheinlichkeit, dass jeder der gepaarten Kandidaten real ist, λi (i=1,2) aus dem Radarmerkmalsvektor über einen probabilistischen Ausgangs-Klassifikator (z. B., Klassifizierung) (Operation 920). Anschließend beinhaltet der exemplarische Prozess 914 das Ableiten der Messung des Ziels (Wahrscheinlichkeitsdichtefunktion) (bi-modal): i = 1 2 λ i N ( μ i , Σ i ) ,
    Figure DE102019115080A1_0007
    wobei N eine normale Gauß‘sche Verteilung ist, µi die Radarrücklaufmessungen (Bereich, Bereichsrate, Azimut) sind und ∑i die Kovarianzmatrix (Operation 922) ist. Abschließend beinhaltet der exemplarische Prozess 914 das Zuordnen und Aktualisieren der MHT (Multiple Hypothese Tracker)-Population basierend auf der Messung (Operation 924). In diesem konkreten Beispiel kann der Vorgang 918 durch ein allgemeines Merkmalsvektorextraktionsmodul durchgeführt werden und der Vorgang 920 kann von einem probabilistischen Ausgangs-Klassifikator durchgeführt werden. In verschiedenen Ausführungsformen kann der Vorgang 918 (z. B. die Merkmalsextraktion) und Operation 920 (z. B. die Klassifizierung) durch verschiedene Arten von trainierten Detektoren in dem Radarmerkmalsraum durchgeführt werden, die konfiguriert sind, Fahrzeuge von Nicht-Fahrzeugen zu unterscheiden und eine probabilistische Ausgabe λi(i=1,2) wie beispielsweise ein neuronales Netzwerk oder ein SVM bereitzustellen.
  • Unter Bezugnahme auf 3 ist das exemplarische Verstärkungslernmodul 316 konfiguriert, um die wahrscheinlichere wahre Erkennung 303 zwischen mehreren mehrdeutigen Radarkandidatenerkennungen 301 unter Verwendung eines trainierten Maschinenlernmodells (ML) auszuwählen. Das exemplarische Verstärkungslernmodul 316 beinhaltet ein trainiertes ML-Modell, das trainiert wurde, um zukünftige durchfahrbare Pfade durch Verkehr unter Verwendung mehrdeutiger Radarkandidatenerkennungen vorherzusagen. Das exemplarische Verstärkungslernmodul 316 ist konfiguriert, um mehrdeutigen Radarkandidatenerkennungen auf das trainierte ML-Modell anzuwenden, um fahrbare Pfade vorherzusagen, um zu bestimmen, welche der mehrdeutigen Radarkandidatenerkennungen zu den befahrbaren Pfaden beitragen, und Candidate-RadarKandidatenerkennungen auszuwählen, die zu den befahrbaren Pfaden als die wahrscheinlichere Erkennung 303 beitragen.
  • 10A und 10B stellen eine exemplarische Darstellung der Verwendung eines exemplarischen Verstärkungslernmoduls 316 zum Auswählen der wahrscheinlicheren tatsächlichen Erkennung 303 aus mehreren mehrdeutigen Radarkandidatenerkennungen 301 bereit. 10A zeigt ein exemplarisches Betriebsszenario, in dem ein exemplarisches Fahrzeug 1002 mit einem Verstärkungslerndiskriminatormodul 316 ausgestattet ist, das ein ML-Modell beinhaltet, das zum Vorhersagen von fahrbaren Pfaden 1004 basierend auf mehrdeutigen Radarkandidatenerkennungen trainiert wurde.
  • 10B ist ein Prozessablaufdiagramm, das einen exemplarischen Prozess 1010 darstellt, in dem ein ML-Modell trainiert und bei der Vorhersage einer wahrscheinlichen tatsächlichen Radarerkennung verwendet wird. Ein beschrifteter Datensatz von historischen mehrdeutigen Radardaten und fahrbaren Pfaden, die aus Daten über frühere Pfade erzeugt werden können, die durch das Fahrzeug angetrieben werden. Historische mehrdeutige Sensordaten 1012 und zehn zweite Bruchstücken der fahrtriebenen Daten 1014 können zum Trainieren (Betrieb 1016) unter Verwendung von verstärkten Lerntechniken verwendet werden, wobei das ML-Modell 1018 fahrbare Wege basierend auf mehrdeutigen Radarkandidatenerkennungen vorhersagen kann. Nachdem das ML-Modell 1018 trainiert ist, um fahrbare Pfade basierend auf mehrdeutigen Radarkandidatenerkennungen vorherzusagen, können mehrdeutige Sensordaten 1020 auf das ML-Modell 1018 angewendet werden. Das ML-Modell 1018 kann fahrbare Wege vorhersagen (Vorgang 1022). Basierend auf den vorhergesagten befahrbaren Pfaden kann das exemplarische Verstärkungslernmodul 316 bestimmen, welche der mehrdeutigen Radarkandidatenerkennungen zu den befahrbaren Pfaden beigetragen haben und die Kandidatenradar-Kandidatenerkennungen auswählen, die zu den fahrbaren Pfaden als die wahrscheinlichere Erkennung beigetragen haben (Vorgang 1024).
  • 11 ist ein Prozessablaufdiagramm, das einen exemplarischen Prozess 1100 zum Auswählen der wahrscheinlicheren echten Erkennung zwischen mehreren mehrdeutigen Radarkandidatenerkennungen darstellt. Die Abfolge der Vorgänge innerhalb des Verfahrens 1100 ist nicht auf die in der Figur dargestellte sequenzielle Abarbeitung beschränkt, sondern kann in einer oder mehreren unterschiedlichen Reihenfolgen gemäß der vorliegenden Offenbarung durchgeführt werden.
  • Der exemplarische Prozess 1100 beinhaltet das Auswählen eines Ansatzes zum Versuch (Vorgang 1102). Die Auswahlentscheidung kann basierend auf anderen verfügbaren Sensordaten oder Messungen getroffen werden. Die Auswahlentscheidung kann darin bestehen, einen Ansatz zu versuchen und wenn dieser Ansatz nicht erfolgreich ist, um einen anderen Ansatz zu versuchen. Der ausgewählte Ansatz kann das Finden der Entfernung zu der nächstgelegenen vorhergesagten Spur beinhalten (Vorgang 1104), beispielsweise unter Verwendung eines Spurangussmoduls 304. Der ausgewählte Ansatz kann das Finden der Entfernung zum nächstgelegenen gültigen Zielweg beinhalten (Vorgang 1106), beispielsweise unter Verwendung eines Kartenabgleichungsmoduls 306. Der ausgewählte Ansatz kann die Ermittlung der Entfernung zur nächsten unkoröschten Erkennung (Vorgang 1108) beinhalten, beispielsweise unter Verwendung eines Kreuzsensorzuordnungsmoduls 310. Der ausgewählte Ansatz kann das Finden der Wahrscheinlichkeit jedes Ziels unter Verwendung von Bildmerkmalen (Vorgang 1110) beinhalten, zum Beispiel unter Verwendung eines ersten bi-modalen Messmoduls 312. Der ausgewählte Ansatz kann das Finden der Wahrscheinlichkeit jedes Ziels unter Verwendung von Radarmerkmalen (Vorgang 1112) beinhalten, zum Beispiel unter Verwendung eines zweiten bi-modalen Messmoduls 314. Der ausgewählte Ansatz kann das Finden der Wahrscheinlichkeit jedes Ziels bei gegebenen ganzheitlichen Pfadvorhersagen (Vorgang 1114) beinhalten, beispielsweise unter Verwendung eines Verstärkungslerndiskriminatormoduls 316. Der ausgewählte Ansatz kann das Finden der Wahrscheinlichkeit jedes Ziels unter Verwendung von Geschwindigkeit und Fahrtrichtung (Vorgang 1116) beinhalten, beispielsweise unter Verwendung eines Bayes'schen kartenbasierten Straßengeschwindigkeits-Modellierungsmoduls 308.
  • Wenn der ausgewählte Ansatz das Auffinden der Entfernung zu der nächstgelegenen vorhergesagten Spur beinhaltet (Vorgang 1104), wird ein ausgewählter Kandidat mit der wahren Erkennung verbunden (Vorgang 1118), wenn der ausgewählte Kandidat eine Entfernung aufweist, die der vorhergesagten Spurposition und unterhalb eines Schwellenabstands liegt (Vorgang 1120). Wenn der ausgewählte Ansatz das Auffinden der Entfernung zum nächstgelegenen gültigen Zielweg beinhaltet (Vorgang 1106), wird ein ausgewählter Kandidat mit der wahren Erkennung verbunden (Vorgang 1118), wenn der ausgewählte Kandidat eine Entfernung aufweist, die einem gültigen Zielweg am nächsten und unterhalb eines Schwellenabstandes liegt (Vorgang 1122). Wenn der ausgewählte Ansatz das Auffinden der Entfernung zur nächstgelegenen eindeutig erkennbaren Erkennung beinhaltet (Vorgang 1108), wird ein ausgewählter Kandidat mit der wahren Erkennung zugeordnet (Vorgang 1118), wenn der ausgewählte Kandidat eine Entfernung aufweist, die zu einer eindeutigen Erkennung am nächsten und unterhalb eines Schwellenabstandes liegt (Vorgang 1124). Wenn der ausgewählte Ansatz die Ermittlung einer Wahrscheinlichkeit für jedes Ziel beinhaltet (Operationen 1110, 1112, 1114, 1116), wird der Kandidat mit der höchsten Wahrscheinlichkeit mit der wahren Erkennung verbunden (Vorgang 1118).
  • Während mindestens eine exemplarische Ausführungsform in der vorstehenden ausführlichen Beschreibung dargestellt wurde, versteht es sich, dass es eine große Anzahl an Variationen gibt. Es versteht sich weiterhin, dass die exemplarische Ausführungsform oder die exemplarischen Ausführungsformen lediglich Beispiele sind und den Umfang, die Anwendbarkeit oder die Konfiguration dieser Offenbarung in keiner Weise einschränken sollen. Die vorstehende ausführliche Beschreibung stellt Fachleuten auf dem Gebiet vielmehr einen zweckmäßigen Plan zur Implementierung der exemplarischen Ausführungsform bzw. der exemplarischen Ausführungsformen zur Verfügung. Verschiedene Änderungen an der Funktion und der Anordnung von Elementen können vorgenommen werden, ohne vom Umfang der Offenbarung, wie er in den beigefügten Ansprüchen und deren rechtlichen Entsprechungen aufgeführt wird, abzuweichen.
  • Als ein Beispiel können die hierin beschriebenen Vorrichtungen, Systeme, Verfahren, Techniken und Artikel auf andere Messsysteme als Radarsysteme angewendet werden. Die hierin beschriebenen Vorrichtungen, Systeme, Verfahren, Techniken und Artikel können auf Geschwindigkeitsmesssensoren wie beispielsweise Laser- oder lichtbasierte Geschwindigkeitsmesssensoren angewendet werden.

Claims (10)

  1. Vereindeutigungssystem zum Vereindeutigen von mehrdeutigen Erkennungen, wobei das System eine Vielzahl von Modulen umfasst, wobei jedes Modul konfiguriert ist, um zwischen mehrdeutigen Erkennungen zu unterscheiden, indem es als eine wahre Erkennung eine Kandidatenerkennung in einem Satz mehrdeutiger Erkennungen wählt, wobei jedes Modul konfiguriert ist, um eine andere Auswahltechnik anzuwenden, wobei das System Folgendes umfasst: ein oder mehrere Module, die durch einen Prozessor konfiguriert sind, um die wahre Erkennung zu wählen, wobei die Kandidatenerkennung näher an einer Position liegt, die durch andere Daten angezeigt wird; und ein oder mehrere Module, die durch einen Prozessor konfiguriert sind, um die wahre Erkennung zu wählen, wobei die Kandidatenerkennung mit der höchsten Wahrscheinlichkeit, dass sie auf anderen Sensordaten beruhen, wahr ist.
  2. System nach Anspruch 1, wobei die mehrdeutigen Erkennungen mehrdeutige Radarerkennungen umfassen, wobei der Satz mehrdeutiger Erkennungen zwei mehrdeutige Radarerkennungen umfasst und das Auswählen als eine tatsächliche Erkennung einer Kandidatenerkennung in einem Satz mehrdeutiger Erkennungen das Auswählen als eine tatsächliche Erkennung einer Kandidatenradarerkennung in einem Satz von zwei mehrdeutigen Radarerkennungen umfasst.
  3. System nach Anspruch 1, wobei das eine oder die mehreren Module, die konfiguriert sind, um die echte Erkennung zu wählen, die Kandidatenerkennung, deren zugehörige Position näher an einer Position liegt, die durch andere Daten angegeben ist, eines oder mehrere der Folgenden umfasst: ein erstes Modul, das dazu konfiguriert ist, als eine wahre Erkennung die Kandidatenerkennung auszuwählen, die einer vorhergesagten nächsten Position für ein Ziel am nächsten ist, ein zweites Modul, das dazu konfiguriert ist, als eine wahre Erkennung die Kandidatenerkennung auszuwählen, die einem ersten bekannten Fahrweg am nächsten ist; ein drittes Modul, das dazu konfiguriert ist, als eine echte Erkennung die Kandidatenerkennung auszuwählen, die eine Position und Geschwindigkeit angibt, die mit einem Ziel übereinstimmt, das auf einem zweiten bekannten Fahrweg fährt; und ein viertes Modul, das dazu konfiguriert ist, als eine echte Erkennung die Kandidatenerkennung auszuwählen, die eine Position anzeigt, die einer Position am nächsten liegt, die durch eine Erkennung von einem anderen Sensor angezeigt wird.
  4. System nach Anspruch 3, wobei das erste Modul konfiguriert ist, um eine Abstandsmetrik aus der letzten Position eines verfolgten Ziels zu jeder Kandidatenerkennung zu berechnen, eine nächste Position für das verfolgte Ziel vorherzusagen und eine Kandidatenerkennung auszuwählen, deren Entfernung von der vorhergesagten nächsten Position kleiner als ein Schwellenabstand ist.
  5. System nach Anspruch 3, wobei der erste bekannte Fahrtweg aus Kartendaten bestimmt wird und wobei das zweite Modul konfiguriert ist, um die Kandidatenerkennung auszuwählen, die dem ersten bekannten Fahrtweg am nächsten liegt und innerhalb eines Schwellenwertabstandes vom ersten bekannten Fahrtweg.
  6. System nach Anspruch 3, wobei der erste bekannte Fahrweg durch Bildgebungsdaten bestimmt wird und wobei das zweite Modul konfiguriert ist, um die Kandidatenerkennung auszuwählen, die dem ersten bekannten Fahrweg und innerhalb eines Schwellenwertabstandes vom Fahrweg am nächsten liegt.
  7. System nach Anspruch 3, wobei das dritte Modul dazu konfiguriert ist, eine scheinbare statische Bereichsrate eines Ziels basierend auf einer Kandidatenerkennung zu berechnen, die Straßengeschwindigkeit zu berechnen und Kandidatenerkennungen herauszufiltern, die ein Ziel mit einer Position und einer berechneten Geschwindigkeit anzeigen, die inkonsistent ist, um auf dem zweiten bekannten Fahrweg zu fahren.
  8. System nach Anspruch 3, wobei das vierte Modul konfiguriert ist, um die Kandidatenerkennung mit Daten von einem zweiten Sensor zu vergleichen, der ein überlapptes Sichtfeld aufweist, wobei der zweite Sensor eine Bildgebungsvorrichtung oder einen Radarsensor umfasst.
  9. System nach Anspruch 1, wobei das eine oder die mehreren Module, die zum Auswählen als die echte Erkennung konfiguriert sind, wobei die Kandidatenerkennung mit der höchsten Wahrscheinlichkeit, dass sie auf anderen Sensordaten beruhen, eines oder mehrere der Folgenden umfasst: ein fünftes Modul, das dazu konfiguriert ist, eine Gauß‘sche Verteilung für jede Kandidatenerkennung und Bilddaten mit einem Sichtfeld, das die Kandidatenerkennung umfasst, zu berechnen, die Wahrscheinlichkeit zu schätzen, dass die Kandidatenerkennung real ist, basierend auf der berechneten Gauß‘schen Verteilung, und die Kandidatenerkennung auszuwählen, welche die höchste Wahrscheinlichkeit hat, real zu sein, und ein sechstes Modul, das konfiguriert ist, um eine Gauß‘sche Verteilung für jede Kandidatenerkennung und Radarmerkmalsdaten mit einem Sichtfeld zu berechnen, das die Kandidatenerkennung umfasst, die Wahrscheinlichkeit, dass die Kandidatenerkennung real ist, basierend auf der berechneten Gauß‘schen Verteilung, und die Kandidatenerkennung auszuwählen, welche die höchste Wahrscheinlichkeit hat, real zu sein.
  10. System nach Anspruch 1, ferner umfassend: ein siebtes Modul, das ein Modell umfasst, das unter Verwendung von maschinellen Lerntechniken trainiert ist, um die Kandidatenerkennung auszuwählen, die eine mit einem erlernten fahrbaren Weg übereinstimmende Position angibt, wobei das Modell unter Verwendung von Verstärkungslerntechniken trainiert wurde, die einen Datensatz mit früheren mehrdeutigen Radardaten und zeitbegrenzten Bruchstücken von fahrbaren Pfaden verwenden und wobei das siebte Modul dazu konfiguriert ist, die Kandidatenerkennung auszuwählen, die zu einem der befahrbaren Pfade beigetragen hat.
DE102019115080.9A 2018-11-01 2019-06-04 Verfahren zum vereindeutigen mehrdeutiger erkennungen in sensorfusionssystemen Pending DE102019115080A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/177,799 US10859673B2 (en) 2018-11-01 2018-11-01 Method for disambiguating ambiguous detections in sensor fusion systems
US16/177,799 2018-11-01

Publications (1)

Publication Number Publication Date
DE102019115080A1 true DE102019115080A1 (de) 2020-05-07

Family

ID=70460051

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019115080.9A Pending DE102019115080A1 (de) 2018-11-01 2019-06-04 Verfahren zum vereindeutigen mehrdeutiger erkennungen in sensorfusionssystemen

Country Status (3)

Country Link
US (1) US10859673B2 (de)
CN (1) CN111144432B (de)
DE (1) DE102019115080A1 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7192229B2 (ja) * 2018-03-26 2022-12-20 株式会社デンソー 検知装置、検知方法、およびコンピュータプログラム
US11428781B2 (en) * 2018-11-01 2022-08-30 Robert Bosch Gmbh System and method for radar-based localization in sparse environment
CA3120498C (en) * 2018-12-14 2023-09-26 Thales Canada Inc. Vehicle odometry and motion direction determination
WO2020157844A1 (ja) * 2019-01-30 2020-08-06 三菱電機株式会社 計測装置、計測方法及び計測プログラム
DE102020206659A1 (de) * 2019-05-30 2020-12-03 Robert Bosch Gesellschaft mit beschränkter Haftung Multi-hypothesen-objektverfologung für automatisierte fahrsysteme
KR20210022935A (ko) * 2019-08-21 2021-03-04 엘지전자 주식회사 Slam을 구현하는 방법 및 전자 장치
US11454716B2 (en) * 2019-12-30 2022-09-27 Woven Planet North America, Inc. Systems and methods for adaptive gating in initialization of radar tracking
RU2751734C2 (ru) * 2019-12-30 2021-07-16 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способы и процессоры для управления рулением беспилотным автомобилем
EP3926364A1 (de) * 2020-06-18 2021-12-22 Furuno Electric Co., Ltd. System und verfahren zur erkennung eines zielobjekts eines schiffes und vorrichtung zur zuverlässigkeitsabschätzung
CN112529822B (zh) * 2021-02-09 2021-04-20 斯伦贝谢油田技术(山东)有限公司 一种随钻测井成像数据处理方法
US20230003872A1 (en) * 2021-06-30 2023-01-05 Zoox, Inc. Tracking objects with radar data

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19949409A1 (de) * 1999-10-13 2001-04-19 Bosch Gmbh Robert Verfahren und Vorrichtung zur Objektdetektierung
US10565329B2 (en) * 2014-06-30 2020-02-18 Evolving Machine Intelligence Pty Ltd System and method for modelling system behaviour
US9760806B1 (en) * 2016-05-11 2017-09-12 TCL Research America Inc. Method and system for vision-centric deep-learning-based road situation analysis
EP3349033A1 (de) * 2017-01-13 2018-07-18 Autoliv Development AB Verbesserte objekterkennung und bewegungsschätzung für ein fahrzeugumgebungserkennungssystem

Also Published As

Publication number Publication date
US20200142026A1 (en) 2020-05-07
CN111144432B (zh) 2024-04-12
CN111144432A (zh) 2020-05-12
US10859673B2 (en) 2020-12-08

Similar Documents

Publication Publication Date Title
DE102019115080A1 (de) Verfahren zum vereindeutigen mehrdeutiger erkennungen in sensorfusionssystemen
DE102020103130A1 (de) System und verfahren zur radar-kreuzverkehrsverfolgung und manöver-risikoabschätzung
DE102018129295A1 (de) Systeme und Verfahren zum Abbilden von Fahrbahnstörobjekten in autonomen Fahrzeugen
DE102020110458A1 (de) Fahrzeugpfadvorhersage
DE102018119764A1 (de) Verfahren und vorrichtung zur erkennung und korrektur von anomalien in einer partizipativen karte
DE102019114867A1 (de) Autonome fahrentscheidungen an kreuzungen unter verwendung eines hierarchischen optionalen markov-entscheidungsprozesses
DE102017100029A1 (de) Vorhersage einer fahrerabsicht an einer kreuzung
EP3298541A1 (de) Verfahren zur schätzung von fahrstreifen
DE102019115059A1 (de) System zum ableiten eines autonomen fahrzeugs, das eine fahrbare karte ermöglicht
DE102014223363A1 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
DE102018117916A1 (de) Wegplanung für das autonome Fahren
DE102018129063A1 (de) Systeme und verfahren zur freiraum-inferenz zum brechen von geclusterten objekten in fahrzeugwahrnehmungssystemen
EP3380810B1 (de) Verfahren, vorrichtung, kartenverwaltungseinrichtung und system zum punktgenauen lokalisieren eines kraftfahrzeugs in einem umfeld
DE102020113848A1 (de) Ekzentrizitätsbildfusion
DE102019133703A1 (de) Verfahren und systeme zur herstellung und lokalisierung für ein fahrzeug
DE102020125307A1 (de) Adaptive sensorfusion
DE102019113345A1 (de) Systeme und verfahren zur verwendung des strassenverständnisses zur einschränkung von radarspuren
DE102018129057A1 (de) Systeme und verfahren zum bestimmen der geschwindigkeit von lidar-punkten
DE102018103473A1 (de) Wirksamer rollradius
DE102021128041A1 (de) Verbesserung eines neuronalen fahrzeugnetzwerks
DE102021103149A1 (de) Verfahren und vorrichtung zur bestimmung der optimalen kreuzungsspur in einem unterstützten fahrsystem
DE102021103370A1 (de) Objekterkennung mittels low-level-kamera-radar-fusion
DE102019123483B4 (de) Verfahren sowie Kraftfahrzeug-Steuereinheit zum Erfassen einer Umgebung eines Kraftfahrzeugs durch Fusionieren von Sensordaten auf Punktwolkenebene
DE102020105657A1 (de) Verfahren und Systeme für die Kartierung und Lokalisierung eines Fahrzeuges
DE102020127205A1 (de) Verfahren und vorrichtung zur ampelpositionierung und -kartierung unter verwendung von durch menschenmengen (crowd-sensed) erfassten daten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: LKGLOBAL LORENZ UND KOPF PATENTANWALT, ATTORNE, DE

Representative=s name: LKGLOBAL | LORENZ & KOPF PARTG MBB PATENTANWAE, DE

Representative=s name: LKGLOBAL ] LORENZ & KOPF PARTG MBB PATENTANWAE, DE