DE102020102712A1 - Entfernung von fehlalarmen in der keulenbildungsphase zum erfassen von radaren unter verwendung eines tiefen neuronalen netzwerks - Google Patents

Entfernung von fehlalarmen in der keulenbildungsphase zum erfassen von radaren unter verwendung eines tiefen neuronalen netzwerks Download PDF

Info

Publication number
DE102020102712A1
DE102020102712A1 DE102020102712.5A DE102020102712A DE102020102712A1 DE 102020102712 A1 DE102020102712 A1 DE 102020102712A1 DE 102020102712 A DE102020102712 A DE 102020102712A DE 102020102712 A1 DE102020102712 A1 DE 102020102712A1
Authority
DE
Germany
Prior art keywords
cnn
card
response
doa
reply
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102020102712.5A
Other languages
English (en)
Inventor
Eyal Rittberg
Omri Rozenzaft
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102020102712A1 publication Critical patent/DE102020102712A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/36Means for anti-jamming, e.g. ECCM, i.e. electronic counter-counter measures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Prozessorimplementierte Verfahren und Systeme, die eine Zielüberprüfung auf einer Spektralempfindlichkeitskarte durchführen, um Fehlalarmdetektionen in der Keulenbildungsphase zum Abtasten von Radaren (d.h. vor der Durchführung der Spitzenreaktionsidentifikation) unter Verwendung eines neuronalen Faltungsnetzwerks (CNN) zu entfernen, sind vorgesehen. Die prozessorimplementierten Verfahren beinhalten: Erzeugen einer spektralen Antwortkarte aus den Radardaten; und Ausführen des CNN, um zu bestimmen, ob die Antwortkarte eine gültige Zielerkennung darstellt, und um die Antwortkarte als Fehlalarm zu klassifizieren, wenn die Antwortkarte keine gültige Zielerkennung darstellt. Nach der Ausführung des CNN werden nur Antwortkarten mit gültigen Zielen verarbeitet, um daraus einen DOA-Befehl (direction of arrival) zu erzeugen.

Description

  • Technisches Gebiet
  • Die vorliegende Offenbarung bezieht sich im Allgemeinen auf Objektwahrnehmungssysteme, die erfasste Radardaten verarbeiten, und insbesondere auf die Beseitigung von Fehlalarmen in der Keulenbildungsphase zum Erfassen von Radaren unter Verwendung eines tiefen neuronalen Netzwerks.
  • Der Trend zur Fahrzeugautomatisierung beinhaltet damit die Forderung nach verbesserten Fahrzeugwahrnehmungssystemen. Radardaten von Radarsendern können eine Möglichkeit für ein Fahrsystem darstellen, die Umgebung außerhalb des Fahrzeugs „wahrzunehmen“.
  • Insbesondere können Radardaten verwendet werden, um einen „Direction of Arrival“ (DOA)-Befehl in Bezug auf ein Zielobjekt zu identifizieren und zu erzeugen, d.h. im Wesentlichen Informationen, dass sich an einem bestimmten Ort ein Zielobjekt befindet. Der Standort kann sich ferner auf den Bezugsrahmen eines Benutzers oder einer mobilen Plattform beziehen.
  • In vielen herkömmlichen Direction of Arrival (DOA)-Systemen werden die Radardaten mit einem Keulenbildungsalgorithmus in ein Spektralbild, eine so genannte Antwortkarte, umgewandelt. Die Antwortkarte ist eine Funktion von zwei Variablen (oder Dimensionen), wie beispielsweise einem Azimut- (x-Achse) und einem Elevations- (y-Achse) Tupel, und jedes (x,y) Tupel in der Antwortkarte hat eine damit verbundene Energie. Die Antwortkarte ist ein Bild oder Schnappschuss, das die äußere Umgebung des Fahrzeugs darstellt. Die Spektralkarte wird dann von einem Spitzenwert-Algorithmus verarbeitet, um eine Spitzenwert-Antwort oder die intensivste Antwort zu identifizieren. Die Spitzenreaktion wird verwendet, um eine Richtung der Ankunft des Zielobjekts anzuzeigen. In verschiedenen Ausführungsformen beinhaltet „die Keulenbildungsstufe“ die Ausführung des Strahlformalgorithmus sowie die Ausführung der Spitzenreaktionsidentifikation.
  • In empfindlichen Radarsystemen weisen die Spektralbilder jedoch manchmal Fehlalarme auf, die durch eine Vielzahl von Faktoren wie Umgebungslärm verursacht werden können. Viele herkömmliche Systeme zur Bestimmung eines DOA mit Radardaten können durch die Fehlalarme ausgetrickst werden. Wenn ein Fehlalarm falsch interpretiert wird, um ein gültiges Ziel anzuzeigen, wird eine DOA erzeugt, die das Vorhandensein eines Objekts anzeigt, für das es kein Ziel gibt. In einem Fahrsystem, das sich auf die DOA stützt, um Entscheidungen über die Fortführung eines aktuellen Fahrwegs zu treffen, können die Fehlalarm-DOAs zu unerwünschten Ergebnissen führen, wie z.B. das Anhalten des Fahrzeugs, vielleicht auf unbestimmte Zeit, unnötiges Bremsen, nervöses Fahren und Navigieren des Fahrzeugs um Fehlalarme (d.h. imaginäre Objekte). Darüber hinaus verschwenden mobile Plattformen, die die herkömmlichen DOA-Systeme nutzen, Zeit mit der Korrektur nach jedem dieser Ereignisse.
  • Dementsprechend ist ein technologisch verbessertes Direction of Arrival (DOA)-System wünschenswert, das Radardaten empfängt und verarbeitet. Das gewünschte DOA-System ist angepasst, um schnelle Bestimmungen über Fehlalarme vorzunehmen und diese schnell zu beseitigen, bevor andere Systeme sich auf sie verlassen. Das gewünschte DOA-System verwendet ein neuronales Faltungsnetz (CNN) zur Durchführung der Zielverifikation und der Fehlalarm-Eliminierung (FA) in der Keulenbildungsphase zur Erkennung von Radaren. Die folgende Offenbarung enthält diese technologischen Verbesserungen sowie die Behandlung damit zusammenhängender Fragen.
  • BESCHREIBUNG
  • Ein prozessorimplementiertes Verfahren zum Verwenden von Radardaten zum Erzeugen eines DOA-Befehls (direction of arrival) unter Verwendung eines neuronalen Faltungsnetzwerks (CNN) ist vorgesehen. Das Verfahren beinhaltet: Erzeugen einer Antwortkarte aus den Radardaten; Verarbeiten der Antwortkarte im CNN, um zu bestimmen, ob die Antwortkarte eine gültige Zielerkennung darstellt; Klassifizieren der Antwortkarte durch das CNN als Fehlalarm, wenn die Antwortkarte keine gültige Zielerkennung darstellt; und Identifizieren eines Maximalwerts in der Antwortkarte, wenn die Antwortkarte eine gültige Zielerkennung darstellt.
  • In einer Ausführungsform ist die Antwortkarte eine Bartlett-Keulenbildung-Spektralempfindlichkeitskarte.
  • In einer Ausführungsform wurde das CNN mit Trainingsdaten trainiert, die in einer schalltoten Kammer erzeugt wurden.
  • In einer Ausführungsform ist die Antwortkarte ein dreidimensionaler Tensor mit den Abmessungen 15x20x3.
  • In einer Ausführungsform wird das CNN durch Rückpropagation trainiert.
  • In einer Ausführungsform umfasst das CNN eine Vielzahl von versteckten Schichten.
  • In einer Ausführungsform umfasst jede der versteckten Schichten eine konvergente Schicht mit einer Aktivierungsfunktion für rektifizierte Lineareinheiten (ReLU).
  • In einer Ausführungsform umfasst jede der ausgeblendeten Schichten weiterhin Batch-Normalisierungsebenen, MaxPooling-Lagen und Dropout-Lagen.
  • In einer Ausführungsform umfasst das CNN mindestens eine vollständig verbundene Schicht (FC) mit einer Sigmoid-Aktivierungsfunktion.
  • In einer weiteren Ausführungsform ist ein prozessorimplementiertes Verfahren zum Entfernen von Fehlalarmen in der Keulenbildungsphase zum Erfassen von Radaren unter Verwendung eines neuronalen Faltungsnetzwerks (CNN) vorgesehen. Das Verfahren beinhaltet: Empfangen einer aus Radardaten erzeugten Antwortkarte; Verarbeiten der Antwortkarte im CNN, um zu bestimmen, ob die Antwortkarte eine gültige Zielerkennung darstellt; Klassifizieren der Antwortkarte durch den CNN als Fehlalarm, wenn die Antwortkarte keine gültige Zielerkennung darstellt; und Klassifizieren der Antwortkarte durch den CNN als gültige Antwortkarte, wenn die Antwortkarte eine gültige Zielerkennung darstellt.
  • In einer Ausführungsform ist die Antwortkarte eine Bartlett-Keulenbildung-Spektralempfindlichkeitskarte.
  • In einer Ausführungsform wurde das CNN mit Trainingsdaten, die in einer Absorberkammer erzeugt wurden, und Validierungsdaten, die in der Absorberkammer erzeugt wurden, trainiert.
  • In einer Ausführungsform wird das CNN durch Rückpropagation trainiert.
  • In einer Ausführungsform ist die Antwortkarte ein dreidimensionaler Tensor mit den Abmessungen 15x20x3, und das CNN umfasst eine Anzahl, N, von versteckten Schichten, wobei N eine Funktion von mindestens den Abmessungen der Antwortkarte ist.
  • In einer Ausführungsform umfasst jede der N verborgenen Schichten eine konvergente Schicht mit einer Aktivierungsfunktion für rektifizierte Lineareinheiten (ReLU).
  • In einer Ausführungsform sind die N verborgenen Schichten mit Batch-Normalisierungsebenen, MaxPooling-Lagen und Dropout-Lagen durchsetzt.
  • In einer Ausführungsform umfasst das CNN mindestens eine vollständig verbundene Schicht (FC) mit einer Sigmoid-Aktivierungsfunktion.
  • In einer weiteren Ausführungsform ist ein System zum Erzeugen eines DOA-Befehls (direction of arrival) für ein Fahrzeug mit einem oder mehreren Prozessoren vorgesehen, die programmiert sind, um ein neuronales Faltungsnetzwerk (CNN) zu implementieren. Das System beinhaltet: einen Radarsender-Empfänger, der Radardaten bereitstellt; einen Prozessor, der programmiert ist, um die Radardaten zu empfangen und daraus eine Bartlett-Keulenbildung-Antwortkarte zu erzeugen; und wobei der CNN ausgebildet ist, die Antwortkarte zu verarbeiten, um zu bestimmen, ob die Antwortkarte eine gültige Zielerkennung darstellt, und die Antwortkarte als Fehlalarm zu klassifizieren, wenn die Antwortkarte keine gültige Zielerkennung darstellt; und wobei der Prozessor ferner programmiert ist, den DOA-Befehl zu erzeugen, wenn die Antwortkarte eine gültige Zielerkennung darstellt.
  • In einer Ausführungsform ist der Prozessor ferner programmiert, um eine Spitzenantwort in der Antwortkarte zu identifizieren, wenn die Antwortkarte eine gültige Zielerkennung darstellt.
  • In einer Ausführungsform ist der Prozessor ferner programmiert, um das CNN unter Verwendung der Rückpropagation und unter Verwendung eines Trainingsdatensatzes und eines Validierungsdatensatzes zu trainieren, die jeweils in einer schalltoten Kammer erzeugt werden.
  • Figurenliste
  • Aspekte der vorliegenden Offenbarung lassen sich am besten aus der folgenden detaillierten Beschreibung verstehen, wenn man sie mit den dazugehörigen Bezugszeichen liest, wobei gleiche Bezugszeichen gleiche Elemente bezeichnen, und:
    • 1 ist ein Blockdiagramm, das ein exemplarisches Fahrzeug gemäß einigen Ausführungsformen darstellt;
    • 2 ist ein Blockdiagramm, das ein exemplarisches Antriebssystem in einem exemplarischen Fahrzeug gemäß einigen Ausführungsformen darstellt;
    • 3 ist ein Blockdiagramm, das ein exemplarisches Ankunftsrichtungssystem für ein Fahrzeug gemäß einigen Ausführungsformen darstellt;
    • 4 ist ein Diagramm, das die Anordnung der Schichten eines CNN gemäß einigen Ausführungsformen angibt;
    • 5 ist ein Prozessablaufdiagramm, das einen exemplarischen Prozess zum Training des CNN gemäß einigen Ausführungsformen darstellt;
    • 6 ist ein Prozessablaufdiagramm, das einen exemplarischen Prozess für den Betrieb eines DOA-Systems darstellt, das ein trainiertes CNN verwendet, in Übereinstimmung mit einigen Ausführungsformen; und
    • Die 7 und 8 sind exemplarische Ausführungsformen der Logik zur Beseitigung von Fehlalarmen gemäß einigen Ausführungsformen.
  • DETAILLIERTE BESCHREIBUNG
  • Die folgende detaillierte Beschreibung ist lediglich exemplarischer Natur und soll die Anwendung und Verwendung nicht einschränken. Darüber hinaus besteht keine Absicht, an eine ausdrückliche oder stillschweigende Theorie gebunden zu sein, die im vorhergehenden technischen Bereich, Hintergrund, Zusammenfassung oder der folgenden detaillierten Beschreibung dargestellt wird.
  • Ausführungsformen der vorliegenden Offenbarung können hierin in Bezug auf funktionale und/oder logische Blockkomponenten und verschiedene Verarbeitungsschritte beschrieben werden. Dementsprechend ist zu beachten, dass solche Blockkomponenten durch eine beliebige Anzahl von Hardware-, Software- und/oder Firmwarekomponenten realisiert werden können, die konfiguriert sind, um die angegebenen Funktionen auszuführen. So kann beispielsweise eine Ausführungsform der vorliegenden Offenbarung verschiedene integrierte Schaltungskomponenten verwenden, z.B. Speicherelemente, digitale Signalverarbeitungselemente, Logikelemente, Nachschlagetabellen oder dergleichen, die eine Vielzahl von Funktionen unter der Kontrolle eines oder mehrerer Mikroprozessoren oder anderer Steuergeräte ausführen können.
  • Für die Zwecke der Beschreibung können verschiedene Funktionsblöcke und die damit verbundenen Verarbeitungsschritte als Module bezeichnet werden. Wie hierin verwendet, kann jedes „Modul“ in jeder beliebigen Hardware, Software, Firmware, Firmware, elektronischen Steuerkomponente, Verarbeitungslogik und/oder Prozessorvorrichtung einzeln oder in jeder beliebigen Kombination implementiert werden, einschließlich, aber nicht beschränkt auf: eine anwendungsspezifische integrierte Schaltung (ASIC), ein feldprogrammierbares Gate-Array (FPGA), eine elektronische Schaltung, einen Prozessor (gemeinsam, dediziert oder Gruppe) und einen Speicher, der ein oder mehrere Software- oder Firmwareprogramme ausführt, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten, die die beschriebene Funktionalität bereitstellen.
  • In einem empfindlichen Radarwahrnehmungssystem kann „Rauschen“ in den Radardaten einen Fehlalarm verursachen. Einige nicht einschränkende Beispiele für Dinge, die gemeinsam als „Rauschen“ bezeichnet werden, sind der Ausstoß eines Schornsteins, Insekten, ein Stück Müll, der durch die Luft schwebt, Wetter und dergleichen. Wie bereits erwähnt, können die Auswirkungen einer DOA-Bestimmung, die eine Richtung zu einem gültigen Ziel anzeigt, wenn das Ziel tatsächlich ungültig ist, unerwünscht sein.
  • In verschiedenen Ausführungsformen wird die DOA verwendet, um ein Fahrzeug zum Drehen und/oder Bremsen zu bringen. In einem Beispiel, einer mobilen Plattform, die Steuerungsentscheidungen nach Erhalt des DOA trifft, macht die mobile Plattform ein hohes Maß an Kurven, einschließlich vieler unnötiger, pro zurückgelegte Strecke; ein Fahrgast würde die mobile Plattform als eine nervöse Fahrt erleben. In einem weiteren Beispiel, einer mobilen Plattform, die Bremsentscheidungen nach Erhalt des DOA trifft, bremst die mobile Plattform häufig, auch aus vielen unnötigen Gründen, pro zurückgelegte Strecke; ein Fahrgast würde die mobile Plattform auch als eine nervöse Fahrt erleben. Wie bereits erwähnt, handelt es sich hierbei um ein technologisches Problem, das einige konventionelle Direction of Arrival (DOA)-Systeme nicht lösen können.
  • Hierin vorgesehen ist ein technologisch verbessertes DOA-System (DOA = Direction of Arrival) (3, 302), das Radardaten empfängt und verarbeitet. Das DOA-System stellt ein neuartiges Zielvalidierungsmodul (3, 306) vor, das ein neuronales Faltungsnetz (CNN) (3, 310) mit Fehlalarm-Eliminierungslogik (3, 350) verwendet. Die CNN 310 führt eine Zielverifizierung auf der strahlgeformten Antwortkarte durch, und die Logik zur Beseitigung von Fehlalarmen 350 entfernt Fehlalarm-Erkennungen in der Keulenbildungsphase zum Erfassen von Radaren basierend auf dem Ausgang der CNN 310. Diese technologische Erweiterung bietet eine funktionale Verbesserung, um sicherzustellen, dass nur gültige Antwortkarten verarbeitet werden, um einen DOA-Befehl zu erzeugen. Der praktische Effekt dieser Verbesserung zeigt sich und kann in Systemen erlebt werden, die den DOA als Entscheidungsgrundlage nutzen, z.B. in einer mobilen Plattform, die den DOA beim Lenk- und Bremsvorgang einsetzt, wird das Drehen und Bremsen nur als Reaktion auf gültige Objekte durchgeführt, was zu einer ruhigeren Fahrt und einem komfortableren Fahrverhalten für den Fahrgast führt.
  • Die folgende Beschreibung folgt dieser allgemeinen Ordnung: Ein Fahrzeug und der allgemeine Kontext für ein DOA-System sind mit den 1 - 3 versehen; die 4 - 6 stellen Merkmale des neuartigen DOA-Systems und die Implementierung des CNN 310 vor; und die 7 - 8 stellen einige exemplarische Ausführungsformen der Fehlalarm-Erfassungslogik dar (3, 350).
  • 1 zeigt ein Beispielfahrzeug 100. Während das DOA-System 302 im Rahmen einer mobilen Plattform beschrieben wird, die ein Fahrzeug ist, versteht es sich, dass Ausführungsformen des neuartigen DOA-Systems 302 und/oder des Zielvalidierungsmoduls 306, das ein neuronales Faltungsnetz (CNN) verwendet, in Verbindung mit einer beliebigen Anzahl von mobilen und unbeweglichen Plattformen praktiziert werden können und dass die hierin beschriebenen Systeme lediglich exemplarische Ausführungsformen der vorliegenden Offenbarung sind. In verschiedenen Ausführungsformen kann das Fahrzeug 100 autonom oder teilautonom gefahren werden. Das Fahrzeug 100 ist in der veranschaulichten Ausführungsform als Personenkraftwagen dargestellt, aber auch andere Fahrzeugtypen, einschließlich Motorräder, Lastkraftwagen, Sport Utility Vehicles (SUVs), Freizeitfahrzeuge (RVs), Seeschiffe, Flugzeuge usw., können verwendet werden.
  • Das Fahrzeug 100 beinhaltet im Allgemeinen ein Fahrgestell 12, eine Karosserie 14, Vorderräder 16 und Hinterräder 18. Die Karosserie 14 ist auf dem Fahrgestell 12 angeordnet und umschließt im Wesentlichen Komponenten des Fahrzeugs 100. Die Karosserie 14 und das Fahrgestell 12 können gemeinsam einen Rahmen bilden. Die Räder 16-18 sind jeweils drehbar mit dem Fahrgestell 12 in der Nähe einer entsprechenden Ecke der Karosserie 14 gekoppelt.
  • Wie dargestellt, beinhaltet das Fahrzeug 100 im Allgemeinen ein Antriebssystem 20, ein Getriebesystem 22, ein Lenksystem 24, ein Bremssystem 26, ein Sensorsystem 28, ein Stellgliedsystem 30, mindestens eine Datenspeichervorrichtung 32, mindestens eine Steuerung 34 und ein Kommunikationssystem 36. Das Antriebssystem 20 kann in verschiedenen Ausführungsformen einen Verbrennungsmotor, eine elektrische Maschine, wie beispielsweise einen Fahrmotor, und/oder ein Brennstoffzellenantriebssystem beinhalten.
  • Das Lenksystem 24 beeinflusst eine Position der Fahrzeugräder 16 und/oder 18. Obwohl dargestellt als ein Lenkrad 25 zu veranschaulichenden Zwecken, darf das Lenksystem 24 in einigen Ausführungsformen, die im Rahmen der vorliegenden Offenbarung vorgesehen sind, kein Lenkrad beinhalten. Das Lenksystem 24 ist konfiguriert, um Steuerbefehle von der Steuerung 34 zu empfangen, wie beispielsweise Lenkwinkel- oder Drehmomentbefehle, die bewirken, dass das Fahrzeug 100 die gewünschten Trajektorien-Wegpunkte erreicht. Das Lenksystem 24 kann beispielsweise ein EPS-System (Electric Power Steering) oder ein AFS-System (Active Front Steering) sein.
  • Das Sensorsystem 28 beinhaltet eine oder mehrere Sensorvorrichtungen 40a-40n, die beobachtbare Bedingungen der äußeren Umgebung und/oder der inneren Umgebung des Fahrzeugs 100 (wie den Zustand eines oder mehrerer Insassen) erfassen und Sensordaten in Bezug darauf erzeugen. Die Sensorvorrichtungen 40a-40n können Folgendes beinhalten, sind aber nicht darauf beschränkt: globale Positionierungssysteme (GPS), optische Kameras (z.B. nach vorne gerichtete, 360-Grad, nach hinten gerichtete, seitliche, Stereokameras usw.), Wärmebildkameras (z.B. Infrarotkameras), Ultraschallsensoren, Lidars, Odometriesensoren (z.B. Encoder) und/oder andere Sensoren, die in Verbindung mit Systemen und Verfahren gemäß dem vorliegenden Gegenstand verwendet werden können.
  • Die oben genannten referenzierten Radardaten werden von einem Abtastradar, dem Radar-Sender/Empfänger 41, bereitgestellt, der als Bestandteil des Sensorsystems 28 dargestellt ist. Der Radar-Sender/Empfänger 41 kann ein oder mehrere handelsübliche Radare sein (z.B. Langstrecken-, Mittel- und Kurzstreckenradar). Wie in Verbindung mit 3 näher beschrieben, werden Radardaten vom Radar-Sender/Empfänger 41 zur Bestimmung der Ankunftsrichtung (DOA) verwendet. In verschiedenen Ausführungsformen werden die Fahrzeugpositionsdaten der GPS-Sensoren auch von der Steuerung 34 für die Berechnung des DOA verwendet.
  • Das Stellgliedsystem 30 beinhaltet eine oder mehrere Stellgliedsvorrichtungen 42a-42n, die ein oder mehrere Fahrzeugmerkmale steuern, wie beispielsweise das Antriebssystem 20, das Getriebesystem 22, das Lenksystem 24 und das Bremssystem 26.
  • Die Datenspeichervorrichtung 32 kann Daten zur Verwendung bei der Steuerung des Fahrzeugs 100 speichern. Die Datenspeichervorrichtung 32 speichert in verschiedenen Ausführungsformen definierte Karten der navigierbaren Umgebung. In verschiedenen Ausführungsformen können die definierten Karten durch ein entferntes System vordefiniert und von diesem bezogen werden. So können beispielsweise die definierten Karten vom entfernten System zusammengestellt und an das Fahrzeug 100 (drahtlos und/oder drahtgebunden) übermittelt und in der Datenspeichervorrichtung 32 gespeichert werden. Routeninformationen können auch in der Datenspeichervorrichtung 32 gespeichert werden - d.h. eine Reihe von Straßenabschnitten (die geografisch einer oder mehreren der definierten Karten zugeordnet sind), die zusammen eine Route definieren, die der Benutzer nehmen kann, um von einem Startort (z.B. dem aktuellen Standort des Benutzers) zu einem Zielort zu gelangen. Wie zu beachten ist, kann die Datenspeichervorrichtung 32 in die Steuerung 34 integriert oder von der Steuerung 34 getrennt sein.
  • In verschiedenen Ausführungsformen beinhaltet die Steuerung 34 mindestens einen Prozessor 44 und eine computerlesbare Speichervorrichtung oder ein Medium 46. Der Prozessor 44 kann einer oder mehrere sein: ein maßgeschneiderter oder kommerziell verfügbarer Prozessor, eine Zentraleinheit (CPU), eine Grafikverarbeitungseinheit (GPU), eine anwendungsspezifische integrierte Schaltung (ASIC) (z.B. ein kundenspezifischer ASIC, der ein neuronales Netzwerk implementiert), ein feldprogrammierbares Gate-Array (FPGA), ein Hilfsprozessor unter mehreren Prozessoren, die der Steuerung 34 zugeordnet sind, ein halbleiterbasierter Mikroprozessor (in Form eines Mikrochips oder Chipsatzes), eine Kombination davon oder im Allgemeinen eine Vorrichtung zur Ausführung von Anweisungen.
  • Die computerlesbare Speichervorrichtung oder das Medium 46 kann beispielsweise einen flüchtigen und nichtflüchtigen Speicher im Nur-Lese-Speicher (ROM), einen Direktzugriffsspeicher (RAM) und einen Keep-Alive-Speicher (KAM) beinhalten. KAM ist ein persistenter oder nichtflüchtiger Speicher, der zum Speichern verschiedener Betriebsvariablen verwendet werden kann, während der Prozessor 44 ausgeschaltet ist. Die computerlesbare Speichervorrichtung oder das computerlesbare Speichermedium 46 kann unter Verwendung einer beliebigen Anzahl bekannter Speichervorrichtungen wie PROMs (programmierbarer Nur-Lese-Speicher), EPROMs (elektrisch PROM), EEPROMs (elektrisch löschbares PROM), Flash-Speicher oder anderer elektrischer, magnetischer, optischer oder kombinierter Speichervorrichtungen, die Daten speichern können, von denen einige ausführbare Anweisungen 50 darstellen, die von der Steuerung 34 zum Steuern des Fahrzeugs 100 verwendet werden, implementiert werden. Die Anweisungen 50 beinhalten auch kommerziell erhältliche Programme und Algorithmen, die beim Betrieb eines DOA-Systems verwendet werden (3, 302), und insbesondere einen Algorithmus, der Spektralverfahren (wie einen Bartlett-Keulenbildungsalgorithmus und einen Peak Response Identifier Algorithmus) zum Schätzen eines DOA in Abhängigkeit von einem Spektralbild verwendet, die in Verbindung mit den 3-6 näher beschrieben werden.
  • Ein oder mehrere separate neuartige Programme, insbesondere ein Fehlalarm-Erkennungsprogramm 52, können auch auf der computerlesbaren Speichervorrichtung oder dem Medium 46 gespeichert werden. Das Fehlalarm-(FA)-Erkennungsprogramm 52 beinhaltet eine geordnete Auflistung von ausführbaren Anweisungen und zugehörigen vorprogrammierten Variablen zur Implementierung der logischen Funktionen, Operationen und Aufgaben des offenbarten DOA-Systems 302, das ein neuronales Faltungsnetzwerk (CNN 310, 3) verwendet, um eine Spektralempfindlichkeitskarte als Fehlalarm zu klassifizieren, wenn sie keine gültige Zielerkennung darstellt. Das FA-Erkennungsprogramm 52 ist in Verbindung mit den 5 -8 beschrieben.
  • Die Fachleute werden erkennen, dass die Algorithmen und Anweisungen der vorliegenden Offenbarung als Programmprodukt 54 verbreitet werden können. Als Programmprodukt 54 können eine oder mehrere Arten von nichtflüchtigen, computerlesbaren Signalträgermedien zum Speichern und Verteilen des Programms 52 verwendet werden, wie beispielsweise ein nichtflüchtiges, computerlesbares Medium, das das Programm 52 trägt und darin zusätzliche Computeranweisungen enthält, um einen Computerprozessor (wie den Prozessor 44) zum Laden und Ausführen des Programms 52 zu veranlassen. Ein solches Programmprodukt 54 kann verschiedene Formen annehmen, und die vorliegende Offenbarung gilt gleichermaßen unabhängig von der Art der computerlesbaren Signalträger, die zur Durchführung der Verteilung verwendet werden. Beispiele für signaltragende Medien sind: beschreibbare Medien wie Disketten, Festplatten, Speicherkarten und optische Platten und Übertragungsmedien wie digitale und analoge Kommunikationsverbindungen. Es ist zu beachten, dass in verschiedenen Ausführungsformen Cloud-basierter Speicher und/oder andere Techniken auch als Medium 46 verwendet werden können und eine zeitbasierte Leistung des Programms 52 bieten.
  • In verschiedenen Ausführungsformen ist das Kommunikationssystem 36 konfiguriert, um eine Ein-/Ausgabevorrichtung zu integrieren und eine sofortige (d.h. Echtzeit oder Strom) Kommunikation zwischen fahrzeugseitigen Systemen, dem Prozessor 44 und einer oder mehreren externen Datenquellen 48 zu unterstützen. Das Kommunikationssystem 36 kann einen oder mehrere Sender, Empfänger und die unterstützende Kommunikationshard- und -software beinhalten, die für die Kommunikation von Komponenten der Steuerung 34 wie hierin beschrieben erforderlich sind. Außerdem kann das Kommunikationssystem 36 in verschiedenen Ausführungsformen die Kommunikation mit Technikern unterstützen und/oder eine oder mehrere Speicherschnittstellen für den direkten Anschluss an Speichervorrichtungen, wie beispielsweise die Datenspeichervorrichtung 32.
  • Obwohl in 1 nur eine Steuerung 34 dargestellt ist, kann die Funktionalität der Steuerung 34 in verschiedenen Ausführungsformen des Fahrzeugs 100 auf eine beliebige Anzahl von Steuerungen 34 verteilt werden, die jeweils über das Kommunikationssystem 36 oder ein anderes geeignetes Kommunikationsmedium oder eine Kombination von Kommunikationsmedien kommunizieren. In diesen Ausführungsformen arbeiten die eine oder mehreren verteilten Steuerungen 34 bei der Verarbeitung der Sensorsignale, der Leistung der Logik, Berechnungen, Verfahren und/oder Algorithmen zur Steuerung der Komponenten des Fahrzeug-100-Betriebs wie hierin beschrieben zusammen.
  • Damit wird ein allgemeiner Kontext für das DOA-System 302 geschaffen. Als nächstes wird die Funktionalität der Steuerung beschrieben. Die Soft- und/oder Hardwarekomponenten der Steuerung 34 (z.B. Prozessor 44 und computerlesbare Speichermedien 46, in denen Anweisungen gespeichert sind) arbeiten zusammen, um die hierin beschriebene Funktionalität der Steuerung 34 und des DOA-Systems 302 bereitzustellen. Insbesondere die Anweisungen 50 und das Programm 52, wenn sie vom Prozessor 44 ausgeführt werden, veranlassen die Steuerung 34, die hierin beschriebene Logik, Berechnungen, Methoden und/oder Algorithmen zum Erzeugen einer binären True/False-Klassifizierungsausgabe auszuführen, die zum Erzeugen eines gültigen DOA 307-Befehls verwendet werden kann.
  • In der Praxis können die Anweisungen (einschließlich der Anweisungen 50 und/oder des Programms 52) nach Funktionen für eine beliebige Anzahl von Funktionen, Modulen oder Systemen organisiert werden (z.B. kombiniert, weiter unterteilt usw.). So wird beispielsweise in 2 die Steuerung 34 als Implementierung eines Antriebssystems 70 beschrieben. Das Antriebssystem 70 kann autonom oder teilautonom sein. Das Antriebssystem 70 empfängt im Allgemeinen Sensorsignale vom Sensorsystem 28 und erzeugt Befehle für das Antriebssystem 30. In verschiedenen Ausführungsformen kann das Antriebssystem 70 ein Positionierungssystem 72, ein Wegplanungssystem 74, ein Fahrzeugsteuerungssystem 76 und ein Wahrnehmungssystem 78 beinhalten.
  • Das Positionierungssystem 72 kann Sensordaten zusammen mit anderen Daten verarbeiten, um eine Position (z.B. eine lokale Position relativ zu einer Karte, „Lokalisierung“, eine genaue Position relativ zu einer Fahrspur einer Straße, eine Fahrzeugrichtung usw.) des Fahrzeugs 100 relativ zur Umgebung zu bestimmen. Wie zu erkennen ist, können verschiedene Techniken zur Durchführung dieser Lokalisierung eingesetzt werden, darunter z.B. Simultanlokalisierung und -mapping (SLAM), Partikelfilter, Kalmanfilter, Bayessche Filter und dergleichen.
  • Das Wegplanungssystem 74 kann Sensordaten zusammen mit anderen Daten verarbeiten, um einen Weg für das Fahrzeug 100 zu bestimmen. Das Fahrzeugsteuerungssystem 76 kann Steuersignale zum Steuern des Fahrzeugs 100 gemäß dem bestimmten Weg erzeugen. Das Wahrnehmungssystem 78 kann die erfassten Sensordaten synthetisieren und verarbeiten, um das Vorhandensein, die Position, die Klassifizierung und/oder den Weg von Objekten und Merkmalen der Umgebung des Fahrzeugs 100 vorherzusagen.
  • Wie bereits erwähnt, werden Ausführungsformen des DOA-Systems 302 im Rahmen des Wahrnehmungssystems 78 beschrieben. Nun zu 3, dem System 302 mit neuartiger Ankunftsrichtung (DOA), das näher beschrieben wird. zeigt, dass der Radar-Sender/Empfänger 41 Radarsignale 303 sendet und empfängt, im Allgemeinen in einem dreidimensionalen Volumen. Die empfangenen Radarsignale werden als von Objekten und/oder der Umgebung außerhalb des Fahrzeugs 100 reflektiert. Während der Radar-Sender/Empfänger 41 im Singular genannt wird, versteht es sich, dass er in der Praxis eine Radarsensoranordnung darstellt, wobei jedes Element der Radaranordnung eine erfasste Radarausgabe bereitstellt, und dass die Radardaten 305 eine lineare Kombination der erfassten Radarausgänge umfassen. Darüber hinaus können die erfassten Ausgaben individuell gewichtet werden, um eine verwendete Keulenbildungsmethode (z.B. Bartlett oder Capon Keulenbildung) zu reflektieren. Der Radar-Sender/Empfänger 41 wandelt die empfangenen Radarsignale in Radardaten 305 um.
  • Das DOA-System 302 empfängt Radardaten 305 vom Radar-Sender/Empfänger 41 und wandelt die empfangenen Radardaten 305 in eine Antwortkarte 309 unter Verwendung eines Keulenbildung-Algorithmus (angezeigt durch das Keulenbildung-Modul 304) um. Das DOA-System 302 führt Soll-Verifikations- und Fehlalarm-Eliminierungsvorgänge auf der Antwortkarte 309 (angezeigt durch das neuartige Zielvalidierungsmodul 306) durch, um daraus eine gültige Antwortkarte 311 zu erzeugen.
  • Das Spitzenempfangsidentifizierungsmodul 308 beinhaltet eine konventionell verfügbare Detektionsstufe und einen konventionell verfügbaren Peak Response Algorithmus. In der Erkennungsphase kann das Spitzenempfangsidentifizierungsmodul 308 die empfangene Antwortkarte mit statistischen Algorithmen verarbeiten, die zur Unterscheidung zwischen gültigen Zielen und Rauschen verwendet werden; aufgrund ihres statistischen Charakters fallen jedoch von Zeit zu Zeit die statistischen Algorithmen allein aus. In der Phase der Spitzenempfindlichkeit führt das Spitzenempfangsidentifizierungsmodul 308 konventionell verfügbare Spitzenempfangsidentifikationsoperationen an den Spektraldaten durch, die die gültige Antwortkarte 311 bilden, um ein stärkstes Signal darin zu identifizieren, und das stärkste Signal zeigt den DOA an und wird zum gültigen DOA 307-Befehl. Da die statistischen Algorithmen nicht zu 100% genau sind, ist es die Addition der Soll-Verifikation und der Fehlalarm-Eliminierung durch das neuartige DOA-System 302, die sicherstellt, dass im Keulenbildung-Stadium nur gültige Antwortkarten 311 verarbeitet werden, Antwortkarten 309, die als Fehlalarme (FA) gelten, werden ignoriert.
  • Der gültige DOA 307-Befehl kann an eines oder mehrere der folgenden Systeme übertragen werden: das Stellgliedsystem 30, das Lenksystem 24, das Bremssystem 26, das Positionierungssystem 72, das Fahrzeugsteuerungssystem 76 und das Wegplanungssystem 74.
  • Die Antwortkarte 309 ist ein dreidimensionales Bild oder Schnappschuss, das die äußere Umgebung des Fahrzeugs darstellt. Zwei der Dimensionen repräsentieren eine zweidimensionale Pixelfläche, wie ein flaches „Bild“, und die dritte Dimension bietet eine Intensität an jedem Pixel. Unter Verwendung der Antwortkarte 309 sind die technischen Probleme, die das Zielvalidierungsmodul 306 löst: (1) Gibt es in diesem Bild ein gültiges Objekt? und (2) wenn ja, wo befindet sich das Objekt?
  • In verschiedenen Ausführungsformen implementiert die Steuerung 34 tiefe neuronale Netzwerktechniken, um die Funktionalität des Zielvalidierungsmoduls 306 zu unterstützen. Ausführungsformen des exemplarischen Zielvalidierungsmoduls 306 umfassen ein konvergentes neuronales Netzwerk (CNN) 310 mit mehreren versteckten Faltungsschichten. Die CNN 310 beantwortet direkt die erste Frage; die trainierte CNN 310 kann bestimmen, ob die Antwortkarte ein gültiges Objekt (z.B. ein Auto oder einen Fußgänger) enthält, oder ob die Antwortkarte nur Lärm enthält (ein Fehlalarm). Der binäre True/False-Ausgang 313 der CNN 310 wird zur Beantwortung der zweiten Frage verwendet. Das neuartige Zielvalidierungsmodul 306 grenzt die Fehlalarmantwortkarten effektiv ein (d.h. entfernt oder filtert sie heraus), so dass Fehlalarmantwortkarten nicht vom Spitzenempfangsidentifizierungsmodul 308 verarbeitet werden. Dies spart vorteilhaft Rechenzeit im Spitzenempfangsidentifizierungsmodul 308 und verhindert die Möglichkeit, dass Frage (2) für ein falsches Ziel beantwortet wird (mit der Erzeugung eines DOA 307).
  • Nun zu 4 und unter fortgesetzter Bezugnahme auf die 1-3 wird die CNN 310 gemäß verschiedener Ausführungsformen beschrieben. Der Eingangsknoten des CNN 310 empfängt die Antwortkarte 309, die, wie bereits erwähnt, ein spektrales Bild/Karte ist und sich daher von einer Zeitbereichs-Karte unterscheidet. Im Beispiel CNN 310 wird eine Sequenz von versteckten Schichten in Reihe wiederholt, insgesamt N mal. Die verborgenen Schichten werden als Hn dargestellt, wobei n von 1 bis N reicht (mit Bezug auf H1 402, H2 404 und HN 406). Gemäß der CNN-Methodik wird ein Neuron oder Filter (eine Designwahl) für die Faltung des Eingangsbildes (Antwortkarte 309) zur ersten versteckten Schicht H1 402 gewählt. Das Neuron oder Filter hat „Feldabmessungen“, und die Anwendung und die Feldabmessungen beeinflussen die Anzahl und Größe der Gewichte, die Multiplikatoren sind, die den Eingängen zu jedem Neuron zugeordnet sind. Die Gewichte werden auf einen Anfangswert eingestellt, während des Trainings der CNN 310 eingestellt und während des Betriebs der CNN 310 weiter eingestellt. Die Abmessungen jeder verdeckten Schicht Hn sind abhängig von der Schicht, auf der sie arbeitet, und den durchgeführten Operationen. Wenn man von jeder versteckten Schicht Hn zu einer nachfolgenden versteckten Schicht Hn übergeht, bestimmen die Designentscheidungen weiterhin die Auswahl der nachfolgenden Neuronen, der jeweiligen Gewichte und Operationen.
  • Sobald eine Schicht gefaltet ist, wird mit einer Aktivierungsfunktion die Ausgabe der versteckten Schicht Hn mit ihren nichtlinearen Eigenschaften versehen. Die Aktivierungsfunktion ist eine Design- und aufgabenspezifische Auswahl. In verschiedenen Ausführungsformen der CNN 310 wird für die versteckten Schichten eine Aktivierungsfunktion für gleichgerichtete Lineareinheiten (ReLU) gewählt, da sie die beste Leistung im CNN liefert und eine rechnerisch einfache Schwellenwertbildung für Werte kleiner als Null ermöglicht.
  • Gemäß der CNN-Methodik können auch andere Schichten und Operationen zwischen den verborgenen Schichten durchmischt werden. Im Beispiel von 4 ist die Sequenz Hn {Convolution und ReLu layer 408, die Max Pooling, Batch Normalisierung layer 410 und Dropout layer 412} beinhaltet. Max Pooling ist eine Down-Sampling-Methode, bei der die Anzahl der Parameter und/oder die räumliche Größe der Schicht, auf die es angewendet wird, reduziert wird. Die Batch-Normalisierung 410 ist eine Methodik zur Reduzierung der internen kovariaten Verschiebung und kann die Trainingszeit verkürzen. Dropout 412 ist eine Methode, um ein Neuron beim Ausführen des CNN 310 zufällig fallen zu lassen, um eine Überanpassung zu vermeiden und die Trainingszeit zu verkürzen.
  • Jede versteckte Schicht Hn nimmt ihre Eingaben von der vorherigen versteckten Schicht, und es gibt keine weiteren Eingaben zu den versteckten Schichten Hn. N wird als Hyperparameter bezeichnet und wird durch Erfahrung oder trial and error bestimmt. Designer stellen fest, dass, wenn N zu groß ist, Probleme wie Overfitting und schlechte Verallgemeinerung des Netzwerks auftreten können. In einer Ausführungsform ist die Antwortkarte 309 ein dreidimensionaler Tensor mit den Abmessungen 15x20x3, um größere Antwortkarten aufzunehmen, kann die CNN 310 tiefer gemacht werden.
  • Am Ende der N-ten Folge von versteckten Faltungsschichten wird eine vollständig verbundene Schicht 414 (auch als dichte Schicht bezeichnet) zur Klassifizierung verwendet. Die vollständig verbundene (FC-)Schicht 414 empfängt eine dreidimensionale Eingabe und wandelt sie in eine binäre True/False-Klassifizierung des wahren True/False-Alarms als binären True/False-Ausgang 313 um oder verflacht sie.
  • In verschiedenen Ausführungsformen ist die Aktivierungsfunktion für die vollständig verbundene Schicht 410 eine nichtlineare Sigmoidfunktion. f ( z ) = 1 ( 1 + e z ) .
    Figure DE102020102712A1_0001
  • Nun zu 5, wobei ein Prozessablaufdiagramm, das einen exemplarischen Prozess 500 zur Schulung der CNN 310 für den Einsatz im Zielvalidierungsmodul 306 darstellt, beschrieben wird. Aufgrund der Beschaffenheit der CNN 310 ist das Training der CNN 310 mit der Konfiguration der CNN 310 durch ein Verarbeitungssystem austauschbar. Das Beispiel CNN 310 wird mit einer Backpropagationsmethode trainiert. Das Beispiel CNN 310 wird mit einem Trainingsdatensatz und einem Validierungsdatensatz trainiert, die jeweils eine Vielzahl von Beispielantwortkarten beinhalten, die gültig sind (stellen ein verifiziertes Ziel dar) und eine Vielzahl von Beispielantwortkarten, die ungültig sind (stellen einen Fehlalarm dar). In verschiedenen Ausführungsformen sind die Trainingsdaten identisch mit den Validierungsdaten.
  • Das Training der CNN 310 umfasst das Abrufen oder Empfangen eines Trainingsdatensatzes (Operation 502) und das Abrufen oder Empfangen eines Validierungsdatensatzes (Operation 504). In verschiedenen Ausführungsformen sind der Trainingsdatensatz und der Validierungsdatensatz gleich und wurden mit einem bekannten Ziel in einer schalltoten Kammer zur Erzeugung von Radardaten erzeugt, und die Radardaten werden dann mit einem Keulenbildungs-Betrieb in eine Antwortkarte umgewandelt. In verschiedenen Ausführungsformen ist der Keulenbildungs-Betrieb ein Bartlett Keulenbildungs-Algorithmus. Das Training der CNN 310 (Betrieb 506) ist wie folgt: Die CNN 310 wird mit dem gesamten Trainingsdatensatz trainiert, ein Eintrag nach dem anderen, in zufälliger Reihenfolge, mit dem gesamten Validierungsdatensatz. Ein Durchlauf über den Trainingsdatensatz wird als Epoche bezeichnet, und die Anzahl der für das Training verwendeten Epochen ist in der Regel abhängig von der Größe des Trainingsdatensatzes und der Komplexität der Aufgabe. In jeder Epoche werden ein Trainingsfehler und ein Testfehler erzeugt, z.B. als zyklische stückweise lineare Verlustfunktion, und der Trainingsfehler und der Testfehler werden mit ihrem vorherigen Wert und untereinander verglichen. Bei der CNN 310 bezieht sich die Anzahl der Epochen auf den Wert N, und die Anzahl der Epochen wird bestimmt, indem sie weiter erhöht wird, während der Trainingsfehler und der Testfehler zusammen abnehmen. Sobald sich die Testfehler stabilisiert haben, werden keine weiteren Epochen mehr durchgeführt; es wird erwartet, dass alle weiteren Epochen zu einem Overfitting führen.
  • Nach dem Training ist die CNN 310 konfiguriert, um die Spektraldaten in der Antwortkarte 309 zu verarbeiten, um zu bestimmen, ob die Antwortkarte 309 eine gültige Zielerkennung darstellt, und um eine entsprechende Ausgabe zu erzeugen, die der binäre True/False-Ausgang 313 ist. Wie zu schätzen ist, zeigt true ein gültiges Ziel und false einen Fehlalarm an. Nach Abschluss der Schulung wird die trainierte CNN 310 im Betrieb 508 gespeichert. Es versteht sich, dass die CNN 310 nach der Schulung weiterhin geschult werden kann, während sie in einer konkreten Anwendung eingesetzt wird.
  • 6 ist ein Prozessablaufdiagramm, das einen exemplarischen Prozess 600 zum Erzeugen eines Befehls zur Ankunftsrichtung (DOA 307) unter Verwendung des trainierten CNN 310 zum Erkennen und Entfernen von Fehlalarmen/Falschzielen in einem DOA-System 302 für ein Fahrzeug 100 darstellt.
    Der exemplarische Prozess 600 beinhaltet die Verwendung der trainierten CNN 310 bei der Berechnung des DOA. Es wird eine Antwortkarte 309 empfangen (Operation 602). Die Antwortkarte 309 wird als Input für die trainierte CNN 310 bereitgestellt. Die CNN 310 führt unter Verwendung der Response-Map 309 als Eingangsschicht aus und erzeugt darauf basierend den binären True/False-Ausgang 313 (Operation 604).
  • Bei Betrieb 606 empfängt die Fehlalarm-Eliminierungslogik 350 den binären True/False-Ausgang 313 und entfernt Fehlalarm-Erkennungen (d.h. Antwortkarten mit Fehlalarmen). Die Fehlalarm-Eliminierungslogik 350 ist für einen schnellen Betrieb ausgelegt; die 7 und 8 stellen exemplarische Ausführungsformen der Fehlalarm-Eliminierungslogik 350 dar. Nur gültige Antwortkarten 311 werden vom Betrieb 606 an das Spitzenempfangsidentifizierungsmodul308 gesendet. Bei Betrieb 608 wird die Spitzenantwort (d.h. der Maximalwert) innerhalb der gültigen Antwortkarte 311 identifiziert. Bei Betrieb 610 wird der Befehl DOA 307 des Ausgangs DOA 307 in Abhängigkeit vom Maximalwert oder der Spitzenwertantwort erzeugt. Der erzeugte DOA 307-Befehl kann den Stellgliedern und/oder anderen Systemen im Fahrzeug 100 zur Verfügung gestellt werden.
  • Die Kombination der CNN 310 und der Fehlalarmerkennungslogik 350 liefert eine sehr schnelle Bestimmung der Gültigkeit der eingehenden Antwortkarte, die eine schnelle Beseitigung von Fehlalarmen ermöglicht, bevor die Operationen durchgeführt werden, die mit einer Spitzenreaktionskennung verbunden sind. Dementsprechend ist die Fehlalarmerkennungslogik 350 mit Komponenten implementiert, die die Geschwindigkeit der Fehlalarmbekämpfung optimieren. In 7 verwendet eine Ausführungsform der Fehlalarmerkennungslogik 702 einen Schalter S1 700, der durch den eingehenden binären True/False-Ausgang 313 der CNN 310 gesteuert wird. Nur wenn der binäre True/False-Ausgang 313 wahr ist, wird der Schalter S1 700 geschlossen und die Response-Map 309 fließt direkt zu einer gültigen Response-Map 311. Wenn der binäre True/False-Ausgang 313 falsch ist, ist der Schalter S1 700 geöffnet und die Antwortkarte 309 wird nicht durchgelassen. In einer Ausführungsform ist der Schalter S1 700 mit einem logischen „UND“-Tor ausgeführt. In 8 verwendet eine Ausführungsform der Fehlalarmerkennungslogik 802 einen Prozessor 804 und einen Speicher 806. Im Speicher 806 sind die Programmieranweisungen 808 gespeichert, die den Vorgang „wenn und nur wenn der binäre True/False-Ausgang 313 wahr ist, fließt die Antwortkarte 309 direkt zu einer gültigen Antwortkarte 311“ anweisen.
  • Im Folgenden werden die Merkmale mehrerer Ausführungsformen beschrieben, damit die Fachkräfte die Aspekte der vorliegenden Offenbarung besser verstehen können. Die Fachkräfte sollten verstehen, dass sie die vorliegende Offenbarung ohne weiteres als Grundlage für die Gestaltung oder Änderung anderer Prozesse und Strukturen zur Erfüllung der gleichen Zwecke und/oder zur Erzielung der gleichen Vorteile der hierin vorgestellten Ausführungsformen verwenden können. Die Fachkräfte sollten auch erkennen, dass solche gleichwertigen Konstruktionen nicht vom Geist und Umfang der vorliegenden Offenbarung abweichen und dass sie verschiedene Änderungen, Substitutionen und Anpassungen hierin vornehmen können, ohne vom Geist und Umfang der vorliegenden Offenbarung abzuweichen.

Claims (10)

  1. Ein prozessorimplementiertes Verfahren zum Verwenden von Radardaten zum Erzeugen eines Ankunftsrichtung-Befehls, DOA-Befehl, unter Verwendung eines neuronalen Faltungsnetzwerks, CNN, wobei das Verfahren umfasst: Erzeugen einer Antwortkarte aus den Radardaten; Verarbeiten der Antwortkarte im CNN, um zu bestimmen, ob die Antwortkarte eine gültige Zielerkennung darstellt; Klassifizieren der Antwortkarte durch das CNN als Fehlalarm, wenn die Antwortkarte keine gültige Zielerkennung darstellt; und Identifizieren eines Maximalwerts in der Antwortkarte, wenn die Antwortkarte eine gültige Zielerkennung darstellt.
  2. Das Verfahren nach Anspruch 1, wobei die Antwortkarte eine Bartlett-Keulenbildung-Spektralempfindlichkeitskarte ist.
  3. Das Verfahren nach Anspruch 2, wobei das CNN unter Verwendung von Trainingsdaten trainiert wurde, die in einer schalltoten Kammer erzeugt wurden.
  4. Das Verfahren nach Anspruch 3, wobei die Antwortkarte ein dreidimensionaler Tensor mit den Abmessungen 15x20x3 ist.
  5. Das Verfahren nach Anspruch 4, wobei das CNN unter Verwendung der Rückpropagation trainiert wird.
  6. Das Verfahren nach Anspruch 5, wobei das CNN eine Vielzahl von versteckten Schichten umfasst, die jeweils eine konvergente Schicht mit einer Aktivierungsfunktion für rektifizierte Lineareinheiten, ReLU, umfassen.
  7. Das Verfahren nach Anspruch 6, wobei das CNN mindestens eine vollständig verbundene Schicht (FC) mit einer Sigmoid-Aktivierungsfunktion umfasst.
  8. Ein System zum Erzeugen eines Ankunftsrichtung-Befehls, DOA-Befehl, für ein Fahrzeug, das einen oder mehrere Prozessoren umfasst, die programmiert sind, um ein neuronales Faltungsnetzwerk, CNN, zu implementieren, wobei das System umfasst: einen Radar-Sender/Empfänger, der Radardaten bereitstellt; einen Prozessor, der programmiert ist, um die Radardaten zu empfangen und daraus eine Bartlett-Keulenbildung-Antwortkarte zu erzeugen; und wobei das CNN ausgebildet ist, die Antwortkarte zu verarbeiten, um zu bestimmen, ob die Antwortkarte eine gültige Zielerkennung darstellt, und die Antwortkarte als Fehlalarm zu klassifizieren, wenn die Antwortkarte keine gültige Zielerkennung darstellt; und wobei der Prozessor ferner programmiert ist, um den DOA-Befehl zu erzeugen, wenn die Antwortkarte eine gültige Zielerkennung darstellt.
  9. Das System nach Anspruch 8, wobei der Prozessor ferner programmiert ist, um eine Spitzenantwort in der Antwortkarte zu identifizieren, wenn die Antwortkarte eine gültige Zielerkennung darstellt.
  10. Das System nach Anspruch 9, wobei der Prozessor ferner programmiert ist, um das CNN unter Verwendung der Rückpropagation und unter Verwendung eines Trainingsdatensatzes und eines Validierungsdatensatzes zu trainieren, die jeweils in einer schalltoten Kammer erzeugt werden.
DE102020102712.5A 2019-03-01 2020-02-04 Entfernung von fehlalarmen in der keulenbildungsphase zum erfassen von radaren unter verwendung eines tiefen neuronalen netzwerks Withdrawn DE102020102712A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/290,159 US20200278423A1 (en) 2019-03-01 2019-03-01 Removing false alarms at the beamforming stage for sensing radars using a deep neural network
US16/290,159 2019-03-01

Publications (1)

Publication Number Publication Date
DE102020102712A1 true DE102020102712A1 (de) 2020-09-03

Family

ID=72046509

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020102712.5A Withdrawn DE102020102712A1 (de) 2019-03-01 2020-02-04 Entfernung von fehlalarmen in der keulenbildungsphase zum erfassen von radaren unter verwendung eines tiefen neuronalen netzwerks

Country Status (3)

Country Link
US (1) US20200278423A1 (de)
CN (1) CN111638491A (de)
DE (1) DE102020102712A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114442029A (zh) * 2020-11-02 2022-05-06 Aptiv技术有限公司 确定雷达检测的到达方向的方法和系统

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200293860A1 (en) * 2019-03-11 2020-09-17 Infineon Technologies Ag Classifying information using spiking neural network
EP3767332B1 (de) * 2019-07-18 2023-12-13 Aptiv Technologies Limited Verfahren und systeme zur radar-objektdetektion
CN113311397B (zh) * 2021-05-25 2023-03-10 西安电子科技大学 基于卷积神经网络的大型阵列快速自适应抗干扰方法
CN114563763B (zh) 2022-01-21 2022-10-21 青海师范大学 基于归零神经动力学的水下传感器网络节点测距定位方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8160273B2 (en) * 2007-02-26 2012-04-17 Erik Visser Systems, methods, and apparatus for signal separation using data driven techniques
CA2979579C (en) * 2015-03-20 2020-02-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Relevance score assignment for artificial neural networks
US9268938B1 (en) * 2015-05-22 2016-02-23 Power Fingerprinting Inc. Systems, methods, and apparatuses for intrusion detection and analytics using power characteristics such as side-channel information collection
CN108828547B (zh) * 2018-06-22 2022-04-29 西安电子科技大学 基于深度神经网络的米波雷达低仰角测高方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114442029A (zh) * 2020-11-02 2022-05-06 Aptiv技术有限公司 确定雷达检测的到达方向的方法和系统

Also Published As

Publication number Publication date
US20200278423A1 (en) 2020-09-03
CN111638491A (zh) 2020-09-08

Similar Documents

Publication Publication Date Title
DE102020102712A1 (de) Entfernung von fehlalarmen in der keulenbildungsphase zum erfassen von radaren unter verwendung eines tiefen neuronalen netzwerks
DE102018129295A1 (de) Systeme und Verfahren zum Abbilden von Fahrbahnstörobjekten in autonomen Fahrzeugen
DE102017103123A1 (de) Fahrzeugfahrbahnplatzierung
DE102017120112A1 (de) Tiefenkartenschätzung mit stereobildern
DE102015110446A1 (de) Fahrzeugradar mit Strahlanpassung
DE102019114867A1 (de) Autonome fahrentscheidungen an kreuzungen unter verwendung eines hierarchischen optionalen markov-entscheidungsprozesses
DE102019133703A1 (de) Verfahren und systeme zur herstellung und lokalisierung für ein fahrzeug
DE102020113848A1 (de) Ekzentrizitätsbildfusion
DE102018129057A1 (de) Systeme und verfahren zum bestimmen der geschwindigkeit von lidar-punkten
DE102019110927A1 (de) Verallgemeinertes inverses 3D-Sensormodell
DE102018129063A1 (de) Systeme und verfahren zur freiraum-inferenz zum brechen von geclusterten objekten in fahrzeugwahrnehmungssystemen
DE102019115665A1 (de) Optimierung tiefer neuronaler netze unter beibehaltung der richtigkeit
DE102019111569A1 (de) Dbscan-parameter als funktion der sensorsuite-konfiguration
DE102018123464A1 (de) Verfahren und systeme zur radar-lokalisierung in autonomen fahrzeugen
DE102018123467A1 (de) Verfahren und systeme zur radar-lokalisierung in autonomen fahrzeugen
DE102015115012A1 (de) Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102021128041A1 (de) Verbesserung eines neuronalen fahrzeugnetzwerks
DE102020103030A1 (de) Adaptives sensorsystem für fahrzeuge und verfahren zum betreiben desselben
DE102021103370A1 (de) Objekterkennung mittels low-level-kamera-radar-fusion
DE102022114048A1 (de) Bildentzerrung
DE102021106694A1 (de) Dynamische lidar-zu-kamera-ausrichtung
EP3809316A1 (de) Vorhersage eines strassenverlaufs auf basis von radardaten
DE102020101832A1 (de) Verfahren und systeme zum interpretieren von verkehrssignalen und passieren von signalisierten kreuzungen
DE102022125914A1 (de) Fusion von bilddaten und lidar-daten zur verbesserten objekterkennung
DE102022130540A1 (de) Systeme und verfahren zur vermeidung von fehldetektionen von verfolgten objekten in der umgebenden umgebung eines fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01S0007295000

Ipc: G01S0007020000

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee