DE102018204494B3 - Erzeugung synthetischer Radarsignale - Google Patents

Erzeugung synthetischer Radarsignale Download PDF

Info

Publication number
DE102018204494B3
DE102018204494B3 DE102018204494.5A DE102018204494A DE102018204494B3 DE 102018204494 B3 DE102018204494 B3 DE 102018204494B3 DE 102018204494 A DE102018204494 A DE 102018204494A DE 102018204494 B3 DE102018204494 B3 DE 102018204494B3
Authority
DE
Germany
Prior art keywords
generator
radar signals
radar
module
synthetic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018204494.5A
Other languages
English (en)
Inventor
Jasmin Ebert
Michael Pfeiffer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102018204494.5A priority Critical patent/DE102018204494B3/de
Priority to PCT/EP2019/056712 priority patent/WO2019179946A1/de
Priority to US16/980,820 priority patent/US11867831B2/en
Priority to CN201980021067.4A priority patent/CN111868803B/zh
Application granted granted Critical
Publication of DE102018204494B3 publication Critical patent/DE102018204494B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/54Simulation of radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • G01S7/412Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/58Random or pseudo-random number generators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/406Means for monitoring or calibrating by simulation of echoes using internally generated reference signals, e.g. via delay line, via RF or IF signal injection or via integrated reference reflector or transponder

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

Generator (1) zur Erzeugung zwei- oder mehrdimensionaler Frequenzdarstellungen (13) synthetischer Radarsignale (12) aus einem Satz von mit einem physikalischen Radarsensor (9) gemessenen Radarsignalen (10), umfassend einen Zufallsgenerator (2) und ein erstes KI-Modul (3), das Vektoren oder Tensoren von Zufallswerten (21) aus dem Zufallsgenerator (2) als Eingabe erhält und jeden solchen Vektor, bzw. jeden solchen Tensor, durch eine interne Verarbeitungskette (4) auf eine zwei- oder mehrdimensionale Frequenzdarstellung (13) eines synthetischen Radarsignals (12) abbildet, wobei die interne Verarbeitungskette (4) des ersten KI-Moduls (3) mit einer Vielzahl von Parametern (41a-41c) parametrisiert ist und wobei diese Parameter (41a-41c) so gesetzt sind, dass die zwei- oder mehrdimensionale Frequenzdarstellung (11; 13) des Radarsignals (10; 12), und/oder mindestens eine aus dieser Frequenzdarstellung (11; 13) abgeleitete Kenngröße (14), für die synthetischen Radarsignale (12) im Wesentlichen die gleiche Verteilung aufweist wie für die gemessenen Radarsignale (10).
Verfahren (100) zur Herstellung eines Generators (1), Verfahren (200) zur Erkennung von Objekten (72a, 72b), und/oder von bestimmten Typen von Objekten (72a, 72b) freien Raums, im Umfeld (71) eines Fahrzeugs (7) und Verfahren (300) zur Optimierung mindestens eines Einbauparameters (73a) oder Betriebsparameters (73b) für einen Radarsensor (73).
Zugehöriges Computerprogramm.

Description

  • Die vorliegende Erfindung betrifft die Erzeugung synthetischer Radarsignale, welche insbesondere als Trainingsdaten für die Objekterkennung in Radarsignalen mittels maschinellem Lernen verwendbar sind.
  • Stand der Technik
  • Damit sich ein Fahrzeug zumindest teilweise automatisiert im Straßenverkehr bewegen kann, ist es erforderlich, das Umfeld des Fahrzeugs zu erfassen und Gegenmaßnahmen einzuleiten, falls eine Kollision mit einem Objekt im Umfeld des Fahrzeugs droht. Auch die Erstellung einer Umfeld-Repräsentation und Lokalisierung sind für sicheres automatisiertes Fahren notwendig.
  • Die Erfassung von Objekten mittels Radar ist von den Lichtverhältnissen unabhängig und beispielsweise auch bei Nacht auf größere Entfernung möglich, ohne dass der Gegenverkehr durch Fernlicht geblendet wird. Aus den Radardaten gehen weiterhin unmittelbar die Entfernung und Geschwindigkeit von Objekten hervor. Diese Informationen sind wichtig für die Beurteilung, ob es zu einer Kollision mit den Objekten kommen kann. Um welchen Typ von Objekt es sich handelt, ist jedoch aus Radarsignalen nicht unmittelbar erkennbar. Diese Erkennung wird aktuell durch die Berechnung von Attributen aus der Digitalen Signalverarbeitung gelöst.
  • Die US 8,682,821 B2 offenbart, Radarsignale mittels maschinellem Lernen dahingehend zu klassifizieren, ob sie von der Bewegung bestimmter Objekte oder nichtmenschlicher Tiere herrühren. Diese Erkenntnis kann genutzt werden, um bei der Überwachung eines Bereichs auf menschliche Eindringlinge Falschalarme zu vermeiden, oder auch um beim zumindest teilweise automatisierten Fahren die richtige Aktion zur Kollisionsvermeidung auszuwählen.
  • Offenbarung der Erfindung
  • Im Rahmen der Erfindung wurde ein Generator zur Erzeugung zwei- oder mehrdimensionaler Frequenzdarstellungen synthetischer Radarsignale aus einem Satz von mit einem physikalischen Radarsensor gemessenen Radarsignalen entwickelt. Dieser Generator umfasst einen Zufallsgenerator und ein erstes KI-Modul, das Vektoren oder Tensoren von Zufallswerten aus dem Zufallsgenerator als Eingabe erhält und jeden solchen Vektor, bzw. jeden solchen Tensor, durch eine interne Verarbeitungskette auf eine zwei- oder mehrdimensionale Frequenzdarstellung eines synthetischen Radarsignals abbildet.
  • Die zwei- oder mehrdimensionale Frequenzdarstellung kann eine Darstellung in einem zeitlichen Frequenzraum, und/oder eine Darstellung in einem Ortsfrequenzraum, umfassen. Die Frequenzdarstellung kann beispielsweise durch Fast-Fourier-Transformation (FFT) erhalten werden, die komplexe Exponentialfunktionen als Basisfunktionen verwendet. Es können aber auch Transformationen mit anderen Basisfunktionen verwendet werden, etwa die Wavelet-Transformation mit Basisfunktionen, die jeweils nur lokal erklärt sind.
  • Die interne Verarbeitungskette des ersten KI-Moduls ist mit einer Vielzahl von Parametern parametrisiert. Diese Parameter sind so gesetzt, dass die zwei- oder mehrdimensionale Frequenzdarstellung des Radarsignals, und/oder mindestens eine aus dieser Frequenzdarstellung abgeleitete Kenngröße, für die synthetischen Radarsignale im Wesentlichen die gleiche Verteilung aufweist wie für die gemessenen Radarsignale.
  • In diesem Zusammenhang ist bezüglich des Begriffs „Verteilung einer Frequenzdarstellung“ anzumerken, dass eine solche Verteilung im vieldimensionalen Raum aller möglichen Frequenzdarstellungen erklärt ist. Hat beispielsweise eine zweidimensionale Frequenzdarstellung das Format 200x200 Pixel, so hat dieser Raum 40.000 Dimensionen.
  • Es wurde erkannt, dass gerade bei der Objekterkennung aus Radarsignalen mittels maschinellem Lernen die notwendigen Lerndaten eine knappe Ressource sind. Lerndaten für die Objekterkennung aus Kamerabildern umfassen üblicherweise Lern-Kamerabilder, die von Menschen dahingehend kommentiert (gelabelt) worden sind, an welcher Stelle welche Objekte in ihnen enthalten sind. Die visuelle Erkennung von Objekten ist gerade für den Menschen besonders intuitiv, so dass die Anforderungen an Hilfskräfte für die Kommentierung von Kamerabildern vergleichsweise gering sind. Objekte aus Radarsignalen zu erkennen erfordert hingegen Spezialwissen. Weiterhin hängt das Radarsignal, das ein und dasselbe Objekt produziert, auch von den Eigenschaften der verwendeten Antennen und Sensoren ab, beispielsweise vom Modulationsmuster des Sensors oder davon, wo und wie der Sensor am Fahrzeug montiert ist. Das Signal kann durch Mehrwegeausbreitung verändert werden, beispielsweise indem es mehrfach an verschiedenen Oberflächen (etwa der Fahrbahn, einer Leitplanke und/oder einer Wand) reflektiert wurde. Schließlich ist das Radarsignal auch materialabhängig. Einige Materialien reflektieren Radarwellen mit unterschiedlichen material- und form-abhängigen Rückstreukoeffizienten, während andere Materialien von den Radarwellen durchdrungen werden, was dann wiederum dazu führen kann, dass eigentlich verdeckte Objekte plötzlich im Radarsignal auftauchen.
  • Im Ergebnis sind also Lerndaten für die Objekterkennung aus Radarsignalen zum einen schwieriger zu beschaffen, und zum anderen werden auch mehr Lerndaten benötigt als für die Objekterkennung aus Kamerabildern.
  • Diese Knappheit kann durch den Generator gelindert werden. Indem die Parameter des ersten KI-Moduls so gesetzt sind, dass eine aus den physikalisch gemessenen Radarsignalen ersichtliche Verteilung in den synthetischen Radarsignalen repräsentiert wird, und indem zusätzlich jedes generierte Radarsignal realistisch wirkt in dem Sinn, dass es von einem echten Radarsignal nur schwer zu unterscheiden ist, können beliebig viele realistisch wirkende Radarsignale erzeugt werden, ohne dass es hierzu einer Kommentierung der ursprünglichen physikalisch gemessenen Radarsignale bedarf. Es können also beispielsweise Messungen, die Sensorhersteller und OEMs bei Testfahrten mit Radarsensoren zur Objekterkennung routinemäßig durchführen, als Datenbasis zweitverwertet werden.
  • Die Kenngröße kann eine beliebige aus der zwei- oder mehrdimensionalen Frequenzdarstellung des Radarsignals abgeleitete Größe sein. Wenn diese Kenngröße beispielsweise zwischen den von dem physikalischen Radarsensor gemessenen Radarsignalen variiert, setzt sie durch die Verteilung, die sich hierbei ergibt, diese Radarsignale in einen Zusammenhang. Beispielsweise kann die Kenngröße Reflexpunkte umfassen, denen eine Entfernung, ein Azimut-Winkel, eine Geschwindigkeit, ein Rückstreukoeffizient und/oder ein Elevations-Winkel relativ zum physikalischen Radarsensor zugeordnet sind. Eine konsistente Verteilung der Kenngröße lässt sich dann über solche Radarsignale bilden, die sich auf das gleiche oder zumindest ein ähnliches Szenario beziehen.
  • Die Parameter der internen Verarbeitungskette können von dem Generator selbst gelernt werden. Dazu benötigt der Generator lediglich ein wie auch immer geartetes Feedback dahingehend, inwieweit die aktuellen Parameter auf eine Verteilung der Frequenzdarstellung, bzw. der Kenngröße, führen, die zu den gemessenen Radarsignalen passen.
  • In einer besonders vorteilhaften Ausgestaltung erhält das erste KI-Modul mindestens eine Randbedingung als Eingabe. Die Parameter der internen Verarbeitungskette sind so gesetzt, dass die zwei- oder mehrdimensionale Frequenzdarstellung, und/oder die Kenngröße, für die synthetischen Radarsignale im Wesentlichen die gleiche Verteilung aufweist wie für diejenigen gemessenen Radarsignale, die der Randbedingung genügen.
  • Mit dieser Erweiterung kann beispielsweise eine für die gemessenen Radarsignale vorhandene Kommentierung in den Generator überführt werden. Die Randbedingung kann beispielsweise darin bestehen, dass die gemessenen Radarsignale kraft der vorhandenen Kommentierung einer bestimmten Klasse zugeordnet sind. Es können dann zu jeder Klasse separat beliebig viele synthetische Radarsignale erzeugt werden, die den ursprünglichen Bestand an gemessenen und zugleich kommentierten Radarsignalen ergänzen. Damit kann eine hinreichend große Datenbasis für das überwachte Lernen einer Objekterkennung auf der Basis von Radarsignalen geschaffen werden.
  • Die Randbedingung kann aber auch beispielsweise genutzt werden, um gestützt auf die vorhandenen gemessenen Radarsignale ein Radarsignal für eine Situation abzuschätzen, zu der es keine Messungen gibt. So kann beispielsweise der ursprüngliche Satz von Messungen Radarsignale enthalten, die von einem bestimmten Objekt in Antwort auf Radarwellen erhalten wurden, welche unter bestimmten Winkeln auf das Objekt eingefallen sind. Die Randbedingung kann beispielsweise darin bestehen, dass der Winkel einen Zwischenwert annimmt. Der Generator interpoliert dann gleichsam das Radarsignal, das sich für diesen Zwischenwert des Winkels ergibt.
  • Auch können beispielsweise gezielt synthetische Radarsignale zu sogenannten Extremfällen erzeugt werden, die in der Realität selten vorkommen, aber für die Objekterkennung von besonderer Wichtigkeit sind. Diese Extremfälle können sich beispielsweise auf Situationen beziehen, die besonders gefährlich sind und in denen daher eine perfekte Funktion eines Fahrassistenzsystems, bzw. eines Systems zum zumindest teilweise automatisierten Fahren, gefordert ist.
  • Dabei ist zur Verankerung der synthetischen Radarsignale in der Realität kein 3D-Modell des physikalischen Szenarios notwendig, sondern es genügt, dass die Verteilung der Kenngröße zu den gemessenen Radarsignalen passt. Ebenso ist, anders als bei Ray-Tracing-Simulationen, keine detaillierte Kenntnis über den Radarsensor, seinen Anbringungsort, Materialien, Form und Rückstreukoeffizienten der zu erkennenden Objekte oder Mehrwegeausbreitung notwendig.
  • Die Randbedingung kann weiterhin genutzt werden, um das Radarsignal mit der Ausgabe eines anderen Sensors zu filtern, etwa mit der Ausgabe einer Kamera, eines LIDAR-Sensors, eines weiteren Radarsensors oder eines Arrays von Ultraschallsensoren.
  • In einer besonders vorteilhaften Ausgestaltung umfasst das erste KI-Modul ein künstliches neuronales Netzwerk, dessen interne Verarbeitungskette mindestens eine vollvernetzte Schicht, und/oder mindestens eine Faltungsschicht, aufweist. Es ist eine wesentliche Stärke künstlicher neuronaler Netzwerke, dass sie sehr große Unterschiede in der Dimensionalität zwischen der Eingabe und der Ausgabe überbrücken können. Der Vektor oder Tensor mit den Zufallswerten kann beispielsweise in der Größenordnung 100 Elemente enthalten, während eine zweidimensionale Frequenzdarstellung mit 256x256 Pixeln bereits eine um einen Faktor von 650 höhere Dimensionalität hat.
  • Vorteilhaft ist der Zufallsgenerator ein physikalischer Zufallsgenerator, der die Zufallswerte aus thermischem oder elektronischem Rauschen mindestens eines Bauelements, und/oder aus einer zeitlichen Abfolge radioaktiver Zerfälle eines instabilen Isotops, erzeugt. Auf diese Weise wird vermieden, dass den von dem Generator erzeugten synthetischen Radarsignalen Artefakte eines Pseudo-Zufallsgenerators überlagert werden.
  • Die Erfindung bezieht sich auch auf einen Datensatz aus einer Vielzahl zwei- oder mehrdimensionaler Frequenzdarstellungen synthetischer Radarsignale, die mit dem Generator hergestellt worden sind. Dieser Datensatz kann beispielsweise direkt als Trainingsdaten für das überwachte Lernen einer Objekterkennung verwendet werden und ist insofern ein eigenständig verkaufbares Produkt mit Kundennutzen. Je besser der Generator arbeitet, desto schwieriger sind die von ihm erzeugten synthetischen Radarsignale per se von den physikalisch gemessenen Radarsignalen zu unterscheiden. Sind jedoch einerseits eine zwei- oder mehrdimensionale Frequenzdarstellung eines Radarsignals und andererseits ein Generator gegeben, so lässt sich zumindest eine Wahrscheinlichkeit dafür ermitteln, dass das Radarsignal durch diesen Generator erzeugt wurde.
  • Die Erfindung bezieht sich auch auf ein Verfahren zur Herstellung des Generators. Bei diesem Verfahren werden zwei- oder mehrdimensionale Frequenzdarstellungen der gemessenen Radarsignale mit von dem Generator erzeugten zwei- oder mehrdimensionalen Frequenzdarstellungen der synthetischen Radarsignale in einem Pool vereinigt. Die in dem Pool enthaltenen zwei- oder mehrdimensionalen Frequenzdarstellungen werden mit einem Klassifikator dahingehend klassifiziert, ob sie zu gemessenen oder zu synthetischen Radarsignalen gehören. Die Parameter der Verarbeitungskette des KI-Moduls im Generator werden auf eine möglichst schlechte Klassifikationsgüte des Klassifikators optimiert.
  • Die Klassifikationsgüte des Klassifikators dient somit als Feedback für das Lernen der Parameter in der internen Verarbeitungskette des ersten KI-Moduls im Generator. Dieses Feedback kann beispielsweise ein Fehlersignal des Klassifikators sein, oder auch beispielsweise ein im Klassifikator generiertes Konfidenzmaß. Insbesondere können der Klassifikator und der Generator im Wechsel trainiert werden und so gleichsam als gegenseitige Sparringspartner dienen.
  • Beispielsweise kann das KI-Modul im Generator zunächst mit Standardwerten oder zufälligen Werten für die Parameter initialisiert sein. Wenn nun an der Eingabe des KI-Moduls Zufallswerte aus dem Zufallsgenerator vorgelegt werden, dann wird das generierte synthetische Radarsignal mit hoher Wahrscheinlichkeit nicht viel mit den gemessenen Radarsignalen zu tun haben. Dementsprechend wird der Klassifikator aus dem Pool der zwei- oder mehrdimensionalen Frequenzdarstellungen mit großer Konfidenz die zu dem synthetischen Radarsignal gehörige Frequenzdarstellung von den zu den gemessenen Radarsignalen gehörigen Frequenzdarstellungen unterscheiden können. Je mehr die Parameter in der Verarbeitungskette des KI-Moduls optimiert werden, desto schwieriger wird diese Unterscheidung für den Klassifikator. Dies kann sich darin manifestieren, dass die Klassifikation in einer größeren Anzahl von Fällen unrichtig ist, und/oder dass die Konfidenz, mit der die Klassifikation vorgenommen wird, sinkt.
  • Der Klassifikator kann von beliebiger Bauart sein. Es kann sich beispielsweise um einen statischen Klassifikator handeln, der die zwei- oder mehrdimensionalen Frequenzdarstellungen durch Prüfung bestimmter Merkmale, oder auch mit statistischen Methoden, als gemessen bzw. synthetisch generiert klassifiziert. Wenn dem Generator eine Randbedingung vorgegeben wurde, wird die gleiche Randbedingung auch dem Klassifikator vorgegeben.
  • In einer besonders vorteilhaften Ausgestaltung wird ein zweites KI-Modul als Klassifikator gewählt. Dieses zweite KI-Modul weist eine weitere interne Verarbeitungskette auf, die mit einer Vielzahl von Parametern parametrisiert ist. Diese Parameter werden auf eine möglichst gute Klassifikationsgüte des Klassifikators optimiert.
  • Es können dann beispielsweise beide KI-Module gleichzeitig oder auch abwechselnd trainiert werden. Auf diese Weise wird eine Art Wettkampf zwischen dem ersten KI-Modul und dem zweiten KI-Modul ausgelöst. Das erste KI-Modul lernt beständig dahingehend dazu, realistische Radarsignale zu „fälschen“, während das zweite KI-Modul dahingehend dazulernt, die „Fälschungen“ zu erkennen. Der Wettbewerb führt am Ende dazu, dass die erhaltenen synthetischen Radarsignale die ursprünglichen physikalisch gemessenen Radarsignale annähernd exakt nachahmen und gemeinsam mit diesen als Lerndaten für das überwachte Lernen einer Objekterkennung genutzt werden können.
  • Die Erfindung bezieht sich auch auf ein Verfahren zur Erkennung von Objekten, und/oder eines von Objekten eines vorgegebenen Typs freien Raums, im Umfeld eines Fahrzeugs. Das Fahrzeug weist mindestens einen Radarsensor zur Erfassung mindestens eines Teils des Umfelds auf. Zwei- oder mehrdimensionale Frequenzdarstellungen von durch den Radarsensor erfassten Radarsignalen werden von einem dritten KI-Modul dahingehend klassifiziert werden, welche Objekte im Umfeld des Fahrzeugs vorhanden sind. Das dritte Kl-Modul ist oder wird mit Trainingsdaten trainiert, die zumindest teilweise mit einem Generator gemäß der Erfindung erzeugt worden sind. Die Trainingsdaten können insbesondere teilweise aus physikalischen Messungen und teilweise vom Generator stammen.
  • Auf diese Weise lassen sich bei der Objekterkennung die eingangs genannten Vorteile der Radartechnik nutzen, ohne dass dies zwangsläufig damit erkauft wird, dass die Lerndaten für das Training der Objekterkennung im Vergleich zur rein optischen Objekterkennung deutlich schwieriger zu beschaffen sind. Ein vergleichsweise kleiner Satz an physikalisch gemessenen Radarsignalen kann durch den Generator auf die Menge angereichert werden, die zum Aufbau einer sicheren Objekterkennung notwendig ist.
  • Vorteilhaft wird in Antwort auf die Erkennung mindestens eines Objekts, und/oder eines von Objekten eines bestimmten Typs freien Raums, eine für den Fahrer des Fahrzeugs wahrnehmbare physikalische Warneinrichtung, ein Antriebssystem, ein Lenksystem, und/oder ein Bremssystem, des Fahrzeugs angesteuert zwecks Vermeidung einer Kollision zwischen dem Fahrzeug und dem Objekt, und/oder zwecks Anpassung der Geschwindigkeit und/oder Trajektorie des Fahrzeugs. Diese Zwecke sind Hauptgründe dafür, dass überhaupt eine Objekterkennung angestrebt wird.
  • Wie zuvor erläutert, ermöglicht die Vorgabe einer Randbedingung an den Generator auch die Interpolation oder Extrapolation von einem gegebenen Satz an gemessenen Szenarien auf Szenarien, zu denen es noch keine Messungen gibt. Dies kann nicht nur für die Auswertung von Radarsignalen nach der physikalischen Messung genutzt werden, sondern auch für die Verbesserung der physikalischen Messung als solche. Im Unterschied zu einer Kamera, die ein rein passiver Sensor ist, ist ein Radarsensor ein aktiver Sensor, d.h., als Messsignal dienen Radarwellen, die vom Sensor selbst abgestrahlt wurden. Daher haben Einbauparameter und Betriebsparameter des Radarsensors einen deutlichen Einfluss darauf, inwieweit die erhaltenen Radarsignale für die letztendliche Objekterkennung tauglich sind.
  • Daher bezieht sich die Erfindung auch auf ein Verfahren zur Optimierung mindestens eines Einbauparameters oder Betriebsparameters für einen Radarsensor zur Erkennung von Objekten, und/oder eines von Objekten (72a, 72b) eines bestimmten Typs freien Raums, im Umfeld eines Fahrzeugs. Bei diesem Verfahren wird für verschiedene Werte des Einbauparameters bzw. Betriebsparameters jeweils mindestens eine zwei- oder mehrdimensionale Frequenzdarstellung eines synthetischen Radarsignals mit einem Generator gemäß der Erfindung erzeugt, und/oder aus einem zuvor von einem solchen Generator erzeugten Datensatz abgerufen. Die Erkennung von Objekten in der zwei- oder mehrdimensionalen Frequenzdarstellung des synthetischen Radarsignals mit einem Gütemaß bewertet. Der Einbauparameter oder Betriebsparameter wird dahingehend variiert, dass das Gütemaß ein Extremum annimmt.
  • Die Erfinder haben erkannt, dass es im Hinblick auf das letztendliche Ziel einer sicheren Objekterkennung vorteilhaft ist, nicht nur die Analyse aufgenommener Radarsignale zu betrachten, sondern auch die physikalische Datenaufnahme selbst. Informationen, die in dem aufgenommenen physikalischen Radarsignal nicht mehr zu erkennen sind, können auch durch eine noch so gute Analyse nicht mehr ausgewertet werden. Ein solcher Fall kann beispielsweise eintreten, wenn der Messbereich des Sensors sich auf Grund besonders kontraststarker Objekte so unempfindlich einstellt, dass ein kontrastschwacher Mensch im Rauschen untergeht. Wenn die physikalische Datenaufnahme und die anschließende Analyse ganzheitlich betrachtet und optimiert werden, kann also die letztendlich erhaltene Objekterkennung noch weiter verbessert werden.
  • Dabei wird es über das Gütemaß insbesondere ermöglicht, die Objekterkennung auf bestimmte Objekte zuzuschneiden und bei Zielkonflikten Prioritäten zu setzen. Kein Satz Einbauparameter oder Betriebsparameter kann für alle Eventualitäten perfekt sein. Beispielsweise kann die sichere Erkennung eines Fußgängers, eines Radfahrers oder eines anderen schwächeren Verkehrsteilnehmers Vorrang vor der Erkennung eines Betonpollers haben. Wenn nun die verbesserte Erkennung schwächerer Verkehrsteilnehmer oberste Priorität hat, kann der Fall eintreten, dass dies nur auf Kosten anderer Aspekte möglich ist, etwa um den Preis, dass manche Betonpoller nicht erkannt werden.
  • Wenngleich der Generator und die Verfahren jeweils Gebrauch von Hardware machen und der gezielte Einsatz entsprechend optimierter Hardware jeweils vorteilhaft ist, so gibt es auch funktionsfähige Ausführungsformen des Generators und des Verfahrens, die mit der Nutzung bereits vorhandener Hardware auskommen. Dass die Funktion gemäß der Erfindung bereitgestellt wird, kann somit ganz oder teilweise in einer Software implementiert sein, die die Hardware anders ansteuert. Diese Software kann beispielsweise als Update oder Upgrade zu existierender Hardware vertrieben werden und ist insofern ein eigenständiges Produkt. Die Erfindung bezieht sich also auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem Computer, und/oder auf einem Steuergerät, ausgeführt werden, den Computer, und/oder das Steuergerät, zu einem Generator gemäß der Erfindung aufwerten, und/oder dazu veranlassen, ein Verfahren gemäß der Erfindung auszuführen. Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger oder ein Downloadprodukt mit dem Computerprogramm.
  • Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.
  • Figurenliste
  • Es zeigt:
    • 1 Ausführungsbeispiel eines Generators 1;
    • 2 Ausführungsbeispiel des Verfahrens 100 zur Herstellung;
    • 3 Ausführungsbeispiel des Verfahrens 200 zur Objekterkennung;
    • 4 Ausführungsbeispiel des Verfahrens 300 zur Optimierung.
  • Nach 1 umfasst der Generator 1 einen Zufallsgenerator 2 und ein KI-Modul 3 mit einer internen Verarbeitungskette 4. Der Zufallsgenerator 2 speist Zufallswerte 21 als Eingabe in das KI-Modul 3, das daraufhin unter Berücksichtigung einer ebenfalls eingegebenen Randbedingung 31 zwei- oder mehrdimensionale Frequenzdarstellungen 13 erzeugt. Diese Frequenzdarstellungen 13 korrespondieren zu synthetischen Radarsignalen 12.
  • Das KI-Modul 3 umfasst ein neuronales Netzwerk, dessen interne Verarbeitungskette 4 zwei Faltungsschichten 42a und 42b, zwei vollvernetzte Schichten 43a und 43b sowie eine Upsampling-Schicht 44 aufweist. Die interne Verarbeitungskette 4 ist mit einer Vielzahl von Parametern 41a-41c parametrisiert. Es sind jedoch auch andere Architekturen möglich, die beispielsweise nur eine Faltungsschicht 42a, 42b und keine vollvernetzte Schicht 43a, 43b, oder nur eine vollvernetzte Schicht 43a, 43b und keine Faltungsschicht 42a, 42b, umfassen und in denen eine Upsampling-Schicht 44 fehlt.
  • Aus der vom Generator 1 erzeugten zwei- oder mehrdimensionalen Frequenzdarstellung 13 ist eine Kenngröße 14 ableitbar. Eine analoge Kenngröße 14 ist auch aus den zwei- oder mehrdimensionalen Frequenzdarstellungen 11 der von einem physikalischen Radarsensor 9 gemessenen Radarsignale 10 ableitbar, wobei auch hier diejenigen Frequenzdarstellungen 11 ausgewählt werden, die zu der vorgegebenen Randbedingung 31 passen.
  • Die Parameter 41a-41c der internen Verarbeitungskette 4 im KI-Modul 3 des Generators 1 sind so gesetzt, dass die zwei- oder mehrdimensionale Frequenzdarstellung 11, 13, und/oder die Kenngröße 14, für die synthetischen Radarsignale 12 im Wesentlichen die gleiche Verteilung aufweist wie für die gemessenen Radarsignale 10.
  • Eine Vielzahl der mit dem Generator 1 erzeugten zwei- oder mehrdimensionalen Frequenzdarstellungen 13 wird in einem Datensatz 13a zusammengefasst. Mit diesem Datensatz 13a kann beispielsweise die Datenbasis für das überwachte Lernen einer Objekterkennung auf der Basis von Radarsignalen vergrößert werden.
  • 2 zeigt ein Ausführungsbeispiel des Verfahrens 100 zur Herstellung des Generators 1. Hauptziel dieses Verfahrens 100 ist die Gewinnung der Parameter 41a-41c für die interne Verarbeitungskette 4 des KI-Moduls 3 im Generator 1.
  • Analog zu 1 werden vom Generator 1 unter Beachtung der Randbedingung 31 zwei- oder mehrdimensionale Frequenzdarstellungen 13 synthetischer Radarsignale 12 erzeugt. Diese werden in Schritt 110 des Verfahrens 100 zusammen mit den zwei- oder mehrdimensionalen Frequenzdarstellungen 11 der physikalisch gemessenen Radarsignale 10, die zu der gleichen Randbedingung 31 passen, in einem Pool 15 zusammengeführt.
  • In Schritt 120 des Verfahrens 100 werden die in dem Pool 15 enthaltenen zwei- oder mehrdimensionalen Frequenzdarstellungen 11, 13 von einem Klassifikator 5 dahingehend klassifiziert, ob sie zu gemessenen Radarsignalen 10 oder zu synthetischen Radarsignalen 12 gehören. Für diese Klassifikation lässt sich eine Klassifikationsgüte 5a angeben, die beispielsweise die Richtigkeit, und/oder die Konfidenz, der Klassifikation enthalten kann.
  • Die Parameter 41a-41c der internen Verarbeitungskette 4 im KI-Modul 3 des Generators 1 werden nun in Schritt 130 des Verfahrens 100 auf eine möglichst schlechte Klassifikationsgüte 5a des Klassifikators 5 optimiert.
  • Dabei kann der Klassifikator 5 prinzipiell ein statischer Klassifikator sein, der nicht weiter dazulernt. In dem in 2 gezeigten Ausführungsbeispiel ist der Klassifikator 5 jedoch als zweites KI-Modul ausgebildet und weist eine weitere interne Verarbeitungskette 6 auf, die mit einer Vielzahl von Parametern 61a-61c parametrisiert ist. Diese Parameter 61a-61c werden in Schritt 140 des Verfahrens 100 auf eine möglichst gute Klassifikationsgüte 5a des Klassifikators 5 optimiert.
  • Die Schritte 130 und 140 können beispielsweise gleichzeitig oder aber auch im Wechsel ausgeführt werden.
  • 3 zeigt ein Ausführungsbeispiel des Verfahrens 200 für die Erkennung von Objekten 72a, 72b, und/oder eines von Objekten 72a, 72b eines bestimmten Typs freien Raums, im Umfeld 71 eines Fahrzeugs 7. Als Datenquelle für die Erkennung wird ein Radarsensor 73 verwendet, der zwei- oder mehrdimensionale Frequenzdarstellungen 11 der gemessenen Radarsignale an ein drittes KI-Modul 74 liefert. Dieses KI-Modul 74 ist mit Trainingsdaten 74a trainiert worden, die einen von einem Generator 1 erzeugten Datensatz 13a umfassen. Zusätzlich zu dem Datensatz 13a können die Trainingsdaten 74a insbesondere noch physikalische Messungen umfassen, so dass der Datensatz 13a letztendlich die physikalischen Messungen ergänzt. Das KI-Modul 74 kann auch erst in Schritt 210 des Verfahrens 200 entsprechend trainiert werden.
  • Das KI-Modul 74 klassifiziert in Schritt 220 des Verfahrens 200 die zwei- oder mehrdimensionalen Frequenzdarstellungen 11 dahingehend, welche Objekte 72a, 72b im erfassten Umfeld 71 des Fahrzeugs 7 vorhanden sind. Als beispielhafte Objekte sind in 3 ein Fußgänger 72a und ein Betonpoller 72b eingezeichnet.
  • Das Ergebnis der Klassifikation wird in Schritt 230 des Verfahrens 200 genutzt, um zwecks Vermeidung einer Kollision mit den erkannten Objekten 72a, 72b, und/oder zwecks Anpassung der Geschwindigkeit und/oder Trajektorie des Fahrzeugs 7, eine Warneinrichtung 75a für den Fahrer des Fahrzeugs 7, ein Antriebssystem 75b, ein Lenksystem 75c, und/oder ein Bremssystem 75d, des Fahrzeugs 7 anzusteuern. Beispielsweise kann die Geschwindigkeit auf einen Sollwert geregelt werden, und/oder ein Fahrassistent kann eine Fahrspur wählen. Neben den Radarsignalen können für diese Aufgaben auch noch zusätzliche Informationen von anderen Sensoren, wie etwa Kameras, Lidar oder Ultraschall, herangezogen werden.
  • Die physikalische Datenaufnahme durch den Radarsensor 73 wird unter anderem durch Einbauparameter 73a, hier beispielsweise die Einbauposition des Radarsensors 73a, und durch Betriebsparameter 73b, hier beispielsweise die Wellenlänge λ der ausgesendeten Radarwellen, beeinflusst. Die Einbauparameter 73a und Betriebsparameter 73b sind daher weitere Freiheitsgrade, die optimiert werden können, um das letztendliche Ergebnis der Objekterkennung oder anderer Anwendungen, wie beispielsweise der Spurführung, zu verbessern.
  • 4 skizziert ein Ausführungsbeispiel des Verfahrens 300 für diese Optimierung. Anhand eines Werts des Einbauparameters 73a, und/oder des Betriebsparameters 73b, wird in Schritt 310a des Verfahrens 300 mit dem Generator 1 eine zwei- oder mehrdimensionale Frequenzdarstellung 13 eines synthetischen Radarsignals 12 erzeugt, und/oder es wird in Schritt 310b des Verfahrens 300 eine solche zwei- oder mehrdimensionale Frequenzdarstellung 13 aus einem zuvor von einem Generator 1 erzeugten Datensatz 13a abgerufen.
  • Mit dem dritten KI-Modul 74, das auch beim realen Einsatz im Fahrzeug 7 verwendet werden soll, wird die zwei- oder mehrdimensionale Frequenzdarstellung 13 dahingehend klassifiziert, welche Objekte 72a, 72b hierin erkennbar sind. Diese Erkennung der Objekte 72a, 72b wird in Schritt 320 des Verfahrens 300 mit einem Gütemaß bewertet. In Schritt 340 des Verfahrens 300 wird geprüft, ob dieses Gütemaß wie gewünscht ein Extremum annimmt. Ist dies der Fall (Wahrheitswert 1), so wird der getestete Wert des Einbauparameters 73a, bzw. des Betriebsparameters 73b, für optimal befunden. Wird das gewünschte Extremum hingegen nicht angenommen (Wahrheitswert 0), so wird der Einbauparameter 73a, bzw. der Betriebsparameter 73b, in Schritt 330 des Verfahrens 300 variiert, um näher an das gewünschte Extremum heranzukommen bzw. dieses beim nächsten Durchlauf zu erreichen.

Claims (12)

  1. Generator (1) zur Erzeugung zwei- oder mehrdimensionaler Frequenzdarstellungen (13) synthetischer Radarsignale (12) aus einem Satz von mit einem physikalischen Radarsensor (9) gemessenen Radarsignalen (10), umfassend einen Zufallsgenerator (2) und ein erstes KI-Modul (3), das Vektoren oder Tensoren von Zufallswerten (21) aus dem Zufallsgenerator (2) als Eingabe erhält und jeden solchen Vektor, bzw. jeden solchen Tensor, durch eine interne Verarbeitungskette (4) auf eine zwei- oder mehrdimensionale Frequenzdarstellung (13) eines synthetischen Radarsignals (12) abbildet, wobei die interne Verarbeitungskette (4) des ersten KI-Moduls (3) mit einer Vielzahl von Parametern (41a-41c) parametrisiert ist und wobei diese Parameter (41a-41c) so gesetzt sind, dass die zwei- oder mehrdimensionale Frequenzdarstellung (11; 13) des Radarsignals (10; 12), und/oder mindestens eine aus dieser Frequenzdarstellung (11; 13) abgeleitete Kenngröße (14), für die synthetischen Radarsignale (12) im Wesentlichen die gleiche Verteilung aufweist wie für die gemessenen Radarsignale (10).
  2. Generator (1) nach Anspruch 1, wobei die Kenngröße (14) Reflexpunkte umfasst, denen eine Entfernung, ein Azimut-Winkel, eine Geschwindigkeit, ein Rückstreukoeffizient oder ein Elevations-Winkel relativ zum physikalischen Radarsensor (9) zugeordnet sind.
  3. Generator (1) nach einem der Ansprüche 1 bis 2, wobei das erste KI-Modul (3) weiterhin mindestens eine Randbedingung (31) als Eingabe erhält und wobei die Parameter (41a-41c) der internen Verarbeitungskette (4) so gesetzt sind, dass die zwei- oder mehrdimensionale Frequenzdarstellung (11; 13), und/oder die Kenngröße (14), für die synthetischen Radarsignale (12) im Wesentlichen die gleiche Verteilung aufweist wie für diejenigen gemessenen Radarsignale (10), die der Randbedingung (31) genügen.
  4. Generator (1) nach einem der Ansprüche 1 bis 3, wobei das erste KI-Modul (3) ein künstliches neuronales Netzwerk umfasst, dessen interne Verarbeitungskette (4) mindestens eine Faltungsschicht (42a, 42b), und/oder mindestens eine vollvernetzte Schicht (43a, 43b), aufweist.
  5. Generator (1) nach einem der Ansprüche 1 bis 4, wobei der Zufallsgenerator (2) ein physikalischer Zufallsgenerator ist, der die Zufallswerte aus thermischem oder elektronischem Rauschen mindestens eines Bauelements, und/oder aus einer zeitlichen Abfolge radioaktiver Zerfälle eines instabilen Isotops, erzeugt.
  6. Datensatz (13a) aus einer Vielzahl zwei- oder mehrdimensionaler Frequenzdarstellungen (13) synthetischer Radarsignale (12), hergestellt mit einem Generator (1) nach einem der Ansprüche 1 bis 5.
  7. Verfahren (100) zur Herstellung eines Generators (1) nach einem der Ansprüche 1 bis 5, wobei zwei- oder mehrdimensionale Frequenzdarstellungen (11) der gemessenen Radarsignale (10) mit von dem Generator (1) erzeugten zwei- oder mehrdimensionalen Frequenzdarstellungen (13) der synthetischen Radarsignale (12) in einem Pool (15) vereinigt werden (110), wobei die in dem Pool (15) enthaltenen zwei- oder mehrdimensionalen Frequenzdarstellungen (11, 13) mit einem Klassifikator (5) dahingehend klassifiziert werden (120), ob sie zu gemessenen (10) oder zu synthetischen (12) Radarsignalen gehören, wobei die Parameter (41a-41c) der Verarbeitungskette (4) des KI-Moduls (3) im Generator (1) auf eine möglichst schlechte Klassifikationsgüte (5a) des Klassifikators (5) optimiert werden (130).
  8. Verfahren (100) nach Anspruch 7, wobei ein zweites KI-Modul als Klassifikator (5) gewählt wird, wobei dieses zweite KI-Modul eine weitere interne Verarbeitungskette (6) aufweist, die mit einer Vielzahl von Parametern (61a-61c) parametrisiert ist, wobei diese Parameter (61a-61c) auf eine möglichst gute Klassifikationsgüte (5a) des Klassifikators (5) optimiert werden (140).
  9. Verfahren (200) zur Erkennung von Objekten (72a, 72b), und/oder eines von Objekten (72a, 72b) eines bestimmten Typs freien Raums, im Umfeld (71) eines Fahrzeugs (7), wobei das Fahrzeug (7) mindestens einen Radarsensor (73) zur Erfassung mindestens eines Teils des Umfelds (71) aufweist und wobei zwei- oder mehrdimensionale Frequenzdarstellungen (11) von durch den Radarsensor (73) erfassten Radarsignalen (10) von einem dritten KI-Modul (74) dahingehend klassifiziert werden (220), welche Objekte (72a, 72b) im Umfeld (71) des Fahrzeugs (7) vorhanden sind, wobei das dritte KI-Modul (74) mit Trainingsdaten (74a) trainiert ist oder trainiert wird (210), die einen Datensatz (13a) nach Anspruch 6 umfassen.
  10. Verfahren (200) nach Anspruch 9, dadurch gekennzeichnet, dass in Antwort auf die Erkennung (220) mindestens eines Objekts (72a, 72b), und/oder eines von Objekten (72a, 72b) eines bestimmten Typs freien Raums, eine für den Fahrer des Fahrzeugs (7) wahrnehmbare physikalische Warneinrichtung (75a), ein Antriebssystem (75b), ein Lenksystem (75c), und/oder ein Bremssystem (75d), des Fahrzeugs (7) angesteuert wird zwecks Vermeidung einer Kollision zwischen dem Fahrzeug (7) und dem Objekt (72a, 72b), und/oder zwecks Anpassung der Geschwindigkeit und/oder Trajektorie des Fahrzeugs (7).
  11. Verfahren (300) zur Optimierung mindestens eines Einbauparameters (73a) oder Betriebsparameters (73b) für einen Radarsensor (73) zur Erkennung von Objekten (72a, 72b), und/oder eines von Objekten (72a, 72b) eines bestimmten Typs freien Raums, im Umfeld (71) eines Fahrzeugs (7), wobei für verschiedene Werte des Einbauparameters (73a) bzw. Betriebsparameters (73b) jeweils mindestens eine zwei- oder mehrdimensionale Frequenzdarstellung (13) eines synthetischen Radarsignals (12) mit einem Generator (1) nach einem der Ansprüche 1 bis 5 erzeugt wird (310a), und/oder aus einem Datensatz (13a) nach Anspruch 6 abgerufen wird (310b), wobei die Erkennung von Objekten (72a, 72b) in der zwei- oder mehrdimensionalen Frequenzdarstellung (13) des synthetischen Radarsignals (12) mit einem Gütemaß bewertet wird (320) und wobei der Einbauparameter (73a) oder Betriebsparameter (73b) dahingehend variiert wird (330), dass das Gütemaß ein Extremum annimmt (340).
  12. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem Computer, und/oder auf einem Steuergerät, ausgeführt werden, den Computer, und/oder das Steuergerät, zu einem Generator (1) nach einem der Ansprüche 1 bis 5 aufwerten, und/oder dazu veranlassen, ein Verfahren (100, 200, 300) nach einem der Ansprüche 7 bis 11 auszuführen.
DE102018204494.5A 2018-03-23 2018-03-23 Erzeugung synthetischer Radarsignale Active DE102018204494B3 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102018204494.5A DE102018204494B3 (de) 2018-03-23 2018-03-23 Erzeugung synthetischer Radarsignale
PCT/EP2019/056712 WO2019179946A1 (de) 2018-03-23 2019-03-18 Erzeugung synthetischer radarsignale
US16/980,820 US11867831B2 (en) 2018-03-23 2019-03-18 Generation of synthetic radar signals
CN201980021067.4A CN111868803B (zh) 2018-03-23 2019-03-18 产生合成雷达信号

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018204494.5A DE102018204494B3 (de) 2018-03-23 2018-03-23 Erzeugung synthetischer Radarsignale

Publications (1)

Publication Number Publication Date
DE102018204494B3 true DE102018204494B3 (de) 2019-08-14

Family

ID=65861277

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018204494.5A Active DE102018204494B3 (de) 2018-03-23 2018-03-23 Erzeugung synthetischer Radarsignale

Country Status (4)

Country Link
US (1) US11867831B2 (de)
CN (1) CN111868803B (de)
DE (1) DE102018204494B3 (de)
WO (1) WO2019179946A1 (de)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019216927A1 (de) * 2019-11-04 2021-05-06 Robert Bosch Gmbh Synthetische Erzeugung von Radar-, LIDAR- und Ultraschallmessdaten
DE102020210887B3 (de) 2020-08-28 2021-12-09 Robert Bosch Gesellschaft mit beschränkter Haftung Vermehrung und Verarbeitung von Radardaten mit Machine Learning
DE102020210710A1 (de) 2020-08-24 2022-02-24 Robert Bosch Gesellschaft mit beschränkter Haftung Trainingsverfahren für einen Generator zur Erzeugung realistischer Bilder
DE102020210711A1 (de) 2020-08-24 2022-02-24 Robert Bosch Gesellschaft mit beschränkter Haftung Training eines Generators zur Erzeugung realistischer Bilder mit einem semantisch segmentierenden Diskriminator
DE102020210712A1 (de) 2020-08-24 2022-02-24 Robert Bosch Gesellschaft mit beschränkter Haftung Erzeugung realistischer Bilder aus vorgegebenen semantischen Karten
DE102020211475A1 (de) 2020-09-14 2022-03-17 Robert Bosch Gesellschaft mit beschränkter Haftung Kaskadierte Cluster-Generator-Netze zum Erzeugen synthetischer Bilder
DE102020212366A1 (de) 2020-09-30 2022-03-31 Robert Bosch Gesellschaft mit beschränkter Haftung Transformieren von Messdaten zwischen verschiedenen Konfigurationen von Messsystemen
EP3979130A1 (de) 2020-09-30 2022-04-06 Robert Bosch GmbH Generatornetzwerke zur erzeugung von bildern mit einer vorbestimmten anzahl von objekten
DE102020215698A1 (de) 2020-12-11 2022-06-15 Robert Bosch Gesellschaft mit beschränkter Haftung Synthetische Erzeugung von Bildern mit gegebenem semantischen Inhalt
DE102020216264A1 (de) 2020-12-18 2022-06-23 Robert Bosch Gesellschaft mit beschränkter Haftung Erzeugen realistischer Bilder mit größerer Variabilität
EP4033452A1 (de) 2021-01-25 2022-07-27 Robert Bosch GmbH Domänenunabhängiges training von bildklassifikatoren
DE102021200615A1 (de) 2021-01-25 2022-07-28 Robert Bosch Gesellschaft mit beschränkter Haftung Training für Objektdetektoren mit verbesserter Ausnutzung des vorhandenen Vorwissens
DE102021207151A1 (de) 2021-07-07 2023-01-12 Robert Bosch Gesellschaft mit beschränkter Haftung Bewertung von Generatoren zur Erzeugung realistischer Bilder
DE102021214464B3 (de) 2021-12-15 2023-01-19 Robert Bosch Gesellschaft mit beschränkter Haftung Bewertung von Generatoren zur Erzeugung realistischer Bilder
DE102021208722A1 (de) 2021-08-10 2023-02-16 Robert Bosch Gesellschaft mit beschränkter Haftung Konfigurieren eines neuronalen Netzwerks auf äquivariantes oder invariantes Verhalten
WO2023016859A1 (de) 2021-08-12 2023-02-16 Robert Bosch Gmbh Training von neuronalen netzwerken auf äquivarianz oder invarianz gegenüber änderungen des eingabe-bildes
DE102021208726A1 (de) 2021-08-10 2023-02-16 Robert Bosch Gesellschaft mit beschränkter Haftung Training eines Generators für synthetische Messdaten mit augmentierten Trainingsdaten
DE102021208727A1 (de) 2021-08-10 2023-02-16 Robert Bosch Gesellschaft mit beschränkter Haftung Training eines Generators für synthetische Messdaten mit verbesserter Steuerung der Variabilität
US11835620B2 (en) 2019-12-18 2023-12-05 Robert Bosch Gmbh More reliable classification of radar data from dynamic settings

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070052578A1 (en) * 2005-08-19 2007-03-08 Bhiksha Ramakrishnan Method and system for identifying moving objects using doppler radar
US8682821B2 (en) 2011-08-08 2014-03-25 Robert Bosch Gmbh Method for detection of movement of a specific type of object or animal based on radar signals

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1228625C (zh) * 2003-07-11 2005-11-23 华东理工大学 一种基于模块化组合神经网络的机器嗅觉气味识别方法
WO2005119582A2 (en) 2004-06-01 2005-12-15 Siemens Medical Solutions Usa, Inc. Bayesian network frameworks for biomedical data mining
DE102004054466A1 (de) * 2004-11-11 2006-06-08 Robert Bosch Gmbh Radarsystem insbesondere zur Entfernungs- und/oder Geschwindigkeitsmessung
CN101483014B (zh) * 2009-01-13 2010-08-18 上海海事大学 一种基于arm的航海雷达模拟器系统
CN101893710B (zh) * 2009-05-20 2012-11-21 中国科学院电子学研究所 一种非均匀分布的多基线合成孔径雷达三维成像方法
KR101828332B1 (ko) 2012-02-29 2018-03-22 한화시스템 주식회사 차량용 레이더 시뮬레이터
DE102014226127A1 (de) * 2014-12-16 2016-06-16 Robert Bosch Gmbh Radarsystem, verfahren zum erzeugen eines sendesignals für ein radarsystem und fahrzeug
SE1551370A1 (sv) * 2015-10-22 2017-02-07 Uniquesec Ab Testing method with virtual radar signatures for an automotive safety radar system
EP3211445B1 (de) * 2016-02-29 2019-06-12 Nxp B.V. Radarsystem
US20180025640A1 (en) 2016-07-19 2018-01-25 Ford Global Technologies, Llc Using Virtual Data To Test And Train Parking Space Detection Systems
US10592805B2 (en) * 2016-08-26 2020-03-17 Ford Global Technologies, Llc Physics modeling for radar and ultrasonic sensors
CN106504190B (zh) 2016-12-29 2019-09-13 浙江工商大学 一种基于3d卷积神经网络的立体视频生成方法
CN106959439B (zh) * 2017-05-26 2020-02-07 南通大学 汽车调频连续波雷达的强干扰抑制方法及系统
CN107784320B (zh) * 2017-09-27 2019-12-06 电子科技大学 基于卷积支持向量机的雷达一维距离像目标识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070052578A1 (en) * 2005-08-19 2007-03-08 Bhiksha Ramakrishnan Method and system for identifying moving objects using doppler radar
US8682821B2 (en) 2011-08-08 2014-03-25 Robert Bosch Gmbh Method for detection of movement of a specific type of object or animal based on radar signals

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019216927A1 (de) * 2019-11-04 2021-05-06 Robert Bosch Gmbh Synthetische Erzeugung von Radar-, LIDAR- und Ultraschallmessdaten
US11835620B2 (en) 2019-12-18 2023-12-05 Robert Bosch Gmbh More reliable classification of radar data from dynamic settings
WO2022043200A1 (de) 2020-08-24 2022-03-03 Robert Bosch Gmbh Erzeugung realistischer bilder aus vorgegebenen semantischen karten
DE102020210711A1 (de) 2020-08-24 2022-02-24 Robert Bosch Gesellschaft mit beschränkter Haftung Training eines Generators zur Erzeugung realistischer Bilder mit einem semantisch segmentierenden Diskriminator
DE102020210712A1 (de) 2020-08-24 2022-02-24 Robert Bosch Gesellschaft mit beschränkter Haftung Erzeugung realistischer Bilder aus vorgegebenen semantischen Karten
WO2022043203A1 (de) 2020-08-24 2022-03-03 Robert Bosch Gmbh Training eines generators zur erzeugung realistischer bilder mit einem semantisch segmentierenden diskriminator
DE102020210710A1 (de) 2020-08-24 2022-02-24 Robert Bosch Gesellschaft mit beschränkter Haftung Trainingsverfahren für einen Generator zur Erzeugung realistischer Bilder
WO2022043204A1 (de) 2020-08-24 2022-03-03 Robert Bosch Gmbh Trainingsverfahren für einen generator zur erzeugung realistischer bilder
DE102020210887B3 (de) 2020-08-28 2021-12-09 Robert Bosch Gesellschaft mit beschränkter Haftung Vermehrung und Verarbeitung von Radardaten mit Machine Learning
US11899131B2 (en) 2020-08-28 2024-02-13 Robert Bosch Gmbh Augmentation and processing of radar data with machine learning
DE102020211475A1 (de) 2020-09-14 2022-03-17 Robert Bosch Gesellschaft mit beschränkter Haftung Kaskadierte Cluster-Generator-Netze zum Erzeugen synthetischer Bilder
DE102020212366A1 (de) 2020-09-30 2022-03-31 Robert Bosch Gesellschaft mit beschränkter Haftung Transformieren von Messdaten zwischen verschiedenen Konfigurationen von Messsystemen
EP3979130A1 (de) 2020-09-30 2022-04-06 Robert Bosch GmbH Generatornetzwerke zur erzeugung von bildern mit einer vorbestimmten anzahl von objekten
DE102020215698A1 (de) 2020-12-11 2022-06-15 Robert Bosch Gesellschaft mit beschränkter Haftung Synthetische Erzeugung von Bildern mit gegebenem semantischen Inhalt
DE102020216264A1 (de) 2020-12-18 2022-06-23 Robert Bosch Gesellschaft mit beschränkter Haftung Erzeugen realistischer Bilder mit größerer Variabilität
DE102021200615A1 (de) 2021-01-25 2022-07-28 Robert Bosch Gesellschaft mit beschränkter Haftung Training für Objektdetektoren mit verbesserter Ausnutzung des vorhandenen Vorwissens
DE102021200614A1 (de) 2021-01-25 2022-07-28 Robert Bosch Gesellschaft mit beschränkter Haftung Domänenunabhängiges Training von Bildklassifikatoren
EP4033452A1 (de) 2021-01-25 2022-07-27 Robert Bosch GmbH Domänenunabhängiges training von bildklassifikatoren
DE102021207151A1 (de) 2021-07-07 2023-01-12 Robert Bosch Gesellschaft mit beschränkter Haftung Bewertung von Generatoren zur Erzeugung realistischer Bilder
DE102021208722A1 (de) 2021-08-10 2023-02-16 Robert Bosch Gesellschaft mit beschränkter Haftung Konfigurieren eines neuronalen Netzwerks auf äquivariantes oder invariantes Verhalten
DE102021208726A1 (de) 2021-08-10 2023-02-16 Robert Bosch Gesellschaft mit beschränkter Haftung Training eines Generators für synthetische Messdaten mit augmentierten Trainingsdaten
DE102021208727A1 (de) 2021-08-10 2023-02-16 Robert Bosch Gesellschaft mit beschränkter Haftung Training eines Generators für synthetische Messdaten mit verbesserter Steuerung der Variabilität
WO2023016859A1 (de) 2021-08-12 2023-02-16 Robert Bosch Gmbh Training von neuronalen netzwerken auf äquivarianz oder invarianz gegenüber änderungen des eingabe-bildes
DE102021208877A1 (de) 2021-08-12 2023-02-16 Robert Bosch Gesellschaft mit beschränkter Haftung Training von neuronalen Netzwerken auf Äquivarianz oder Invarianz gegen Änderungen des Eingabe-Bildes
DE102021214464B3 (de) 2021-12-15 2023-01-19 Robert Bosch Gesellschaft mit beschränkter Haftung Bewertung von Generatoren zur Erzeugung realistischer Bilder

Also Published As

Publication number Publication date
US11867831B2 (en) 2024-01-09
CN111868803A (zh) 2020-10-30
US20210088628A1 (en) 2021-03-25
CN111868803B (zh) 2022-11-08
WO2019179946A1 (de) 2019-09-26

Similar Documents

Publication Publication Date Title
DE102018204494B3 (de) Erzeugung synthetischer Radarsignale
DE102006057552B4 (de) System und Verfahren zur Messung des Abstands eines vorausfahrenden Fahrzeugs
DE102019213546A1 (de) Erzeugung synthetischer Lidarsignale
DE102019218613B4 (de) Objektklassifizierungsverfahren, Objektklassifizierungsschaltung, Kraftfahrzeug
EP3393875B1 (de) Verfahren zum verbesserten erkennen von objekten durch ein fahrerassistenzsystem
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
DE102021128041A1 (de) Verbesserung eines neuronalen fahrzeugnetzwerks
DE112017008149T5 (de) VORRICHTUNG FÜR EINE VON EINEM FAHRZEUG AUSGEHENDE KOMMUNIKATION, VERFAHREN ZUM KOMMUNIZIEREN VON EINEM FAHRZEUG NACH AUßEN INFORMATIONSVERARBEITUNGSVORRICHTUNG UND PROGRAMM FÜR EINE VON EINEM FAHRZEUG AUSGEHENDE KOMMUNIKATION
DE102019215903A1 (de) Verfahren und Vorrichtung zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten eines Sensors insbesondere eines Fahrzeugs, Verfahren zum Trainieren und Verfahren zum Ansteuern
DE102018215753A1 (de) Vorrichtung und Verfahren zum Ermitteln einer Trajektorie eines Fahrzeugs
DE102020128978A1 (de) Trainieren von tiefen neuronalen netzwerken mit synthetischen bildern
DE102021104044A1 (de) Neuronales netzwerk zur positionsbestimmung und objektdetektion
DE102018210937A1 (de) Realistischere Simulation physikalischer Messdaten
DE102017221765A1 (de) Trainieren und Betreiben eines Maschinen-Lern-Systems
DE102021104178A1 (de) Dynamisch gerouteter felddiskriminator
DE102021200348A1 (de) Computerimplementiertes verfahren zum trainieren eines computervisionsmodells
DE102020214596A1 (de) Verfahren zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten einer Umfeldsensorik eines Fahrzeugs, Verfahren zum Erzeugen eines solchen Erkennungsmodells und Verfahren zum Ansteuern einer Aktorik eines Fahrzeugs
DE102019218349A1 (de) Verfahren zum Klassifizieren von zumindest einem Ultraschallecho aus Echosignalen
DE102019208233A1 (de) Verfahren und Vorrichtung zum automatischen Ausführen einer Steuerfunktion eines Fahrzeugs
DE102021133977A1 (de) Verfahren und System zur Klassifikation von Szenarien eines virtuellen Tests sowie Trainingsverfahren
DE102022100545A1 (de) Verbesserte objekterkennung
DE102020127253A1 (de) Quantifizieren von fotorealismus in simulierten daten mit gan
DE102020110358A1 (de) Ausbilden eines neuronalen Transformationsnetzwerks zur Datentransformation eines Trainingsdatensatzes
DE102019114049A1 (de) Verfahren zur Validierung eines Fahrerassistenzsystems mithilfe von weiteren generierten Testeingangsdatensätzen
DE102022212374A1 (de) Computerimplementiertes Verfahren zum Erkennen von Objekten

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R018 Grant decision by examination section/examining division
R020 Patent grant now final