DE102020210887B3 - Vermehrung und Verarbeitung von Radardaten mit Machine Learning - Google Patents

Vermehrung und Verarbeitung von Radardaten mit Machine Learning Download PDF

Info

Publication number
DE102020210887B3
DE102020210887B3 DE102020210887.0A DE102020210887A DE102020210887B3 DE 102020210887 B3 DE102020210887 B3 DE 102020210887B3 DE 102020210887 A DE102020210887 A DE 102020210887A DE 102020210887 B3 DE102020210887 B3 DE 102020210887B3
Authority
DE
Germany
Prior art keywords
source
target
radar
reflex
tensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102020210887.0A
Other languages
English (en)
Inventor
Thilo Strauss
Andrej Junginger
Michael Johannes Oechsle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102020210887.0A priority Critical patent/DE102020210887B3/de
Priority to US17/391,307 priority patent/US11899131B2/en
Priority to JP2021139023A priority patent/JP2022040099A/ja
Priority to CN202110994293.XA priority patent/CN114114182A/zh
Application granted granted Critical
Publication of DE102020210887B3 publication Critical patent/DE102020210887B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/4082Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/414Discriminating targets with respect to background clutter
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren (100) zur Umwandlung von Quell-Radardaten (3) einer Quell-Konfiguration (2) eines Radarsystems Ziel-Radardaten (5) einer Ziel-Konfiguration (4) eines Radarsystems mit den Schritten:• es wird ein zwei- oder mehrdimensionales Quell-Array (32) von Gitterzellen (32a) für die Ortskoordinaten der Quell-Reflex-Orte (31) bereitgestellt (110);• aus den Ortskoordinaten aller Quell-Reflex-Orte (31) wird für jede Gitterzelle (32a) eine Wahrscheinlichkeit und/oder Häufigkeit (32b) dafür, dass ein oder mehrere Quell-Reflex-Orte (31) in der Gitterzelle (32a) liegen, ermittelt und der jeweiligen Gitterzelle (32a) zugeordnet (120);• es wird ein Quell-Tensor (33) gebildet (130), der mindestens das mit Wahrscheinlichkeiten und/oder Häufigkeiten (32b) besetzte Quell-Array (32) umfasst;• der Quell-Tensor (33) wird zu einem Ziel-Tensor (53) transformiert (140), der mindestens ein Ziel-Array (52) von Gitterzellen (52a) für die Ortskoordinaten der Ziel-Reflex-Orte (51) umfasst, wobei dieses Ziel-Array (52) für jede Gitterzelle (52a) eine Wahrscheinlichkeit und/oder Häufigkeit (52b) dafür angibt, dass bei Beobachtung der Szenerie (1) mit der Ziel-Konfiguration (4) erhaltene Ziel-Reflex-Orte (51) in der jeweiligen Gitterzelle (52a) liegen;• anhand der Wahrscheinlichkeiten und/oder Häufigkeiten (52b) im Ziel-Array (52) werden Ortskoordinaten von Ziel-Reflex-Orten (51) gesampelt (150), so dass die Ziel-Radardaten (5) entstehen.

Description

  • Die vorliegende Erfindung betrifft die Erzeugung realistischer Radardaten aus bereits vorhandenen Radardaten sowie ganz allgemein die Verarbeitung von Radardaten mittels Machine Learning.
  • Stand der Technik
  • Damit sich ein Fahrzeug zumindest teilweise automatisiert im Straßenverkehr bewegen kann, ist es erforderlich, das Umfeld des Fahrzeugs zu erfassen und Gegenmaßnahmen einzuleiten, falls eine Kollision mit einem Objekt im Umfeld des Fahrzeugs droht. Auch die Erstellung einer Umfeld-Repräsentation und Lokalisierung sind für sicheres automatisiertes Fahren notwendig.
  • Die Erfassung von Objekten mittels Radar ist von den Lichtverhältnissen unabhängig und beispielsweise auch bei Nacht auf größere Entfernung möglich, ohne dass der Gegenverkehr durch Fernlicht geblendet wird. Aus den Radardaten gehen weiterhin unmittelbar die Entfernung und Geschwindigkeit von Objekten hervor. Diese Informationen sind wichtig für die Beurteilung, ob es zu einer Kollision mit den Objekten kommen kann. Um welchen Typ von Objekt es sich handelt, ist jedoch aus Radarsignalen nicht unmittelbar erkennbar. Diese Erkennung wird aktuell durch die Berechnung von Attributen aus der Digitalen Signalverarbeitung gelöst.
  • Trainierte Machine Learning-Modelle, wie etwa neuronale Netzwerke, können hier insbesondere für die Objekterkennung einen wesentlichen Beitrag leisten. Zum Trainieren dieser Modelle werden Trainingsdaten benötigt, die häufig auf Testfahrten aufgezeichnet und anschließend mit den in der jeweils beobachteten Szenerie tatsächlich enthaltenen Objekten annotiert („gelabelt“) werden. Das Labeln erfordert viel manuelle Arbeit und ist dementsprechend teuer. Die DE 10 2018 204 494 B3 offenbart einen Generator, mit dem sich ein gegebener Vorrat an Trainingsdaten um synthetische Radardaten erweitern lässt.
  • EP 3 690 753 A1 offenbart ein Verfahren, ein Computerprogramm und eine Vorrichtung zum Bestimmen eines Fahrkontexts eines Fahrzeugs. In einem ersten Schritt werden Sensordaten eines oder mehrerer Sensoren des Fahrzeugs empfangen. Anschließend wird anhand der Sensordaten ein Belegungsraster ermittelt. Schließlich wird das Belegungsraster mit einem neuronalen Faltungsnetz geparst, um den Fahrkontext zu bestimmen.
  • DE 10 2016 210 534 A1 offenbart ein Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs, umfassend die Schritte: Bereitstellen einer Repräsentation der Umgebung, wobei die Repräsentation eine Karte umfasst, die Belegungswahrscheinlichkeiten vordefinierter Unterbereiche innerhalb der Karte aufweist, und Einordnen der Umgebung in vordefinierte Kategorien durch ein maschinelles Lernverfahren, wobei das maschinelle Lernverfahren das Einordnen anhand eines vordefinierten Klassifikators und der bereitgestellten Repräsentation der Umgebung vornimmt.
  • US 2019/0087667 A1 offenbart ein Gerät zur Unterscheidung zwischen befahrbaren und nicht befahrbaren Objekten. Die Vorrichtung umfasst: eine Objekterkennungssensoreinheit, die konfiguriert ist, Daten über einen Raum um den Sensor herum zu erzeugen, eine Kartenerzeugungseinheit, die konfiguriert ist, um die Daten zu verwenden, um eine Belegungsrasterkarte und eine Freiraumrasterkarte für den Raum um den Objekterkennungssensor zu erzeugen Einheit. Sowohl die Belegungsrasterkarte als auch die Freiraumrasterkarte enthält ein Array von Zellen. Jede Zelle enthält einen Belegungsraum-Wahrscheinlichkeitswert, der die Wahrscheinlichkeit dafür darstellt, dass die jeweilige Zelle belegt ist, und jede Zelle der freien Gitterkarte enthält einen Freiraum-Wahrscheinlichkeitswert, der die Wahrscheinlichkeit dafür darstellt, dass die jeweilige Zelle frei ist.
  • Offenbarung der Erfindung
  • Im Rahmen der Erfindung wurde ein Verfahren zur Umwandlung von Quell-Radardaten in Ziel-Radardaten entwickelt. Die Quell-Radardaten sind Radardaten, die durch Beobachtung einer Szenerie mit einer Quell-Konfiguration eines Radarsystems erhalten wurden. Die Ziel-Radardaten sind Radardaten, die bei Beobachtung der gleichen Szenerie mit einer Ziel-Konfiguration eines Radarsystems zu erwarten sind. Sowohl die Quell-Konfiguration als auch die Ziel-Konfiguration eines Radarsystems umfassen jeweils mindestens einen Sender und einen Empfänger für Radarstrahlung und können zusätzlich durch weitere Parameter, wie beispielsweise Einstellungen des Senders und/oder des Empfängers, charakterisiert sein.
  • Dabei kann die Quell-Konfiguration mit der Ziel-Konfiguration identisch sein. In diesem Fall kann ein gegebener Vorrat von Radardaten für eine Konfiguration des Radarsystems um realistische synthetische Radardaten erweitert werden, so wie dies beispielsweise mit dem eingangs erwähnten Generator bewerkstelligt werden kann.
  • Mit dem vorliegenden Verfahren können jedoch auch ausgehend von Quell-Radardaten, die mit einer Quell-Konfiguration eines Radarsystems aufgenommen wurden, Ziel-Radardaten gewonnen werden, die bei Beobachtung der gleichen Szenerie mit einer ganz anderen Ziel-Konfiguration des gleichen oder eines anderen Radarsystems realistischerweise zu erwarten sind. Auf diese Weise lässt sich ein und derselbe gegebene Vorrat an Radardaten, der möglicherweise auch schon gelabelt ist, beispielsweise als Trainingsdaten für die Objekterkennung mit beliebigen neuen Ziel-Konfigurationen eines Radarsystems wiederverwenden. Dadurch wird ein erheblicher Aufwand für das physische Aufnehmen weiterer Radardaten eingespart. Sofern das Radarsystem von einem Fahrzeug getragen wird, kann insbesondere beispielsweise der Zusatzaufwand für die Durchführung weiterer Testfahrten drastisch reduziert werden.
  • Beispielsweise kann zu einem Zeitpunkt, zu dem bereits sehr viele Testfahrten mit einem an einer bestimmten Stelle am Fahrzeug montierten Radarsensor durchgeführt worden sind, die Entscheidung getroffen werden, dass der Radarsensor künftig an einer anderen Stelle am Fahrzeug anzubringen ist.
  • Dadurch ändert sich die Aufnahmecharakteristik des Radarsensors. Insbesondere ändern sich das beobachtbare Sichtfeld und die Perspektive. Bislang konnten die auf den vorherigen Testfahrten aufgenommenen Radardaten nicht mehr verwendet werden, um eine Objekterkennung oder eine andere Auswertung auf der Basis von Radardaten zu trainieren, die von der neuen Position des Sensors aus aufgenommen wurden. Stattdessen musste die Aufnahme der Trainingsdaten wieder bei Null beginnen.
  • Auch das Einbauen des Radarsensors in ein Fahrzeug eines anderen Herstellers konnte bislang zur Folge haben, dass die zuvor für Trainingszwecke aufgenommenen Radardaten nicht mehr nutzbar waren. Radarsensoren wirken nicht auf jeden Endkunden optisch ansprechend und werden daher häufig hinter dem Emblem des Fahrzeugherstellers verbaut. Beim Durchgang durch derartige Embleme wird die Radarstrahlung beeinflusst, und dieser Einfluss ändert sich, wenn das Emblem eines Herstellers gegen das Emblem eines anderen Herstellers ausgetauscht wird. Insofern waren Radardaten, die hinter einem ersten Emblem aufgenommen wurden, nur bedingt vergleichbar mit Radardaten, die hinter einem zweiten Emblem aufgenommen wurden. Mit dem vorliegenden Verfahren kann diese Signalveränderung künstlich erzeugt werden, so dass ein hinter dem ersten Emblem aufgenommener Vorrat an Trainingsdaten auch nach dem Austausch des ersten Emblems gegen das zweite Emblem weiterverwendet werden kann.
  • Allgemein umfassen die Quell-Radardaten, bzw. die Ziel-Radardaten, mindestens Ortskoordinaten von Quell-Reflex-Orten, bzw. Ziel-Reflex-Orten, von denen reflektierte Radarstrahlung in das Radarsystem eingefallen ist. Im Rahmen des Verfahrens wird nun zunächst ein zwei- oder mehrdimensionales Quell-Array von Gitterzellen für die Ortskoordinaten der Quell-Reflex-Orte bereitgestellt. Aus den Ortskoordinaten aller Quell-Reflex-Orte wird für jede Gitterzelle eine Wahrscheinlichkeit und/oder Häufigkeit dafür, dass ein oder mehrere Quell-Reflex-Orte in der Gitterzelle liegen, ermittelt und der jeweiligen Gitterzelle zugeordnet. Es wird ein Quell-Tensor gebildet, der mindestens das mit Wahrscheinlichkeiten und/oder Häufigkeiten besetzte Quell-Array umfasst.
  • Hierzu kann beispielsweise einem Kreis oder einer Kugel mit einem vorgegebenen Radius um den Quell-Reflex-Ort eine Belegungswahrscheinlichkeit von 1 zugeordnet werden. Diese Belegungswahrscheinlichkeit kann dann auf alle Gitterzellen des Quell-Arrays, auf die sich die Fläche des Kreises, bzw. das Volumen der Kugel, verteilt, entsprechend der Flächenanteile, bzw. Volumenanteile, verteilt werden.
  • Es wurde erkannt, dass die speziellen physikalischen Eigenschaften der Beobachtung mit Radarstrahlung zu Unsicherheiten in den Radardaten führen. Die optische Beobachtung beispielsweise mit einer Kamera oder mit Lidar verwendet Strahlung, die im Vergleich zu den abzubilden Strukturen extrem kurzwellig ist, und liefert somit sehr scharfe Bilder. Im Vergleich hierzu ist Radarstrahlung wesentlich langwelliger, so dass die Welleneigenschaften der Strahlung merklich zum Vorschein kommen und die gemessenen Reflexe weitgehend stochastische Eigenschaften besitzen.
  • Konkret bedeutet dies, dass Radarreflexe
    • • zeitlich fluktuieren, d.h. in aufeinanderfolgenden Einzelmessungen erscheinen und wieder verschwinden, und
    • • räumlich fluktuieren, d.h. in den Ortskoordinaten der Orte, von denen die Radarstrahlung zu kommen scheint, schwanken und rauschen.
  • Das wahre Bild der Umgebung kann aus Radarmessungen somit typischerweise nur über eine Vielzahl von Radarmessungen als Mittelwert und/oder Überlagerung der Einzelmessungen erhalten werden.
  • Diese Unsicherheit ist in dem Quell-Tensor größtenteils unterdrückt, da dieser Quell-Tensor Größen enthält, die Wahrscheinlichkeitsverteilungen der Radardaten charakterisieren. Der Quell-Tensor enthält somit im Wesentlichen das Ergebnis einer Verarbeitung räumlicher Informationen aus der beobachteten Szenerie mit einer ebenfalls nur räumlich variablen, zeitunabhängigen Übertragungsfunktion.
  • Der Quell-Tensor wird nun zu einem Ziel-Tensor transformiert, der mindestens ein Ziel-Array von Gitterzellen für die Ortskoordinaten der Ziel-Reflex-Orte umfasst. Dieses Ziel-Array gibt für jede Gitterzelle eine Wahrscheinlichkeit und/oder Häufigkeit dafür an, dass bei Beobachtung der Szenerie mit der Ziel-Konfiguration erhaltene Ziel-Reflex-Orte in der jeweiligen Gitterzelle liegen. Anhand der Wahrscheinlichkeiten und/oder Häufigkeiten im Ziel-Array werden Ortskoordinaten von Ziel-Reflex-Orten gesampelt, so dass die Ziel-Radardaten entstehen.
  • In dem eingangs genannten einfachen Fall, in dem nur eine einzige Konfiguration verwendet wird und ein für diese Konfiguration vorliegender Vorrat von Radardaten zu erweitern ist, ist die Quell-Konfiguration mit der Ziel-Konfiguration identisch, und der Quell-Tensor wird identisch als Ziel-Tensor übernommen. Es werden dann aus genau den Wahrscheinlichkeitsverteilungen, die anhand der ursprünglichen Radardaten ermittelt wurden, neue Samples gezogen.
  • Wenn die Quell-Konfiguration und die Ziel-Konfiguration hingegen nicht identisch sind, stehen die gesuchten Ziel-Reflex-Orte wiederum über eine räumliche, zeitunabhängige Übertragungsfunktion in Beziehung zum Ziel-Tensor. Der Zusammenhang zwischen dem Quell-Tensor und dem Ziel-Tensor ist dann durch die Unterschiede zwischen der Quell-Konfiguration und der Ziel-Konfiguration begründet und ebenfalls zeitunabhängig. Gleichwohl existiert für diesen Zusammenhang in der Regel keine geschlossene Formel. Der Weg vom Quell-Tensor zum Ziel-Tensor ist jedoch dem maschinellen Lernen zugänglich. Das bedeutet, dass der Quell-Tensor mit einem trainierten Machine Learning-Modell zu dem Ziel-Tensor transformiert werden kann. Das Machine Learning-Modell wiederum lässt sich mit Radardaten, die sich auf die Quell-Konfiguration beziehen, und Radardaten, die sich auf die Ziel-Konfiguration beziehen, trainieren.
  • Dabei ist die Menge an Trainingsdaten, die für ein solches Training erforderlich ist, klein gegenüber der Menge an Quell-Radardaten, die es in konkreten Anwendungen üblicherweise in Ziel-Radardaten umzuwandeln gilt. Wenn diese Menge an Quell-Radardaten zur Verfügung steht und eine mindestens gleich große Menge an Ziel-Radardaten benötigt wird, ist also der Aufwand für das Beschaffen von Trainingsdaten und das anschließende Trainieren eines Machine Learning-Modells, das den Quell-Tensor in den Ziel-Tensor transformiert und somit letztendlich von den Quell-Radardaten auf die Ziel-Radardaten führt, deutlich geringer als der Aufwand für das direkte messtechnische Beschaffen der gesuchten Ziel-Radardaten. Des Weiteren kann das Machine Learning-Modell auch für das Transformieren weiterer Radardaten von der Quell-Konfiguration auf die Ziel-Konfiguration immer wieder verwendet werden.
  • Wie zuvor erläutert, können sich die Quell-Konfiguration und die Ziel-Konfiguration insbesondere beispielsweise mindestens dahingehend unterscheiden, dass
    • • beide Konfigurationen unterschiedliche Radarsensoren umfassen, und/oder
    • • die Radarsensoren in beiden Konfigurationen räumlich unterschiedlich angeordnet sind, und/oder
    • • in beiden Konfigurationen die Radarstrahlung in unterschiedlicher Weise durch Materialien, die zwischen mindestens einem Radarsensor und der beobachteten Szenerie angeordnet sind, beeinflusst wird.
  • Somit hat das hier vorgestellte Verfahren die Wirkung, dass ein derartiger Wechsel der Konfiguration einen vor dem Wechsel bereits erworbenen Vorrat an Radardaten nicht „entwertet“. Stattdessen ist lediglich ein für diesen Wechsel spezifisches trainiertes Machine Learning-Modell zu beschaffen, bzw. ein derartiges Modell ist zu trainieren.
  • Dies bedeutet im Umkehrschluss, dass das „Entwerten“ zuvor erworbener Radardaten kein gewichtiges Argument mehr gegen einen angestrebten Wechsel der Konfiguration ist. Wenn sich beispielsweise herausstellt, dass ein neuer Radarsensor für ein Fahrzeug Radardaten mit einer deutlich besseren Qualität liefert als der bisher verwendete Radarsensor, kann gleichwohl die Wiederholung aller bislang mit dem alten Radarsensor durchgeführten Testfahrten ein so hoher Preis für den Umstieg sein, dass der Umstieg unter dem Strich nicht mehr wirtschaftlich ist. Wenn dieser Preis stark reduziert wird, steht dem Umstieg nichts mehr im Wege.
  • In einer besonders vorteilhaften Ausgestaltung umfasst das Machine Learning-Modell eine Encoder-Decoder-Anordnung mit einem Encoder, der den Quell-Tensor auf eine Repräsentation mit reduzierter Dimensionalität abbildet, und einem Decoder, der diese Repräsentation auf den Ziel-Tensor abbildet. Eine solche Anordnung lässt sich so trainieren, dass der Encoder beim Komprimieren des Quell-Tensors auf die Repräsentation im Wesentlichen die Spezifika der Quell-Konfiguration weglässt und die wichtigste Information über die beobachtete Szenerie, die sich nur schwer in explizit formulierte Bedingungen fassen lässt, erhält. Der Decoder fügt dann umgekehrt der komprimierten Repräsentation die Spezifika der Ziel-Konfiguration hinzu und erzeugt so den Ziel-Tensor.
  • In einer weiteren besonders vorteilhaften Ausgestaltung umfasst das Machine Learning-Modell einen Generator eines Generative Adversarial Network, GAN. Ein solcher Generator lässt sich darauf trainieren, aus Quell-Tensoren, die sich auf eine Quell-Konfiguration beziehen, Ziel-Tensoren zu erzeugen, die sich nicht oder nur schwer von solchen Ziel-Tensoren unterscheiden lassen, die aus tatsächlich gemessenen Ziel-Radardaten auf dem gleichen Weg erzeugt werden wie der Quell-Tensor aus den Quell-Radardaten erzeugt wird. Ein derartiges Training kann im Tandem mit einem Diskriminator durchgeführt werden, der darauf trainiert wird, Ziel-Tensoren, die aus Quell-Tensoren erzeugt wurden, von Ziel-Tensoren zu unterscheiden, die aus tatsächlich gemessenen Ziel-Radardaten erzeugt wurden. Der Generator und der Diskriminator bilden zusammen das GAN. Wenn es sich dabei um ein CycleGAN-handelt, lässt es sich auch dann trainieren, wenn zwar viele mit der Quell-Konfiguration gemessene Quell-Radardaten und viele mit der Ziel-Konfiguration gemessene Ziel-Radardaten zur Verfügung stehen, jedoch keine Paare aus Quell-Radardaten und Ziel-Radardaten, die sich auf die gleiche Szenerie beziehen.
  • Die zuvor beschriebene Bildung eines Quell-Tensors aus Quell-Radardaten eignet sich nicht nur dazu, neue Radardaten zu erzeugen, die in gleicher Weise verwendet werden können wie Radardaten, die mit der Quell-Konfiguration, bzw. mit der Ziel-Konfiguration, eines Radarsystems tatsächlich gemessen wurden. Vielmehr ist die Darstellung der Quell-Radardaten als Verteilung von Wahrscheinlichkeiten und/oder Häufigkeiten im Quell-Tensor generell vorteilhaft, um die Auswertung der Quell-Radardaten, wie etwa eine Objekterkennung oder sonstige Zuordnung zu Klassen, von den stochastischen Fluktuationen der Radarreflexe abzuschirmen.
  • Daher bezieht sich die Erfindung auch auf ein Verfahren zur Verarbeitung von Quell-Radardaten, die durch Beobachtung einer Szenerie mit einer Quell-Konfiguration eines Radarsystems erhalten wurden, mit einem neuronalen Netzwerk. Die Quell-Radardaten umfassen mindestens Ortskoordinaten von Quell-Reflex-Orten, von denen reflektierte Radarstrahlung in das Radarsystem eingefallen ist.
  • Bei dem Verfahren wird ein zwei- oder mehrdimensionales Quell-Array von Gitterzellen für die Ortskoordinaten der Quell-Reflex-Orte bereitgestellt. Aus den Ortskoordinaten aller Quell-Reflex-Orte wird für jede Gitterzelle eine Wahrscheinlichkeit und/oder Häufigkeit dafür, dass ein oder mehrere Quell-Reflex-Orte in der Gitterzelle liegen, ermittelt und der jeweiligen Gitterzelle zugeordnet. Es wird ein Quell-Tensor gebildet, der mindestens das mit Wahrscheinlichkeiten und/oder Häufigkeiten besetzte Quell-Array umfasst. Dieser Quell-Tensor wird dem neuronalen Netzwerk zugeführt.
  • Auf diese Weise schlagen die Unsicherheiten, mit denen die Quell-Radardaten behaftet sind, nicht mehr auf das vom neuronalen Netzwerk gelieferte Ergebnis durch. Somit wird das Gesamtsystem, das zunächst Quell-Radardaten aufnimmt, diese Quell-Radardaten zu einem Ergebnis verarbeitet und auf der Basis dieses Ergebnisses beispielsweise ein Fahrzeug ansteuert, zuverlässiger.
  • Beispielsweise kann der Quell-Tensor von dem neuronalen Netzwerk auf eine oder mehrere Klassen einer vorgegebenen Klassifikation abgebildet werden. Diese Klassen können beispielsweise Objekte repräsentieren, deren Vorhandensein die Quell-Radardaten anzeigen. Die Klassen können aber auch beispielsweise Verkehrssituationen repräsentieren, in denen ein Fahrzeug, von dem aus die Quell-Radardaten erfasst wurden, sich befindet.
  • Somit kann insbesondere beispielsweise aus einer vom neuronalen Netzwerk gelieferten Ausgabe ein Ansteuersignal für ein Fahrzeug gebildet werden, und das Fahrzeug kann mit diesem Ansteuersignal angesteuert werden.
  • Unabhängig davon, ob aus dem Quell-Tensor letztendlich neue realistische Ziel-Radardaten oder ein anderes Verarbeitungsergebnis erzeugt werden sollen, können der Quell-Tensor und ggfs. der Ziel-Tensor jeweils Zuordnungen mindestens einer weiteren aus den Quell-Radardaten, bzw. aus den Ziel-Radardaten, ableitbaren Zusatzgröße zu den Gitterzellen des Quell-Arrays, bzw. des Ziel-Arrays, umfassen.
  • Die Zusatzgröße kann insbesondere beispielsweise
    • • einen Abstand zwischen dem Quell-Radarsystem und dem Quell-Reflex-Ort, bzw. zwischen dem Ziel-Radarsystem und dem Ziel-Reflex-Ort, und/oder
    • • einen Winkel, unter dem die Radarstrahlung auf das Quell-Radarsystem, bzw. auf das Ziel-Radarsystem, eingefallen ist, und/oder
    • • eine Geschwindigkeit eines Objekts, an dem die Radarstrahlung reflektiert wurde, und/oder
    • • eine Zugehörigkeit eines Objekts, an dem die Radarstrahlung reflektiert wurde, zu einer oder mehreren Klassen einer vorgegebenen Klassifikation, und/oder
    • • eine Signalstärke der reflektierten Radarstrahlung

    umfassen.
  • Wenn aus dem Quell-Tensor unmittelbar mit einem neuronalen Netzwerk ein Verarbeitungsergebnis ermittelt wird, können die Werte der Zusatzgrößen beispielsweise herangezogen werden, um Mehrdeutigkeiten bei der Erkennung von Objekten aufzulösen. Wenn beispielsweise eine der Zusatzgrößen angibt, dass ein Objekt, zu dem bestimmte Quell-Radarreflexe gehören, sich eigenständig mit einer bestimmten Geschwindigkeit bewegt, dann kann dieses Objekt kein Verkehrszeichen oder ähnliches fest montiertes Objekt sein.
  • Wenn aus dem Quell-Tensor ein Ziel-Tensor und aus dem Ziel-Tensor wiederum Ziel-Radardaten ermittelt werden, kann zusammen mit der Transformation des Quell-Arrays auf das Ziel-Array auch gelernt werden, wie sich die Zuordnung von Werten der Zusatzgröße zu Gitterzellen beim Wechsel von der Quell-Konfiguration zur Ziel-Konfiguration ändert.
  • Wenn beispielsweise der Radarsensor in der Ziel-Konfiguration die Szenerie aus einer anderen Perspektive betrachtet als in der Quell-Konfiguration, liefern die Ziel-Radardaten Informationen zu anderen Geschwindigkeitskomponenten von Objekten als die Quell-Radardaten. Auch sind beispielsweise die Winkel, unter denen der Radarsensor in der Ziel-Konfiguration die Ziel-Reflex-Orte sieht, gegenüber den Winkeln, unter denen der Radarsensor in der Quell-Konfiguration die Quell-Reflex-Orte sieht, verändert.
  • Dies lässt sich insbesondere beispielsweise abbilden, indem in einer besonders vorteilhaften Ausgestaltung aus einem oder mehreren Werten der Zusatzgröße für eine oder mehrere Gitterzellen des Ziel-Arrays, die zum Sampling eines konkreten Ziel-Reflex-Orts beigetragen haben, ein neuer Wert der Zusatzgröße gebildet und in den Ziel-Radardaten dem Ziel-Reflex-Ort zugeschrieben wird.
  • Generell erleichtert das Zusammenfassen des Quell-Arrays mit Zusatzgrößen in einem Quell-Tensor die Weiterverwendung von Machine Learning-Modellen, die ursprünglich für die Verarbeitung von Bildern konzipiert wurden. Ein Bild mit mehreren Farbkanälen lässt sich ebenfalls als Tensor darstellen, der eine zu dem Quell-Tensor sehr ähnliche Gestalt hat.
  • Die Verfahren können insbesondere ganz oder teilweise computerimplementiert sein. Daher bezieht sich die Erfindung auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, eines der beschriebenen Verfahren auszuführen. In diesem Sinne sind auch Steuergeräte für Fahrzeuge und Embedded-Systeme für technische Geräte, die ebenfalls in der Lage sind, maschinenlesbare Anweisungen auszuführen, als Computer anzusehen.
  • Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger und/oder auf ein Downloadprodukt mit dem Computerprogramm. Ein Downloadprodukt ist ein über ein Datennetzwerk übertragbares, d.h. von einem Benutzer des Datennetzwerks downloadbares, digitales Produkt, das beispielsweise in einem Online-Shop zum sofortigen Download feilgeboten werden kann.
  • Weiterhin kann ein Computer mit dem Computerprogramm, mit dem maschinenlesbaren Datenträger bzw. mit dem Downloadprodukt ausgerüstet sein.
  • Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.
  • Figurenliste
  • Es zeigt:
    • 1 Ausführungsbeispiel des Verfahrens 100 zur Umwandlung von Quell-Radardaten 3 in Ziel-Radardaten 5;
    • 2 Beispielhafte Situation, in der ein Fahrzeug 50 mit unterschiedlichen Konfigurationen 2, 4 von Radarsystemen beobachtet wird;
    • 3 Ausführungsbeispiel des Verfahrens 200 zur Verarbeitung von Quell-Radardaten 3 mit einem neuronalen Netzwerk 7.
  • 1 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 200 zur Umwandlung von Quell-Radardaten 3 in Ziel-Radardaten 5. Die Quell-Radardaten 3 wurden durch Beobachtung einer Szenerie 1 mit einer Quell-Konfiguration 2 eines Radarsystems erhalten. Die Ziel-Radardaten 5 sind Radardaten, die bei Beobachtung der gleichen Szenerie 1 mit einer Ziel-Konfiguration 4 eines Radarsystems zu erwarten sind.
  • Die Quell-Radardaten 3 umfassen mindestens Ortskoordinaten von Quell-Reflex-Orten 31, von denen reflektierte Radarstrahlung auf das Radarsystem eingefallen ist. In Schritt 110 wird ein zwei- oder mehrdimensionales Quell-Array 32 von Gitterzellen 32a für diese Ortskoordinaten bereitgestellt. Aus den Ortskoordinaten aller Quell-Reflex-Orte 31 wird in Schritt 120 für jede Gitterzelle 32a eine Wahrscheinlichkeit und/oder Häufigkeit 32b dafür, dass ein oder mehrere Quell-Reflex-Orte 31 in der Gitterzelle 32a liegen, ermittelt und der jeweiligen Gitterzelle 32a zugeordnet.
  • Hierzu kann beispielsweise gemäß Block 121 einem Kreis oder einer Kugel mit einem vorgegebenen Radius um den Quell-Reflex-Ort 31 eine Belegungswahrscheinlichkeit von 1 zugeordnet werden. Diese Belegungswahrscheinlichkeit kann dann gemäß Block 122 auf alle Gitterzellen 32a des Quell-Arrays 32, auf die sich die Fläche des Kreises, bzw. das Volumen der Kugel, verteilt, entsprechend der Flächenanteile, bzw. Volumenanteile, verteilt werden.
  • In Schritt 130 wird ein Quell-Tensor 33 gebildet, der mindestens das mit Wahrscheinlichkeiten und/oder Häufigkeiten 32b besetzte Quell-Array 32 umfasst. Der Quell-Tensor 33 kann daneben beispielsweise noch Werte von Zusatzgrößen 8 umfassen, die den Gitterzellen 32a des Quell-Arrays 32 jeweils zugeordnet sind.
  • Der Quell-Tensor 33 wird in Schritt 140 zu einem Ziel-Tensor 53 transformiert, der mindestens ein Ziel-Array 52 von Gitterzellen 52a für die Ortskoordinaten der Ziel-Reflex-Orte 51 umfasst. Dieses Ziel-Array 52 gibt für jede Gitterzelle 52a eine Wahrscheinlichkeit und/oder Häufigkeit 52b dafür an, dass bei Beobachtung der Szenerie 1 mit der Ziel-Konfiguration 4 erhaltene Ziel-Reflex-Orte 51 in der jeweiligen Gitterzelle 52a liegen.
  • Wenn die Quell-Konfiguration 2 mit der Ziel-Konfiguration 4 identisch ist, kann zu diesem Zweck beispielsweise gemäß Block 141 der Quell-Tensor 33 identisch als Ziel-Tensor 53 übernommen werden.
  • Wenn sich hingegen die Ziel-Konfiguration 4 von der Quell-Konfiguration 2 unterscheidet, kann der Quell-Tensor 33 beispielsweise gemäß Block 142 der Quell-Tensor 33 mit einem trainierten Machine Learning-Modell 6 zu dem Ziel-Tensor 53 transformiert werden.
  • In Schritt 150 werden anhand der Wahrscheinlichkeiten und/oder Häufigkeiten 52b im Ziel-Array 52 Ortskoordinaten von Ziel-Reflex-Orten 51 gesampelt, so dass die Ziel-Radardaten 5 entstehen. Hierbei kann insbesondere gemäß Block 151 aus einem oder mehreren Werten der Zusatzgröße 8 für eine oder mehrere Gitterzellen 52a des Ziel-Arrays 52, die zum Sampling eines konkreten Ziel-Reflex-Orts 51 beigetragen haben, ein neuer Wert 8' der Zusatzgröße (8) gebildet werden. Dieser neue Wert 8' kann dann gemäß Block 152 dem Ziel-Reflex-Ort 51 zugeschrieben werden.
  • 2 verdeutlicht schematisch, wie und warum sich Quell-Radardaten 3 einer Szenerie 1, die mit einer Quell-Konfiguration 2 eines Radarsystems erhalten wurden, von Ziel-Radardaten 5 unterscheiden, die mit einer Ziel-Konfiguration 4 des gleichen oder eines anderen Radarsystems an der gleichen Szenerie 1 erhalten wurden.
  • In dem in 2 gezeigten Beispiel zeigt die Szenerie 1 ein Fahrzeug 50. Mit der Quell-Konfiguration 2, die einen Sender 2a und einen Empfänger 2b umfasst, werden Radarreflexe an Quell-Reflex-Orten 31 registriert, von denen der Übersichtlichkeit halber nur drei in 2 eingezeichnet sind. Mit der Ziel-Konfiguration 4, die einen Sender 4a und einen Empfänger 4b an einer anderen räumlichen Position umfasst, werden Radarreflexe hingegen an Ziel-Reflex-Orten 51 registriert, von denen der Übersichtlichkeit halber nur drei in 2 eingezeichnet sind.
  • 3 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 200 zur Verarbeitung von Quell-Radardaten 3. Dieses Verfahren beginnt zunächst analog zu dem zuvor beschriebenen Verfahren 100.
  • Wie im zuvor beschriebenen Verfahren 100 umfassen die Quell-Radardaten 3 mindestens Ortskoordinaten von Quell-Reflex-Orten 31, von denen reflektierte Radarstrahlung auf das Radarsystem eingefallen ist. In Schritt 210 wird ein zwei- oder mehrdimensionales Quell-Array 32 von Gitterzellen 32a für diese Ortskoordinaten bereitgestellt. Aus den Ortskoordinaten aller Quell-Reflex-Orte 31 wird in Schritt 220 für jede Gitterzelle 32a eine Wahrscheinlichkeit und/oder Häufigkeit 32b dafür, dass ein oder mehrere Quell-Reflex-Orte 31 in der Gitterzelle 32a liegen, ermittelt und der jeweiligen Gitterzelle 32a zugeordnet.
  • Hierzu kann beispielsweise gemäß Block 221 einem Kreis oder einer Kugel mit einem vorgegebenen Radius um den Quell-Reflex-Ort 31 eine Belegungswahrscheinlichkeit von 1 zugeordnet werden. Diese Belegungswahrscheinlichkeit kann dann gemäß Block 222 auf alle Gitterzellen 32a des Quell-Arrays 32, auf die sich die Fläche des Kreises, bzw. das Volumen der Kugel, verteilt, entsprechend der Flächenanteile, bzw. Volumenanteile, verteilt werden.
  • In Schritt 230 wird ein Quell-Tensor 33 gebildet, der mindestens das mit Wahrscheinlichkeiten und/oder Häufigkeiten 32b besetzte Quell-Array 32 umfasst. Der Quell-Tensor 33 kann daneben beispielsweise noch Werte von Zusatzgrößen 8 umfassen, die den Gitterzellen 32a des Quell-Arrays 32 jeweils zugeordnet sind.
  • Der Quell-Tensor 33 wird in Schritt 240 einem neuronalen Netzwerk 7 zugeführt und von diesem neuronalen Netzwerk 7 zu einer Ausgabe 240a verarbeitet. Dabei kann der Quell-Tensor 7 insbesondere beispielsweise auf eine oder mehrere Klassen einer vorgegebenen Klassifikation abgebildet werden.
  • In dem in 3 gezeigten Beispiel wird in Schritt 250 aus der Ausgabe 240a ein Ansteuersignal 250a für das Fahrzeug 50 gebildet, und in Schritt 260 wird das Fahrzeug 50 mit dem Ansteuersignal 250a angesteuert.

Claims (13)

  1. Verfahren (100) zur Umwandlung von Quell-Radardaten (3), die durch Beobachtung einer Szenerie (1) mit einer Quell-Konfiguration (2) eines Radarsystems erhalten wurden, in Ziel-Radardaten (5), die bei Beobachtung der gleichen Szenerie (1) mit einer Ziel-Konfiguration (4) eines Radarsystems zu erwarten sind, wobei die Quell-Radardaten (3), bzw. die Ziel-Radardaten (5), mindestens Ortskoordinaten von Quell-Reflex-Orten (31), bzw. Ziel-Reflex-Orten (51), umfassen, von denen reflektierte Radarstrahlung in das Radarsystem eingefallen ist, und wobei das Verfahren (100) die folgenden Schritte umfasst: • es wird ein zwei- oder mehrdimensionales Quell-Array (32) von Gitterzellen (32a) für die Ortskoordinaten der Quell-Reflex-Orte (31) bereitgestellt (110); • aus den Ortskoordinaten aller Quell-Reflex-Orte (31) wird für jede Gitterzelle (32a) eine Wahrscheinlichkeit und/oder Häufigkeit (32b) dafür, dass ein oder mehrere Quell-Reflex-Orte (31) in der Gitterzelle (32a) liegen, ermittelt und der jeweiligen Gitterzelle (32a) zugeordnet (120); • es wird ein Quell-Tensor (33) gebildet (130), der mindestens das mit Wahrscheinlichkeiten und/oder Häufigkeiten (32b) besetzte Quell-Array (32) umfasst; • der Quell-Tensor (33) wird zu einem Ziel-Tensor (53) transformiert (140), der mindestens ein Ziel-Array (52) von Gitterzellen (52a) für die Ortskoordinaten der Ziel-Reflex-Orte (51) umfasst, wobei dieses Ziel-Array (52) für jede Gitterzelle (52a) eine Wahrscheinlichkeit und/oder Häufigkeit (52b) dafür angibt, dass bei Beobachtung der Szenerie (1) mit der Ziel-Konfiguration (4) erhaltene Ziel-Reflex-Orte (51) in der jeweiligen Gitterzelle (52a) liegen; • anhand der Wahrscheinlichkeiten und/oder Häufigkeiten (52b) im Ziel-Array (52) werden Ortskoordinaten von Ziel-Reflex-Orten (51) gesampelt (150), so dass die Ziel-Radardaten (5) entstehen.
  2. Verfahren (100) nach Anspruch 1, wobei die Quell-Konfiguration (2) mit der Ziel-Konfiguration (4) identisch ist und wobei der Quell-Tensor (33) identisch als Ziel-Tensor (53) übernommen wird (141).
  3. Verfahren (100) nach Anspruch 1, wobei die Quell-Konfiguration (2) sich von der Ziel-Konfiguration (4) unterscheidet und wobei der Quell-Tensor (33) mit einem trainierten Machine Learning-Modell (6) zu dem Ziel-Tensor (53) transformiert wird (142).
  4. Verfahren (100) nach Anspruch 3, wobei sich die Quell-Konfiguration (2) von der Ziel-Konfiguration (4) mindestens dahingehend unterscheidet, dass • beide Konfigurationen (2, 4) unterschiedliche Radarsensoren umfassen, und/oder • die Radarsensoren in beiden Konfigurationen (2, 4) räumlich unterschiedlich angeordnet sind, und/oder • in beiden Konfigurationen (2, 4) die Radarstrahlung in unterschiedlicher Weise durch Materialien, die zwischen mindestens einem Radarsensor und der beobachteten Szenerie (1) angeordnet sind, beeinflusst wird.
  5. Verfahren (100) nach einem der Ansprüche 3 bis 4, wobei das Machine Learning-Modell (6) eine Encoder-Decoder-Anordnung mit einem Encoder, der den Quell-Tensor (33) auf eine Repräsentation mit reduzierter Dimensionalität abbildet, und einem Decoder, der diese Repräsentation auf den Ziel-Tensor (53) abbildet, umfasst.
  6. Verfahren (100) nach einem der Ansprüche 3 bis 5, wobei das Machine Learning-Modell einen Generator eines Generative Adversarial Network, GAN, umfasst.
  7. Verfahren (100, 200) nach einem der Ansprüche 1 bis 6, wobei der Quell-Tensor (33) und ggfs. der Ziel-Tensor (53) jeweils Zuordnungen mindestens einer weiteren aus den Quell-Radardaten (3), bzw. aus den Ziel-Radardaten (5), ableitbaren Zusatzgröße (8) zu den Gitterzellen (32a, 52a) des Quell-Arrays (32), bzw. des Ziel-Arrays (52), umfassen.
  8. Verfahren (200) nach Anspruch 7, wobei aus einem oder mehreren Werten der Zusatzgröße (8) für eine oder mehrere Gitterzellen (52a) des Ziel-Arrays (52), die zum Sampling eines konkreten Ziel-Reflex-Orts (51) beigetragen haben, ein neuer Wert (8') der Zusatzgröße (8) gebildet (151) und in den Ziel-Radardaten (5) dem Ziel-Reflex-Ort (51) zugeschrieben wird (152).
  9. Verfahren (100, 200) nach einem der Ansprüche 7 bis 8, wobei die Zusatzgröße (8) • einen Abstand zwischen dem Quell-Radarsystem und dem Quell-Reflex-Ort (31), bzw. zwischen dem Ziel-Radarsystem und dem Ziel-Reflex-Ort (51), und/oder • einen Winkel, unter dem die Radarstrahlung auf das Quell-Radarsystem, bzw. auf das Ziel-Radarsystem, eingefallen ist, und/oder • eine Geschwindigkeit eines Objekts, an dem die Radarstrahlung reflektiert wurde, und/oder • eine Zugehörigkeit eines Objekts, an dem die Radarstrahlung reflektiert wurde, zu einer oder mehreren Klassen einer vorgegebenen Klassifikation, und/oder • eine Signalstärke der reflektierten Radarstrahlung umfasst.
  10. Verfahren (100, 200) nach einem der Ansprüche 1 bis 9, wobei einem Kreis oder einer Kugel mit einem vorgegebenen Radius um den Quell-Reflex-Ort (31) eine Belegungswahrscheinlichkeit von 1 zugeordnet wird (121, 221) und wobei diese Belegungswahrscheinlichkeit auf alle Gitterzellen (32a) des Quell-Arrays (32), auf die sich die Fläche des Kreises, bzw. das Volumen der Kugel, verteilt, entsprechend der Flächenanteile, bzw. Volumenanteile, verteilt wird (122, 222).
  11. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, ein Verfahren (100, 200) nach einem der Ansprüche 1 bis 10 auszuführen.
  12. Maschinenlesbarer Datenträger und/oder Downloadprodukt mit dem Computerprogramm nach Anspruch 11.
  13. Computer, ausgerüstet mit dem Computerprogramm nach Anspruch 11, und/oder mit dem maschinenlesbaren Datenträger und/oder Downloadprodukt nach Anspruch 12.
DE102020210887.0A 2020-08-28 2020-08-28 Vermehrung und Verarbeitung von Radardaten mit Machine Learning Active DE102020210887B3 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102020210887.0A DE102020210887B3 (de) 2020-08-28 2020-08-28 Vermehrung und Verarbeitung von Radardaten mit Machine Learning
US17/391,307 US11899131B2 (en) 2020-08-28 2021-08-02 Augmentation and processing of radar data with machine learning
JP2021139023A JP2022040099A (ja) 2020-08-28 2021-08-27 機械学習によるレーダデータの増加及び処理
CN202110994293.XA CN114114182A (zh) 2020-08-28 2021-08-27 利用机器学习增加和处理雷达数据

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020210887.0A DE102020210887B3 (de) 2020-08-28 2020-08-28 Vermehrung und Verarbeitung von Radardaten mit Machine Learning

Publications (1)

Publication Number Publication Date
DE102020210887B3 true DE102020210887B3 (de) 2021-12-09

Family

ID=78605429

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020210887.0A Active DE102020210887B3 (de) 2020-08-28 2020-08-28 Vermehrung und Verarbeitung von Radardaten mit Machine Learning

Country Status (4)

Country Link
US (1) US11899131B2 (de)
JP (1) JP2022040099A (de)
CN (1) CN114114182A (de)
DE (1) DE102020210887B3 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022205574A1 (de) 2022-06-01 2023-12-07 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Bereitstellen von Trainingsdatensätzen für ein Klassifikationsmodell zur Objektidentifikation für ein Ultraschall-Sensorsystem in einer mobilen Einrichtung

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016210534A1 (de) 2016-06-14 2017-12-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs
US20190087667A1 (en) 2017-09-20 2019-03-21 Delphi Technologies, Llc A device and a method for distinguishing between traversable and nontraversable objects
DE102018204494B3 (de) 2018-03-23 2019-08-14 Robert Bosch Gmbh Erzeugung synthetischer Radarsignale
EP3690753A1 (de) 2019-02-04 2020-08-05 Elektrobit Automotive GmbH Bestimmung des fahrkontexts eines fahrzeugs

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008063689A2 (en) * 2006-04-11 2008-05-29 Research Foundation Of The City University Of New York Time-compressed clutter covariance signal processor
US9887456B2 (en) * 2014-02-19 2018-02-06 Kymeta Corporation Dynamic polarization and coupling control from a steerable cylindrically fed holographic antenna

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016210534A1 (de) 2016-06-14 2017-12-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs
US20190087667A1 (en) 2017-09-20 2019-03-21 Delphi Technologies, Llc A device and a method for distinguishing between traversable and nontraversable objects
DE102018204494B3 (de) 2018-03-23 2019-08-14 Robert Bosch Gmbh Erzeugung synthetischer Radarsignale
EP3690753A1 (de) 2019-02-04 2020-08-05 Elektrobit Automotive GmbH Bestimmung des fahrkontexts eines fahrzeugs

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022205574A1 (de) 2022-06-01 2023-12-07 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Bereitstellen von Trainingsdatensätzen für ein Klassifikationsmodell zur Objektidentifikation für ein Ultraschall-Sensorsystem in einer mobilen Einrichtung

Also Published As

Publication number Publication date
US11899131B2 (en) 2024-02-13
JP2022040099A (ja) 2022-03-10
CN114114182A (zh) 2022-03-01
US20220065989A1 (en) 2022-03-03

Similar Documents

Publication Publication Date Title
DE102018206208A1 (de) Verfahren, Vorrichtung, Erzeugnis und Computerprogramm zum Betreiben eines technischen Systems
DE2050941A1 (de) Verfahren und Vorrichtung zur Klassi fikation unbekannter Muster auf Grund von Bildmerkmalen
DE2050924A1 (de) Verfahren und Vorrichtung zum Vorbe handeln der in einem Bild enthaltenen In formation
EP3393875B1 (de) Verfahren zum verbesserten erkennen von objekten durch ein fahrerassistenzsystem
DE102007025320A1 (de) Verfahren und Vorrichtung zur Analyse von Gegenständen
DE112017008149T5 (de) VORRICHTUNG FÜR EINE VON EINEM FAHRZEUG AUSGEHENDE KOMMUNIKATION, VERFAHREN ZUM KOMMUNIZIEREN VON EINEM FAHRZEUG NACH AUßEN INFORMATIONSVERARBEITUNGSVORRICHTUNG UND PROGRAMM FÜR EINE VON EINEM FAHRZEUG AUSGEHENDE KOMMUNIKATION
DE102014106506A1 (de) Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102020210887B3 (de) Vermehrung und Verarbeitung von Radardaten mit Machine Learning
EP4239294A1 (de) Verfahren zur kalibrierung eines portablen referenzsensorsystems, portables referenzsensorsystem und verwendung des portablen referenzsensorsystems
DE102020214596A1 (de) Verfahren zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten einer Umfeldsensorik eines Fahrzeugs, Verfahren zum Erzeugen eines solchen Erkennungsmodells und Verfahren zum Ansteuern einer Aktorik eines Fahrzeugs
DE102019219734B4 (de) Verfahren zum Betreiben eines Auswertungssystems für Messdaten aus mehreren Domänen
DE102019220069A1 (de) Verlässlichere Klassifikation von Radardaten aus dynamischen Szenerien
DE102018202903A1 (de) Verfahren zur Auswertung von Messdaten eines Radar Messsystems mithilfe eines neuronalen Netzwerks
EP3040705A1 (de) Verfahren zum Bestimmen von Partikeln
DE102017201796A1 (de) Steuervorrichtung zum Ermitteln einer Eigenbewegung eines Kraftfahrzeugs sowie Kraftfahrzeug und Verfahren zum Bereitstellen der Steuervorrichtung
DE102008008571B4 (de) Hintergrundbilderzeugungsvorrichtung
WO2021245151A1 (de) Unüberwachtes lernen einer gemeinsamen darstellung von daten von sensoren unterschiedlicher modalität
DE102007014475A1 (de) Bestimmung von Oberflächeneigenschaften
DE102019008369B4 (de) Verfahren zur Kalibrierung eines distanzmessenden Sensors eines Fahrzeugs
DE102020212366A1 (de) Transformieren von Messdaten zwischen verschiedenen Konfigurationen von Messsystemen
DE102020201743A1 (de) Trainieren eines künstlichen neuronalen Netzwerks
DE102016109027A1 (de) Verfahren zur Lageüberprüfung charakteristischer Punkte in Lichtverteilungen
EP3923193A1 (de) Messung der empfindlichkeit von bildklassifikatoren gegen veränderungen des eingabebildes
DE102019124498A1 (de) Verfahren zum Komprimieren von 3D-Punktdaten in einer mittels eines Detektionssystems eines Fahrzeugs erzeugten 3D-Punktwolke
DE102019101127A1 (de) Verfahren zum Verarbeiten mittels Ultraschall erhaltener Daten

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01S0007295000

Ipc: G01S0007400000

R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final