DE102022123577A1 - Verfahren zum Simulieren von Echosignalen einer mittels eines auf elektromagnetischen Strahlen basierenden Messsystems abgetasteten Szene - Google Patents

Verfahren zum Simulieren von Echosignalen einer mittels eines auf elektromagnetischen Strahlen basierenden Messsystems abgetasteten Szene Download PDF

Info

Publication number
DE102022123577A1
DE102022123577A1 DE102022123577.7A DE102022123577A DE102022123577A1 DE 102022123577 A1 DE102022123577 A1 DE 102022123577A1 DE 102022123577 A DE102022123577 A DE 102022123577A DE 102022123577 A1 DE102022123577 A1 DE 102022123577A1
Authority
DE
Germany
Prior art keywords
scene
reflection
modified
nerf
measuring system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102022123577.7A
Other languages
English (en)
Inventor
Leon Eisemann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dr Ing HCF Porsche AG
Original Assignee
Dr Ing HCF Porsche AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dr Ing HCF Porsche AG filed Critical Dr Ing HCF Porsche AG
Priority to DE102022123577.7A priority Critical patent/DE102022123577A1/de
Publication of DE102022123577A1 publication Critical patent/DE102022123577A1/de
Granted legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/006Theoretical aspects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/006Theoretical aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

In verschiedenen Ausführungsformen wird ein Verfahren zum Simulieren von Echosignalen einer mittels eines auf elektromagnetischen Strahlen basierenden Messsystems abgetasteten Szene bereitgestellt, wobei das Echosignal in Abhängigkeit von einer Position des Messsystems relativ zur Szene durch volumetrisches Rendern synthetisiert wird, wobei mindestens ein Teil der Szene durch ein modifiziertes Neural Radiance Field repräsentiert wird, wobei das modifizierte Neural Radiance Field dadurch charakterisiert ist, dass es einem Eingabevektor, welcher durch einen Raumpunkt der Szene und eine davon ausgehende Richtung definiert ist, jeweils einen Ausgabevektor zuordnet, der durch eine Dichte, eine Reflektivität, einen Ausfallwinkel der direkten Reflexion und einen Grad der diffusen Reflexion definiert ist. Ferner wird ein modifiziertes Neural Radiance Field zum Simulieren eines Echosignals mindestens eines Teils einer mittels eines auf elektromagnetischen Strahlen basierenden Messsystems abgetasteten Szene bereitgestellt.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Simulieren von Echosignalen einer mittels eines auf elektromagnetischen Strahlen basierenden Messsystems abgetasteten Szene, wobei es sich bei dem Messsystem bevorzugt um ein LiDAR- oder Radar-System handeln kann.
  • Für die virtuelle Erprobung von Fahrerassistenzsystemen (FAS) im Kontext von hochautomatisiertem Fahren (HAF) werden realistische Sensormodelle benötigt. Durch die steigende Verwendung von KI-basierten Algorithmen (z.B. Objekterkennung, Tracking, Sensordatenfusion) steigt auch der benötigte Detailgrad der Sensoren in der Simulation. Hierfür werden zunehmend Rohdaten der Sensoren benötigt. Um eine realistische Modellierung von Sensordaten zu erreichen, muss jedoch oft der vollständige Signalweg simuliert werden, inklusive der physikalischen Effekte bei der Transmission und Interaktion der elektromagnetischen Wellen mit Objekten (z.B. Generierung der Trägerwelle). Abhängig vom gewünschten Detailgrad kann dies jedoch sehr rechenintensiv sein. Besonders bei LiDAR-Sensoren stellt dies in der Simulation eine Herausforderung dar, da hier oft aufwendige Path-/Raytracing Verfahren eingesetzt werden, auch in Kombination mit volumetrischen Verfahren.
  • Seit kurzem hat ein relativ neues Verfahren, welches auf neuronalen Strahlungsfeldern (neuronal radiance field, NeRF) basiert, Eingang gefunden in die Verarbeitung von Sensordaten.
  • Bei einem NeRF handelt es sich um ein generatives Modell, das auf einer Ansammlung von Bildern einer 3D-Szene aus bekannten, unterschiedlichen Betrachtungsrichtungen konditioniert ist und in der Lage ist, mittels eines künstlichen neuronalen Netzes neue zweidimensionale Ansichten der Szene zu generieren, Dieser Vorgang wird als Bildsynthese bezeichnet. Der neuartige Ansatz hierbei ist, dass die 3D-Form und das Erscheinungsbild der Szene mittels einer kontinuierlichen vektorwertigen Funktion festgehalten werden, deren Definitionsraum ebenfalls ein Vektorraum ist.
  • In diesem Zusammenhang wird auf die Druckschrift DE 10 2021 002 798 A1 verwiesen, die ein Verfahren offenbart zur Umgebungserfassung für Fahrzeuge, bei welchem zweidimensionale Kamerabilder im Zuge einer Sensordatenfusion mittels eines NeRFs um räumliche Tiefeninformation angereichert werden. Im Einzelnen wird in einer Kamera-Pipeline als redundanter Pfad gleichsam ein Pseudo-Lidar eingefügt, anhand von dessen Daten zu jedem Punkt der Bilder der Tiefenwert bestimmt und einem dreidimensionalen Netz zugrunde gelegt wird.
  • Druckschrift CN 113706714 A offenbart eine Methode, um mittels Kamera und LiDAR ein RGB-D-Bild zu erfassen, anhand dessen mittels eines NeRF der Betrachtungswinkel ermittelt wird.
  • Im Lichte des Vorgenannten kann die Aufgabe der vorliegenden Erfindung darin gesehen werden, Reflexionsantworten (Echosignale) von Sensoren, insbesondere LiDAR- oder Radar-Sensoren, einfacher und schneller darstellen/simulieren zu können.
  • Diese Aufgabe wird mittels der Gegenstände der unabhängigen Patentansprüche gelöst. Weitere bevorzugte Ausführungsformen finden sich in den abhängigen Patentansprüchen.
  • Da die Erfindung auf dem Grundgedanken basiert, eine angepasste Version eines NeRF zum schnelleren und einfacheren Berechnen von Echosignalen eines auf elektromagnetischen Strahlen basierenden Messsystems, soll im Folgenden kurz auf diese Technologie eingegangen werden. Das auf elektromagnetischen Strahlen basierende Messsystem wird zur Vereinfachung der Beschreibung als Sensor bezeichnet, wobei diese verkürzende Bezeichnung auf den sensorischen Teil des Systems abstellt. Bei dem auf elektromagnetischen Strahlen basierenden Messsystem kann es sich insbesondere um ein Abstands- und/oder Geschwindigkeitsmesssystem handeln.
  • Ein NeRF, wie sein Name bereits andeutet, entspricht im Wesentlichen einem mittels eines neuronalen Netzes verarbeiteten Lichtfeld oder Strahlungsfeld, das einer Funktion entspricht, welche die Lichtausbreitung durch ein 3D-Volumen beschreibt. Bei Verwendung eines klassischen Neural Radiance Field wird einem fünfdimensionalen Eingabevektor - definiert durch eine Raumposition der Szene (x, y, z) und eine zu diesem gerichtete bzw. von diesem ausgehende Blickrichtung (θ, φ) - mittels eines mehrschichtigen Perzeptrons (multilayer perceptron, MLP) ein vierdimensionaler Ausgabevektor zugeordnet, welcher eine Dichte (σ), sowie einen Farbwert (üblicherweise RGB) enthält. Das standardmäßige NeRF ist also eine Funktion der Form F: (x, y, z, θ, φ) → (σ, R, G, B).
  • Die vom Perzeptron erlernte Transferfunktion erlaubt eine detailgetreue und schnelle Berechnung sowie auch die Berechnung neuer Blickwinkel auf das Szenenvolumen. Die Definitionsmenge des NeRF ist damit ein fünfdimensionaler Merkmalsraum, der den Lichttransport in einer 3D-Szene beschreibt. Das NeRF bzw. das dazugehörige Perzeptron hat die Aufgabe eine Funktion zu approximieren, die diesen fünfdimensionalen Merkmalsraum auf den eben erwähnten vierdimensionalen Zielraum abzubilden. Die Dichte σ kann hierbei als Wahrscheinlichkeit aufgefasst werden, dass ein Lichtstrahl, welcher durch den Raumpunkt (x, y, z) in die Raumrichtung (θ, φ) propagiert, in diesem Raumpunkt z.B. an der weiteren geradlinigen Propagation durch Verdeckung oder vollständige Reflektion gehindert wird.
  • Gemäß der vorliegenden Erfindung wird zum Simulieren von Echosignalen einer mittels eines auf elektromagnetischen Strahlen basierenden Messsystems (insbesondere LiDAR oder Radar) abgetasteten Szene die Ausgabe eines gattungsgemäßen NeRF bzw. des dazugehörigen mehrschichten Perzeptrons derart angepasst, dass anstatt des Farbwerts im dreidimensionalen Farbraum RGB eine Reflektivität bzw. ein Reflexionsgrad (reflectivity), der Ausfallwinkel der direkten Reflexion (specular reflection), sowie der Grad der diffusen Reflexion (scattering/diffuse reflection) ausgegeben wird. Im Ausgabevektor wird also die Angabe des Farbwerts durch Parameter ersetzt, welche zur Bestimmung eines Echosignals von durch die 3D-Szene propagierender elektromagnetischer Wellen von Relevanz sind, nämlich durch Parameter, die mit Reflexion zusammenhängen.
  • Mittels des erfindungsgemäßen Verfahrens lassen sich innerhalb kurzer Zeit realistische Sensorantworten für Objekte, die sich in einer 3D-Szene befinden, aus Realdaten erlernen. Zusätzlich bietet das erfindungsgemäße Verfahren die Möglichkeit die Reflexionseigenschaften von Objekten zu erlernen und/oder innerhalb der Simulation festzulegen, wobei insbesondere der letzte Punkt die Modellierung einer Test-Szene als Fahrumgebung erleichtert. Insgesamt können mittels des erfindungsgemäßen Verfahrens in der Simulation die vollständigen, vom realen Sensor erlernten, physikalischen Effekte und Antwortsignale berechnet werden. Somit kann die Simulation von komplexen Szenarien, etwa Schaufensterfronten oder Wasser, realistisch umgesetzt werden. Aufgrund der Leistungsfähigkeit des klassischen NeRF bei gleichzeitig mäßigen Anforderungen an die Rechenhardware im Bereich vom volumetrischen Rendering kann davon ausgegangen werden, dass bei der Simulation von Echosignalen mittels des erfindungsgemäßen Verfahrens Echtzeitperformance erreicht werden kann.
  • Das erfindungsgemäße Verfahren kann bevorzugt basierend auf von dem Grafikkarten- und Chiphersteller NVIDIA unter anderem für NeRF entwickelter neuronaler Grafikprimitiven (instant neural graphics primitives, instant ngp) laufzeiteffizient auf verfügbarer GPU-Hardware implementiert werden. Durch eine solche Erweiterung des NeRF durch Instant Neural Graphics Primitives kann das Simulationssystem innerhalb weniger Sekunden auf einer modellierten 3D-Szene trainiert und verwendet werden.
  • In verschiedenen Ausführungsformen wird ein Verfahren zum Simulieren von Echosignalen einer mittels eines auf elektromagnetischen Strahlen basierenden Messsystems abgetasteten Szene bereitgestellt. Bei der Szene kann es sich um eine dreidimensionale Szene handeln, welche beispielsweise eine Fahrumgebung eines Fahrzeugs modelliert.
  • Das erfindungsgemäße Verfahren ist dadurch charakterisiert, dass das Echosignal in Abhängigkeit von einer Position des Messsystems relativ zur Szene durch volumetrisches Rendern synthetisiert bzw. errechnet wird, wobei mindestens ein Teil der Szene durch ein modifiziertes Neural Radiance Field (neuronales Strahlungsfeld) repräsentiert wird. Hierbei kann insbesondere ein Echosignal der Szene aus einer Abtastrichtung synthetisiert werden, zu der es im Trainingsdatensatz kein entsprechendes Echosignal der Szene gegeben hat.
  • Die abgetastete Szene kann ein einzelnes Objekt aufweisen, beispielweise ein Fahrzeug, eine Litfaßsäule oder ein Straßenschild. Das einzelne Objekt kann als ein einzelnes modifiziertes NeRF dargestellt und isoliert hinsichtlich des erzeugten Echosignals untersucht werden. In der Simulation kann aus der bekannten Sensorposition das mittels NeRF modellierte einzelne Objekt abgetastet werden, wodurch die Sensorantwort berechnet werden kann, die das einzelne Objekt erzeugt.
  • Das mittels eines modifizierten NeRF dargestellte Objekt kann auch in eine mittels eines anderen Ansatzes modellierte Szene integriert werden, wobei das Echosignal der gesamten abgetasteten Szene mittels eines üblichen volumetrischen Verfahrens synthetisiert (gerendert) werden kann. Die umgebende Szene, welche nicht mittels eines modifizierten NeRF modelliert wird, kann beispielsweise mittels eines skalaren Feldes modelliert werden, welches jedem Raumpunkt einen Wert zuweist, der seine Reflexionseigenschaft bestimmt. Dieser Teil der Szene kann mittels Ray Tracing gerendert werden. So kann beispielsweise jedem das modifizierte NeRF umgebenden Raumpunkt ein Wert Null zugeordnet werden, welcher vollständige Absorption bedeutet, wenn bei einer Simulation nur das modifizierte NeRF im Echosignal sichtbar sein soll. Die Zusammenfügung der unterschiedlich modellierten Szenenteile kann beispielsweise wie folgt implementiert werden. Trifft ein simulierter Sensorstrahl auf ein mittels eines modifizierten NeRF modelliertes Objekt, so wird das Echosignal gemäß dem hier beschriebenen Verfahren ermittelt. Trifft hingegen ein simulierter Sensorstrahl auf einen Szenenteil, der nicht mittels eines modifizierten NeRF modelliert wird, so kann die Antwort mittels gewöhnlichem Ray Tracing ermittelt werden.
  • Selbstverständlich können auch mehrere ausgewiesene Objekte mittels jeweils eines modifizierten NeRF modelliert werden und in eine anderweitig modellierte Szene eingefügt werden. In einer weiteren Ausführungsform des Verfahrens kann die Szene die gesamte für den Sensor relevante Umgebung abbilden, die mittels mindestens eines modifizierten NeRF modelliert wird. Im Falle eines Fahrzeugs-Sensors kann die Szene der Fahrzeugumgebung entsprechen.
  • Das im Rahmen des erfindungsgemäßen Verfahrens verwendete modifizierte Neural Radiance Field ist dadurch charakterisiert, dass es einem Eingabevektor, welcher durch einen Raumpunkt und eine davon ausgehende Richtung definiert ist, jeweils einen Ausgabevektor zuordnet, der durch eine Dichte, eine Reflektivität, einen Ausfallwinkel der direkten Reflexion und einen Grad der diffusen Reflexion definiert ist. Bei den Raumpunkten kann es sich um Raumpunkte (x, y, z) eines Objekts der Szene (oder eben die gesamte Szene) handeln, welches mittels des modifizierten NeRF modelliert wird. Die von dem Raumpunkt ausgehende Richtung, welche einen Polarwinkel θ und einen Azimuthwinkel φ angegeben werden kann, definiert die Richtung zwischen diesem Raumpunkt und einem Bildpunkt des synthetisierten Echosignal-Abbildes. Diese Richtung kann durch die Verbindungslinie zwischen dem betrachteten Bildpunkt des Echosignal-Abbildes und dem Raumpunkt entsprechen. Zu dem Eingabevektor gibt das modifizierte NeRF den entsprechenden raumpunkt- und richtungsabhängigen Ausgabevektor aus, welcher die besagten Parameter aufweist. Aus der Dichte σ gibt im Wesentlichen an, wie dicht die Materie an dem Raumpunkt (x, y, z) ist und stellt ein Maß dafür dar, wie transparent der Raumpunkt für die das Echosignal bildenden elektromagnetischen Wellen ist.
  • Das hier vorgeschlagene Verfahren zur modellbasierten Simulation eines auf elektromagnetischen Strahlen basierenden Messsystems kann insbesondere im Rahmen der virtuellen Erprobung von Fahrerassistenzsystemen verwendet werden. Das erfindungsgemäße Verfahren basiert auf dem in dem Fachartikel „NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis“, Ben Mildenhall et. Al, 2020, beschriebenen Ansatz. In Abwandlung zu diesem für die Bildsynthese klassischer Bilder verwendeten Ansatz nutzt das erfindungsgemäße Verfahren zur Bildsynthese eine modifizierte Version eines Neural Radiance Field, bei der die Ausgabeparameter des Ausgabevektors an die spezielle Anwendung angepasst sind und auf die physikalische Interaktion von elektromagnetischen Strahlen mit der sich in der Szene befindender Materie abstellen. Daher ist der vierdimensionale Zielraum des verwendeten modifizierten NeRF durch eine Raumdichte sowie drei weitere Parameter definiert, welche Reflexion bzw. Streuung von elektromagnetischer Strahlung angeben. Die Raumdichte gibt hierbei den Transmissionsgrad der elektromagnetischen Welle an.
  • Bei dem hier verwendeten modifizierten NeRF handelt es sich um ein mit entsprechenden Trainingsdaten in Form von Echosignalen der Szene trainiertes künstliches neuronales Netz. Anders ausgedrückt wird das NeRF in der mit einer Anzahl separater Abtastbilder der Szene (z.B. mittels LiDAR oder Radar) aus unterschiedlichen Positionen trainiert, um darin eine vollständige Volumendarstellung der Szene zu speichern.
  • Gemäß weiteren Ausführungsformen des Verfahrens kann das modifizierte Neural Radiance Field mittels eines mehrschichtigen Perzeptrons realisiert sein. In Abwandlung zu dem Perzeptron, welches bei dem NeRF-Ansatz für die klassische Bildsynthese verwendet wird, kann das im Rahmen des erfindungsgemäßen Verfahrens verwendete Perzeptron darauf trainiert werden, neben der Dichte σ anstelle der Rot-, Grün- und Blauanteile (RGB) von sichtbarem Licht die Parameter Reflektivität, Ausfallwinkel der direkten Reflexion sowie diffuse Reflexion als Komponenten des Ergebnisvektors auszugeben.
  • Gemäß weiteren Ausführungsformen des Verfahrens kann das von dem mindestens einen Teil der Szene erzeugte Echosignal synthetisiert bzw. berechnet werden durch Berechnen von Linienintegralen entlang von Strahlen, welche von einer Detektorfläche des Messsystems aus durch die Szene verlaufen. Dieses Vorgehen entspricht einem klassischen volumetrischen Rendern, bei dem zur Berechnung des Bildes in Form des von der Messsystem detektierten Echosignals das NeRF entlang von modellierten Detektorstahlen gesampelt wird und durch Aufsummieren der Ausgabevektoren, die vom NeRF zu den auf dem Detektorstrahl liegenden Eingabevektoren ausgegeben werden, die Bildinformation für jedes Pixel ermittelt wird.
  • Gemäß weiteren Ausführungsformen des Verfahrens kann das auf elektromagnetischen Strahlen basierende Messsystem ein LiDAR oder ein Radar aufweisen. Das hier vorgestellte Verfahren eignet sich damit besonders für die modellbasierte Simulation von LiDAR- und Radar-Daten und kann im Rahmen der virtuellen Erprobung von Fahrerassistenzsystemen, insbesondere im Kontext vom autonomen Fahren, verwendet werden. Ebenso kann sich bei dem auf elektromagnetischen Strahlen basierenden Messsystem um ein System zur Dichtemessung handeln, welches auf Basis von Röntgenstrahlen arbeitet (z.B. ein Röntgensensor).
  • Gemäß weiteren Ausführungsformen kann das Verfahren ferner Festlegen der Komponenten von Ausgabevektoren aufweisen, die mit Eingabevektoren assoziiert sind, deren Raumpunktkomponenten ein Objektmodell in dem mindestens einen Teil der Szene beschreiben, gemäß den physikalischen Eigenschaften des entsprechenden realen Objekts. Durch ein solches Vorgehen lassen sich Reflexionseigenschaften von Objekten in der Szene gezielt gemäß ihren physikalischen Eigenschaften festlegen, um deren Einfluss auf das Echosignal systematisch zu untersuchen. Das Festlegen kann hierbei insbesondere Verändern bzw. systematisches Variieren von im Vorfeld ermittelten Komponenten von Ausgabevektoren aufweisen, um den Einfluss von sich in der Szene befindender Objekte auf das Echosignal zu untersuchen.
  • Gemäß weiteren Ausführungsformen kann das Verfahren ferner Bestimmen der räumlichen Lage eines mittels des modifizierten Neural Radiance Field modellierten Objekts relativ zu dem auf elektromagnetischen Strahlen basierenden Messsystem aufweisen. Diese Funktionalität kann als Tracking verwendet werden. In Analogie zum „inversen Rendering“ (inverse NeRF-Ansatz, iNeRF) kann das künstliche neuronale Netz dazu verwendet werden, um aus der Reflexionsantwort auf die räumliche Lage des in einem modifizierten NeRF abgetasteten Objekts zu schließen.
  • Bei dieser Ausführungsform des erfindungsgemäßen Verfahrens kann in einem ersten Schritt basierend auf einem bereits trainierten NeRF und mit bekannten intrinsischen Sensorcharakteristiken die Kameraposition (x, y, z, θ, φ) bestimmt werden. Diese Bestimmung erfolgt durch Lösen des Optimierungsproblems mittels Fehlerrückführung (Backpropagation), dass basierend auf bekannten Gewichten des NeRFs und auf einem zu einer geschätzten Position der Kamera auf Basis des NeRF gerenderten Bild der Fehler zum tatsächlich beobachteten Bild, also einem detektierten Echosignal minimal sein soll. So lässt sich die Kameraposition relativ zum NeRF ermitteln, also ihre Entfernung und Orientierung zum NeRF.
  • In einem zweiten Schritt kann ausgehend von der Tatsche, dass im Automotive-Bereich die Position und Orientierung des Sensors (z.B. Fahrzeugassistenzkamera) innerhalb des Fahrzeugs und damit im Fahrzeugkoordinatensystem bekannt ist (z.B. mittig am oberen Rand der Frontscheibe des Fahrzeugs) die Entfernung und Orientierung des NeRF und damit des dadurch modellierten Objekts relativ zum Fahrzeug bestimmt werden. Ergibt sich im ersten Schritt nach Lösung des Optimierungsproblems beispielsweise, dass die Kameraposition jeweils im Polar- und Azimuthwinkel relativ zum NeRF 40° beträgt und zudem 20 Meter davon entfernt ist, so kann daraus kann geschlossen werden, dass das Objekt bzw. das dieses modellierende NeRF 20 Meter vom Fahrzeug entfernt ist und um 40° im Polar- und Azimuthwinkel dazu gedreht ist. Führt man diesen Prozess für jedes Echosignal des Sensors durch, kann so die Bewegung des Objektes über die Zeit nachverfolgt werden, wodurch das soeben erwähnte Tracking realisiert werden kann.
  • Details des iNeRF-Ansatzes bei der Bildverarbeitung sind in dem Fachartikel „iNeRF: Inverting Neural Radiance Fields for Pose Estimation", L. Yen-Chen, P. Florence, J. T. Barron, A. Rodriguez, P. Isola and T. -Y. Lin, „iNeRF: Inverting Neural Radiance Fields for Pose Estimation," 2021 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2021, pp. 1323-1330 (auch unter https://arxiv.org/abs/2012.05877 abrufbar) offenbart (siehe darin Abschnitt IV).Für den Zweck der vorliegenden Erfindung kann es wie beschreiben angepasst werden.
  • Durch eine kontinuierliche Ausführung des Trackings kann die räumliche Lage eines mittels modifiziertem NeRF modellierten Objekts verfolgt werden, ggfs. auch in Echtzeit. Im praktischen Anwendungsfall kann so mittels eines in einem Fahrzeug eingebauten auf elektromagnetischen Strahlen basierenden Messsystems die Dynamik in einer davor liegenden Szene untersucht werden. Beispielsweise kann dann etwa ein mittels eines modifizierten NeRF modelliertes Fahrzeug in seinem Abbiegeverhalten verfolgt werden. Die so gewonnene Information kann in einem Fahrassistenzsystem verwendet werden und die Fahrsicherheit weiter erhöhen.
  • Erfindungsgemäß wird ferner ein modifiziertes Neural Radiance Field zum Simulieren eines Echosignals, beispielsweise auf Basis einer volumetrischen Darstellung, einer mittels eines auf elektromagnetischen Strahlen basierenden Messsystems abgetasteten Szene bereitgestellt, wobei das modifizierte Neural Radiance Field einem Eingabevektor, welcher durch einen Raumpunkt der Szene und eine davon ausgehende Richtung definiert ist, jeweils einen Ausgabevektor zuordnet, der durch eine Dichte, eine Reflektivität, einen Ausfallwinkel der direkten Reflexion und einen Grad der diffusen Reflexion definiert ist.
  • Die Erfindung betrifft ferner die Verwendung des modifizierten Neural Radiance Field zum Simulieren eines Echosignals, beispielsweis auf Basis einer volumetrischen Darstellung, mindestens eines Teils einer mittels eines auf elektromagnetischen Strahlen basierenden Messsystems abgetasteten Szene.
  • Es versteht sich, dass die voranstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
  • Weitere Vorteile und Ausgestaltungen der Erfindung ergeben sich aus der Beschreibung und der beiliegenden Zeichnung.
  • 1 veranschaulicht den Ablauf eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens. Im Folgenden wird ohne Einschränkung der Allgemeinheit angenommen, dass es sich bei dem auf elektromagnetischen Strahlen basierenden Messsystem um ein LiDAR handelt.
  • Ziel des vorliegenden Verfahrens ist es, auf eine relativ einfache und recheneffiziente Art und Weise neue Bilder B bzw. Bildansichten der Szene S zu simulieren bzw. zu synthetisieren. Bei der Szene S handelt es sich um eine dreidimensionale Szene, in der diverse Objekte O enthalten sein können. Die Szene S wird mittels des LiDAR abgetastet, wodurch ein Bild B erhalten wird, das dem Echo- bzw. Reflexionssignal des vom LiDAR ausgesendeten Abtaststrahls entspricht. Folglich geht es bei der Synthetisierung der Bilder B nicht um photographische Bilder, sondern um Bilder, etwa Rohdaten, wie sie das LiDAR als Sensor liefert.
  • Zur Erzeugung eines Bildes B der Szene S wird von einem Bildpunkt BP ein Bildstrahl BS in die Szene S projiziert und es wird das Szenenvolumen S bei Sample- bzw. Abtastpunkten SP abgetastet. Die Sample-Punkte SP liegen auf dem Bildstrahl BS und können, müssen aber nicht in gleichen Abständen voneinander liegen. Jeder Sample-Punkt SP ist durch einen fünfdimensionalen Eingabevektor EV definiert, welcher sich aus der dreidimensionalen Raumkoordinate (x,y,z) sowie der zweidimensionalen Richtung (θ, φ) des Bildstrahls BS zusammensetzt, welche zugleich der Betrachtungsrichtung des Bildes aus der dazugehörigen Detektorperspektive entspricht.
  • Um das neue Bild B der Szene zu rekonstruieren, wird der zu dem fünfdimensionalen Eingabevektor EV durch Abfrage des modifizierten NeRF bzw. des dementsprechenden mehrschichtigen Perzeptrons ein dazugehöriger vierdimensionaler Ausgabevektor AV ausgegeben, dessen Komponenten durch eine Dichte σ des Raumes am Ort (x,y,z), eine Reflektivität R, einen Ausfallwinkel der direkten Reflexion αref und einen Grad der diffusen Reflexion rdiffus angeben. Diese Umwandlung des Eingangsvektors EV in einen Ausgabevektors AV entspricht einer Transformation auf Basis des modifizierten NeRF gemäß der vorliegenden Erfindung. Der Bildpunkt BP in dem zu synthetisierenden Bild B wird erzeugt, indem die durch die entlang des Bildstrahls BS aufgesammelten Ausgabevektoren AV definierten Parameter mittels eines klassischen volumetrischen Render-Verfahrens zusammengefasst werden. Folglich kann das volumetrische Rendern als Zusammentragen der elektromagnetischen Eigenschaften des Szenenvolumens S entlang des Bildstrahls BS verstanden werden, welche die Propagation von den vom LiDAR in die Szene S ausgesendeten Abtaststrahlen beeinflussen bzw. modulieren. Befindet sich beispielsweise ein den Abtaststrahl vollständig absorbierendes Material in der Szene S, so kann dieses durch einen Reflexionsfaktor R von Null repräsentiert werden. Ein solcher Nullwert bedeutet, dass ein vom LiDAR in Richtung (θ, φ) ausgesendeter Abtaststrahl nicht reflektiert wird und folglich von bzw. durch diesen Raumpunkt hindurch in der Richtung (θ, φ) keine Echosignal zu erwarten ist. Ein vollständiges Durchdringen des vom LiDAR ausgesendeten Abtaststrahls kann durch eine Dichte σ von 0% repräsentiert werden, so dass an von dem betrachteten Raumpunkt keine Reflektion ausgeht.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102021002798 A1 [0005]
    • CN 113706714 A [0006]
  • Zitierte Nicht-Patentliteratur
    • iNeRF: Inverting Neural Radiance Fields for Pose Estimation“, L. Yen-Chen, P. Florence, J. T. Barron, A. Rodriguez, P. Isola and T. -Y. Lin, „iNeRF: Inverting Neural Radiance Fields for Pose Estimation,“ 2021 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2021, pp. 1323-1330 (auch unter https://arxiv.org/abs/2012.05877 [0030]

Claims (7)

  1. Verfahren zum Simulieren von Echosignalen einer mittels eines auf elektromagnetischen Strahlen basierenden Messsystems abgetasteten Szene; wobei das Echosignal in Abhängigkeit von einer Position des Messsystems relativ zur Szene durch volumetrisches Rendern synthetisiert wird, wobei mindestens ein Teil der Szene durch ein modifiziertes Neural Radiance Field repräsentiert wird; wobei das modifizierte Neural Radiance Field dadurch charakterisiert ist, dass es einem Eingabevektor, welcher durch einen Raumpunkt und eine davon ausgehende Richtung definiert ist, jeweils einen Ausgabevektor zuordnet, der durch eine Dichte, eine Reflektivität, einen Ausfallwinkel der direkten Reflexion und einen Grad der diffusen Reflexion definiert ist.
  2. Verfahren gemäß Anspruch 1, wobei das modifizierte Neural Radiance Field mittels eines mehrschichtigen Perzeptrons realisiert ist.
  3. Verfahren gemäß Anspruch 1 oder 2, wobei das von dem mindestens einen Teil der Szene erzeugte Echosignal durch Berechnen von Linienintegralen entlang von Strahlen simuliert wird, welche von einer Detektorfläche des Messsystems aus durch den mindestens einen Teil der Szene verlaufen.
  4. Verfahren gemäß einem der Ansprüche 1 bis 3, wobei das auf elektromagnetischen Strahlen basierende Messsystem ein Lidar oder ein Radar aufweist.
  5. Verfahren gemäß einem der Ansprüche 1 bis 4, ferner aufweisend: Festlegen von Komponenten von Ausgabevektoren, die mit Eingabevektoren assoziiert sind, deren Raumpunktkomponenten ein Objekt beschreiben, gemäß den physikalischen Eigenschaften des Objekts.
  6. Verfahren gemäß einem der Ansprüche 1 bis 5, ferner aufweisend: Bestimmen der räumlichen Lage eines mittels des modifizierten Neural Radiance Field modellierten Objekts relativ zu dem auf elektromagnetischen Strahlen basierenden Messsystem.
  7. Modifiziertes Neural Radiance Field zum Simulieren eines Echosignals mindestens eines Teils einer mittels eines auf elektromagnetischen Strahlen basierenden Messsystems abgetasteten Szene; wobei das modifizierte Neural Radiance Field einem Eingabevektor, welcher durch einen Raumpunkt der Szene und eine davon ausgehende Richtung definiert ist, jeweils einen Ausgabevektor zuordnet, der durch eine Dichte, eine Reflektivität, einen Ausfallwinkel der direkten Reflexion und einen Grad der diffusen Reflexion definiert ist.
DE102022123577.7A 2022-09-15 2022-09-15 Verfahren zum Simulieren von Echosignalen einer mittels eines auf elektromagnetischen Strahlen basierenden Messsystems abgetasteten Szene Granted DE102022123577A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022123577.7A DE102022123577A1 (de) 2022-09-15 2022-09-15 Verfahren zum Simulieren von Echosignalen einer mittels eines auf elektromagnetischen Strahlen basierenden Messsystems abgetasteten Szene

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022123577.7A DE102022123577A1 (de) 2022-09-15 2022-09-15 Verfahren zum Simulieren von Echosignalen einer mittels eines auf elektromagnetischen Strahlen basierenden Messsystems abgetasteten Szene

Publications (1)

Publication Number Publication Date
DE102022123577A1 true DE102022123577A1 (de) 2024-03-21

Family

ID=90062295

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022123577.7A Granted DE102022123577A1 (de) 2022-09-15 2022-09-15 Verfahren zum Simulieren von Echosignalen einer mittels eines auf elektromagnetischen Strahlen basierenden Messsystems abgetasteten Szene

Country Status (1)

Country Link
DE (1) DE102022123577A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021002798A1 (de) 2021-05-26 2021-07-15 Daimler Ag Verfahren zur kamerabasierten Umgebungserfassung
CN113706714A (zh) 2021-09-03 2021-11-26 中科计算技术创新研究院 基于深度图像和神经辐射场的新视角合成方法
US20220397917A1 (en) 2021-06-11 2022-12-15 Netdrones, Inc. Systems and methods for 3d model based drone flight planning and control
DE102022114651A1 (de) 2021-06-28 2022-12-29 Nvidia Corporation Training von objekterfassungssystemen mit generierten bildern

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021002798A1 (de) 2021-05-26 2021-07-15 Daimler Ag Verfahren zur kamerabasierten Umgebungserfassung
US20220397917A1 (en) 2021-06-11 2022-12-15 Netdrones, Inc. Systems and methods for 3d model based drone flight planning and control
DE102022114651A1 (de) 2021-06-28 2022-12-29 Nvidia Corporation Training von objekterfassungssystemen mit generierten bildern
CN113706714A (zh) 2021-09-03 2021-11-26 中科计算技术创新研究院 基于深度图像和神经辐射场的新视角合成方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
iNeRF: Inverting Neural Radiance Fields for Pose Estimation", L. Yen-Chen, P. Florence, J. T. Barron, A. Rodriguez, P. Isola and T. -Y. Lin, „iNeRF: Inverting Neural Radiance Fields for Pose Estimation," 2021 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2021, pp. 1323-1330 (auch unter https://arxiv.org/abs/2012.05877
Mildenhall, Ben, et al. "Nerf: Representing scenes as neural radiance fields for view synthesis." Communications of the ACM 65.1 (2021): 99-106.
YEN-CHEN, Lin [u.a.]: iNeRF: inverting neural radiance fields for pose estimation. In: IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) - 27 September 2021 - 01 October 2021 - Prague, Czech Republic, S. 1323-1330. - ISSN 2153-0866. DOI: 10.1109/IROS51168.2021.9636708. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9636708 [abgerufen am 2022-11-02].

Similar Documents

Publication Publication Date Title
DE112019005750T5 (de) Erlernen des Erzeugens synthetischer Datensätze zum Trainieren neuronalerNetze
DE112012001984B4 (de) Integrieren von Video-Metadaten in 3D-Modelle
DE102019130889A1 (de) Schätzung der tiefe eines mit einer monokularen rgb-kamera aufgenommenen videodatenstroms
EP2791903B1 (de) Verfahren und vorrichtung zur schätzung einer pose
DE102017119538A1 (de) Physikalische Modellierung für Radar- und Ultraschallsensoren
DE112009003144B4 (de) Verfahren und Vorrichtung zum Feststellen eines Hindernisses in einem Bild
DE102018121018A1 (de) Erweitern von realen sensoraufnahmen mit simuliertem sensordatenhintergrund
EP3570063A1 (de) Verfahren zur schnellen abschätzung einer perspektivischen verdeckung in einer simulation eines bildgebenden sensors
DE102009042328A1 (de) Effiziente Bestimmung von Lichteffekten beim Volume Rendering
AT521120B1 (de) Verfahren und Vorrichtung zum Ermitteln eines Radarquerschnitts, Verfahren zum Trainieren eines Wechselwirkungsmodells sowie Radarzielemulator und Prüfstand
EP2284795A2 (de) Quantitative Analyse, Visualisierung und Bewegungskorrektur in dynamischen Prozessen
DE112020005584T5 (de) Verdeckung berücksichtigende Innenraumszenenanalyse
DE102019131971A1 (de) Ein Bildverarbeitungsmodul
EP2718740A1 (de) Verfahren und vorrichtung zur erweiterung der ausleuchtung eines prüfobjekts
Reed et al. Coupling rendering and generative adversarial networks for artificial SAS image generation
CN103871031A (zh) 基于核回归的sar图像相干斑抑制
WO2019162317A1 (de) Verfahren zur erzeugung von sensordaten für sicherheitskritische automobil-steuergeräte
CN113393548B (zh) 基于深度残差神经网络的非视域成像方法
DE102020214596A1 (de) Verfahren zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten einer Umfeldsensorik eines Fahrzeugs, Verfahren zum Erzeugen eines solchen Erkennungsmodells und Verfahren zum Ansteuern einer Aktorik eines Fahrzeugs
Cabrera et al. SAR-to-EO image translation with multi-conditional adversarial networks
DE102022123577A1 (de) Verfahren zum Simulieren von Echosignalen einer mittels eines auf elektromagnetischen Strahlen basierenden Messsystems abgetasteten Szene
DE102020200728A1 (de) Rekonstruieren von Elevationsinformationen aus Radardaten
EP3188131B1 (de) Verfahren und visualisierungsvorrichtung zur volumetrischen visualisierung eines dreidimensionalen objekts
WO2022129266A1 (de) Verfahren zur detektion zumindest eines objektes einer umgebung mittels reflexionssignalen eines radar-sensorsystems
DE102020110243A1 (de) Computerimplementiertes Verfahren zur Datenaugmentation

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division