DE102019213546A1 - Erzeugung synthetischer Lidarsignale - Google Patents

Erzeugung synthetischer Lidarsignale Download PDF

Info

Publication number
DE102019213546A1
DE102019213546A1 DE102019213546.3A DE102019213546A DE102019213546A1 DE 102019213546 A1 DE102019213546 A1 DE 102019213546A1 DE 102019213546 A DE102019213546 A DE 102019213546A DE 102019213546 A1 DE102019213546 A1 DE 102019213546A1
Authority
DE
Germany
Prior art keywords
lidar
generator
machine learning
signals
dimensional point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019213546.3A
Other languages
English (en)
Inventor
Jan Niklas Caspers
Thomas Maurer
Michael Pfeiffer
Remigius Has
Lydia Gauerhof
Jasmin Ebert
Anna Khoreva
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102019213546.3A priority Critical patent/DE102019213546A1/de
Priority to US17/009,351 priority patent/US20210072397A1/en
Priority to CN202010920771.8A priority patent/CN112444822A/zh
Publication of DE102019213546A1 publication Critical patent/DE102019213546A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Generator (1) zur Erzeugung zwei- oder mehrdimensionaler Frequenzdarstellungen (13) synthetischer Lidarsignale (12) aus einem Satz von mit einem physikalischen Lidarsensor (9) gemessenen Lidarsignalen (10), umfassend einen Zufallsgenerator (2) und ein erstes maschinelles Lernsystem (3), das Vektoren oder Tensoren von Zufallswerten (21) aus dem Zufallsgenerator (2) als Eingabe erhält und jeden solchen Vektor, bzw. jeden solchen Tensor, durch eine interne Verarbeitungskette (4) auf eine zwei- oder mehrdimensionale Frequenzdarstellung (13) eines synthetischen Lidarsignals (12) abbildet, wobei die interne Verarbeitungskette (4) des ersten Maschinelles Lernsystems (3) mit einer Vielzahl von Parametern (41a-41c) parametrisiert ist und wobei diese Parameter (41a-41c) so gesetzt sind, dass die zwei- oder mehrdimensionale Frequenzdarstellung (11; 13) des Lidarsignals (10; 12), und/oder mindestens eine aus dieser Frequenzdarstellung (11; 13) abgeleitete Kenngröße (14), für die synthetischen Lidarsignale (12) im Wesentlichen die gleiche Verteilung aufweist wie für die gemessenen Lidarsignale (10).Verfahren (100) zur Herstellung eines Generators (1), Verfahren (200) zur Erkennung von Objekten (72a, 72b), und/oder von bestimmten Typen von Objekten (72a, 72b) freien Raums, im Umfeld (71) eines Fahrzeugs (7) und Verfahren (300) zur Optimierung mindestens eines Einbauparameters (73a) oder Betriebsparameters (73b) für einen Lidarsensor (73).

Description

  • Die vorliegende Erfindung betrifft die Erzeugung synthetischer Lidarsignale, welche insbesondere als Trainingsdaten für die Objekterkennung in Lidarsignalen mittels maschinellem Lernen verwendbar sind.
  • Stand der Technik
  • Damit sich ein Fahrzeug zumindest teilweise automatisiert im Straßenverkehr bewegen kann, ist es erforderlich, das Umfeld des Fahrzeugs zu erfassen und Gegenmaßnahmen einzuleiten, falls eine Kollision mit einem Objekt im Umfeld des Fahrzeugs droht. Auch die Erstellung einer Umfeld-Repräsentation und Lokalisierung sind für sicheres automatisiertes Fahren notwendig.
  • Aus den Lidardaten gehen weiterhin unmittelbar die Entfernung und Geschwindigkeit von Objekten hervor. Diese Informationen sind wichtig für die Beurteilung, ob es zu einer Kollision mit den Objekten kommen kann. Um welchen Typ von Objekt es sich handelt, ist jedoch aus Lidarsignalen nicht unmittelbar erkennbar. Diese Erkennung wird aktuell durch die Berechnung von Attributen aus der Digitalen Signalverarbeitung gelöst und in Form einer dreidimensionalen Punktewolke abschließend dargestellt.
  • Offenbarung der Erfindung
  • Lidarsignale können eine 3D-Punktwolke umfassen, die durch Messen einer Distanz vom Sensor zu einer ersten reflektierenden Fläche bei einem vorgebbaren Winkel zur Sensorfläche ermittelt wird. So kann der Lidarsensor eine 3D-Karte seiner unmittelbaren Umgebung erzeugen.
  • Im Rahmen der Erfindung wurde ein Generator zur Erzeugung synthetischer Lidarsignale aus einem Satz von mit einem physikalischen Lidarsensor gemessenen Lidarsignalen entwickelt. Dieser Generator umfasst einen Zufallsgenerator und ein erstes maschinelles Lernsystem, das Vektoren oder Tensoren von Zufallswerten aus dem Zufallsgenerator als Eingabe erhält und jeden solchen Vektor, bzw. jeden solchen Tensor, durch eine interne Verarbeitungskette auf ein Histogramm eines synthetischen Lidarsignals abbildet.
  • Die Histogrammdarstellung kann eine Darstellung in einem zeitlichen Raumumfassen. Die Histogrammdarstellung wird durch die Detektion von Photonen über die Zeit realisiert.
    Die interne Verarbeitungskette des ersten maschinellen Lernsystems ist mit einer Vielzahl von Parametern parametrisiert. Diese Parameter sind so gesetzt, dass die Histogrammdarstellung des Lidarsignals, und/oder mindestens eine aus dieser Darstellung abgeleitete Kenngröße, für die synthetischen Lidarsignale im Wesentlichen die gleiche Verteilung aufweist wie für die gemessenen Lidarsignale.
  • Es wurde erkannt, dass gerade bei der Objekterkennung aus Lidarsignalen mittels maschinellem Lernen die notwendigen Lerndaten eine knappe Ressource sind. Lerndaten für die Objekterkennung aus Kamerabildern umfassen üblicherweise Lern-Kamerabilder, die von Menschen dahingehend kommentiert (gelabelt) worden sind, an welcher Stelle welche Objekte in ihnen enthalten sind. Die visuelle Erkennung von Objekten ist gerade für den Menschen besonders intuitiv, so dass die Anforderungen an Hilfskräfte für die Kommentierung von Kamerabildern vergleichsweise gering sind.
  • Objekte aus Lidarsignalen zu erkennen erfordert hingegen einen höheren Nachbearbeitungsaufwand der Rohdaten und Spezialwissen. Dies hängt damit zusammen, dass die Reflektivität eines Objekts bei der Wellenlänge eines Lidar, welche außerhalb des sichtbaren Spektrums (beispielsweise im Bereich 850nm bis 1600nm) liegen kann,oft nicht mit der Reflektivität im sichtbaren Spektrum übereinstimmt. Ferner ist es möglich, dass reflektierte Lidarsignale erst nach mehrfacher Reflektion zum Sensor zurückkehren (beispielsweise an Leitplanken, Wänden oder der Straßenoberfläche). Wetterbedingungen, insbesondere Regen oder Nebel, können die Propagation der Lidarsignale oft in einer nur schwer vorhersagbaren Art und Weise beeinflussen. Eine Simulation von Lidarsignalen mit Hilfe von Ray-Traycing ist daher sehr aufwändig und weist mitunter Abweichungen vom realen Verhalten auf.
  • Weiterhin hängt das Lidarsignal, das ein und dasselbe Objekt produziert, auch von den Eigenschaften der verwendeten Laser und Detektoren ab, beispielsweise von der Pulsfolge und Wellenlänge des Lasers oder von der Lichtempfindlichkeit des Detektors. Das Signal kann durch Mehrwegeausbreitung verändert werden, beispielsweise indem es mehrfach an verschiedenen Oberflächen (etwa der Fahrbahn, einer Leitplanke und/oder einer Wand) reflektiert wurde. Schließlich ist das Lidarsignal auch materialabhängig. Einige Materialien reflektieren das emittierte Laserlicht mit unterschiedlicher Intensität, während andere Materialien das Laserlicht nahezu vollständig absorbieren , was dann wiederum dazu führen kann, dass vorhandene Objekte sehr schlecht oder gar nicht erkannt werden.
  • Im Ergebnis sind also Lerndaten für die Objekterkennung aus Lidarsignalen zum einen schwieriger zu beschaffen, und zum anderen werden auch mehr Lerndaten benötigt als für die Objekterkennung aus Kamerabildern.
  • Diese Knappheit kann durch den Generator gelindert werden. Indem die Parameter des ersten maschinellen Lernsystems so gesetzt sind, dass eine aus den physikalisch gemessenen Lidarsignalen ersichtliche Verteilung in den synthetischen Lidarsignalen repräsentiert wird, und indem zusätzlich jedes generierte Lidarsignal realistisch wirkt in dem Sinn, dass es von einem echten Lidarsignal nur schwer zu unterscheiden ist, können beliebig viele realistisch wirkende Lidarsignale erzeugt werden, ohne dass es hierzu einer Kommentierung der ursprünglichen physikalisch gemessenen Lidarsignale bedarf. Es können also beispielsweise Messungen, die Sensorhersteller und OEMs bei Testfahrten mit Lidarsensoren zur Objekterkennung routinemäßig durchführen, als Datenbasis zweitverwertet werden.
  • Die Kenngröße kann eine beliebige aus der Histogrammdarstellung des Lidarsignals abgeleitete Größe sein. Wenn diese Kenngröße beispielsweise zwischen den von dem physikalischen Lidarsensor gemessenen Lidarsignalen variiert, setzt sie durch die Verteilung, die sich hierbei ergibt, diese Lidarsignale in einen Zusammenhang. Beispielsweise kann die Kenngröße einzelne Elemente aus der Punktewolke umfassen, denen eine Entfernung, und eine Geschwindigkeit, relativ zum physikalischen Lidarsensor zugeordnet sind. Eine konsistente Verteilung der Kenngröße lässt sich dann über solche Lidarsignale bilden, die sich auf das gleiche oder zumindest ein ähnliches Szenario beziehen.
  • Die Parameter der internen Verarbeitungskette können von dem Generator selbst gelernt werden. Dazu benötigt der Generator lediglich ein wie auch immer geartetes Feedback dahingehend, inwieweit die aktuellen Parameter auf eine Verteilung des Histogramms, bzw. der Kenngröße, führen, die zu den gemessenen Lidarsignalen passen.
  • In einer besonders vorteilhaften Ausgestaltung erhält das erste maschinelle Lernsystem mindestens eine Randbedingung als Eingabe. Die Parameter der internen Verarbeitungskette sind so gesetzt, dass die Histogrammdarstellung, und/oder die Kenngröße, für die synthetischen Lidarsignale im Wesentlichen die gleiche Verteilung aufweist wie für diejenigen gemessenen Lidarsignale, die der Randbedingung genügen.
  • Mit dieser Erweiterung kann beispielsweise eine für die gemessenen Lidarsignale vorhandene Kommentierung in den Generator überführt werden. Die Randbedingung kann beispielsweise darin bestehen, dass die gemessenen Lidarsignale kraft der vorhandenen Kommentierung einer bestimmten Klasse zugeordnet sind. Es können dann zu jeder Klasse separat beliebig viele synthetische Lidarsignale erzeugt werden, die den ursprünglichen Bestand an gemessenen und zugleich kommentierten Lidarsignalen ergänzen. Damit kann eine hinreichend große Datenbasis für das überwachte Lernen einer Objekterkennung auf der Basis von Lidarsignalen geschaffen werden.
  • Die Randbedingung kann aber auch beispielsweise genutzt werden, um gestützt auf die vorhandenen gemessenen Lidarsignale ein Lidarsignal für eine Situation abzuschätzen, zu der es keine Messungen gibt. So kann beispielsweise der ursprüngliche Satz von Messungen Lidarsignale enthalten, die von einem bestimmten Objekt in Antwort auf Lichtwellen erhalten wurden, welche unter bestimmten Hintergrundlichtverhältnissen auf das Objekt eingefallen sind. Die Randbedingung kann beispielsweise darin bestehen, dass für das Hintergrundlicht ein nicht gemessener Zwischenwert oder ein selten auftretender Höchstwert angenommen wird. Der Generator interpoliert oder extrapoliert dann gleichsam das Lidarsignal, das sich für diesen Zwischenwert oder Höchstwert des Hintergrundlichts ergibt.
  • Auch können beispielsweise gezielt synthetische Lidarsignale zu sogenannten Extremfällen erzeugt werden, die in der Realität selten vorkommen, aber für die Objekterkennung von besonderer Wichtigkeit sind. Diese Extremfälle können sich beispielsweise auf Situationen beziehen, die besonders gefährlich sind und in denen daher eine perfekte Funktion eines Fahrassistenzsystems, bzw. eines Systems zum zumindest teilweise automatisierten Fahren, gefordert ist.
  • Dabei ist zur Verankerung der synthetischen Lidarsignale in der Realität kein 3D-Modell des physikalischen Szenarios notwendig, sondern es genügt, dass die Verteilung der Kenngröße zu den gemessenen Lidarsignalen passt. Ebenso ist, anders als bei Ray-Tracing-Simulationen, keine detaillierte Kenntnis über den Lidarsensor, seinen Anbringungsort, Materialien, Form und Rückstreukoeffizienten der zu erkennenden Objekte notwendig.
  • Die Randbedingung kann weiterhin genutzt werden, um das Lidarsignal mit der Ausgabe eines anderen Sensors zu filtern, etwa mit der Ausgabe einer Kamera, eines Radar-Sensors, eines weiteren Lidarsensors oder eines Arrays von Ultraschallsensoren.
  • In einer besonders vorteilhaften Ausgestaltung umfasst das erste maschinelle Lernsystem ein künstliches neuronales Netzwerk, dessen interne Verarbeitungskette mindestens eine vollvernetzte Schicht, und/oder mindestens eine Faltungsschicht, aufweist. Es ist eine wesentliche Stärke künstlicher neuronaler Netzwerke, dass sie sehr große Unterschiede in der Dimensionalität zwischen der Eingabe und der Ausgabe überbrücken können. Der Vektor oder Tensor mit den Zufallswerten kann beispielsweise in der Größenordnung 100 Elemente enthalten, während die dreidimensionale Punktewolke eine deutlich höhere Dimensionalität aufweist.
  • Vorteilhaft ist der Zufallsgenerator ein physikalischer Zufallsgenerator, der die Zufallswerte aus thermischem oder elektronischem Rauschen mindestens eines Bauelements, und/oder aus einer zeitlichen Abfolge radioaktiver Zerfälle eines instabilen Isotops, erzeugt. Auf diese Weise wird vermieden, dass den von dem Generator erzeugten synthetischen Lidarsignalen Artefakte eines Pseudo-Zufallsgenerators überlagert werden.
  • Die Erfindung bezieht sich auch auf einen Datensatz aus einer Vielzahl dreidimensionaler Punktewolken synthetischer Lidarsignale, die mit dem Generator hergestellt worden sind und auf ein Verfahren zum Erzeugen dieser synthetischen Lidarsignale mit dem Generator. Dieser Datensatz kann beispielsweise direkt als Trainingsdaten für das überwachte Lernen einer Objekterkennung verwendet werden und ist insofern ein eigenständig verkaufbares Produkt mit Kundennutzen. Je besser der Generator arbeitet, desto schwieriger sind die von ihm erzeugten synthetischen Lidarsignale per se von den physikalisch gemessenen Lidarsignalen zu unterscheiden. Sind jedoch einerseits eine dreidimensionale Punktewolke eines Lidarsignals und andererseits ein Generator gegeben, so lässt sich zumindest eine Wahrscheinlichkeit dafür ermitteln, dass das Lidarsignal durch diesen Generator erzeugt wurde.
  • Die Erfindung bezieht sich auch auf ein Verfahren zur Herstellung des Generators. Bei diesem Verfahren werden dreidimensionale Punktewolken der gemessenen Lidarsignale mit von dem Generator erzeugten dreidimensionalen Punktewolken der synthetischen Lidarsignale in einem Pool vereinigt. Die in dem Pool enthaltenen dreidimensionalen Punktewolken werden mit einem Klassifikator dahingehend klassifiziert, ob sie zu gemessenen oder zu synthetischen Lidarsignalen gehören. Die Parameter der Verarbeitungskette des maschinellen Lernsystems im Generator werden auf eine möglichst schlechte Klassifikationsgüte des Klassifikators optimiert.
  • Die Klassifikationsgüte des Klassifikators dient somit als Feedback für das Lernen der Parameter in der internen Verarbeitungskette des ersten maschinellen Lernsystems im Generator. Dieses Feedback kann beispielsweise ein Fehlersignal des Klassifikators sein, oder auch beispielsweise ein im Klassifikator generiertes Konfidenzmaß. Insbesondere können der Klassifikator und der Generator im Wechsel trainiert werden und so gleichsam als gegenseitige Sparringspartner dienen.
  • Beispielsweise kann das maschinelle Lernsystem im Generator zunächst mit Standardwerten oder zufälligen Werten für die Parameter initialisiert sein. Wenn nun an der Eingabe des maschinellen Lernsystems Zufallswerte aus dem Zufallsgenerator vorgelegt werden, dann wird das generierte synthetische Lidarsignal mit hoher Wahrscheinlichkeit nicht viel mit den gemessenen Lidarsignalen zu tun haben. Dementsprechend wird der Klassifikator aus dem Pool dreidimensionalen Punktewolken mit großer Konfidenz die zu dem synthetischen Lidarsignal gehörige dreidimensionalen Punktewolke von den zu den gemessenen Lidarsignalen gehörigen dreidimensionalen Punktewolken unterscheiden können. Je mehr die Parameter in der Verarbeitungskette des maschinellen Lernsystems optimiert werden, desto schwieriger wird diese Unterscheidung für den Klassifikator. Dies kann sich darin manifestieren, dass die Klassifikation in einer größeren Anzahl von Fällen unrichtig ist, und/oder dass die Konfidenz, mit der die Klassifikation vorgenommen wird, sinkt.
  • Der Klassifikator kann von beliebiger Bauart sein. Es kann sich beispielsweise um einen statischen Klassifikator handeln, der die dreidimensionalen Punktewolken durch Prüfung bestimmter Merkmale, oder auch mit statistischen Methoden, als gemessen bzw. synthetisch generiert klassifiziert. Wenn dem Generator eine Randbedingung vorgegeben wurde, wird die gleiche Randbedingung auch dem Klassifikator vorgegeben.
  • In einer besonders vorteilhaften Ausgestaltung wird ein zweites maschinelles Lernsystem als Klassifikator gewählt. Dieses zweite maschinelle Lernsystem weist eine weitere interne Verarbeitungskette auf, die mit einer Vielzahl von Parametern parametrisiert ist. Diese Parameter werden auf eine möglichst gute Klassifikationsgüte des Klassifikators optimiert.
  • Es können dann beispielsweise beide maschinellen Lernsysteme gleichzeitig oder auch abwechselnd trainiert werden. Auf diese Weise wird eine Art Wettkampf zwischen dem ersten maschinellen Lernsystem und dem zweiten maschinellen Lernsystem ausgelöst. Das erste maschinelle Lernsystem lernt beständig dahingehend dazu, realistische Lidarsignale zu „fälschen“, während das zweite maschinelle Lernsystem dahingehend dazulernt, die „Fälschungen“ zu erkennen. Der Wettbewerb führt am Ende dazu, dass die erhaltenen synthetischen Lidarsignale die ursprünglichen physikalisch gemessenen Lidarsignale annähernd exakt nachahmen und gemeinsam mit diesen als Lerndaten für das überwachte Lernen einer Objekterkennung genutzt werden können.
  • Die Erfindung bezieht sich auch auf ein Verfahren zur Erkennung von Objekten, und/oder eines von Objekten eines vorgegebenen Typs freien Raums, im Umfeld eines Fahrzeugs. Das Fahrzeug weist mindestens einen Lidarsensor zur Erfassung mindestens eines Teils des Umfelds auf. Dreidimensionale Punktewolken von durch den Lidarsensor erfassten Lidarsignalen werden von einem dritten maschinellen Lernsystem dahingehend klassifiziert werden, welche Objekte im Umfeld des Fahrzeugs vorhanden sind. Das dritte maschinelle Lernsystem ist oder wird mit Trainingsdaten trainiert, die zumindest teilweise mit einem Generator gemäß der Erfindung erzeugt worden sind. Die Trainingsdaten können insbesondere teilweise aus physikalischen Messungen und teilweise vom Generator stammen.
  • Auf diese Weise lassen sich bei der Objekterkennung die eingangs genannten Vorteile der Lidartechnik nutzen, ohne dass dies zwangsläufig damit erkauft wird, dass die Lerndaten für das Training der Objekterkennung im Vergleich zur rein optischen Objekterkennung deutlich schwieriger zu beschaffen sind. Ein vergleichsweise kleiner Satz an physikalisch gemessenen Lidarsignalen kann durch den Generator auf die Menge angereichert werden, die zum Aufbau einer sicheren Objekterkennung notwendig ist.
  • Vorteilhaft wird in Antwort auf die Erkennung mindestens eines Objekts, und/oder eines von Objekten eines bestimmten Typs freien Raums, eine für den Fahrer des Fahrzeugs wahrnehmbare physikalische Warneinrichtung, ein Antriebssystem, ein Lenksystem, und/oder ein Bremssystem, des Fahrzeugs angesteuert zwecks Vermeidung einer Kollision zwischen dem Fahrzeug und dem Objekt, und/oder zwecks Anpassung der Geschwindigkeit und/oder Trajektorie des Fahrzeugs. Diese Zwecke sind Hauptgründe dafür, dass überhaupt eine Objekterkennung angestrebt wird.
  • Wie zuvor erläutert, ermöglicht die Vorgabe einer Randbedingung an den Generator auch die Interpolation oder Extrapolation von einem gegebenen Satz an gemessenen Szenarien auf Szenarien, zu denen es noch keine Messungen gibt. Dies kann nicht nur für die Auswertung von Lidarsignalen nach der physikalischen Messung genutzt werden, sondern auch für die Verbesserung der physikalischen Messung als solche. Im Unterschied zu einer Kamera, die ein rein passiver Sensor ist, ist ein Lidarsensor ein aktiver Sensor, d.h., als Messsignal dienen Lichtwellen, die vom Sensor selbst abgestrahlt wurden. Daher haben Einbauparameter und Betriebsparameter des Lidarsensors einen deutlichen Einfluss darauf, inwieweit die erhaltenen Lidarsignale für die letztendliche Objekterkennung tauglich sind.
  • Daher bezieht sich die Erfindung auch auf ein Verfahren zur Optimierung mindestens eines Einbauparameters oder Betriebsparameters für einen Lidarsensor zur Erkennung von Objekten, und/oder eines von Objekten (72a, 72b) eines bestimmten Typs freien Raums, im Umfeld eines Fahrzeugs. Bei diesem Verfahren wird für verschiedene Werte des Einbauparameters bzw. Betriebsparameters jeweils mindestens eine dreidimensionale Punktewolke eines synthetischen Lidarsignals mit einem Generator gemäß der Erfindung erzeugt, und/oder aus einem zuvor von einem solchen Generator erzeugten Datensatz abgerufen. Die Erkennung von Objekten in der dreidimensionalen Punktewolke des synthetischen Lidarsignals mit einem Gütemaß bewertet. Der Einbauparameter oder Betriebsparameter wird dahingehend variiert, dass das Gütemaß ein Extremum annimmt.
  • Die Erfinder haben erkannt, dass es im Hinblick auf das letztendliche Ziel einer sicheren Objekterkennung vorteilhaft ist, nicht nur die Analyse aufgenommener Lidarsignale zu betrachten, sondern auch die physikalische Datenaufnahme selbst. Informationen, die in dem aufgenommenen physikalischen Lidarsignal nicht mehr zu erkennen sind, können auch durch eine noch so gute Analyse nicht mehr ausgewertet werden. Ein solcher Fall kann beispielsweise eintreten, wenn der Messbereich des Sensors sich auf Grund besonders kontraststarker Objekte so unempfindlich einstellt, dass ein kontrastschwacher Mensch im Rauschen untergeht. Wenn die physikalische Datenaufnahme und die anschließende Analyse ganzheitlich betrachtet und optimiert werden, kann also die letztendlich erhaltene Objekterkennung noch weiter verbessert werden.
  • Dabei wird es über das Gütemaß insbesondere ermöglicht, die Objekterkennung auf bestimmte Objekte zuzuschneiden und bei Zielkonflikten Prioritäten zu setzen. Kein Satz Einbauparameter oder Betriebsparameter kann für alle Eventualitäten perfekt sein. Beispielsweise kann die sichere Erkennung eines Fußgängers, eines Radfahrers oder eines anderen schwächeren Verkehrsteilnehmers Vorrang vor der Erkennung eines Betonpollers haben. Wenn nun die verbesserte Erkennung schwächerer Verkehrsteilnehmer oberste Priorität hat, kann der Fall eintreten, dass dies nur auf Kosten anderer Aspekte möglich ist, etwa um den Preis, dass manche Betonpoller nicht erkannt werden.
  • Wenngleich der Generator und die Verfahren jeweils Gebrauch von Hardware machen und der gezielte Einsatz entsprechend optimierter Hardware jeweils vorteilhaft ist, so gibt es auch funktionsfähige Ausführungsformen des Generators und des Verfahrens, die mit der Nutzung bereits vorhandener Hardware auskommen. Dass die Funktion gemäß der Erfindung bereitgestellt wird, kann somit ganz oder teilweise in einer Software implementiert sein, die die Hardware anders ansteuert. Diese Software kann beispielsweise als Update oder Upgrade zu existierender Hardware vertrieben werden und ist insofern ein eigenständiges Produkt. Die Erfindung bezieht sich also auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem Computer, und/oder auf einem Steuergerät, ausgeführt werden, den Computer, und/oder das Steuergerät, zu einem Generator gemäß der Erfindung aufwerten, und/oder dazu veranlassen, ein Verfahren gemäß der Erfindung auszuführen. Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger oder ein Downloadprodukt mit dem Computerprogramm.
  • Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.
  • Ausführungsbeispiele
  • Es zeigt:
    • 1 Ausführungsbeispiel eines Generators 1;
    • 2 Ausführungsbeispiel des Verfahrens 100 zur Herstellung;
    • 3 Ausführungsbeispiel des Verfahrens 200 zur Objekterkennung;
    • 4 Ausführungsbeispiel des Verfahrens 300 zur Optimierung.
  • Nach 1 umfasst der Generator 1 einen Zufallsgenerator 2 und ein maschinelles Lernsystem 3 mit einer internen Verarbeitungskette 4. Der Zufallsgenerator 2 speist Zufallswerte 21 als Eingabe in das maschinelle Lernsystem 3, das daraufhin unter Berücksichtigung einer ebenfalls eingegebenen Randbedingung 31 dreidimensionale Punktewolken 13 erzeugt. Diese dreidimensionalen Punktewolken 13 korrespondieren zu synthetischen Lidarsignalen 12.
  • Das maschinelle Lernsystem 3 umfasst ein oder ist gegeben durch ein neuronales Netzwerk, dessen interne Verarbeitungskette 4 zwei Faltungsschichten 42a und 42b, zwei vollvernetzte Schichten 43a und 43b sowie eine Upsampling-Schicht 44 aufweist. Die interne Verarbeitungskette 4 ist mit einer Vielzahl von Parametern 41a-41c parametrisiert. Es sind jedoch auch andere Architekturen möglich, die beispielsweise nur eine Faltungsschicht 42a, 42b und keine vollvernetzte Schicht 43a, 43b, oder nur eine vollvernetzte Schicht 43a, 43b und keine Faltungsschicht 42a, 42b, umfassen und in denen eine Upsampling-Schicht 44 fehlt.
  • Aus der vom Generator 1 erzeugten dreidimensionalen Punktewolken 13 ist eine Kenngröße 14 ableitbar. Eine analoge Kenngröße 14 ist auch aus den dreidimensionalen Punktewolken 11 der von einem physikalischen Lidarsensor 9 gemessenen Radarsignale 10 ableitbar, wobei auch hier diejenigen Punktewolken 11 ausgewählt werden, die zu der vorgegebenen Randbedingung 31 passen.
  • Die Parameter 41a-41c der internen Verarbeitungskette 4 im maschinellen Lernsystem 3 des Generators 1 sind so gesetzt, dass die dreidimensionale Punktewolke 11, 13, und/oder die Kenngröße 14, für die synthetischen Lidarsignale 12 im Wesentlichen die gleiche Verteilung aufweist wie für die gemessenen Lidarsignale 10.
  • Eine Vielzahl der mit dem Generator 1 erzeugten dreidimensionalen Punktewolken 13 wird in einem Datensatz 13a zusammengefasst. Mit diesem Datensatz 13a kann beispielsweise die Datenbasis für das überwachte Lernen einer Objekterkennung auf der Basis von Lidarsignalen vergrößert werden.
  • 2 zeigt ein Ausführungsbeispiel des Verfahrens 100 zur Herstellung des Generators 1. Hauptziel dieses Verfahrens 100 ist die Gewinnung der Parameter 41a-41c für die interne Verarbeitungskette 4 des maschinellen Lernsystems 3 im Generator 1.
  • Analog zu 1 werden vom Generator 1 unter Beachtung der Randbedingung 31 dreidimensionalen Punktewolken 13 synthetischer Lidarsignale 12 erzeugt. Diese werden in Schritt 110 des Verfahrens 100 zusammen mit den dreidimensionalen Punktewolken 11 der physikalisch gemessenen Lidarsignale 10, die zu der gleichen Randbedingung 31 passen, in einem Pool 15 zusammengeführt.
  • In Schritt 120 des Verfahrens 100 werden die in dem Pool 15 enthaltenen dreidimensionalen Punktewolken 11, 13 von einem Klassifikator 5 dahingehend klassifiziert, ob sie zu gemessenen Lidarsignalen 10 oder zu synthetischen Lidarsignalen 12 gehören. Für diese Klassifikation lässt sich eine Klassifikationsgüte 5a angeben, die beispielsweise die Richtigkeit, und/oder die Konfidenz, der Klassifikation enthalten kann.
  • Die Parameter 41a-41c der internen Verarbeitungskette 4 im maschinellen Lernsystem 3 des Generators 1 werden nun in Schritt 130 des Verfahrens 100 auf eine möglichst schlechte Klassifikationsgüte 5a des Klassifikators 5 optimiert.
  • Dabei kann der Klassifikator 5 prinzipiell ein statischer Klassifikator sein, der nicht weiter dazulernt. In dem in 2 gezeigten Ausführungsbeispiel ist der Klassifikator 5 jedoch als zweites maschinelles Lernsystem ausgebildet und weist eine weitere interne Verarbeitungskette 6 auf, die mit einer Vielzahl von Parametern 61a-61c parametrisiert ist. Diese Parameter 61a-61c werden in Schritt 140 des Verfahrens 100 auf eine möglichst gute Klassifikationsgüte 5a des Klassifikators 5 optimiert.
  • Die Schritte 130 und 140 können beispielsweise gleichzeitig oder aber auch im Wechsel ausgeführt werden.
  • 3 zeigt ein Ausführungsbeispiel des Verfahrens 200 für die Erkennung von Objekten 72a, 72b, und/oder eines von Objekten 72a, 72b eines bestimmten Typs freien Raums, im Umfeld 71 eines Fahrzeugs 7. Als Datenquelle für die Erkennung wird ein Lidarsensor 73 verwendet, der dreidimensionale Punktewolken 11 der gemessenen Lidarsignale an ein drittes maschinelles Lernsystem 74 liefert. Dieses dritte maschinelle Lernsystem 74 ist mit Trainingsdaten 74a trainiert worden, die einen von einem Generator 1 erzeugten Datensatz 13a umfassen. Zusätzlich zu dem Datensatz 13a können die Trainingsdaten 74a insbesondere noch physikalische Messungen umfassen, so dass der Datensatz 13a letztendlich die physikalischen Messungen ergänzt. Das dritte maschinelle Lernsystem 74 kann auch erst in Schritt 210 des Verfahrens 200 entsprechend trainiert werden.
  • Das dritte maschinelles Lernsystem 74 klassifiziert in Schritt 220 des Verfahrens 200 die die dreidimensionalen Punktewolken 11 dahingehend, welche Objekte 72a, 72b im erfassten Umfeld 71 des Fahrzeugs 7 vorhanden sind. Als beispielhafte Objekte sind in 3 ein Fußgänger 72a und ein Betonpoller 72b ei ngezeich net.
  • Das Ergebnis der Klassifikation wird in Schritt 230 des Verfahrens 200 genutzt, um zwecks Vermeidung einer Kollision mit den erkannten Objekten 72a, 72b, und/oder zwecks Anpassung der Geschwindigkeit und/oder Trajektorie des Fahrzeugs 7, eine Warneinrichtung 75a für den Fahrer des Fahrzeugs 7, ein Antriebssystem 75b, ein Lenksystem 75c, und/oder ein Bremssystem 75d, des Fahrzeugs 7 anzusteuern. Beispielsweise kann die Geschwindigkeit auf einen Sollwert geregelt werden, und/oder ein Fahrassistent kann eine Fahrspur wählen. Neben den Lidarsignalen können für diese Aufgaben auch noch zusätzliche Informationen von anderen Sensoren, wie etwa Kameras, Radar oder Ultraschall, herangezogen werden.
  • Die physikalische Datenaufnahme durch den Lidarsensor 73 wird unter anderem durch Einbauparameter 73a, hier beispielsweise die Einbauposition des Lidarsensors 73a, und durch Betriebsparameter 73b, hier beispielsweise die Wellenlänge λ der ausgesendeten Lichtwellen, beeinflusst. Die Einbauparameter 73a und Betriebsparameter 73b sind daher weitere Freiheitsgrade, die optimiert werden können, um das letztendliche Ergebnis der Objekterkennung oder anderer Anwendungen, wie beispielsweise der Spurführung, zu verbessern.
  • 4 skizziert ein Ausführungsbeispiel des Verfahrens 300 für diese Optimierung. Anhand eines Werts des Einbauparameters 73a, und/oder des Betriebsparameters 73b, wird in Schritt 310a des Verfahrens 300 mit dem Generator 1 eine dreidimensionale Punktewolke eines synthetischen Lidarsignals 12 erzeugt, und/oder es wird in Schritt 310b des Verfahrens 300 eine solche dreidimensionale Punktewolke 13 aus einem zuvor von einem Generator 1 erzeugten Datensatz 13a abgerufen.
  • Mit dem dritten maschinellen Lernsystem 74, das auch beim realen Einsatz im Fahrzeug 7 verwendet werden soll, wird die dreidimensionale Punktewolke 13 dahingehend klassifiziert, welche Objekte 72a, 72b hierin erkennbar sind. Diese Erkennung der Objekte 72a, 72b wird in Schritt 320 des Verfahrens 300 mit einem Gütemaß bewertet. In Schritt 340 des Verfahrens 300 wird geprüft, ob dieses Gütemaß wie gewünscht ein Extremum annimmt. Ist dies der Fall (Wahrheitswert 1), so wird der getestete Wert des Einbauparameters 73a, bzw. des Betriebsparameters 73b, für optimal befunden. Wird das gewünschte Extremum hingegen nicht angenommen (Wahrheitswert 0), so wird der Einbauparameter 73a, bzw. der Betriebsparameter 73b, in Schritt 330 des Verfahrens 300 variiert, um näher an das gewünschte Extremum heranzukommen bzw. dieses beim nächsten Durchlauf zu erreichen.

Claims (12)

  1. Generator (1) zur Erzeugung dreidimensionaler Punktewolken (13) synthetischer Lidarsignale (12) aus einem Satz von mit einem physikalischen Lidarsensor (9) gemessenen Lidarsignalen (10), umfassend einen Zufallsgenerator (2) und ein erstes maschinelles Lernsystem (3), das Vektoren oder Tensoren von Zufallswerten (21) aus dem Zufallsgenerator (2) als Eingabe erhält und jeden solchen Vektor, bzw. jeden solchen Tensor, durch eine interne Verarbeitungskette (4) auf eine dreidimensionale Punktewolke (13) eines synthetischen Lidarsignals (12) abbildet, wobei die interne Verarbeitungskette (4) des ersten Maschinelles Lernsystems (3) mit einer Vielzahl von Parametern (41a-41c) parametrisiert ist und wobei diese Parameter (41a-41c) so gesetzt sind, dass die dreidimensionale Punktewolke (11; 13) des Lidarsignals (10; 12), und/oder mindestens eine aus dieser Punktewolke (11; 13) abgeleitete Kenngröße (14), für die synthetischen Lidarsignale (12) im Wesentlichen die gleiche Verteilung aufweist wie für die gemessenen Lidarsignale (10).
  2. Generator (1) nach Anspruch 1, wobei die Kenngröße (14) ein oder mehrere Elemente der Punktewolke umfasst, denen eine Entfernung und eine Geschwindigkeit, relativ zum physikalischen Lidarsensor (9) zugeordnet sind.
  3. Generator (1) nach einem der Ansprüche 1 bis 2, wobei das erste Maschinelles Lernsystem (3) weiterhin mindestens eine Randbedingung (31) als Eingabe erhält und wobei die Parameter (41a-41c) der internen Verarbeitungskette (4) so gesetzt sind, dass die dreidimensionale Punktewolke (11; 13), und/oder die Kenngröße (14), für die synthetischen Lidarsignale (12) im Wesentlichen die gleiche Verteilung aufweist wie für diejenigen gemessenen Lidarsignale (10), die der Randbedingung (31) genügen.
  4. Generator (1) nach einem der Ansprüche 1 bis 3, wobei das erste Maschinelles Lernsystem (3) ein künstliches neuronales Netzwerk umfasst, dessen interne Verarbeitungskette (4) mindestens eine Faltungsschicht (42a, 42b), und/oder mindestens eine vollvernetzte Schicht (43a, 43b), aufweist.
  5. Generator (1) nach einem der Ansprüche 1 bis 4, wobei der Zufallsgenerator (2) ein physikalischer Zufallsgenerator ist, der die Zufallswerte aus thermischem oder elektronischem Rauschen mindestens eines Bauelements, und/oder aus einer zeitlichen Abfolge radioaktiver Zerfälle eines instabilen Isotops, erzeugt.
  6. Verfahren zum Erstellen einer dreidimensionalen Punktewolke (13) synthetischer Lidarsignale (12), hergestellt mit einem Generator (1) nach einem der Ansprüche 1 bis 5.
  7. Verfahren (100) zur Herstellung eines Generators (1) nach einem der Ansprüche 1 bis 5, wobei dreidimensionale Punktewolken (11) der gemessenen Lidarsignale (10) mit von dem Generator (1) erzeugten dreidimensionalen Punktewolken (13) der synthetischen Lidarsignale (12) in einem Pool (15) vereinigt werden (110), wobei die in dem Pool (15) dreidimensionalen Punktewolken (11, 13) mit einem Klassifikator (5) dahingehend klassifiziert werden (120), ob sie zu gemessenen (10) oder zu synthetischen (12) Lidarsignalen gehören, wobei die Parameter (41a-41c) der Verarbeitungskette (4) des maschinelles Lernsystems (3) im Generator (1) auf eine möglichst schlechte Klassifikationsgüte (5a) des Klassifikators (5) optimiert werden (130).
  8. Verfahren (100) nach Anspruch 7, wobei ein zweites maschinelles Lernsystem als Klassifikator (5) gewählt wird, wobei dieses zweite maschinelle Lernsystem eine weitere interne Verarbeitungskette (6) aufweist, die mit einer Vielzahl von Parametern (61a-61c) parametrisiert ist, wobei diese Parameter (61a-61c) auf eine möglichst gute Klassifikationsgüte (5a) des Klassifikators (5) optimiert werden (140).
  9. Verfahren (200) zur Erkennung von Objekten (72a, 72b), und/oder eines von Objekten (72a, 72b) eines bestimmten Typs freien Raums, im Umfeld (71) eines Fahrzeugs (7), wobei das Fahrzeug (7) mindestens einen Lidarsensor (73) zur Erfassung mindestens eines Teils des Umfelds (71) aufweist und wobei dreidimensionalen Punktewolken (11) von durch den Lidarsensor (73) erfassten Lidarsignalen (10) von einem dritten maschinellen Lernsystem (74) dahingehend klassifiziert werden (220), welche Objekte (72a, 72b) im Umfeld (71) des Fahrzeugs (7) vorhanden sind, wobei das dritte maschinelle Lernsystem (74) mit mittels des Verfahrens nach Anspruch 6 erzeugten Trainingsdaten (74a) trainiert ist oder trainiert wird (210).
  10. Verfahren (200) nach Anspruch 9, dadurch gekennzeichnet, dass in Antwort auf die Erkennung (220) mindestens eines Objekts (72a, 72b), und/oder eines von Objekten (72a, 72b) eines bestimmten Typs freien Raums, eine für den Fahrer des Fahrzeugs (7) wahrnehmbare physikalische Warneinrichtung (75a), ein Antriebssystem (75b), ein Lenksystem (75c), und/oder ein Bremssystem (75d), des Fahrzeugs (7) angesteuert wird zwecks Vermeidung einer Kollision zwischen dem Fahrzeug (7) und dem Objekt (72a, 72b), und/oder zwecks Anpassung der Geschwindigkeit und/oder Trajektorie des Fahrzeugs (7).
  11. Verfahren (300) zur Optimierung mindestens eines Einbauparameters (73a) oder Betriebsparameters (73b) für einen Lidarsensor (73) zur Erkennung von Objekten (72a, 72b), und/oder eines von Objekten (72a, 72b) eines bestimmten Typs freien Raums, im Umfeld (71) eines Fahrzeugs (7), wobei für verschiedene Werte des Einbauparameters (73a) bzw. Betriebsparameters (73b) jeweils mindestens eine dreidimensionale Punktewolke (13) eines synthetischen Lidarsignals (12) mit einem Generator (1) nach einem der Ansprüche 1 bis 5 erzeugt wird (310a), und/oder aus einem Datensatz (13a) nach Anspruch 6 abgerufen wird (310b), wobei die Erkennung von Objekten (72a, 72b) in der dreidimensionalen Punktewolke (13) des synthetischen Lidarsignals (12) mit einem Gütemaß bewertet wird (320) und wobei der Einbauparameter (73a) oder Betriebsparameter (73b) dahingehend variiert wird (330), dass das Gütemaß ein Extremum annimmt (340).
  12. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem Computer, und/oder auf einem Steuergerät, ausgeführt werden, den Computer, und/oder das Steuergerät, zu einem Generator (1) nach einem der Ansprüche 1 bis 5 aufwerten, und/oder dazu veranlassen, ein Verfahren (100, 200, 300) nach einem der Ansprüche 7 bis 11 auszuführen.
DE102019213546.3A 2019-09-05 2019-09-05 Erzeugung synthetischer Lidarsignale Pending DE102019213546A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102019213546.3A DE102019213546A1 (de) 2019-09-05 2019-09-05 Erzeugung synthetischer Lidarsignale
US17/009,351 US20210072397A1 (en) 2019-09-05 2020-09-01 Generation of synthetic lidar signals
CN202010920771.8A CN112444822A (zh) 2019-09-05 2020-09-04 合成激光雷达信号的产生

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019213546.3A DE102019213546A1 (de) 2019-09-05 2019-09-05 Erzeugung synthetischer Lidarsignale

Publications (1)

Publication Number Publication Date
DE102019213546A1 true DE102019213546A1 (de) 2021-03-11

Family

ID=74644764

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019213546.3A Pending DE102019213546A1 (de) 2019-09-05 2019-09-05 Erzeugung synthetischer Lidarsignale

Country Status (3)

Country Link
US (1) US20210072397A1 (de)
CN (1) CN112444822A (de)
DE (1) DE102019213546A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11550325B2 (en) 2020-06-10 2023-01-10 Nvidia Corp. Adversarial scenarios for safety testing of autonomous vehicles
US11390301B2 (en) * 2020-06-10 2022-07-19 Nvidia Corp. Tensor-based driving scenario characterization
US11599745B2 (en) * 2020-06-24 2023-03-07 Denso International America, Inc. System and method for generating synthetic training data
US11798288B2 (en) 2021-03-16 2023-10-24 Toyota Research Institute, Inc. System and method for generating a training set for improving monocular object detection
CN115291198B (zh) * 2022-10-10 2023-01-24 西安晟昕科技发展有限公司 一种雷达信号发射及信号处理方法
CN118519116A (zh) * 2024-06-06 2024-08-20 苏州承泰科技有限公司 一种雷达点云预测方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007008021A1 (de) * 2007-02-15 2008-08-21 Tecdata Ag Verfahren zur Messung von Informationen
WO2018176000A1 (en) * 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US10788585B2 (en) * 2017-09-15 2020-09-29 Toyota Research Institute, Inc. System and method for object detection using a probabilistic observation model
US11275673B1 (en) * 2019-06-24 2022-03-15 Zoox, Inc. Simulated LiDAR data

Also Published As

Publication number Publication date
US20210072397A1 (en) 2021-03-11
CN112444822A (zh) 2021-03-05

Similar Documents

Publication Publication Date Title
DE102018204494B3 (de) Erzeugung synthetischer Radarsignale
DE102019213546A1 (de) Erzeugung synthetischer Lidarsignale
EP3156820B1 (de) Verfahren zum erfassen eines dynamischen objekts in einem umgebungsbereich eines kraftfahrzeugs auf basis von informationen einer kraftfahrzeugseitigen ultraschall-detektionseinrichtung, fahrerassistenzsystem und kraftfahrzeug
DE102017119538A1 (de) Physikalische Modellierung für Radar- und Ultraschallsensoren
DE102011117585A1 (de) Systeme und Verfahren zum Verfolgen von Objekten
DE102014208009A1 (de) Erfassen von statischen und dynamischen Objekten
EP2402827B1 (de) Verfahren und Vorrichtung für eine Funktionsprüfung einer Objekt-Erkennungseinrichtung eines Kraftwagens
DE102013212710A1 (de) Sensorprodukt, Simulator und Verfahren zur Simulation von Sensormessungen, zur Fusion von Sensormessungen, zur Validierung eines Sensormodells und zum Entwurf eines Fahrerassistenzsystems
DE102018128289A1 (de) Verfahren und vorrichtung für eine autonome systemleistung und zur einstufung
DE102008013366A1 (de) Verfahren zur Bereitstellung von Information für Fahrerassistenzsysteme
DE102019215903A1 (de) Verfahren und Vorrichtung zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten eines Sensors insbesondere eines Fahrzeugs, Verfahren zum Trainieren und Verfahren zum Ansteuern
DE102021128041A1 (de) Verbesserung eines neuronalen fahrzeugnetzwerks
DE102019214200A1 (de) Übersetzung von Trainingsdaten zwischen Beobachtungsmodalitäten
DE102019212602A1 (de) Verfahren zum quantitativen Charakterisieren zumindest einer zeitlichen Sequenz eines Objektattribut-Fehlers eines Objektes
EP3818467A1 (de) Realistischere simulation physikalischer messdaten
DE102020105192A1 (de) Verfahren zum Detektieren bewegter Objekte in einer Fahrzeugumgebung und Kraftfahrzeug
DE102019218349A1 (de) Verfahren zum Klassifizieren von zumindest einem Ultraschallecho aus Echosignalen
DE102019130096A1 (de) Verfahren zur Ermittlung einer Radarinformation, Simulationsverfahren, Klassifizierungsverfahren, Computerprogramm und Berechnungssystem
WO2019162317A1 (de) Verfahren zur erzeugung von sensordaten für sicherheitskritische automobil-steuergeräte
DE102020214596A1 (de) Verfahren zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten einer Umfeldsensorik eines Fahrzeugs, Verfahren zum Erzeugen eines solchen Erkennungsmodells und Verfahren zum Ansteuern einer Aktorik eines Fahrzeugs
DE102017208692A1 (de) Verfahren zum Bereitstellen von Trainingsdaten für eine Funktionsprüfung einer Erkennungseinrichtung sowie Datenbanksystem
DE102017201796A1 (de) Steuervorrichtung zum Ermitteln einer Eigenbewegung eines Kraftfahrzeugs sowie Kraftfahrzeug und Verfahren zum Bereitstellen der Steuervorrichtung
WO2022251890A1 (de) Verfahren und system zum testen eines fahrerassistenzsystems für ein fahrzeug
DE102021133977A1 (de) Verfahren und System zur Klassifikation von Szenarien eines virtuellen Tests sowie Trainingsverfahren
DE102022000849A1 (de) Verfahren zur Erzeugung einer Umgebungsrepräsentation für ein Fahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified