DE102019003621A1 - Verfahren zur Verarbeitung von Lidarsensordaten - Google Patents

Verfahren zur Verarbeitung von Lidarsensordaten Download PDF

Info

Publication number
DE102019003621A1
DE102019003621A1 DE102019003621.2A DE102019003621A DE102019003621A1 DE 102019003621 A1 DE102019003621 A1 DE 102019003621A1 DE 102019003621 A DE102019003621 A DE 102019003621A DE 102019003621 A1 DE102019003621 A1 DE 102019003621A1
Authority
DE
Germany
Prior art keywords
resolution
lidar sensor
neural network
lidar
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019003621.2A
Other languages
English (en)
Inventor
Larissa Triess
David Peter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102019003621.2A priority Critical patent/DE102019003621A1/de
Publication of DE102019003621A1 publication Critical patent/DE102019003621A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Abstract

Die Erfindung betrifft ein Verfahren zur Verarbeitung von Lidarsensordaten.Erfindungsgemäß wird ein faltendes neuronales Netzwerk (1) verwendet, mittels welchem anhand der von einem Lidarsensor, insbesondere eines Fahrzeugs, erfassten niedrig aufgelösten Lidarsensordaten höher aufgelöste Entfernungs-Punktwolken generiert werden.

Description

  • Die Erfindung betrifft ein Verfahren zur Verarbeitung von Lidarsensordaten.
  • Aus dem Stand der Technik ist eine Verarbeitung von Lidarsensordaten in Fahrzeugen allgemein bekannt.
  • In „Perceptual Losses for Real-Time Style Transfer and Super-Resolution“, Justin Johnson, Alexandre Alahi, Li Fei-Fei, Department of Computer Science, Stanford University, werden Bildtransformationsprobleme behandelt, bei denen ein Eingangsbild in ein Ausgangsbild transformiert wird. Es werden Wahrnehmungsverlustfunktionen für das Training von Feed-Forward-Netzwerken für Bildtransformationsaufgaben verwendet.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Verarbeitung von Lidarsensordaten anzugeben.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zur Verarbeitung von Lidarsensordaten mit den Merkmalen des Anspruchs 1.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • In einem erfindungsgemäßen Verfahren zur Verarbeitung von Lidarsensordaten, insbesondere zum künstlichen Erzeugen von hoch auflösenden Lidar-Scans mittels eines niedrig auflösenden Lidarsensors, wird ein faltendes neuronales Netzwerk (Convolutional Neural Network - CNN) verwendet, mittels welchem anhand der vom Lidarsensor, insbesondere eines Fahrzeugs, erfassten niedrig aufgelösten Lidarsensordaten, d. h. anhand von niedrig aufgelösten Lidar-Scans, höher aufgelöste, insbesondere hochaufgelöste, insbesondere realistische, Entfernungs-Punktwolken generiert werden.
  • Vorteilhafterweise wird/werden bei einem Trainieren des faltenden neuronalen Netzwerks mindestens eine Wahrnehmungsverlustfunktion oder Wahrnehmungsverlustfunktionen angewandt. Durch dieses Anwenden einer oder mehrerer solcher Wahrnehmungsverlustfunktionen (perceptual loss functions) werden lückenhafte Entfernungswerte ausgeglichen. Diese Wahrnehmungsverlustfunktion ist dabei insbesondere nicht eine normale Berechnung, sondern sie ist insbesondere in sich selbst auch ein tiefes neuronales Netzwerk.
  • Vorteilhafterweise werden zum Trainieren des faltenden neuronalen Netzwerks mittels eines Trainingsdatengenerators aus Ground-Truth-Daten die niedrig aufgelösten Lidarsensordaten generiert, insbesondere auf eine niedrigere Auflösung heruntergerechnet, und dem faltenden neuronalen Netzwerk als Eingangsdaten zugeführt, welches daraus die höher aufgelösten Entfernungs-Punktwolken als Ausgangsdaten generiert. D. h. das faltende neuronale Netzwerk wird trainiert, aus diesen heruntergerechneten niedrig aufgelösten Eingangsdaten hoch aufgelöste Ausgangsdaten zu generieren.
  • Das Herzstück des Verfahrens ist somit das faltende neuronale Netzwerk, das direkt mit dem Lidar-Scan, d. h. mit den Lidarsensordaten, arbeitet. Es verwendet Lidar-Entfernungsmessungen mit niedriger Auflösung als Eingangsdaten und generiert realistische Lidar-Scans mit hoher Auflösung als Ausgangsdaten. Das faltende neuronale Netzwerk wird aus Sequenzen von Lidar-Aufzeichnungen ohne manuelle Anmerkungen trainiert. Das Verfahren berücksichtigt insbesondere fehlende Entfernungsmessungen, die bei Lidar-Punktwolken stets möglich sind. Um realistische Ausgangsdaten zu erzielen, wird die Wahrnehmungsverlustfunktion zum Trainieren des faltenden neuronalen Netzwerks verwendet. Diese Wahrnehmungsverlustfunktion verwendet ein separat trainiertes Merkmalsextraktionsnetzwerk (für eine semantische Kennzeichnung), um die semantische Bedeutung und das visuelle Erscheinungsbild der Punktwolke auf hohem Niveau zu erhalten.
  • Lidarsensoren, auch als Lidar-Scanner bezeichnet, sind unverzichtbare Sensoren für fortschrittliche Fahrerassistenzsysteme von Fahrzeugen und für selbstfahrende Fahrzeuge. Heutige Lidarsensoren verfügen über eine sehr begrenzte (vertikale) Auflösung, die aus Sicherheitssicht nicht ausreichend ist. Die Entwicklung in Richtung Sensoren mit höheren Auflösungen schreitet jedoch stetig voran. Dies bedeutet, dass zukünftige Fahrzeuge mit Lidarsensoren ausgestattet werden, die derzeit noch nicht verfügbar sind. Dies ist ein Problem für Softwareentwickler, da sie die erforderliche Nachverarbeitungssoftware (Umgebungswahrnehmungsalgorithmen) schreiben müssen, ohne die richtigen Eingangsdaten zu haben. Das erfindungsgemäße Verfahren löst dieses Problem, denn es ermöglicht ein Synthetisieren realistischer Lidar-Scans mit hoher Auflösung aus Eingangsdaten, d. h. Lidarsensordaten, mit niedriger Auflösung.
  • Die erfindungsgemäße Lösung ermöglicht somit Entwicklern die Verwendung von Lidarsensoren mit niedriger Auflösung bei der Verarbeitung zukünftiger hochaufgelöster Lidar-Scans, ohne auf die eigentliche Hardware warten zu müssen.
  • Zudem kann das Verfahren auch bereits in derzeit verfügbaren Fahrzeugen und somit auch bei den hier vorhandenen niedrig auflösenden Lidarsensoren verwendet werden, um aus den erfassten niedrig aufgelösten Lidarsensordaten die hochaufgelösten realistischen Entfernungs-Punktwolken zu generieren und dadurch einen Sicherheitsgewinn für die Fahrerassistenzsysteme zu erzielen.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
  • Dabei zeigen:
    • 1 eine schematische Darstellung eines Trainieren eines faltenden neuronalen Netzwerks für ein Verfahren zur Verarbeitung von Lidarsensordaten, und
    • 2 schematisch eine Architektur des faltenden neuronalen Netzwerks.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • Im Folgenden wird anhand der 1 und 2 ein Verfahren zur Verarbeitung von Lidarsensordaten, insbesondere zum künstlichen Erzeugen von hoch auflösenden Lidar-Scans mittels eines niedrig auflösenden Lidarsensors, beschrieben. Der Lidarsensor ist insbesondere ein Lidarsensor eines Fahrzeugs oder für ein Fahrzeug. Derartige Lidarsensoren, auch als Lidar-Scanner bezeichnet, sind unverzichtbare Sensoren für fortschrittliche Fahrerassistenzsysteme von Fahrzeugen und für selbstfahrende Fahrzeuge.
  • Heutige Lidarsensoren verfügen über eine sehr begrenzte (vertikale) Auflösung, die aus Sicherheitssicht nicht ausreichend ist. Die Entwicklung in Richtung Sensoren mit höheren Auflösungen schreitet jedoch stetig voran. Dies bedeutet, dass zukünftige Fahrzeuge mit Lidarsensoren ausgestattet werden, die derzeit noch nicht verfügbar sind. Dies ist ein Problem für Softwareentwickler, da sie die erforderliche Nachverarbeitungssoftware (Umgebungswahrnehmungsalgorithmen) schreiben müssen, ohne die richtigen Eingangsdaten zu haben.
  • In dem hier beschriebenen Verfahren ist daher vorgesehen, dass mittels eines faltenden neuronalen Netzwerks 1 (Convolutional Neural Network - CNN) anhand der vom Lidarsensor erfassten niedrig aufgelösten Lidarsensordaten, d. h. anhand von niedrig aufgelösten Lidar-Scans, hochaufgelöste realistische Entfernungs-Punktwolken generiert werden. Um dies zu ermöglichen, wird das faltende neuronale Netzwerk 1 zunächst trainiert, wie in 1 schematisch dargestellt.
  • Zum Trainieren des faltenden neuronalen Netzwerks 1 werden mittels eines Trainingsdatengenerators 2 aus hoch aufgelösten Ground-Truth-Daten GT die niedrig aufgelösten Lidarsensordaten generiert, insbesondere auf eine niedrigere Auflösung heruntergerechnet, und dem faltenden neuronalen Netzwerk 1 als niedrig aufgelöste Eingangsdaten ED zugeführt, welches daraus die hochaufgelösten Entfernungs-Punktwolken als hochaufgelöste Ausgangsdaten AD generiert. D. h. das faltende neuronale Netzwerk 1 wird trainiert, aus diesen heruntergerechneten niedrig aufgelösten Eingangsdaten ED hoch aufgelöste Ausgangsdaten AD zu generieren.
  • Bei diesem Trainieren des faltenden neuronalen Netzwerks 1 wird vorteilhafterweise eine Wahrnehmungsverlustfunktion (perceptual loss function) angewandt. Dadurch werden lückenhafte Entfernungswerte ausgeglichen.
  • Im Beispiel gemäß 1 ist zudem ein Merkmalsextraktionsnetzwerk 3, insbesondere bestehend aus einem LiLaNet (Feature Extractor), vorgesehen. Ein solches LiLaNet wird beispielsweise in https://arxiv.org/pdf/1804.09915.pdf beschrieben. Für das hier beschriebene Verfahren wurde die Architektur in dem Sinne verändert, dass eine Anzahl von Filtern innerhalb dieses Netzwerks auf 22% der (oben angegebenen) Originalveröffentlichung reduziert wurde, um das Netzwerk trainierbar zu machen für den hier beschriebenen Zweck.
  • Dieses LiLaNet ist ein Punktwolken-Merkmalsextraktionsnetzwerk. Ursprünglich, d. h. in der oben angegebenen Originalveröffentlichung, wird das LiLaNet für eine semantische Segmentierung von Punktwolken verwendet. Für das hier beschriebene Verfahren wird es jedoch als Feature Extractor (zur Merksmalsextraktion) verwendet, da es sich hierfür gut eignet. Es wird hier verwendet, um einen sogenannten Wahrnehmungsverlust (perceptual loss) zu ermitteln, der zwei Merkmalskarten FM_GT, FM_AD (Feature Maps) in einem punktweisen L1-Regressionsverlust vergleicht. L1 ist dabei eine Regressionsverlustfunktion auf Basis der geringsten absoluten Abweichungen (least absolute deviations). Dabei wird die eine Merkmalskarte FM_GT vom Merkmalsextraktionsnetzwerk 3, insbesondere vom LiLaNet, aus den Ground-Truth-Daten GT extrahiert und die andere Merkmalskarte FM_AD wird vom Merkmalsextraktionsnetzwerk 3, insbesondere vom LiLaNet, aus den hoch aufgelösten Ausgangsdaten AD des faltenden neuronalen Netzwerks 1 extrahiert bzw. generiert.
  • Die in 1 schematisch dargestellten beiden Blöcke des Merkmalsextraktionsnetzwerks 3 sind dabei exakt das gleiche Netzwerk, welches auch nicht mehr trainiert wird (vortrainiert). Es ist in 1 nur als zwei Blöcke dargestellt, damit klar ersichtlich ist, dass die Ground-Truth-Daten GT und die Ausgangsdaten AD nicht zusammen in den gleichen Block gehen, sondern voneinander getrennt. Gewichte (weights) zwischen diesen beiden Blöcken sind die gleichen (shared weights), in 1 dargestellt als weight sharing WS.
  • Die Merkmalskarten FM_GT, FM_AD werden dann einer punktweisen Regressionsverlustkomponente 4 (Loss) zugeführt, um den Wahrnehmungsverlust zu ermitteln. Im dargestellten Beispiel wird ein von der Regressionsverlustkomponente 4 ermittelter Verlustwert VW dann einem Optimierer 5, insbesondere einem Adam Optimizer, zugeführt.
  • 2 zeigt beispielhaft eine Architektur des faltenden neuronalen Netzwerks 1, inspiriert durch und insbesondere abgeleitet aus J. Johnson, A. Alahi, and L. Fei-Fei, „Perceptual losses for real-time style transfer and super-resolution,“ in ECCV, 2016. Die Architektur umfasst einen Faltungsblock FB1 mit 64 Filtern und einer Kerngröße von 9x9, vier Restwertblöcke RB (Residual Blocks), einen transponierten Faltungsblock TFB mit 64 Filtern und einer Kerngröße von 4x1, in welchem das tatsächliche Hochrechnen auf die hohe Auflösung erfolgt, und einen Faltungsblock FB2 mit einem Filter und einer Kerngröße von 9x9. Jeder Restwertblock RB umfasst zwei Faltungsblöcke RFB mit 64 Filtern und einer Kerngröße von 3x3, gefolgt jeweils von einem Stapelnormalisierungsblock SB (Batch Normalization). Zwischen den beiden Restwertblöcken RB ist eine Aktivierungsfunktion AF angeordnet, genauer gesagt eine ReLU (Rectifier Linear Unit) activation function.
  • Zum Verständnis des hier beschriebenen Verfahrens ist die obige detaillierte Beschreibung der in 2 dargestellten Architektur nicht unbedingt erforderlich. Die für das Verfahren insbesondere wichtige Makroarchitektur, welche die Neuerung gegenüber dem Stand der Technik in der Verarbeitung der Lidardaten darstellt, ist bereits in 1 gezeigt. Die Neuerung besteht insbesondere auch darin, dass anstatt eines klassischen Regressions-Loss (direkt nach dem ersten Netzwerk, hier nach dem faltenden neuronalen Netzwerk 1, zwischen den Ausgangsdaten AD und den Ground-Truth-Daten GT), ein zweites Netzwerk, hier in Form des aus dem LiLaNet bestehenden Merkmalsextraktionsnetzwerks 3, verwendet wird, um den eigentlich Loss, d. h. insbesondere den Wahrnehmungsverlust, zwischen der vom Merkmalsextraktionsnetzwerk 3, insbesondere vom LiLaNet, aus den hoch aufgelösten Ausgangsdaten AD des faltenden neuronalen Netzwerks 1 extrahierten bzw. generierten Merkmalskarte FM_AD und der vom Merkmalsextraktionsnetzwerk 3, insbesondere vom LiLaNet, aus den Ground-Truth-Daten GT extrahierten Merkmalskarte FM_GT in der punktweisen Regressionsverlustkomponente 4 zu berechnen. Nur so kann eine realistische Erzeugung der Punktwolken erfolgen.
  • Das Herzstück des Verfahrens ist somit das faltende neuronale Netzwerk 1, das direkt mit dem Lidar-Scan, d. h. mit den Lidarsensordaten, arbeitet. Es verwendet Lidar-Entfernungsmessungen mit niedriger Auflösung als Eingangsdaten ED und generiert realistische Lidar-Scans mit hoher Auflösung als Ausgangsdaten AD. Das faltende neuronale Netzwerk 1 wird aus Sequenzen von Lidar-Aufzeichnungen ohne manuelle Anmerkungen trainiert. Das Verfahren berücksichtigt insbesondere fehlende Entfernungsmessungen, die bei Lidar-Punktwolken stets möglich sind. Um realistische Ausgangsdaten AD zu erzielen, wird die Wahrnehmungsverlustfunktion zum Trainieren des faltenden neuronalen Netzwerks 1 verwendet. Diese Wahrnehmungsverlustfunktion verwendet ein separat trainiertes Merkmalsextraktionsnetzwerk (für eine semantische Kennzeichnung), um die semantische Bedeutung und das visuelle Erscheinungsbild der Punktwolke auf hohem Niveau zu erhalten.
  • Das beschriebene Verfahren ermöglicht somit ein Synthetisieren realistischer Lidar-Scans mit hoher Auflösung aus Eingangsdaten ED, d. h. Lidarsensordaten, mit niedriger Auflösung.
  • Bezugszeichenliste
  • 1
    faltendes neuronales Netzwerk
    2
    Trainingsdatengenerator
    3
    Merkmalsextraktionsnetzwerk
    4
    Regressionsverlustkomponente
    5
    Optimierer
    AD
    Ausgangsdaten
    AF
    Aktivierungsfunktion
    ED
    Eingangsdaten
    FM_AD, FM_GT
    Merkmalskarte
    FB1, FB2
    Faltungsblock
    RFB
    Faltungsblock
    GT
    Ground-Truth-Daten
    RB
    Restwertblock
    SB
    Stapelnormalisierungsblock
    TFB
    transponierter Faltungsblock
    VW
    Verlustwert
    WS
    weight sharing

Claims (3)

  1. Verfahren zur Verarbeitung von Lidarsensordaten, dadurch gekennzeichnet, dass ein faltendes neuronales Netzwerk (1) verwendet wird, mittels welchem anhand der von einem Lidarsensor, insbesondere eines Fahrzeugs, erfassten niedrig aufgelösten Lidarsensordaten höher aufgelöste Entfernungs-Punktwolken generiert werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass bei einem Trainieren des faltenden neuronalen Netzwerks (1) mindestens eine Wahrnehmungsverlustfunktion angewandt wird, um lückenhafte Entfernungswerte auszugleichen.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zum Trainieren des faltenden neuronalen Netzwerks (1) mittels eines Trainingsdatengenerators (2) aus Ground-Truth-Daten (GT) die niedrig aufgelösten Lidarsensordaten generiert werden und dem faltenden neuronalen Netzwerk (1) zugeführt werden, welches daraus die höher aufgelösten Entfernungs-Punktwolken generiert.
DE102019003621.2A 2019-05-23 2019-05-23 Verfahren zur Verarbeitung von Lidarsensordaten Pending DE102019003621A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019003621.2A DE102019003621A1 (de) 2019-05-23 2019-05-23 Verfahren zur Verarbeitung von Lidarsensordaten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019003621.2A DE102019003621A1 (de) 2019-05-23 2019-05-23 Verfahren zur Verarbeitung von Lidarsensordaten

Publications (1)

Publication Number Publication Date
DE102019003621A1 true DE102019003621A1 (de) 2020-01-02

Family

ID=68886136

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019003621.2A Pending DE102019003621A1 (de) 2019-05-23 2019-05-23 Verfahren zur Verarbeitung von Lidarsensordaten

Country Status (1)

Country Link
DE (1) DE102019003621A1 (de)

Similar Documents

Publication Publication Date Title
DE102018200724A1 (de) Verfahren und Vorrichtung zum Verbessern der Robustheit gegen "Adversarial Examples"
EP3785177B1 (de) Verfahren und vorrichtung zum ermitteln einer netzkonfiguration eines neuronalen netzes
DE202017102238U1 (de) Aktorsteuerungssystem
DE202017102235U1 (de) Trainingssystem
DE102017211331A1 (de) Bildauswertung mit zielgerichteter Vorverarbeitung
EP2999998B1 (de) Methode zur ermittlung eines modells einer ausgangsgrösse eines technischen systems
DE102019209644A1 (de) Verfahren zum Trainieren eines neuronalen Netzes
DE102020001541A1 (de) Verfahren zur Transformation erfasster Sensordaten aus einer ersten Datendomäne in eine zweite Datendomäne
DE112019007762T5 (de) Verfahren zum Trainieren eines generativen kontradiktorischen Netzes, modifiziertes Bildgenerierungsmodul und System zum Detektieren von Merkmalen in einem Bild
DE102017127600A1 (de) Verfahren zum automatischen Parken für ein Kraftfahrzeug mit einem Fahrunterstützungssystem
DE102018220941A1 (de) Auswertung von Messgrößen mit KI-Modulen unter Berücksichtigung von Messunsicherheiten
DE102016204506A1 (de) Fortdruckinspektion mit lokaler Optimierung
DE112020003343T5 (de) System und verfahren mit einem robusten tiefen generativen modell
EP3782081B1 (de) Verfahren zur erzeugung eines testdatensatzes, verfahren zum testen, verfahren zum betreiben eines systems, vorrichtung, steuerungssystem, computerprogrammprodukt, computerlesbares medium, erzeugung und verwendung
DE102019003621A1 (de) Verfahren zur Verarbeitung von Lidarsensordaten
DE102014207870A1 (de) Verfahren zur automatisierten Erstellung eines zwei technische Zeichnungen charakterisierenden Datensatzes
DE102019212912A1 (de) Komprimieren eines tiefen neuronalen Netzes
DE102020212366A1 (de) Transformieren von Messdaten zwischen verschiedenen Konfigurationen von Messsystemen
DE102020122979A1 (de) Verfahren zum Bereitstellen eines komprimierten, robusten neuronalen Netzes und Assistenzeinrichtung
EP3748574A1 (de) Adaptive bereinigung von messdaten um unterschiedliche arten von störungen
DE102020211596A1 (de) Verfahren zum Generieren eines trainierten neuronalen Faltungs-Netzwerks mit invarianter Integrationsschicht zum Klassifizieren von Objekten
DE102020208765A1 (de) Bildklassifikator mit variablen rezeptiven Feldern in Faltungsschichten
DE102020209979A1 (de) Verfahren und Vorrichtung zum Erkennen eines Objekts aus Eingabedaten
DE102010018142A1 (de) Verfahren zur Aufnahme eines Bildes
WO2022129203A1 (de) Verfahren zum trainieren eines ml-systems, ml-system, computerprogramm, maschinenlesbares speichermedium und vorrichtung

Legal Events

Date Code Title Description
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: MERCEDES-BENZ GROUP AG, DE

Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE

Owner name: DAIMLER AG, DE

Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE

R081 Change of applicant/patentee

Owner name: MERCEDES-BENZ GROUP AG, DE

Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE

R012 Request for examination validly filed