DE102019003621A1 - Verfahren zur Verarbeitung von Lidarsensordaten - Google Patents
Verfahren zur Verarbeitung von Lidarsensordaten Download PDFInfo
- Publication number
- DE102019003621A1 DE102019003621A1 DE102019003621.2A DE102019003621A DE102019003621A1 DE 102019003621 A1 DE102019003621 A1 DE 102019003621A1 DE 102019003621 A DE102019003621 A DE 102019003621A DE 102019003621 A1 DE102019003621 A1 DE 102019003621A1
- Authority
- DE
- Germany
- Prior art keywords
- resolution
- lidar sensor
- neural network
- lidar
- sensor data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Abstract
Die Erfindung betrifft ein Verfahren zur Verarbeitung von Lidarsensordaten.Erfindungsgemäß wird ein faltendes neuronales Netzwerk (1) verwendet, mittels welchem anhand der von einem Lidarsensor, insbesondere eines Fahrzeugs, erfassten niedrig aufgelösten Lidarsensordaten höher aufgelöste Entfernungs-Punktwolken generiert werden.
Description
- Die Erfindung betrifft ein Verfahren zur Verarbeitung von Lidarsensordaten.
- Aus dem Stand der Technik ist eine Verarbeitung von Lidarsensordaten in Fahrzeugen allgemein bekannt.
- In „Perceptual Losses for Real-Time Style Transfer and Super-Resolution“, Justin Johnson, Alexandre Alahi, Li Fei-Fei, Department of Computer Science, Stanford University, werden Bildtransformationsprobleme behandelt, bei denen ein Eingangsbild in ein Ausgangsbild transformiert wird. Es werden Wahrnehmungsverlustfunktionen für das Training von Feed-Forward-Netzwerken für Bildtransformationsaufgaben verwendet.
- Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Verarbeitung von Lidarsensordaten anzugeben.
- Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zur Verarbeitung von Lidarsensordaten mit den Merkmalen des Anspruchs 1.
- Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
- In einem erfindungsgemäßen Verfahren zur Verarbeitung von Lidarsensordaten, insbesondere zum künstlichen Erzeugen von hoch auflösenden Lidar-Scans mittels eines niedrig auflösenden Lidarsensors, wird ein faltendes neuronales Netzwerk (Convolutional Neural Network - CNN) verwendet, mittels welchem anhand der vom Lidarsensor, insbesondere eines Fahrzeugs, erfassten niedrig aufgelösten Lidarsensordaten, d. h. anhand von niedrig aufgelösten Lidar-Scans, höher aufgelöste, insbesondere hochaufgelöste, insbesondere realistische, Entfernungs-Punktwolken generiert werden.
- Vorteilhafterweise wird/werden bei einem Trainieren des faltenden neuronalen Netzwerks mindestens eine Wahrnehmungsverlustfunktion oder Wahrnehmungsverlustfunktionen angewandt. Durch dieses Anwenden einer oder mehrerer solcher Wahrnehmungsverlustfunktionen (perceptual loss functions) werden lückenhafte Entfernungswerte ausgeglichen. Diese Wahrnehmungsverlustfunktion ist dabei insbesondere nicht eine normale Berechnung, sondern sie ist insbesondere in sich selbst auch ein tiefes neuronales Netzwerk.
- Vorteilhafterweise werden zum Trainieren des faltenden neuronalen Netzwerks mittels eines Trainingsdatengenerators aus Ground-Truth-Daten die niedrig aufgelösten Lidarsensordaten generiert, insbesondere auf eine niedrigere Auflösung heruntergerechnet, und dem faltenden neuronalen Netzwerk als Eingangsdaten zugeführt, welches daraus die höher aufgelösten Entfernungs-Punktwolken als Ausgangsdaten generiert. D. h. das faltende neuronale Netzwerk wird trainiert, aus diesen heruntergerechneten niedrig aufgelösten Eingangsdaten hoch aufgelöste Ausgangsdaten zu generieren.
- Das Herzstück des Verfahrens ist somit das faltende neuronale Netzwerk, das direkt mit dem Lidar-Scan, d. h. mit den Lidarsensordaten, arbeitet. Es verwendet Lidar-Entfernungsmessungen mit niedriger Auflösung als Eingangsdaten und generiert realistische Lidar-Scans mit hoher Auflösung als Ausgangsdaten. Das faltende neuronale Netzwerk wird aus Sequenzen von Lidar-Aufzeichnungen ohne manuelle Anmerkungen trainiert. Das Verfahren berücksichtigt insbesondere fehlende Entfernungsmessungen, die bei Lidar-Punktwolken stets möglich sind. Um realistische Ausgangsdaten zu erzielen, wird die Wahrnehmungsverlustfunktion zum Trainieren des faltenden neuronalen Netzwerks verwendet. Diese Wahrnehmungsverlustfunktion verwendet ein separat trainiertes Merkmalsextraktionsnetzwerk (für eine semantische Kennzeichnung), um die semantische Bedeutung und das visuelle Erscheinungsbild der Punktwolke auf hohem Niveau zu erhalten.
- Lidarsensoren, auch als Lidar-Scanner bezeichnet, sind unverzichtbare Sensoren für fortschrittliche Fahrerassistenzsysteme von Fahrzeugen und für selbstfahrende Fahrzeuge. Heutige Lidarsensoren verfügen über eine sehr begrenzte (vertikale) Auflösung, die aus Sicherheitssicht nicht ausreichend ist. Die Entwicklung in Richtung Sensoren mit höheren Auflösungen schreitet jedoch stetig voran. Dies bedeutet, dass zukünftige Fahrzeuge mit Lidarsensoren ausgestattet werden, die derzeit noch nicht verfügbar sind. Dies ist ein Problem für Softwareentwickler, da sie die erforderliche Nachverarbeitungssoftware (Umgebungswahrnehmungsalgorithmen) schreiben müssen, ohne die richtigen Eingangsdaten zu haben. Das erfindungsgemäße Verfahren löst dieses Problem, denn es ermöglicht ein Synthetisieren realistischer Lidar-Scans mit hoher Auflösung aus Eingangsdaten, d. h. Lidarsensordaten, mit niedriger Auflösung.
- Die erfindungsgemäße Lösung ermöglicht somit Entwicklern die Verwendung von Lidarsensoren mit niedriger Auflösung bei der Verarbeitung zukünftiger hochaufgelöster Lidar-Scans, ohne auf die eigentliche Hardware warten zu müssen.
- Zudem kann das Verfahren auch bereits in derzeit verfügbaren Fahrzeugen und somit auch bei den hier vorhandenen niedrig auflösenden Lidarsensoren verwendet werden, um aus den erfassten niedrig aufgelösten Lidarsensordaten die hochaufgelösten realistischen Entfernungs-Punktwolken zu generieren und dadurch einen Sicherheitsgewinn für die Fahrerassistenzsysteme zu erzielen.
- Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
- Dabei zeigen:
-
1 eine schematische Darstellung eines Trainieren eines faltenden neuronalen Netzwerks für ein Verfahren zur Verarbeitung von Lidarsensordaten, und -
2 schematisch eine Architektur des faltenden neuronalen Netzwerks. - Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
- Im Folgenden wird anhand der
1 und2 ein Verfahren zur Verarbeitung von Lidarsensordaten, insbesondere zum künstlichen Erzeugen von hoch auflösenden Lidar-Scans mittels eines niedrig auflösenden Lidarsensors, beschrieben. Der Lidarsensor ist insbesondere ein Lidarsensor eines Fahrzeugs oder für ein Fahrzeug. Derartige Lidarsensoren, auch als Lidar-Scanner bezeichnet, sind unverzichtbare Sensoren für fortschrittliche Fahrerassistenzsysteme von Fahrzeugen und für selbstfahrende Fahrzeuge. - Heutige Lidarsensoren verfügen über eine sehr begrenzte (vertikale) Auflösung, die aus Sicherheitssicht nicht ausreichend ist. Die Entwicklung in Richtung Sensoren mit höheren Auflösungen schreitet jedoch stetig voran. Dies bedeutet, dass zukünftige Fahrzeuge mit Lidarsensoren ausgestattet werden, die derzeit noch nicht verfügbar sind. Dies ist ein Problem für Softwareentwickler, da sie die erforderliche Nachverarbeitungssoftware (Umgebungswahrnehmungsalgorithmen) schreiben müssen, ohne die richtigen Eingangsdaten zu haben.
- In dem hier beschriebenen Verfahren ist daher vorgesehen, dass mittels eines faltenden neuronalen Netzwerks
1 (Convolutional Neural Network - CNN) anhand der vom Lidarsensor erfassten niedrig aufgelösten Lidarsensordaten, d. h. anhand von niedrig aufgelösten Lidar-Scans, hochaufgelöste realistische Entfernungs-Punktwolken generiert werden. Um dies zu ermöglichen, wird das faltende neuronale Netzwerk1 zunächst trainiert, wie in1 schematisch dargestellt. - Zum Trainieren des faltenden neuronalen Netzwerks
1 werden mittels eines Trainingsdatengenerators2 aus hoch aufgelösten Ground-Truth-DatenGT die niedrig aufgelösten Lidarsensordaten generiert, insbesondere auf eine niedrigere Auflösung heruntergerechnet, und dem faltenden neuronalen Netzwerk1 als niedrig aufgelöste EingangsdatenED zugeführt, welches daraus die hochaufgelösten Entfernungs-Punktwolken als hochaufgelöste AusgangsdatenAD generiert. D. h. das faltende neuronale Netzwerk1 wird trainiert, aus diesen heruntergerechneten niedrig aufgelösten EingangsdatenED hoch aufgelöste AusgangsdatenAD zu generieren. - Bei diesem Trainieren des faltenden neuronalen Netzwerks
1 wird vorteilhafterweise eine Wahrnehmungsverlustfunktion (perceptual loss function) angewandt. Dadurch werden lückenhafte Entfernungswerte ausgeglichen. - Im Beispiel gemäß
1 ist zudem ein Merkmalsextraktionsnetzwerk3 , insbesondere bestehend aus einem LiLaNet (Feature Extractor), vorgesehen. Ein solches LiLaNet wird beispielsweise in https://arxiv.org/pdf/1804.09915.pdf beschrieben. Für das hier beschriebene Verfahren wurde die Architektur in dem Sinne verändert, dass eine Anzahl von Filtern innerhalb dieses Netzwerks auf 22% der (oben angegebenen) Originalveröffentlichung reduziert wurde, um das Netzwerk trainierbar zu machen für den hier beschriebenen Zweck. - Dieses LiLaNet ist ein Punktwolken-Merkmalsextraktionsnetzwerk. Ursprünglich, d. h. in der oben angegebenen Originalveröffentlichung, wird das LiLaNet für eine semantische Segmentierung von Punktwolken verwendet. Für das hier beschriebene Verfahren wird es jedoch als Feature Extractor (zur Merksmalsextraktion) verwendet, da es sich hierfür gut eignet. Es wird hier verwendet, um einen sogenannten Wahrnehmungsverlust (perceptual loss) zu ermitteln, der zwei Merkmalskarten
FM_GT ,FM_AD (Feature Maps) in einem punktweisen L1-Regressionsverlust vergleicht. L1 ist dabei eine Regressionsverlustfunktion auf Basis der geringsten absoluten Abweichungen (least absolute deviations). Dabei wird die eine MerkmalskarteFM_GT vom Merkmalsextraktionsnetzwerk3 , insbesondere vom LiLaNet, aus den Ground-Truth-DatenGT extrahiert und die andere MerkmalskarteFM_AD wird vom Merkmalsextraktionsnetzwerk3 , insbesondere vom LiLaNet, aus den hoch aufgelösten AusgangsdatenAD des faltenden neuronalen Netzwerks1 extrahiert bzw. generiert. - Die in
1 schematisch dargestellten beiden Blöcke des Merkmalsextraktionsnetzwerks3 sind dabei exakt das gleiche Netzwerk, welches auch nicht mehr trainiert wird (vortrainiert). Es ist in1 nur als zwei Blöcke dargestellt, damit klar ersichtlich ist, dass die Ground-Truth-DatenGT und die AusgangsdatenAD nicht zusammen in den gleichen Block gehen, sondern voneinander getrennt. Gewichte (weights) zwischen diesen beiden Blöcken sind die gleichen (shared weights), in1 dargestellt als weight sharingWS . - Die Merkmalskarten
FM_GT ,FM_AD werden dann einer punktweisen Regressionsverlustkomponente4 (Loss) zugeführt, um den Wahrnehmungsverlust zu ermitteln. Im dargestellten Beispiel wird ein von der Regressionsverlustkomponente4 ermittelter VerlustwertVW dann einem Optimierer5 , insbesondere einem Adam Optimizer, zugeführt. -
2 zeigt beispielhaft eine Architektur des faltenden neuronalen Netzwerks1 , inspiriert durch und insbesondere abgeleitet aus J. Johnson, A. Alahi, and L. Fei-Fei, „Perceptual losses for real-time style transfer and super-resolution,“ in ECCV, 2016. Die Architektur umfasst einen FaltungsblockFB1 mit 64 Filtern und einer Kerngröße von 9x9, vier RestwertblöckeRB (Residual Blocks), einen transponierten FaltungsblockTFB mit 64 Filtern und einer Kerngröße von 4x1, in welchem das tatsächliche Hochrechnen auf die hohe Auflösung erfolgt, und einen FaltungsblockFB2 mit einem Filter und einer Kerngröße von 9x9. Jeder RestwertblockRB umfasst zwei FaltungsblöckeRFB mit 64 Filtern und einer Kerngröße von 3x3, gefolgt jeweils von einem StapelnormalisierungsblockSB (Batch Normalization). Zwischen den beiden RestwertblöckenRB ist eine AktivierungsfunktionAF angeordnet, genauer gesagt eine ReLU (Rectifier Linear Unit) activation function. - Zum Verständnis des hier beschriebenen Verfahrens ist die obige detaillierte Beschreibung der in
2 dargestellten Architektur nicht unbedingt erforderlich. Die für das Verfahren insbesondere wichtige Makroarchitektur, welche die Neuerung gegenüber dem Stand der Technik in der Verarbeitung der Lidardaten darstellt, ist bereits in1 gezeigt. Die Neuerung besteht insbesondere auch darin, dass anstatt eines klassischen Regressions-Loss (direkt nach dem ersten Netzwerk, hier nach dem faltenden neuronalen Netzwerk1 , zwischen den AusgangsdatenAD und den Ground-Truth-DatenGT ), ein zweites Netzwerk, hier in Form des aus dem LiLaNet bestehenden Merkmalsextraktionsnetzwerks3 , verwendet wird, um den eigentlich Loss, d. h. insbesondere den Wahrnehmungsverlust, zwischen der vom Merkmalsextraktionsnetzwerk3 , insbesondere vom LiLaNet, aus den hoch aufgelösten AusgangsdatenAD des faltenden neuronalen Netzwerks1 extrahierten bzw. generierten MerkmalskarteFM_AD und der vom Merkmalsextraktionsnetzwerk3 , insbesondere vom LiLaNet, aus den Ground-Truth-DatenGT extrahierten MerkmalskarteFM_GT in der punktweisen Regressionsverlustkomponente4 zu berechnen. Nur so kann eine realistische Erzeugung der Punktwolken erfolgen. - Das Herzstück des Verfahrens ist somit das faltende neuronale Netzwerk
1 , das direkt mit dem Lidar-Scan, d. h. mit den Lidarsensordaten, arbeitet. Es verwendet Lidar-Entfernungsmessungen mit niedriger Auflösung als EingangsdatenED und generiert realistische Lidar-Scans mit hoher Auflösung als AusgangsdatenAD . Das faltende neuronale Netzwerk1 wird aus Sequenzen von Lidar-Aufzeichnungen ohne manuelle Anmerkungen trainiert. Das Verfahren berücksichtigt insbesondere fehlende Entfernungsmessungen, die bei Lidar-Punktwolken stets möglich sind. Um realistische AusgangsdatenAD zu erzielen, wird die Wahrnehmungsverlustfunktion zum Trainieren des faltenden neuronalen Netzwerks1 verwendet. Diese Wahrnehmungsverlustfunktion verwendet ein separat trainiertes Merkmalsextraktionsnetzwerk (für eine semantische Kennzeichnung), um die semantische Bedeutung und das visuelle Erscheinungsbild der Punktwolke auf hohem Niveau zu erhalten. - Das beschriebene Verfahren ermöglicht somit ein Synthetisieren realistischer Lidar-Scans mit hoher Auflösung aus Eingangsdaten
ED , d. h. Lidarsensordaten, mit niedriger Auflösung. - Bezugszeichenliste
-
- 1
- faltendes neuronales Netzwerk
- 2
- Trainingsdatengenerator
- 3
- Merkmalsextraktionsnetzwerk
- 4
- Regressionsverlustkomponente
- 5
- Optimierer
- AD
- Ausgangsdaten
- AF
- Aktivierungsfunktion
- ED
- Eingangsdaten
- FM_AD, FM_GT
- Merkmalskarte
- FB1, FB2
- Faltungsblock
- RFB
- Faltungsblock
- GT
- Ground-Truth-Daten
- RB
- Restwertblock
- SB
- Stapelnormalisierungsblock
- TFB
- transponierter Faltungsblock
- VW
- Verlustwert
- WS
- weight sharing
Claims (3)
- Verfahren zur Verarbeitung von Lidarsensordaten, dadurch gekennzeichnet, dass ein faltendes neuronales Netzwerk (1) verwendet wird, mittels welchem anhand der von einem Lidarsensor, insbesondere eines Fahrzeugs, erfassten niedrig aufgelösten Lidarsensordaten höher aufgelöste Entfernungs-Punktwolken generiert werden.
- Verfahren nach
Anspruch 1 , dadurch gekennzeichnet, dass bei einem Trainieren des faltenden neuronalen Netzwerks (1) mindestens eine Wahrnehmungsverlustfunktion angewandt wird, um lückenhafte Entfernungswerte auszugleichen. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zum Trainieren des faltenden neuronalen Netzwerks (1) mittels eines Trainingsdatengenerators (2) aus Ground-Truth-Daten (GT) die niedrig aufgelösten Lidarsensordaten generiert werden und dem faltenden neuronalen Netzwerk (1) zugeführt werden, welches daraus die höher aufgelösten Entfernungs-Punktwolken generiert.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019003621.2A DE102019003621A1 (de) | 2019-05-23 | 2019-05-23 | Verfahren zur Verarbeitung von Lidarsensordaten |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019003621.2A DE102019003621A1 (de) | 2019-05-23 | 2019-05-23 | Verfahren zur Verarbeitung von Lidarsensordaten |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019003621A1 true DE102019003621A1 (de) | 2020-01-02 |
Family
ID=68886136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019003621.2A Pending DE102019003621A1 (de) | 2019-05-23 | 2019-05-23 | Verfahren zur Verarbeitung von Lidarsensordaten |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019003621A1 (de) |
-
2019
- 2019-05-23 DE DE102019003621.2A patent/DE102019003621A1/de active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018200724A1 (de) | Verfahren und Vorrichtung zum Verbessern der Robustheit gegen "Adversarial Examples" | |
EP3785177B1 (de) | Verfahren und vorrichtung zum ermitteln einer netzkonfiguration eines neuronalen netzes | |
DE202017102238U1 (de) | Aktorsteuerungssystem | |
DE202017102235U1 (de) | Trainingssystem | |
DE102017211331A1 (de) | Bildauswertung mit zielgerichteter Vorverarbeitung | |
EP2999998B1 (de) | Methode zur ermittlung eines modells einer ausgangsgrösse eines technischen systems | |
DE102019209644A1 (de) | Verfahren zum Trainieren eines neuronalen Netzes | |
DE102020001541A1 (de) | Verfahren zur Transformation erfasster Sensordaten aus einer ersten Datendomäne in eine zweite Datendomäne | |
DE112019007762T5 (de) | Verfahren zum Trainieren eines generativen kontradiktorischen Netzes, modifiziertes Bildgenerierungsmodul und System zum Detektieren von Merkmalen in einem Bild | |
DE102017127600A1 (de) | Verfahren zum automatischen Parken für ein Kraftfahrzeug mit einem Fahrunterstützungssystem | |
DE102018220941A1 (de) | Auswertung von Messgrößen mit KI-Modulen unter Berücksichtigung von Messunsicherheiten | |
DE102016204506A1 (de) | Fortdruckinspektion mit lokaler Optimierung | |
DE112020003343T5 (de) | System und verfahren mit einem robusten tiefen generativen modell | |
EP3782081B1 (de) | Verfahren zur erzeugung eines testdatensatzes, verfahren zum testen, verfahren zum betreiben eines systems, vorrichtung, steuerungssystem, computerprogrammprodukt, computerlesbares medium, erzeugung und verwendung | |
DE102019003621A1 (de) | Verfahren zur Verarbeitung von Lidarsensordaten | |
DE102014207870A1 (de) | Verfahren zur automatisierten Erstellung eines zwei technische Zeichnungen charakterisierenden Datensatzes | |
DE102019212912A1 (de) | Komprimieren eines tiefen neuronalen Netzes | |
DE102020212366A1 (de) | Transformieren von Messdaten zwischen verschiedenen Konfigurationen von Messsystemen | |
DE102020122979A1 (de) | Verfahren zum Bereitstellen eines komprimierten, robusten neuronalen Netzes und Assistenzeinrichtung | |
EP3748574A1 (de) | Adaptive bereinigung von messdaten um unterschiedliche arten von störungen | |
DE102020211596A1 (de) | Verfahren zum Generieren eines trainierten neuronalen Faltungs-Netzwerks mit invarianter Integrationsschicht zum Klassifizieren von Objekten | |
DE102020208765A1 (de) | Bildklassifikator mit variablen rezeptiven Feldern in Faltungsschichten | |
DE102020209979A1 (de) | Verfahren und Vorrichtung zum Erkennen eines Objekts aus Eingabedaten | |
DE102010018142A1 (de) | Verfahren zur Aufnahme eines Bildes | |
WO2022129203A1 (de) | Verfahren zum trainieren eines ml-systems, ml-system, computerprogramm, maschinenlesbares speichermedium und vorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R230 | Request for early publication | ||
R081 | Change of applicant/patentee |
Owner name: MERCEDES-BENZ GROUP AG, DE Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE Owner name: DAIMLER AG, DE Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE |
|
R081 | Change of applicant/patentee |
Owner name: MERCEDES-BENZ GROUP AG, DE Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE |
|
R012 | Request for examination validly filed |