DE102019003621A1 - Verfahren zur Verarbeitung von Lidarsensordaten - Google Patents

Verfahren zur Verarbeitung von Lidarsensordaten Download PDF

Info

Publication number
DE102019003621A1
DE102019003621A1 DE102019003621.2A DE102019003621A DE102019003621A1 DE 102019003621 A1 DE102019003621 A1 DE 102019003621A1 DE 102019003621 A DE102019003621 A DE 102019003621A DE 102019003621 A1 DE102019003621 A1 DE 102019003621A1
Authority
DE
Germany
Prior art keywords
resolution
lidar sensor
neural network
lidar
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019003621.2A
Other languages
English (en)
Inventor
Larissa Triess
David Peter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daimler AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102019003621.2A priority Critical patent/DE102019003621A1/de
Publication of DE102019003621A1 publication Critical patent/DE102019003621A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00201Recognising three-dimensional objects, e.g. using range or tactile information
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00624Recognising scenes, i.e. recognition of a whole field of perception; recognising scene-specific objects
    • G06K9/00791Recognising scenes perceived from the perspective of a land vehicle, e.g. recognising lanes, obstacles or traffic signs on road scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/62Methods or arrangements for recognition using electronic means
    • G06K9/6267Classification techniques
    • G06K9/6268Classification techniques relating to the classification paradigm, e.g. parametric or non-parametric approaches
    • G06K9/627Classification techniques relating to the classification paradigm, e.g. parametric or non-parametric approaches based on distances between the pattern to be recognised and training or reference patterns
    • G06K9/6271Classification techniques relating to the classification paradigm, e.g. parametric or non-parametric approaches based on distances between the pattern to be recognised and training or reference patterns based on distances to prototypes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Abstract

Die Erfindung betrifft ein Verfahren zur Verarbeitung von Lidarsensordaten.Erfindungsgemäß wird ein faltendes neuronales Netzwerk (1) verwendet, mittels welchem anhand der von einem Lidarsensor, insbesondere eines Fahrzeugs, erfassten niedrig aufgelösten Lidarsensordaten höher aufgelöste Entfernungs-Punktwolken generiert werden.

Description

  • Die Erfindung betrifft ein Verfahren zur Verarbeitung von Lidarsensordaten.
  • Aus dem Stand der Technik ist eine Verarbeitung von Lidarsensordaten in Fahrzeugen allgemein bekannt.
  • In „Perceptual Losses for Real-Time Style Transfer and Super-Resolution“, Justin Johnson, Alexandre Alahi, Li Fei-Fei, Department of Computer Science, Stanford University, werden Bildtransformationsprobleme behandelt, bei denen ein Eingangsbild in ein Ausgangsbild transformiert wird. Es werden Wahrnehmungsverlustfunktionen für das Training von Feed-Forward-Netzwerken für Bildtransformationsaufgaben verwendet.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Verarbeitung von Lidarsensordaten anzugeben.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zur Verarbeitung von Lidarsensordaten mit den Merkmalen des Anspruchs 1.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • In einem erfindungsgemäßen Verfahren zur Verarbeitung von Lidarsensordaten, insbesondere zum künstlichen Erzeugen von hoch auflösenden Lidar-Scans mittels eines niedrig auflösenden Lidarsensors, wird ein faltendes neuronales Netzwerk (Convolutional Neural Network - CNN) verwendet, mittels welchem anhand der vom Lidarsensor, insbesondere eines Fahrzeugs, erfassten niedrig aufgelösten Lidarsensordaten, d. h. anhand von niedrig aufgelösten Lidar-Scans, höher aufgelöste, insbesondere hochaufgelöste, insbesondere realistische, Entfernungs-Punktwolken generiert werden.
  • Vorteilhafterweise wird/werden bei einem Trainieren des faltenden neuronalen Netzwerks mindestens eine Wahrnehmungsverlustfunktion oder Wahrnehmungsverlustfunktionen angewandt. Durch dieses Anwenden einer oder mehrerer solcher Wahrnehmungsverlustfunktionen (perceptual loss functions) werden lückenhafte Entfernungswerte ausgeglichen. Diese Wahrnehmungsverlustfunktion ist dabei insbesondere nicht eine normale Berechnung, sondern sie ist insbesondere in sich selbst auch ein tiefes neuronales Netzwerk.
  • Vorteilhafterweise werden zum Trainieren des faltenden neuronalen Netzwerks mittels eines Trainingsdatengenerators aus Ground-Truth-Daten die niedrig aufgelösten Lidarsensordaten generiert, insbesondere auf eine niedrigere Auflösung heruntergerechnet, und dem faltenden neuronalen Netzwerk als Eingangsdaten zugeführt, welches daraus die höher aufgelösten Entfernungs-Punktwolken als Ausgangsdaten generiert. D. h. das faltende neuronale Netzwerk wird trainiert, aus diesen heruntergerechneten niedrig aufgelösten Eingangsdaten hoch aufgelöste Ausgangsdaten zu generieren.
  • Das Herzstück des Verfahrens ist somit das faltende neuronale Netzwerk, das direkt mit dem Lidar-Scan, d. h. mit den Lidarsensordaten, arbeitet. Es verwendet Lidar-Entfernungsmessungen mit niedriger Auflösung als Eingangsdaten und generiert realistische Lidar-Scans mit hoher Auflösung als Ausgangsdaten. Das faltende neuronale Netzwerk wird aus Sequenzen von Lidar-Aufzeichnungen ohne manuelle Anmerkungen trainiert. Das Verfahren berücksichtigt insbesondere fehlende Entfernungsmessungen, die bei Lidar-Punktwolken stets möglich sind. Um realistische Ausgangsdaten zu erzielen, wird die Wahrnehmungsverlustfunktion zum Trainieren des faltenden neuronalen Netzwerks verwendet. Diese Wahrnehmungsverlustfunktion verwendet ein separat trainiertes Merkmalsextraktionsnetzwerk (für eine semantische Kennzeichnung), um die semantische Bedeutung und das visuelle Erscheinungsbild der Punktwolke auf hohem Niveau zu erhalten.
  • Lidarsensoren, auch als Lidar-Scanner bezeichnet, sind unverzichtbare Sensoren für fortschrittliche Fahrerassistenzsysteme von Fahrzeugen und für selbstfahrende Fahrzeuge. Heutige Lidarsensoren verfügen über eine sehr begrenzte (vertikale) Auflösung, die aus Sicherheitssicht nicht ausreichend ist. Die Entwicklung in Richtung Sensoren mit höheren Auflösungen schreitet jedoch stetig voran. Dies bedeutet, dass zukünftige Fahrzeuge mit Lidarsensoren ausgestattet werden, die derzeit noch nicht verfügbar sind. Dies ist ein Problem für Softwareentwickler, da sie die erforderliche Nachverarbeitungssoftware (Umgebungswahrnehmungsalgorithmen) schreiben müssen, ohne die richtigen Eingangsdaten zu haben. Das erfindungsgemäße Verfahren löst dieses Problem, denn es ermöglicht ein Synthetisieren realistischer Lidar-Scans mit hoher Auflösung aus Eingangsdaten, d. h. Lidarsensordaten, mit niedriger Auflösung.
  • Die erfindungsgemäße Lösung ermöglicht somit Entwicklern die Verwendung von Lidarsensoren mit niedriger Auflösung bei der Verarbeitung zukünftiger hochaufgelöster Lidar-Scans, ohne auf die eigentliche Hardware warten zu müssen.
  • Zudem kann das Verfahren auch bereits in derzeit verfügbaren Fahrzeugen und somit auch bei den hier vorhandenen niedrig auflösenden Lidarsensoren verwendet werden, um aus den erfassten niedrig aufgelösten Lidarsensordaten die hochaufgelösten realistischen Entfernungs-Punktwolken zu generieren und dadurch einen Sicherheitsgewinn für die Fahrerassistenzsysteme zu erzielen.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
  • Dabei zeigen:
    • 1 eine schematische Darstellung eines Trainieren eines faltenden neuronalen Netzwerks für ein Verfahren zur Verarbeitung von Lidarsensordaten, und
    • 2 schematisch eine Architektur des faltenden neuronalen Netzwerks.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • Im Folgenden wird anhand der 1 und 2 ein Verfahren zur Verarbeitung von Lidarsensordaten, insbesondere zum künstlichen Erzeugen von hoch auflösenden Lidar-Scans mittels eines niedrig auflösenden Lidarsensors, beschrieben. Der Lidarsensor ist insbesondere ein Lidarsensor eines Fahrzeugs oder für ein Fahrzeug. Derartige Lidarsensoren, auch als Lidar-Scanner bezeichnet, sind unverzichtbare Sensoren für fortschrittliche Fahrerassistenzsysteme von Fahrzeugen und für selbstfahrende Fahrzeuge.
  • Heutige Lidarsensoren verfügen über eine sehr begrenzte (vertikale) Auflösung, die aus Sicherheitssicht nicht ausreichend ist. Die Entwicklung in Richtung Sensoren mit höheren Auflösungen schreitet jedoch stetig voran. Dies bedeutet, dass zukünftige Fahrzeuge mit Lidarsensoren ausgestattet werden, die derzeit noch nicht verfügbar sind. Dies ist ein Problem für Softwareentwickler, da sie die erforderliche Nachverarbeitungssoftware (Umgebungswahrnehmungsalgorithmen) schreiben müssen, ohne die richtigen Eingangsdaten zu haben.
  • In dem hier beschriebenen Verfahren ist daher vorgesehen, dass mittels eines faltenden neuronalen Netzwerks 1 (Convolutional Neural Network - CNN) anhand der vom Lidarsensor erfassten niedrig aufgelösten Lidarsensordaten, d. h. anhand von niedrig aufgelösten Lidar-Scans, hochaufgelöste realistische Entfernungs-Punktwolken generiert werden. Um dies zu ermöglichen, wird das faltende neuronale Netzwerk 1 zunächst trainiert, wie in 1 schematisch dargestellt.
  • Zum Trainieren des faltenden neuronalen Netzwerks 1 werden mittels eines Trainingsdatengenerators 2 aus hoch aufgelösten Ground-Truth-Daten GT die niedrig aufgelösten Lidarsensordaten generiert, insbesondere auf eine niedrigere Auflösung heruntergerechnet, und dem faltenden neuronalen Netzwerk 1 als niedrig aufgelöste Eingangsdaten ED zugeführt, welches daraus die hochaufgelösten Entfernungs-Punktwolken als hochaufgelöste Ausgangsdaten AD generiert. D. h. das faltende neuronale Netzwerk 1 wird trainiert, aus diesen heruntergerechneten niedrig aufgelösten Eingangsdaten ED hoch aufgelöste Ausgangsdaten AD zu generieren.
  • Bei diesem Trainieren des faltenden neuronalen Netzwerks 1 wird vorteilhafterweise eine Wahrnehmungsverlustfunktion (perceptual loss function) angewandt. Dadurch werden lückenhafte Entfernungswerte ausgeglichen.
  • Im Beispiel gemäß 1 ist zudem ein Merkmalsextraktionsnetzwerk 3, insbesondere bestehend aus einem LiLaNet (Feature Extractor), vorgesehen. Ein solches LiLaNet wird beispielsweise in https://arxiv.org/pdf/1804.09915.pdf beschrieben. Für das hier beschriebene Verfahren wurde die Architektur in dem Sinne verändert, dass eine Anzahl von Filtern innerhalb dieses Netzwerks auf 22% der (oben angegebenen) Originalveröffentlichung reduziert wurde, um das Netzwerk trainierbar zu machen für den hier beschriebenen Zweck.
  • Dieses LiLaNet ist ein Punktwolken-Merkmalsextraktionsnetzwerk. Ursprünglich, d. h. in der oben angegebenen Originalveröffentlichung, wird das LiLaNet für eine semantische Segmentierung von Punktwolken verwendet. Für das hier beschriebene Verfahren wird es jedoch als Feature Extractor (zur Merksmalsextraktion) verwendet, da es sich hierfür gut eignet. Es wird hier verwendet, um einen sogenannten Wahrnehmungsverlust (perceptual loss) zu ermitteln, der zwei Merkmalskarten FM_GT, FM_AD (Feature Maps) in einem punktweisen L1-Regressionsverlust vergleicht. L1 ist dabei eine Regressionsverlustfunktion auf Basis der geringsten absoluten Abweichungen (least absolute deviations). Dabei wird die eine Merkmalskarte FM_GT vom Merkmalsextraktionsnetzwerk 3, insbesondere vom LiLaNet, aus den Ground-Truth-Daten GT extrahiert und die andere Merkmalskarte FM_AD wird vom Merkmalsextraktionsnetzwerk 3, insbesondere vom LiLaNet, aus den hoch aufgelösten Ausgangsdaten AD des faltenden neuronalen Netzwerks 1 extrahiert bzw. generiert.
  • Die in 1 schematisch dargestellten beiden Blöcke des Merkmalsextraktionsnetzwerks 3 sind dabei exakt das gleiche Netzwerk, welches auch nicht mehr trainiert wird (vortrainiert). Es ist in 1 nur als zwei Blöcke dargestellt, damit klar ersichtlich ist, dass die Ground-Truth-Daten GT und die Ausgangsdaten AD nicht zusammen in den gleichen Block gehen, sondern voneinander getrennt. Gewichte (weights) zwischen diesen beiden Blöcken sind die gleichen (shared weights), in 1 dargestellt als weight sharing WS.
  • Die Merkmalskarten FM_GT, FM_AD werden dann einer punktweisen Regressionsverlustkomponente 4 (Loss) zugeführt, um den Wahrnehmungsverlust zu ermitteln. Im dargestellten Beispiel wird ein von der Regressionsverlustkomponente 4 ermittelter Verlustwert VW dann einem Optimierer 5, insbesondere einem Adam Optimizer, zugeführt.
  • 2 zeigt beispielhaft eine Architektur des faltenden neuronalen Netzwerks 1, inspiriert durch und insbesondere abgeleitet aus J. Johnson, A. Alahi, and L. Fei-Fei, „Perceptual losses for real-time style transfer and super-resolution,“ in ECCV, 2016. Die Architektur umfasst einen Faltungsblock FB1 mit 64 Filtern und einer Kerngröße von 9x9, vier Restwertblöcke RB (Residual Blocks), einen transponierten Faltungsblock TFB mit 64 Filtern und einer Kerngröße von 4x1, in welchem das tatsächliche Hochrechnen auf die hohe Auflösung erfolgt, und einen Faltungsblock FB2 mit einem Filter und einer Kerngröße von 9x9. Jeder Restwertblock RB umfasst zwei Faltungsblöcke RFB mit 64 Filtern und einer Kerngröße von 3x3, gefolgt jeweils von einem Stapelnormalisierungsblock SB (Batch Normalization). Zwischen den beiden Restwertblöcken RB ist eine Aktivierungsfunktion AF angeordnet, genauer gesagt eine ReLU (Rectifier Linear Unit) activation function.
  • Zum Verständnis des hier beschriebenen Verfahrens ist die obige detaillierte Beschreibung der in 2 dargestellten Architektur nicht unbedingt erforderlich. Die für das Verfahren insbesondere wichtige Makroarchitektur, welche die Neuerung gegenüber dem Stand der Technik in der Verarbeitung der Lidardaten darstellt, ist bereits in 1 gezeigt. Die Neuerung besteht insbesondere auch darin, dass anstatt eines klassischen Regressions-Loss (direkt nach dem ersten Netzwerk, hier nach dem faltenden neuronalen Netzwerk 1, zwischen den Ausgangsdaten AD und den Ground-Truth-Daten GT), ein zweites Netzwerk, hier in Form des aus dem LiLaNet bestehenden Merkmalsextraktionsnetzwerks 3, verwendet wird, um den eigentlich Loss, d. h. insbesondere den Wahrnehmungsverlust, zwischen der vom Merkmalsextraktionsnetzwerk 3, insbesondere vom LiLaNet, aus den hoch aufgelösten Ausgangsdaten AD des faltenden neuronalen Netzwerks 1 extrahierten bzw. generierten Merkmalskarte FM_AD und der vom Merkmalsextraktionsnetzwerk 3, insbesondere vom LiLaNet, aus den Ground-Truth-Daten GT extrahierten Merkmalskarte FM_GT in der punktweisen Regressionsverlustkomponente 4 zu berechnen. Nur so kann eine realistische Erzeugung der Punktwolken erfolgen.
  • Das Herzstück des Verfahrens ist somit das faltende neuronale Netzwerk 1, das direkt mit dem Lidar-Scan, d. h. mit den Lidarsensordaten, arbeitet. Es verwendet Lidar-Entfernungsmessungen mit niedriger Auflösung als Eingangsdaten ED und generiert realistische Lidar-Scans mit hoher Auflösung als Ausgangsdaten AD. Das faltende neuronale Netzwerk 1 wird aus Sequenzen von Lidar-Aufzeichnungen ohne manuelle Anmerkungen trainiert. Das Verfahren berücksichtigt insbesondere fehlende Entfernungsmessungen, die bei Lidar-Punktwolken stets möglich sind. Um realistische Ausgangsdaten AD zu erzielen, wird die Wahrnehmungsverlustfunktion zum Trainieren des faltenden neuronalen Netzwerks 1 verwendet. Diese Wahrnehmungsverlustfunktion verwendet ein separat trainiertes Merkmalsextraktionsnetzwerk (für eine semantische Kennzeichnung), um die semantische Bedeutung und das visuelle Erscheinungsbild der Punktwolke auf hohem Niveau zu erhalten.
  • Das beschriebene Verfahren ermöglicht somit ein Synthetisieren realistischer Lidar-Scans mit hoher Auflösung aus Eingangsdaten ED, d. h. Lidarsensordaten, mit niedriger Auflösung.
  • Bezugszeichenliste
  • 1
    faltendes neuronales Netzwerk
    2
    Trainingsdatengenerator
    3
    Merkmalsextraktionsnetzwerk
    4
    Regressionsverlustkomponente
    5
    Optimierer
    AD
    Ausgangsdaten
    AF
    Aktivierungsfunktion
    ED
    Eingangsdaten
    FM_AD, FM_GT
    Merkmalskarte
    FB1, FB2
    Faltungsblock
    RFB
    Faltungsblock
    GT
    Ground-Truth-Daten
    RB
    Restwertblock
    SB
    Stapelnormalisierungsblock
    TFB
    transponierter Faltungsblock
    VW
    Verlustwert
    WS
    weight sharing

Claims (3)

  1. Verfahren zur Verarbeitung von Lidarsensordaten, dadurch gekennzeichnet, dass ein faltendes neuronales Netzwerk (1) verwendet wird, mittels welchem anhand der von einem Lidarsensor, insbesondere eines Fahrzeugs, erfassten niedrig aufgelösten Lidarsensordaten höher aufgelöste Entfernungs-Punktwolken generiert werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass bei einem Trainieren des faltenden neuronalen Netzwerks (1) mindestens eine Wahrnehmungsverlustfunktion angewandt wird, um lückenhafte Entfernungswerte auszugleichen.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zum Trainieren des faltenden neuronalen Netzwerks (1) mittels eines Trainingsdatengenerators (2) aus Ground-Truth-Daten (GT) die niedrig aufgelösten Lidarsensordaten generiert werden und dem faltenden neuronalen Netzwerk (1) zugeführt werden, welches daraus die höher aufgelösten Entfernungs-Punktwolken generiert.
DE102019003621.2A 2019-05-23 2019-05-23 Verfahren zur Verarbeitung von Lidarsensordaten Pending DE102019003621A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019003621.2A DE102019003621A1 (de) 2019-05-23 2019-05-23 Verfahren zur Verarbeitung von Lidarsensordaten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019003621.2A DE102019003621A1 (de) 2019-05-23 2019-05-23 Verfahren zur Verarbeitung von Lidarsensordaten

Publications (1)

Publication Number Publication Date
DE102019003621A1 true DE102019003621A1 (de) 2020-01-02

Family

ID=68886136

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019003621.2A Pending DE102019003621A1 (de) 2019-05-23 2019-05-23 Verfahren zur Verarbeitung von Lidarsensordaten

Country Status (1)

Country Link
DE (1) DE102019003621A1 (de)

Similar Documents

Publication Publication Date Title
DE102018116111A1 (de) Ein einheitliches tiefes faltendes neuronales Netzwerk für die Abschätzung von Freiraum, die Abschätzung der Objekterkennung und die der Objektstellung
DE112016005059T5 (de) Unterkategorienbewusste faltende neuronale Netzwerke zur Objekterfassung
DE112017002799T5 (de) Verfahren und system zum generieren multimodaler digitaler bilder
Herwig Strömungsmechanik
DE60307967T2 (de) Bildverarbeitungsverfahren für die untersuchung des erscheinungsbildes
EP0312905B1 (de) Verfahren zur automatischen Zeichenerkennung
EP2519861B1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems
EP2185980B1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung mit hilfe neuronaler netze
DE3247229C2 (de)
DE102014212556A1 (de) Verfahren und system zur gewinnung einer verbesserten struktur eines neuronalen zielnetzes
EP0862160A2 (de) Verfahren zur Spracherkennung mit Sprachmodellanpassung
DE112009001686T5 (de) Objekterfassungsvorrichtung
DE102014209137A1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
DE112016007498B4 (de) Untersuchungseinrichtung und untersuchungsverfahren
DE102011001319A1 (de) Gesichts-Identifikationsverfahren zur Unterdrückung eines Rauschens bzw. einer Umgebungsauswirkung
DE69827177T2 (de) System zum Vergleich von Streifenmuster
WO2000010119A1 (de) Verfahren zum erkennen von objekten in digitalisierten abbildungen
WO2005048195A2 (de) Verfahren zur korrespondenzanalyse in bilddatensätzen
DE102006057552A1 (de) System und Verfahren zur Messung des Abstands eines vorausfahrenden Fahrzeugs
DE19955919C1 (de) Verfahren zur Erkennung von Objekten in Bildern auf der Bildpixelebene
DE102016009106A1 (de) Mit Steuerung ausgerüstete Bearbeitungsvorrichtung mit Bearbeitungszeit- Messfunktion und Messfunktion auf der Maschine
DE102018200724A1 (de) Verfahren und Vorrichtung zum Verbessern der Robustheit gegen "Adversarial Examples"
DE102012107886A1 (de) Verfahren zur elektronischen Erkennung von Verkehrszeichen
DE102009057996A1 (de) Verfahren zur Bestimmung einer Position einer Kamera mit einem zugehörigen Kamera-Koordinatensystem relativ zu einer Position eines Fahrzeuges oder Fahrzeuggespannes mit einem zugehörigen Fahrzeug-Koordinatensystem
DE102015205244B3 (de) Verfahren zum Bereitstellen von Hinderniskarten für Fahrzeuge

Legal Events

Date Code Title Description
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: DAIMLER AG, DE

Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE