DE102021002011A1 - Verfahren zur Annotation von Daten einer Umgebungserfassung - Google Patents

Verfahren zur Annotation von Daten einer Umgebungserfassung Download PDF

Info

Publication number
DE102021002011A1
DE102021002011A1 DE102021002011.1A DE102021002011A DE102021002011A1 DE 102021002011 A1 DE102021002011 A1 DE 102021002011A1 DE 102021002011 A DE102021002011 A DE 102021002011A DE 102021002011 A1 DE102021002011 A1 DE 102021002011A1
Authority
DE
Germany
Prior art keywords
sensor
distance information
distance
recorded
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021002011.1A
Other languages
English (en)
Inventor
Florian Pierre Joseph Piewak
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102021002011.1A priority Critical patent/DE102021002011A1/de
Publication of DE102021002011A1 publication Critical patent/DE102021002011A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Annotation von Daten einer Umgebungserfassung, wobei mittels mehrerer Sensoren eine Sensorumgebung erfasst wird. Erfindungsgemäß wird mittels eines gegenüber Wetterphänomenen robusten ersten Sensors, insbesondere einer Kamera, zumindest ein Ausschnitt der Sensorumgebung erfasst. Weiterhin wird mittels eines gegenüber dem ersten Sensor gegenüber Wetterphänomenen weniger robusten zweiten Sensors, insbesondere eines Lidarsensors, zumindest der gleiche Ausschnitt der Sensorumgebung erfasst, wobei erste Distanzinformationen (DI1) aus mittels des ersten Sensors erfassten Daten und zweite Distanzinformationen (DI2) aus mittels des zweiten Sensors erfassten Daten generiert werden und die ersten Distanzinformationen (DI1) in die mittels des zweiten Sensors erfassten und die zweiten Distanzinformationen (DI2) umfassenden Daten projiziert werden. Weiterhin werden die ersten Distanzinformationen (DI1) und die zweiten Distanzinformationen (DI2) in einem automatischen Algorithmus verglichen und aus den zweiten Distanzinformationen (DI2) ermittelte und nicht in den ersten Distanzinformationen (DI1) enthaltene Messpunkte mit einer Distanz, welche kleiner ist als benachbarte Messpunkte der ersten Distanzinformationen und einer größeren Distanzabweichung zu benachbarten Messpunkten der ersten Distanzinformationen als eine vorgegebene Distanzabweichung, werden automatisch als Wetterphänomen klassifiziert.

Description

  • Die Erfindung betrifft ein Verfahren zur Annotation von Daten einer Umgebungserfassung gemäß dem Oberbegriff des Anspruchs 1.
  • Aus der DE 10 2019 100 519 A1 ist ein Verfahren zur dynamischen Steuerung eines Betriebs eines Fahrzeugsystems basierend auf erfassten Wetterdaten bekannt. Dabei werden Wetterdaten von einem an einem Fahrzeug befestigten Radar erfasst und Wetterbedingungen aus den erfassten Wetterdaten bestimmt. Basierend auf den bestimmten Wetterbedingungen erfolgt ein dynamisches Steuern des Fahrzeugsystems. Weiterhin erfolgt zur Bestimmung der Wetterbedingungen und zu einer Nachprüfung der bereits bestimmten Wetterbedingungen ein Korrelieren der erfassten Wetterdaten mit Daten eines Lidarsystems und bordeigenen Kameras, die an dem Fahrzeug befestigt sind.
  • Weiterhin ist aus der EP 3 690 727 A1 ein Verfahren zum Trainieren eines faltenden neuralen Netzwerks, auch als Convolutional Neural Network bezeichnet, unter gemeinsamer Verwendung einer Kamera und eines Radars bekannt. Mittels einer Lernvorrichtung wird eine faltende Schicht angewiesen, eine Faltungsoperation auf ein integriertes Mehrkanalbild anzuwenden, um dadurch eine Merkmalskarte zu erzeugen. Weiterhin wird eine Ausgabeschicht angewiesen, eine Ausgabeoperation auf die Merkmalskarte anzuwenden, um dadurch geschätzte Objektinformationen zu erzeugen. Zusätzlich wird eine Verlustschicht angewiesen, einen Verlust unter Verwendung der geschätzten Objektinformationen und dazu entsprechenden Ground-Truth-Objektinformation zu erzeugen und eine Backpropagation unter Verwendung des Verlusts durchzuführen, um dadurch Parameter in dem neuronalen Netzwerk zu lernen.
  • Die US 10 445 928 B2 beschreibt ein Verfahren zum Erzeugen einer dreidimensionalen Karte mit hoher Dichte. Dabei wird ein Bild einer Szene mit hoher Dichte unter Verwendung eines passiven Sensors erfasst. Weiterhin wird ein neuer Satz von Entfernungsmessungen der Szene unter Verwendung eines aktiven Sensors erfasst. Ferner erfolgt ein Erfassen einer zuvor erzeugten dreidimensionalen Karte der Szene, die einen vorherigen Satz von Entfernungsmessungen umfasst. Anschließend werden der Satz von Entfernungsmessungen mit dem vorherigen Satz von mit erhöhter Abtastrate erfassten Entfernungsmessungen zusammengeführt, wobei beim Zusammenführen des neuen Satzes von Entfernungsmessungen eine Bewegungstransformation zwischen einem vorherigen Bildframe mit hoher Dichte und dem erfassten Bild mit hoher Dichte und den erfassten Entfernungsmessungen durchgeführt wird. Zusätzlich erfolgt ein Überlagern des neuen Satzes von Entfernungsmessungen auf dem Bild mit hoher Dichte über eine Upsampling-Interpolation, wodurch eine dreidimensionale Ausgabekarte erstellt wird.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Annotation von Daten einer Umgebungserfassung anzugeben.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • In einem Verfahren zur Annotation von Daten einer Umgebungserfassung wird mittels mehrerer Sensoren eine Sensorumgebung erfasst.
  • Erfindungsgemäß wird mittels eines gegenüber Wetterphänomenen robusten ersten Sensors, insbesondere einer Kamera, zumindest ein Ausschnitt der Sensorumgebung erfasst. Weiterhin wird mittels eines gegenüber dem ersten Sensor gegenüber Wetterphänomenen weniger robusten zweiten Sensors, insbesondere eines Lidarsensors, zumindest der gleiche Ausschnitt der Sensorumgebung erfasst. Es werden erste Distanzinformationen aus mittels des ersten Sensors erfassten Daten und zweite Distanzinformationen aus mittels des zweiten Sensors erfassten Daten generiert, wobei die ersten Distanzinformationen in die mittels des zweiten Sensors erfassten Daten, welche die zweiten Distanzinformationen umfassen, projiziert werden. Anschließend werden die ersten Distanzinformationen und die zweiten Distanzinformationen in einem automatischen Algorithmus verglichen und aus den zweiten Distanzinformationen ermittelte und nicht in den ersten Distanzinformationen enthaltene Messpunkte mit einer insbesondere kleineren Distanz als benachbarte Messpunkte der ersten Distanzinformationen und einer größeren Distanzabweichung zu benachbarten Messpunkten der ersten Distanzinformationen, welche größer ist als eine vorgegebene Distanzabweichung, werden automatisch als Wetterphänomen klassifiziert.
  • Zur Realisierung von robusten und sicheren automatisierten Fahrfunktionen, ist eine zuverlässige Erkennung einer Fahrzeugumgebung erforderlich, welche mittels einer fahrzeugeigenen Sensorik und fahrzeugeigenen Steuergeräten durchgeführt wird. Dabei werden einzelne Messungen mit einem jeweiligen Steuergerät gekoppelter Sensoren klassifiziert, was auch als semantische Segmentierung bezeichnet wird. Hierbei werden Ansätze maschinellen Lernens, beispielsweise tiefe künstliche neuronale Netze, angewendet, um eine hohe Güte der Klassifizierung zu erreichen. Für derartige Ansätze des maschinellen Lernens ist eine große Anzahl von annotierten Daten erforderlich.
  • Mittels des vorliegenden Verfahrens ist eine zuverlässige Aufnahme und automatische Auswahl von für ein maschinelles Lernen eines Umgebungserfassungsalgorithmus relevanten Daten möglich. Insbesondere ermöglicht das Verfahren, selten auftretende spezielle Wetterphänomene, wie beispielsweise Starkregen, Schnee, Nebel usw., welche mit aus dem Stand der Technik bekannten Verfahren schwierig zu erfassen sind, zu erfassen und die so erhaltenen Messungen anhand von mittels mehreren Sensoren erfassten Daten automatisch und somit einfach sowie kostengünstig annotieren zu können. Dabei wird ein automatisches Labeling von Daten durch die Generierung von Distanz- bzw. Tiefeninformationen ermöglicht. Dadurch ist es möglich, eine große Anzahl von Daten zu generieren, welche alle relevanten Anwendungsfälle abdecken. Somit kann die Robustheit von Ansätzen des maschinellen Lernens, welche zur Klassifikation von Messungen auf Steuergeräten verwendet werden, signifikant erhöht werden. Daraus folgend kann weiterhin eine Robustheit mittels der Steuergeräte gesteuerter automatisierter Fahrfunktionen oder Fahrerassistenzsysteme gegenüber Wetterphänomenen signifikant erhöht werden.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
  • Dabei zeigen:
    • 1 schematisch ein Bild einer Fahrzeugumgebung und
    • 2 schematisch eine mittels Lidardaten und Kameradaten erzeugte Tiefenkarte der Fahrzeugumgebung gemäß 1.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • In 1 ist ein mittels einer Kamera erfasstes Bild B einer Fahrzeugumgebung dargestellt. 2 zeigt eine mittels Lidardaten und Kameradaten erzeugte Tiefenkarte K der Fahrzeugumgebung gemäß 1.
  • Um in einem Verfahren zum maschinellen Lernen eines Umgebungserfassungsalgorithmus eine automatische Messung mit speziellen Wetterphänomenen, wie beispielsweise Starkregen, Schnee, Nebel usw., zu ermöglichen, wird die Fahrzeugumgebung mittels mehrerer Sensoren erfasst.
  • Hierzu wird mittels eines gegenüber Wetterphänomenen robusten ersten Sensors, vorliegend mittels der Kamera, zumindest ein Ausschnitt der Fahrzeugumgebung erfasst.
  • Weiterhin wird mittels eines gegenüber dem ersten Sensor gegenüber Wetterphänomenen weniger robusten zweiten Sensors, vorliegend mittels des Lidarsensors, zumindest der gleiche Ausschnitt der Fahrzeugumgebung erfasst.
  • Ferner werden aus den mittels der Kamera erfassten Daten erste Distanzinformationen DI1 generiert. Beispielsweise wird hierzu als Kamera eine Stereokamera verwendet und die ersten Distanzinformationen DI1 werden anhand einer stereoskopischen Bildverarbeitung aus den mittels der Stereokamera erfassten Daten generiert. Alternativ wird als Kamera eine Monokamera verwendet und die ersten Distanzinformationen DI1 werden mittels zumindest eines Distanzschätzers, welcher mittels maschinellen Lernens trainiert ist, generiert.
  • Auch werden zweite Distanzinformationen DI2 aus mittels des zweiten Lidarsensors erfassten Daten generiert, wobei die ersten Distanzinformationen DI1 in die mittels des Lidarsensors erfassten und die zweiten Distanzinformationen DI2 umfassenden Daten projiziert, wie es in 2 mittels der Tiefenkarte K bespielhaft dargestellt ist.
  • Anschließend werden die ersten Distanzinformationen DI1 und die zweiten Distanzinformationen DI2 in einem automatischen Algorithmus verglichen und aus den zweiten Distanzinformationen DI2 ermittelte und nicht in den ersten Distanzinformationen DI1 enthaltene nahe Messpunkte, das heißt mit einer Distanz, welche kleiner ist als benachbarte Messpunkte der ersten Distanzinformationen DI1 und einer größeren Distanzabweichung zu benachbarten Messpunkten der ersten Distanzinformationen DI1 als eine vorgegebene Distanzabweichung, werden automatisch als Wetterphänomen klassifiziert. Das heißt, es erfolgt eine Klassifikation der näheren Messungen des für Wetterphänomene anfälligen Sensors, vorliegend des Lidarsensors, als Messungen von Wetterphänomen, wie beispielsweise Messungen von Regentropfen mittels des Lidarsensors. Dies ist dadurch möglich, dass die Wetterphänomene von dem für Wetterphänomene weniger anfälligen Sensors, vorliegend der Kamera, nicht erkannt werden und dadurch die Distanzschätzung nicht die Distanz der Wetterphänomene, beispielsweise der Regentropfen, sondern eine Umgebungsdistanz schätzt. Gleichzeitig kann aber der Lidarsensor die einzelnen Regentropfen anvisieren, wodurch eine kleinere Distanz gemessen wird.
  • Somit ist es möglich, beispielsweise eine Kamera, welche gegenüber Wetterphänomenen, wie zum Beispiel Regen, robuster ist, zu nutzen, um einzelne Messungen eines gegenüber den Wetterphänomenen weniger robusten Lidarsensors automatisch zu annotieren. Dabei werden die Distanzinformation DI1, DI2 genutzt, um entsprechende Messungen zu klassifizieren.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102019100519 A1 [0002]
    • EP 3690727 A1 [0003]
    • US 10445928 B2 [0004]

Claims (3)

  1. Verfahren zur Annotation von Daten einer Umgebungserfassung, wobei mittels mehrerer Sensoren eine Sensorumgebung erfasst wird, dadurch gekennzeichnet, dass - mittels eines gegenüber Wetterphänomenen robusten ersten Sensors, oder einer Kamera, zumindest ein Ausschnitt der Sensorumgebung erfasst wird, - mittels eines gegenüber dem ersten Sensor gegenüber Wetterphänomenen weniger robusten zweiten Sensors, oder eines Lidarsensors, zumindest der gleiche Ausschnitt der Sensorumgebung erfasst wird, - erste Distanzinformationen (DI1) aus mittels des ersten Sensors erfassten Daten und zweite Distanzinformationen (DI2) aus mittels des zweiten Sensors erfassten Daten generiert werden, - die ersten Distanzinformationen (DI1) in die mittels des zweiten Sensors erfassten und die zweiten Distanzinformationen (DI2) umfassenden Daten projiziert werden, - die ersten Distanzinformationen (DI1) und die zweiten Distanzinformationen (DI2) in einem automatischen Algorithmus verglichen werden und aus den zweiten Distanzinformationen (DI2) ermittelte und nicht in den ersten Distanzinformationen (DI1) enthaltene Messpunkte mit einer Distanz, welche kleiner ist als benachbarte Messpunkte der ersten Distanzinformationen (DI1) und einer größeren Distanzabweichung zu benachbarten Messpunkten der ersten Distanzinformationen (DI1) als eine vorgegebene Distanzabweichung, automatisch als Wetterphänomen klassifiziert werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als Kamera eine Stereokamera verwendet wird und die ersten Distanzinformationen (DI1) anhand einer stereoskopischen Bildverarbeitung aus den mittels der Stereokamera erfassten Daten generiert werden.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als Kamera eine Monokamera verwendet wird und die ersten Distanzinformationen (DI1) mittels zumindest eines Distanzschätzers, welcher mittels maschinellen Lernens trainiert ist, generiert werden.
DE102021002011.1A 2021-04-16 2021-04-16 Verfahren zur Annotation von Daten einer Umgebungserfassung Pending DE102021002011A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021002011.1A DE102021002011A1 (de) 2021-04-16 2021-04-16 Verfahren zur Annotation von Daten einer Umgebungserfassung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021002011.1A DE102021002011A1 (de) 2021-04-16 2021-04-16 Verfahren zur Annotation von Daten einer Umgebungserfassung

Publications (1)

Publication Number Publication Date
DE102021002011A1 true DE102021002011A1 (de) 2021-08-12

Family

ID=76968771

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021002011.1A Pending DE102021002011A1 (de) 2021-04-16 2021-04-16 Verfahren zur Annotation von Daten einer Umgebungserfassung

Country Status (1)

Country Link
DE (1) DE102021002011A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019100519A1 (de) 2018-01-18 2019-07-18 Analog Devices Global Unlimited Company Radar zur Wettererfassung und dynamische Steuerung und Betätigung von Fahrzeugsystemen
US10445928B2 (en) 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
EP3690727A1 (de) 2019-01-31 2020-08-05 StradVision, Inc. Lernverfahren und lernvorrichtung für sensorfusion zur integration von informationen, die durch einen zur entfernungsschätzung fähigen radar erfasst werden, und von informationen, die von einer kamera erfasst werden, um dadurch das neuronale netzwerk zur unterstützung von autonomem fahren zu verbessern, sowie testverfahren und testvorrichtung mit verwendung davon

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10445928B2 (en) 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
DE102019100519A1 (de) 2018-01-18 2019-07-18 Analog Devices Global Unlimited Company Radar zur Wettererfassung und dynamische Steuerung und Betätigung von Fahrzeugsystemen
EP3690727A1 (de) 2019-01-31 2020-08-05 StradVision, Inc. Lernverfahren und lernvorrichtung für sensorfusion zur integration von informationen, die durch einen zur entfernungsschätzung fähigen radar erfasst werden, und von informationen, die von einer kamera erfasst werden, um dadurch das neuronale netzwerk zur unterstützung von autonomem fahren zu verbessern, sowie testverfahren und testvorrichtung mit verwendung davon

Similar Documents

Publication Publication Date Title
DE102005034597A1 (de) Verfahren und Anordnung zur Erzeugung einer Tiefenkarte
EP3729213B1 (de) Verhaltensmodell eines umgebungssensors
DE102012023030A1 (de) Verfahren zur Ermittlung der Bewegung eines Kraftfahrzeugs
DE102009007412B4 (de) Verfahren zur Verfolgung wenigstens eines Objekts
DE102017201796A1 (de) Steuervorrichtung zum Ermitteln einer Eigenbewegung eines Kraftfahrzeugs sowie Kraftfahrzeug und Verfahren zum Bereitstellen der Steuervorrichtung
DE102021002011A1 (de) Verfahren zur Annotation von Daten einer Umgebungserfassung
DE102017221381A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Ermitteln eines Abstandes zu einem Objekt
DE102021133977A1 (de) Verfahren und System zur Klassifikation von Szenarien eines virtuellen Tests sowie Trainingsverfahren
DE102012020778B4 (de) Verfahren zum Labeln einer Sequenz von in zeitlicher Abfolge aufgenommenen Bildern mit integrierter Qualitätsprüfung
EP4049186A1 (de) Verfahren zum robustifizieren eines neuronalen netzes gegen adversariale störungen
DE102020001309A1 (de) Verfahren zum Betreiben einer elektronischen Recheneinrichtung für ein Kraftfahrzeug, sowie elektronische Recheneinrichtung
WO2020164841A1 (de) Verfahren zum bereitstellen einer trainingsdatensatzmenge, ein verfahren zum trainieren eines klassifikators, ein verfahren zum steuern eines fahrzeugs, ein computerlesbares speichermedium und ein fahrzeug
DE102019008081A1 (de) Verfahren zu einer kamerabasierten dreidimensionalen Rekonstruktion
DE102019217951A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Domänendistanz zwischen mindestens zwei Datendomänen
DE102014202639A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Fahrzeugbewegung eines Fahrzeugs
DE102023002044B3 (de) Verfahren zu einer modellbasierten Fusion verschiedener Sensormodalitäten
DE102019209849B4 (de) Verfahren und Steuergerät zur abstandsmessenden Bildverarbeitung für eine Stereokameraeinrichtung für ein Fahrzeug und Stereokamerasystem mit einer Stereokameraeinrichtung und einem Steuergerät
DE102019212279B3 (de) Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
DE102009033852A1 (de) Verfahren und Vorrichtung zur Erfassung einer Umgebung eines Fahrzeugs
DE102016220079B4 (de) Verfahren zur Ermittlung von Entfernungsdaten
WO2024013162A1 (de) Verfahren zum bestimmen von unzulänglichkeiten bei der detektion von objekten in von einem umgebungssensor eines kraftfahrzeuges erfassten daten
DE102022207741A1 (de) Verfahren und System zum Erzeugen eines Umfeldmodells
WO2023186428A1 (de) Kalibrierung und justierung einer kamera eines fahrzeugs
DE102021119906A1 (de) Verfahren zum Erzeugen von Trainingsdaten zum selbstüberwachten Trainieren eines neuronalen Netzes, Verfahren zum selbstüberwachten Trainieren eines neuronalen Netzes, Computerprogramm sowie Recheneinrichtung für ein Fahrzeug
DE102020003094A1 (de) Verfahren zur Fahrzeugneigungsbestimmung für ein Fahrzeug in Fahrzeuglängsrichtung, Steuervorrichtung sowie Fahrzeug

Legal Events

Date Code Title Description
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: MERCEDES-BENZ GROUP AG, DE

Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE