DE102021002011A1 - Verfahren zur Annotation von Daten einer Umgebungserfassung - Google Patents
Verfahren zur Annotation von Daten einer Umgebungserfassung Download PDFInfo
- Publication number
- DE102021002011A1 DE102021002011A1 DE102021002011.1A DE102021002011A DE102021002011A1 DE 102021002011 A1 DE102021002011 A1 DE 102021002011A1 DE 102021002011 A DE102021002011 A DE 102021002011A DE 102021002011 A1 DE102021002011 A1 DE 102021002011A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- distance information
- distance
- recorded
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Annotation von Daten einer Umgebungserfassung, wobei mittels mehrerer Sensoren eine Sensorumgebung erfasst wird. Erfindungsgemäß wird mittels eines gegenüber Wetterphänomenen robusten ersten Sensors, insbesondere einer Kamera, zumindest ein Ausschnitt der Sensorumgebung erfasst. Weiterhin wird mittels eines gegenüber dem ersten Sensor gegenüber Wetterphänomenen weniger robusten zweiten Sensors, insbesondere eines Lidarsensors, zumindest der gleiche Ausschnitt der Sensorumgebung erfasst, wobei erste Distanzinformationen (DI1) aus mittels des ersten Sensors erfassten Daten und zweite Distanzinformationen (DI2) aus mittels des zweiten Sensors erfassten Daten generiert werden und die ersten Distanzinformationen (DI1) in die mittels des zweiten Sensors erfassten und die zweiten Distanzinformationen (DI2) umfassenden Daten projiziert werden. Weiterhin werden die ersten Distanzinformationen (DI1) und die zweiten Distanzinformationen (DI2) in einem automatischen Algorithmus verglichen und aus den zweiten Distanzinformationen (DI2) ermittelte und nicht in den ersten Distanzinformationen (DI1) enthaltene Messpunkte mit einer Distanz, welche kleiner ist als benachbarte Messpunkte der ersten Distanzinformationen und einer größeren Distanzabweichung zu benachbarten Messpunkten der ersten Distanzinformationen als eine vorgegebene Distanzabweichung, werden automatisch als Wetterphänomen klassifiziert.
Description
- Die Erfindung betrifft ein Verfahren zur Annotation von Daten einer Umgebungserfassung gemäß dem Oberbegriff des Anspruchs 1.
- Aus der
DE 10 2019 100 519 A1 ist ein Verfahren zur dynamischen Steuerung eines Betriebs eines Fahrzeugsystems basierend auf erfassten Wetterdaten bekannt. Dabei werden Wetterdaten von einem an einem Fahrzeug befestigten Radar erfasst und Wetterbedingungen aus den erfassten Wetterdaten bestimmt. Basierend auf den bestimmten Wetterbedingungen erfolgt ein dynamisches Steuern des Fahrzeugsystems. Weiterhin erfolgt zur Bestimmung der Wetterbedingungen und zu einer Nachprüfung der bereits bestimmten Wetterbedingungen ein Korrelieren der erfassten Wetterdaten mit Daten eines Lidarsystems und bordeigenen Kameras, die an dem Fahrzeug befestigt sind. - Weiterhin ist aus der
EP 3 690 727 A1 ein Verfahren zum Trainieren eines faltenden neuralen Netzwerks, auch als Convolutional Neural Network bezeichnet, unter gemeinsamer Verwendung einer Kamera und eines Radars bekannt. Mittels einer Lernvorrichtung wird eine faltende Schicht angewiesen, eine Faltungsoperation auf ein integriertes Mehrkanalbild anzuwenden, um dadurch eine Merkmalskarte zu erzeugen. Weiterhin wird eine Ausgabeschicht angewiesen, eine Ausgabeoperation auf die Merkmalskarte anzuwenden, um dadurch geschätzte Objektinformationen zu erzeugen. Zusätzlich wird eine Verlustschicht angewiesen, einen Verlust unter Verwendung der geschätzten Objektinformationen und dazu entsprechenden Ground-Truth-Objektinformation zu erzeugen und eine Backpropagation unter Verwendung des Verlusts durchzuführen, um dadurch Parameter in dem neuronalen Netzwerk zu lernen. - Die
US 10 445 928 B2 - Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Annotation von Daten einer Umgebungserfassung anzugeben.
- Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist.
- Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
- In einem Verfahren zur Annotation von Daten einer Umgebungserfassung wird mittels mehrerer Sensoren eine Sensorumgebung erfasst.
- Erfindungsgemäß wird mittels eines gegenüber Wetterphänomenen robusten ersten Sensors, insbesondere einer Kamera, zumindest ein Ausschnitt der Sensorumgebung erfasst. Weiterhin wird mittels eines gegenüber dem ersten Sensor gegenüber Wetterphänomenen weniger robusten zweiten Sensors, insbesondere eines Lidarsensors, zumindest der gleiche Ausschnitt der Sensorumgebung erfasst. Es werden erste Distanzinformationen aus mittels des ersten Sensors erfassten Daten und zweite Distanzinformationen aus mittels des zweiten Sensors erfassten Daten generiert, wobei die ersten Distanzinformationen in die mittels des zweiten Sensors erfassten Daten, welche die zweiten Distanzinformationen umfassen, projiziert werden. Anschließend werden die ersten Distanzinformationen und die zweiten Distanzinformationen in einem automatischen Algorithmus verglichen und aus den zweiten Distanzinformationen ermittelte und nicht in den ersten Distanzinformationen enthaltene Messpunkte mit einer insbesondere kleineren Distanz als benachbarte Messpunkte der ersten Distanzinformationen und einer größeren Distanzabweichung zu benachbarten Messpunkten der ersten Distanzinformationen, welche größer ist als eine vorgegebene Distanzabweichung, werden automatisch als Wetterphänomen klassifiziert.
- Zur Realisierung von robusten und sicheren automatisierten Fahrfunktionen, ist eine zuverlässige Erkennung einer Fahrzeugumgebung erforderlich, welche mittels einer fahrzeugeigenen Sensorik und fahrzeugeigenen Steuergeräten durchgeführt wird. Dabei werden einzelne Messungen mit einem jeweiligen Steuergerät gekoppelter Sensoren klassifiziert, was auch als semantische Segmentierung bezeichnet wird. Hierbei werden Ansätze maschinellen Lernens, beispielsweise tiefe künstliche neuronale Netze, angewendet, um eine hohe Güte der Klassifizierung zu erreichen. Für derartige Ansätze des maschinellen Lernens ist eine große Anzahl von annotierten Daten erforderlich.
- Mittels des vorliegenden Verfahrens ist eine zuverlässige Aufnahme und automatische Auswahl von für ein maschinelles Lernen eines Umgebungserfassungsalgorithmus relevanten Daten möglich. Insbesondere ermöglicht das Verfahren, selten auftretende spezielle Wetterphänomene, wie beispielsweise Starkregen, Schnee, Nebel usw., welche mit aus dem Stand der Technik bekannten Verfahren schwierig zu erfassen sind, zu erfassen und die so erhaltenen Messungen anhand von mittels mehreren Sensoren erfassten Daten automatisch und somit einfach sowie kostengünstig annotieren zu können. Dabei wird ein automatisches Labeling von Daten durch die Generierung von Distanz- bzw. Tiefeninformationen ermöglicht. Dadurch ist es möglich, eine große Anzahl von Daten zu generieren, welche alle relevanten Anwendungsfälle abdecken. Somit kann die Robustheit von Ansätzen des maschinellen Lernens, welche zur Klassifikation von Messungen auf Steuergeräten verwendet werden, signifikant erhöht werden. Daraus folgend kann weiterhin eine Robustheit mittels der Steuergeräte gesteuerter automatisierter Fahrfunktionen oder Fahrerassistenzsysteme gegenüber Wetterphänomenen signifikant erhöht werden.
- Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
- Dabei zeigen:
-
1 schematisch ein Bild einer Fahrzeugumgebung und -
2 schematisch eine mittels Lidardaten und Kameradaten erzeugte Tiefenkarte der Fahrzeugumgebung gemäß1 . - Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
- In
1 ist ein mittels einer Kamera erfasstes BildB einer Fahrzeugumgebung dargestellt.2 zeigt eine mittels Lidardaten und Kameradaten erzeugte TiefenkarteK der Fahrzeugumgebung gemäß1 . - Um in einem Verfahren zum maschinellen Lernen eines Umgebungserfassungsalgorithmus eine automatische Messung mit speziellen Wetterphänomenen, wie beispielsweise Starkregen, Schnee, Nebel usw., zu ermöglichen, wird die Fahrzeugumgebung mittels mehrerer Sensoren erfasst.
- Hierzu wird mittels eines gegenüber Wetterphänomenen robusten ersten Sensors, vorliegend mittels der Kamera, zumindest ein Ausschnitt der Fahrzeugumgebung erfasst.
- Weiterhin wird mittels eines gegenüber dem ersten Sensor gegenüber Wetterphänomenen weniger robusten zweiten Sensors, vorliegend mittels des Lidarsensors, zumindest der gleiche Ausschnitt der Fahrzeugumgebung erfasst.
- Ferner werden aus den mittels der Kamera erfassten Daten erste Distanzinformationen
DI1 generiert. Beispielsweise wird hierzu als Kamera eine Stereokamera verwendet und die ersten DistanzinformationenDI1 werden anhand einer stereoskopischen Bildverarbeitung aus den mittels der Stereokamera erfassten Daten generiert. Alternativ wird als Kamera eine Monokamera verwendet und die ersten DistanzinformationenDI1 werden mittels zumindest eines Distanzschätzers, welcher mittels maschinellen Lernens trainiert ist, generiert. - Auch werden zweite Distanzinformationen
DI2 aus mittels des zweiten Lidarsensors erfassten Daten generiert, wobei die ersten DistanzinformationenDI1 in die mittels des Lidarsensors erfassten und die zweiten DistanzinformationenDI2 umfassenden Daten projiziert, wie es in2 mittels der TiefenkarteK bespielhaft dargestellt ist. - Anschließend werden die ersten Distanzinformationen
DI1 und die zweiten DistanzinformationenDI2 in einem automatischen Algorithmus verglichen und aus den zweiten DistanzinformationenDI2 ermittelte und nicht in den ersten DistanzinformationenDI1 enthaltene nahe Messpunkte, das heißt mit einer Distanz, welche kleiner ist als benachbarte Messpunkte der ersten DistanzinformationenDI1 und einer größeren Distanzabweichung zu benachbarten Messpunkten der ersten DistanzinformationenDI1 als eine vorgegebene Distanzabweichung, werden automatisch als Wetterphänomen klassifiziert. Das heißt, es erfolgt eine Klassifikation der näheren Messungen des für Wetterphänomene anfälligen Sensors, vorliegend des Lidarsensors, als Messungen von Wetterphänomen, wie beispielsweise Messungen von Regentropfen mittels des Lidarsensors. Dies ist dadurch möglich, dass die Wetterphänomene von dem für Wetterphänomene weniger anfälligen Sensors, vorliegend der Kamera, nicht erkannt werden und dadurch die Distanzschätzung nicht die Distanz der Wetterphänomene, beispielsweise der Regentropfen, sondern eine Umgebungsdistanz schätzt. Gleichzeitig kann aber der Lidarsensor die einzelnen Regentropfen anvisieren, wodurch eine kleinere Distanz gemessen wird. - Somit ist es möglich, beispielsweise eine Kamera, welche gegenüber Wetterphänomenen, wie zum Beispiel Regen, robuster ist, zu nutzen, um einzelne Messungen eines gegenüber den Wetterphänomenen weniger robusten Lidarsensors automatisch zu annotieren. Dabei werden die Distanzinformation
DI1 ,DI2 genutzt, um entsprechende Messungen zu klassifizieren. - ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 102019100519 A1 [0002]
- EP 3690727 A1 [0003]
- US 10445928 B2 [0004]
Claims (3)
- Verfahren zur Annotation von Daten einer Umgebungserfassung, wobei mittels mehrerer Sensoren eine Sensorumgebung erfasst wird, dadurch gekennzeichnet, dass - mittels eines gegenüber Wetterphänomenen robusten ersten Sensors, oder einer Kamera, zumindest ein Ausschnitt der Sensorumgebung erfasst wird, - mittels eines gegenüber dem ersten Sensor gegenüber Wetterphänomenen weniger robusten zweiten Sensors, oder eines Lidarsensors, zumindest der gleiche Ausschnitt der Sensorumgebung erfasst wird, - erste Distanzinformationen (DI1) aus mittels des ersten Sensors erfassten Daten und zweite Distanzinformationen (DI2) aus mittels des zweiten Sensors erfassten Daten generiert werden, - die ersten Distanzinformationen (DI1) in die mittels des zweiten Sensors erfassten und die zweiten Distanzinformationen (DI2) umfassenden Daten projiziert werden, - die ersten Distanzinformationen (DI1) und die zweiten Distanzinformationen (DI2) in einem automatischen Algorithmus verglichen werden und aus den zweiten Distanzinformationen (DI2) ermittelte und nicht in den ersten Distanzinformationen (DI1) enthaltene Messpunkte mit einer Distanz, welche kleiner ist als benachbarte Messpunkte der ersten Distanzinformationen (DI1) und einer größeren Distanzabweichung zu benachbarten Messpunkten der ersten Distanzinformationen (DI1) als eine vorgegebene Distanzabweichung, automatisch als Wetterphänomen klassifiziert werden.
- Verfahren nach
Anspruch 1 , dadurch gekennzeichnet, dass als Kamera eine Stereokamera verwendet wird und die ersten Distanzinformationen (DI1) anhand einer stereoskopischen Bildverarbeitung aus den mittels der Stereokamera erfassten Daten generiert werden. - Verfahren nach
Anspruch 1 , dadurch gekennzeichnet, dass als Kamera eine Monokamera verwendet wird und die ersten Distanzinformationen (DI1) mittels zumindest eines Distanzschätzers, welcher mittels maschinellen Lernens trainiert ist, generiert werden.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021002011.1A DE102021002011A1 (de) | 2021-04-16 | 2021-04-16 | Verfahren zur Annotation von Daten einer Umgebungserfassung |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021002011.1A DE102021002011A1 (de) | 2021-04-16 | 2021-04-16 | Verfahren zur Annotation von Daten einer Umgebungserfassung |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021002011A1 true DE102021002011A1 (de) | 2021-08-12 |
Family
ID=76968771
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021002011.1A Pending DE102021002011A1 (de) | 2021-04-16 | 2021-04-16 | Verfahren zur Annotation von Daten einer Umgebungserfassung |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021002011A1 (de) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019100519A1 (de) | 2018-01-18 | 2019-07-18 | Analog Devices Global Unlimited Company | Radar zur Wettererfassung und dynamische Steuerung und Betätigung von Fahrzeugsystemen |
US10445928B2 (en) | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
EP3690727A1 (de) | 2019-01-31 | 2020-08-05 | StradVision, Inc. | Lernverfahren und lernvorrichtung für sensorfusion zur integration von informationen, die durch einen zur entfernungsschätzung fähigen radar erfasst werden, und von informationen, die von einer kamera erfasst werden, um dadurch das neuronale netzwerk zur unterstützung von autonomem fahren zu verbessern, sowie testverfahren und testvorrichtung mit verwendung davon |
-
2021
- 2021-04-16 DE DE102021002011.1A patent/DE102021002011A1/de active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10445928B2 (en) | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
DE102019100519A1 (de) | 2018-01-18 | 2019-07-18 | Analog Devices Global Unlimited Company | Radar zur Wettererfassung und dynamische Steuerung und Betätigung von Fahrzeugsystemen |
EP3690727A1 (de) | 2019-01-31 | 2020-08-05 | StradVision, Inc. | Lernverfahren und lernvorrichtung für sensorfusion zur integration von informationen, die durch einen zur entfernungsschätzung fähigen radar erfasst werden, und von informationen, die von einer kamera erfasst werden, um dadurch das neuronale netzwerk zur unterstützung von autonomem fahren zu verbessern, sowie testverfahren und testvorrichtung mit verwendung davon |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102005034597A1 (de) | Verfahren und Anordnung zur Erzeugung einer Tiefenkarte | |
EP3729213B1 (de) | Verhaltensmodell eines umgebungssensors | |
DE102012023030A1 (de) | Verfahren zur Ermittlung der Bewegung eines Kraftfahrzeugs | |
DE102009007412B4 (de) | Verfahren zur Verfolgung wenigstens eines Objekts | |
DE102017201796A1 (de) | Steuervorrichtung zum Ermitteln einer Eigenbewegung eines Kraftfahrzeugs sowie Kraftfahrzeug und Verfahren zum Bereitstellen der Steuervorrichtung | |
DE102021002011A1 (de) | Verfahren zur Annotation von Daten einer Umgebungserfassung | |
DE102017221381A1 (de) | Verfahren, Vorrichtung und Computerprogramm zum Ermitteln eines Abstandes zu einem Objekt | |
DE102021133977A1 (de) | Verfahren und System zur Klassifikation von Szenarien eines virtuellen Tests sowie Trainingsverfahren | |
DE102012020778B4 (de) | Verfahren zum Labeln einer Sequenz von in zeitlicher Abfolge aufgenommenen Bildern mit integrierter Qualitätsprüfung | |
EP4049186A1 (de) | Verfahren zum robustifizieren eines neuronalen netzes gegen adversariale störungen | |
DE102020001309A1 (de) | Verfahren zum Betreiben einer elektronischen Recheneinrichtung für ein Kraftfahrzeug, sowie elektronische Recheneinrichtung | |
WO2020164841A1 (de) | Verfahren zum bereitstellen einer trainingsdatensatzmenge, ein verfahren zum trainieren eines klassifikators, ein verfahren zum steuern eines fahrzeugs, ein computerlesbares speichermedium und ein fahrzeug | |
DE102019008081A1 (de) | Verfahren zu einer kamerabasierten dreidimensionalen Rekonstruktion | |
DE102019217951A1 (de) | Verfahren und Vorrichtung zum Bestimmen einer Domänendistanz zwischen mindestens zwei Datendomänen | |
DE102014202639A1 (de) | Verfahren und Vorrichtung zum Bestimmen einer Fahrzeugbewegung eines Fahrzeugs | |
DE102023002044B3 (de) | Verfahren zu einer modellbasierten Fusion verschiedener Sensormodalitäten | |
DE102019209849B4 (de) | Verfahren und Steuergerät zur abstandsmessenden Bildverarbeitung für eine Stereokameraeinrichtung für ein Fahrzeug und Stereokamerasystem mit einer Stereokameraeinrichtung und einem Steuergerät | |
DE102019212279B3 (de) | Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren | |
DE102009033852A1 (de) | Verfahren und Vorrichtung zur Erfassung einer Umgebung eines Fahrzeugs | |
DE102016220079B4 (de) | Verfahren zur Ermittlung von Entfernungsdaten | |
WO2024013162A1 (de) | Verfahren zum bestimmen von unzulänglichkeiten bei der detektion von objekten in von einem umgebungssensor eines kraftfahrzeuges erfassten daten | |
DE102022207741A1 (de) | Verfahren und System zum Erzeugen eines Umfeldmodells | |
WO2023186428A1 (de) | Kalibrierung und justierung einer kamera eines fahrzeugs | |
DE102021119906A1 (de) | Verfahren zum Erzeugen von Trainingsdaten zum selbstüberwachten Trainieren eines neuronalen Netzes, Verfahren zum selbstüberwachten Trainieren eines neuronalen Netzes, Computerprogramm sowie Recheneinrichtung für ein Fahrzeug | |
DE102020003094A1 (de) | Verfahren zur Fahrzeugneigungsbestimmung für ein Fahrzeug in Fahrzeuglängsrichtung, Steuervorrichtung sowie Fahrzeug |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R230 | Request for early publication | ||
R081 | Change of applicant/patentee |
Owner name: MERCEDES-BENZ GROUP AG, DE Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE |