DE102018205879A1 - Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten - Google Patents

Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten Download PDF

Info

Publication number
DE102018205879A1
DE102018205879A1 DE102018205879.2A DE102018205879A DE102018205879A1 DE 102018205879 A1 DE102018205879 A1 DE 102018205879A1 DE 102018205879 A DE102018205879 A DE 102018205879A DE 102018205879 A1 DE102018205879 A1 DE 102018205879A1
Authority
DE
Germany
Prior art keywords
measurement
sensor
camera
data
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018205879.2A
Other languages
English (en)
Inventor
Simon Steinmeyer
Marek Musial
Carsten Deeg
Thorsten Bagdonat
Thorsten Graf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102018205879.2A priority Critical patent/DE102018205879A1/de
Priority to PCT/EP2019/057701 priority patent/WO2019201565A1/de
Priority to EP19715031.1A priority patent/EP3782117A1/de
Priority to CN201980026426.5A priority patent/CN111937036A/zh
Priority to US17/048,701 priority patent/US11935250B2/en
Publication of DE102018205879A1 publication Critical patent/DE102018205879A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

Ein Verfahren, eine Vorrichtung und ein computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten. In einem ersten Schritt werden durch eine Kamera Kamerabilder erfasst (20). Durch zumindest einen 3D-Sensor werden zudem 3D-Messpunkte erfasst (21). Optional kann zumindest eines der Kamerabilder segmentiert werden (22). Die Kamerabilder werden dann durch eine Datenfusionseinheit mit den 3D-Messpunkten zu Daten eines virtuellen Sensors fusioniert (23). Die resultierenden Daten werden schließlich für eine weitere Verarbeitung ausgegeben (24).

Description

  • Die vorliegende Erfindung betrifft ein Verfahren, eine Vorrichtung und ein computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten. Die Erfindung betrifft weiterhin ein Kraftfahrzeug, in dem ein erfindungsgemäßes Verfahren oder eine erfindungsgemäße Vorrichtung eingesetzt wird.
  • Moderne Kraftfahrzeuge haben bereits heute eine Vielzahl von Sensoren für verschiedene Level-2-Assistenzsysteme (teilautomatisierte Systeme).
  • Beispielsweise beschreibt die DE 10 2011 013 776 A1 ein Verfahren zur Erfassung oder Verfolgung von Objekten in einer Fahrzeugumgebung. Die Objekte werden aus einem optischen Fluss anhand einer Ermittlung von korrespondierenden Bildpunkten in zumindest zwei Bildern erfasst. Dabei wird eine Entfernung der Objekte aus dem optischen Fluss anhand der Ermittlung der korrespondierenden Bildpunkte in den zumindest zwei Bildern ermittelt. Diejenigen Objekte, welche sich in einem Erfassungsbereich eines Entfernungs-Messsensors befinden und deren aus dem optischen Fluss ermittelte Entfernung kleiner ist als ein mittels des Entfernungs-Messsensors ermittelter Entfernungswert, bleiben unberücksichtigt.
  • Die DE 10 2017 100 199 A1 beschreibt ein Verfahren zum Erfassen von Fußgängern. In einem ersten Schritt wird ein Bild eines Bereichs in der Nähe eines Fahrzeugs empfangen. Unter Verwendung eines ersten neuronalen Netzwerks wird das Bild verarbeitet, um Orte zu bestimmen, an denen sich Fußgänger wahrscheinlich innerhalb des Bildes befinden. Die bestimmten Orte des Bildes werden dann unter Verwendung eines zweiten neuronalen Netzwerks verarbeitet, um zu bestimmen, ob ein Fußgänger anwesend ist. Bei Anwesenheit eines Fußgängers ergeht eine Benachrichtigung an ein Fahrassistenzsystem oder ein automatisiertes Fahrsystem. Die neuronalen Netzwerke können ein tiefes Faltungsnetzwerk umfassen.
  • Für Level-3- und höhere Systeme (hochautomatisierte und autonome Systeme) wird die Anzahl der verbauten Sensoren weiter steigen. Hierbei wird es aus Sicherheitsgründen redundante Erfassungsbereiche geben, welche von mehreren Sensoren mit unterschiedlichen Messprinzipien abgedeckt werden.
  • Hierbei spielen Kamerasensoren, Radar- und Laserscanner die wichtigste Rolle. Es ist insbesondere davon auszugehen, dass in kritischen Bereichen mindestens ein Kamerasensor und ein 3D-Sensor vorhanden sind, welche diesen abdecken. Beispiele für 3D-Sensoren sind Laserscanner oder ein Radarsensor mit Elevationsmessung.
  • In klassischen Systemen existiert ein sogenanntes Objekttracking, das Objekthypothesen aufsetzt, welche durch neue Sensormessungen bestätigt und aktualisiert werden. Klassischerweise nutzt man dabei sogenannte „Prädiktor-Korrektor-Filter“, wie beispielsweise einen Kalmanfilter. Wenn eine neue Messung eintrifft, werden alle Objekte mittels eines Dynamikmodells auf den Messzeitpunkt der neuen Messung prädiziert. Anschließend wird versucht, die Messung zu einem existierenden Objekt zuzuordnen. Falls dieses gelingt, so wird der Track aktualisiert. Falls dieses scheitert, wird eine neue Objekthypothese aufgesetzt, d.h. ein neuer Track.
  • Vor diesem Hintergrund beschreibt die DE 10 2011 119 767 A1 ein Verfahren zum Vereinigen von Kamera- und Entfernungssensordaten, um mindestens ein externes Objekt in einem Fahrzeug mit einem Sensoruntersystem mit einer Kamera und einem Entfernungssensor und mit einem Bordcomputer zu verfolgen. Auf der Basis einer vom Sensoruntersystem des Fahrzeugs empfangenen Eingabe stellt ein Bordcomputer fest, dass Daten eines neuen Objekts, die dem Objekt entsprechen, verfügbar sind. Der Bordcomputer registriert die Daten des neuen Objekts und schätzt einen erwarteten Ort und ein erwartetes Erscheinungsbild für das Objekt gemäß einem Vorhersagealgorithmus ab, um eine vorhergesagte Spur für das Objekt zu erzeugen. Zudem analysiert der Bordcomputer die Bewegung für das Objekt, einschließlich eines Vergleichens der vorhergesagten Spur mit einer existierenden Spur, die dem Objekt zugeordnet ist und in einer Datenbank des Bordcomputers gespeichert ist.
  • Beim klassischen Objekttracking sind eine Reihe von Herausforderungen insbesondere im Assoziationsschritt zu berücksichtigen, damit Mehrdeutigkeiten vermieden werden. Beispielsweise kann der Dynamikzustand nicht immer gut geschätzt werden: Je nach Messungen und Zustand eines Tracks ist häufig kein kartesischer Geschwindigkeitsvektor bekannt. Eine Beschleunigung kann nur durch längere Beobachtung geschätzt werden. Dies kann zu großen Fehlern im Prädiktionsschritt führen. Zudem kann sich ein Objekt entgegen dem Dynamikmodell verhalten, z.B. durch abruptes Bremsen. Dieses abweichende Verhalten kann ebenfalls zu Prädiktionsfehlern führen.
  • Daneben gibt es zwischen unterschiedlichen Sensoren häufig systematische Messfehler: Ein Laserscanner nimmt z.B. besonders gut stark reflektierende Oberflächen wahr, wie Nummernschilder oder Katzenaugen, während schwarz lackierte Fahrzeuge schwer detektierbar sind. Radarsensoren nehmen hingegen metallische Objekte mit großen Radarquerschnitt gut wahr, wie Heckleuchten, geknickte Bleche etc. Hierbei werden dann durch die Sensoren von einem Objekt unterschiedliche Punkte angemessen, welche ggf. weit entfernt voneinander liegen, aber dem gleichen Objekt zuzuordnen sind. Zudem weisen einige Sensoren, z.B. Radarsensoren, eine vergleichsweise geringe Trennschärfe auf, sodass hier das Mehrdeutigkeitsproblem verschärft wird.
  • Eine fehlerhafte Behandlung von Mehrdeutigkeiten kann zu Fehlassoziationen führen, bei denen Objekttracks mit falschen Messdaten assoziiert und aktualisiert werden. Dies kann unangenehme Folgen haben. Beispielsweise kann einer Randbebauung fälschlicherweise eine Quergeschwindigkeit zugeordnet werden. Die Randbebauung erscheint daraufhin dynamisch und wandert in den Fahrschlauch. Dies kann eine Notbremsung aufgrund eines „Geisterobjekts“ verursachen. Ebenso kann es passieren, dass eine Randbebauung, z.B. ein mittels Laserscanner gemessener Poller, einem nahen dynamischen Objekt zugeordnet wird, z.B. einem Fahrzeug, dass den Poller gerade passiert. Dies verhindert, dass der Poller rechtzeitig als solcher erkannt wird, wodurch es zu einer Kollision mit der Randbebauung kommen kann.
  • Es ist eine Aufgabe der Erfindung, Lösungen für die Verarbeitung von Sensordaten aufzuzeigen, die es erlauben, die beim Objekttracking auftretenden Probleme zu reduzieren.
  • Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1, durch ein computerlesbares Speichermedium mit Instruktionen gemäß Anspruch 12 und durch eine Vorrichtung mit den Merkmalen des Anspruchs 13 gelöst. Bevorzugte Ausgestaltungen der Erfindung sind Gegenstand der abhängigen Ansprüche.
  • Gemäß einem ersten Aspekt der Erfindung umfasst ein Verfahren zur Verarbeitung von Sensordaten die Schritte:
    • - Erfassen von Kamerabildern durch eine Kamera;
    • - Erfassen von 3D-Messpunkten durch zumindest einen 3D-Sensor; und
    • - Fusionieren der Kamerabilder mit den 3D-Messpunkten zu Daten eines virtuellen Sensors.
  • Gemäß einem weiteren Aspekt der Erfindung enthält ein computerlesbares Speichermedium Instruktionen, die bei Ausführung durch einen Computer den Computer zur Ausführung der folgende Schritte zur Verarbeitung von Sensordaten veranlassen:
    • - Erfassen von Kamerabildern durch eine Kamera;
    • - Erfassen von 3D-Messpunktendurch zumindest einen 3D-Sensor; und
    • - Fusionieren der Kamerabilder mit den 3D-Messpunkten zu Daten eines virtuellen Sensors.
  • Der Begriff Computer ist dabei breit zu verstehen. Insbesondere umfasst er auch Steuergeräte und andere prozessorbasierte Datenverarbeitungsvorrichtungen.
  • Gemäß einem weiteren Aspekt der Erfindung weist eine Vorrichtung zur Verarbeitung von Sensordaten auf:
    • - einen Eingang zum Empfangen von Kamerabildern einer Kamera und von 3D-Messpunkten eines 3D-Sensors; und
    • - eine Datenfusionseinheit zum Fusionieren der Kamerabilder mit den 3D-Messpunkten zu Daten eines virtuellen Sensors.
  • Im Rahmen eines Vorverarbeitungsschrittes für die Auswertung von Sensordaten, insbesondere im Rahmen einer Objektverfolgung, wird das Konzept eines virtuellen Sensors eingeführt. Dieser fusioniert die Messdaten von Kamera und 3D-Sensoren auf einer früheren Messpunkt-Ebene und abstrahiert somit die einzelnen Sensoren. Die resultierenden Daten aus dem virtuellen Sensor lassen sich bei der nachfolgenden Objektverfolgung zu Objekthypothesen mit hoher Qualität clustern, da sie umfangreiche Informationen enthalten, um verschiedene Klassen zu separieren. Durch die erfindungsgemäße Lösung wird verhindert, dass die Objekthypothesen verschiedener Sensoren mit systematischen Fehlern über Zeit in einem gemeinsamen Modell fusioniert werden, wobei leicht Assoziationsfehler auftreten. Dadurch wird eine robuste Umfeldwahrnehmung ermöglicht, welche hochautomatisierte und autonome Fahrfunktionen erlaubt.
  • Gemäß einem Aspekt der Erfindung umfasst das Fusionieren der Bilddaten mit den 3D-Messpunkten zu Daten eines virtuellen Sensors:
    • - Berechnen eines optischen Flusses aus zumindest einem ersten Kamerabild und einem zweiten Kamerabild; und
    • - Bestimmen von Pixeln in zumindest einem der Kamerabilder, die einem der 3D-Messpunkte zu einem Zeitpunkt der Messung zuzuordnen sind, auf Basis des optischen Flusses.
  • Mittels des berechneten optischen Flusses werden die 3D-Messpunkte mit den Kamerabildern synchronisiert. Dies ist besonders vorteilhaft, da der optische Fluss automatisch Fremd- und Eigenbewegungen korrekt berücksichtigt. Es ist kein Dynamikmodell hinterlegt, welches Fehler induzieren könnte.
  • Gemäß einem Aspekt der Erfindung umfasst das Bestimmen von Pixeln in zumindest einem der Kamerabilder, die einem der 3D-Messpunkte zu einem Zeitpunkt der Messung zuzuordnen sind:
    • - Umrechnen eines Kamerabildes in der zeitlichen Nähe eines Messzeitpunktes des 3D-Sensors auf Basis des optischen Flusses; und
    • - Projizieren der 3D-Messpunkte in das umgerechnete Kamerabild.
  • Mit Hilfe des optischen Flusses lässt sich das ganze Kamerabild auf den Messzeitpunkt des 3D-Sensors umrechnen. Im Anschluss können dann die 3D-Messpunkte aus dem tiefenmessenden Sensor in das Kamerabild projiziert werden. Hierzu können die Pixel beispielsweise als unendlich lange Strahlen behandelt werden, welche sich mit dem 3D-Messpunkten schneiden.
  • Gemäß einem Aspekt der Erfindung umfasst das Bestimmen von Pixeln in zumindest einem der Kamerabilder, die einem der 3D-Messpunkte zu einem Zeitpunkt der Messung zuzuordnen sind:
    • - Bestimmen derjenigen Pixel im Kamerabild, die zum Zeitpunkt der Messung den 3D-Messpunkten zuzuordnen sind, auf Basis des optischen Flusses und eines Suchverfahrens; und
    • - Projizieren der 3D-Messpunkte an die so bestimmten Stellen im Kamerabild.
  • Mit Hilfe des optischen Flusses und eines Suchverfahrens ist es möglich, diejenigen Pixel im Kamerabild zu ermitteln, die zum Zeitpunkt der Messung den 3D-Messpunkten zuzuordnen sind. Diese ist insbesondere bei einem Lidar-System sinnvoll, wo durch den scannenden Effekt jeder Messpunkt seinen eigenen Zeitstempel hat. Der auf einen Suchverfahren basierende Ansatz ist deutlich weniger rechenaufwendig, als für jeden Messpunkt das ganze Bild umzurechnen.
  • Gemäß einem Aspekt der Erfindung wird aus dem optischen Fluss eine Zeit bis zur Kollision für die Pixel der Kamerabilder bestimmt. Aus der Zeit bis zur Kollision, dem optischen Fluss und einer Abstandsmessung für einen 3D-Messpunkt kann dann ein kartesischer Geschwindigkeitsvektor für diesen 3D-Messpunkt berechnet werden. Dieser kann beispielsweise genutzt werden, um überlappende Objekte einer gleichen Klasse zu unterscheiden. Bisherige Sensoren müssen für eine solche Unterscheidung Objekte über die Zeit mittels Dynamik- und Assoziationsmodellen verfolgen, was relativ fehlerträchtig ist.
  • Gemäß einem Aspekt der Erfindung wird aus einer radialen Relativgeschwindigkeit und einer Abstandsmessung eine Zeit bis zur Kollision aus einer 3D-Messung bestimmt. Aus der Zeit bis zur Kollision und dem optischen Fluss kann dann ein kartesischer Geschwindigkeitsvektor für diesen 3D-Messpunkt berechnet werden. Dieser Ansatz hat den Vorteil, dass die Messung der Zeit bis zur Kollision besonders genau ist, wenn die radiale Relativgeschwindigkeit beispielsweise aus einem Radarsensor stammt. Zudem lassen sich Objektbewegungen sowohl horizontal als auch vertikal (optischer Fluss) im Bild recht genau beobachten. Der resultierende Geschwindigkeitsvektor ist daher im Allgemeinen präziser als wenn man die Zeit bis zur Kollision alleine aus dem Bild schätzt.
  • Gemäß einem Aspekt der Erfindung werden die 3D-Messpunkte um Attribute aus zumindest einem der Kamerabilder erweitert. Bei den Attributen kann es sich beispielsweise um den (gemittelten) optischen Fluss oder die Position im Bildraum des oder der zugehörigen Pixel aus dem Kamerabild handeln. Ebenso können der Geschwindigkeitsvektor, eine Dopplergeschwindigkeit, die Reflektivität bzw. der Radarquerschnitt oder die Konfidenz hinzugefügt werden. Die zusätzlichen Attribute erlauben die Realisierung einer robusteren Objektverfolgung oder auch eine bessere Segmentierung.
  • Gemäß einem Aspekt der Erfindung werden ein Kamerabild nahe eines Messzeitpunktes der 3D-Messung segmentiert. Optional werden vor dem Segmentieren Messpunkte des 3D-Sensors mittels des optischen Flusses präzise in das Bild projiziert und deren Messattribute in weiteren Dimensionen abgelegt. Dies ermöglicht eine sensorübergreifende Segmentierung.
  • Das Segmentieren erfolgt dabei vorzugsweise durch ein neuronales Netz. Durch die Segmentierung werden zum einen Assoziationsfehler vermieden, zum anderen können Mehrdeutigkeiten zwischen zwei Klassen aufgelöst werden. Aus der Segmentierung resultierende Klasseninformationen bzw. Identifikatoren werden den 3D-Messpunkten vorzugsweise ebenfalls als Attribute hinzugefügt.
  • Gemäß einem Aspekt der Erfindung wird ein Algorithmus zur Objektverfolgung auf die Daten des virtuellen Sensors angewandt. Dieser Algorithmus nimmt vorzugsweise eine akkumulierende Sensordatenfusion vor. Die akkumulierende Sensordatenfusion ermöglicht eine Filterung der Daten über die Zeit und daher eine zuverlässige Objektverfolgung.
  • Besonders vorteilhaft wird ein erfindungsgemäßes Verfahren oder eine erfindungsgemäße Vorrichtung in einem Fahrzeug, insbesondere einem Kraftfahrzeug, eingesetzt.
  • Weitere Merkmale der vorliegenden Erfindung werden aus der nachfolgenden Beschreibung und den angehängten Ansprüchen in Verbindung mit den Figuren ersichtlich.
    • 1 zeigt schematisch den Ablauf eines klassischen Objekttrackings;
    • 2 zeigt schematisch ein Verfahren zur Verarbeitung von Sensordaten;
    • 3 zeigt schematisch das Fusionieren von Kamerabildern mit 3D-Messpunkten zu Daten eines virtuellen Sensors;
    • 4 zeigt eine erste Ausführungsform einer Vorrichtung zur Verarbeitung von Sensordaten;
    • 5 zeigt eine zweite Ausführungsform einer Vorrichtung zur Verarbeitung von Sensordaten;
    • 6 stellt schematisch ein Kraftfahrzeug dar, in dem eine erfindungsgemäße Lösung realisiert ist;
    • 7 zeigt schematisch das Konzept eines virtuellen Sensors; und
    • 8 zeigt schematisch das Konzept eines virtuellen Sensors mit Klassifikator.
  • Zum besseren Verständnis der Prinzipien der vorliegenden Erfindung werden nachfolgend Ausführungsformen der Erfindung anhand der Figuren detaillierter erläutert. Es versteht sich, dass sich die Erfindung nicht auf diese Ausführungsformen beschränkt und dass die beschriebenen Merkmale auch kombiniert oder modifiziert werden können, ohne den Schutzbereich der Erfindung zu verlassen, wie er in den angehängten Ansprüchen definiert ist.
  • 1 zeigt schematisch den Ablauf eines klassischen Objekttrackings. Eingangsgrößen für das Objekttracking sind Sensordaten E und in den Messraum transformierte Trackzustände. In einem ersten Schritt 10 wird versucht, eine Messung mit einem Track zu assoziieren. Anschließend wird überprüft 11, ob die Assoziation erfolgreich war. Ist die der Fall, so wird der entsprechende Track aktualisiert 12. Schlägt die Assoziation jedoch fehl, so wird ein neuer Track initialisiert 13. Dieses Vorgehen wird für alle Messungen wiederholt. Weiterhin wird für alle Tracks überprüft 14, ob der jeweilige Track lange Zeit nicht aktualisiert wurde. Tracks, für die dies bejaht wird, werden gelöscht 15. Ausgangsgröße des Objekttrackings ist eine Objektliste A. Die zugehörigen Tracks werden auf den nächsten Messzeitpunkt prädiziert 16 und die resultierenden Trackzustände für den nächsten Durchgang des Objekttrackings wiederum in den Messraum transformiert 17.
  • 2 zeigt schematisch ein Verfahren zur Verarbeitung von Sensordaten. In einem ersten Schritt werden durch eine Kamera Kamerabilder erfasst 20. Durch zumindest einen 3D-Sensor werden zudem 3D-Messpunkte erfasst 21. Optional kann zumindest eines der Kamerabilder segmentiert werden 22, z.B. durch ein neuronales Netz. Die Kamerabilder werden dann durch eine Datenfusionseinheit mit den 3D-Messpunkten zu Daten eines virtuellen Sensors fusioniert 23. Hierbei wird ein optischer Fluss bestimmt, welcher zur Synchronisation von Bild- und 3D-Messpunkten genutzt wird. Die 3D-Messpunkte können dabei um Attribute aus zumindest einem der Kamerabilder erweitert werden. Die resultierenden Daten werden schließlich für eine weitere Verarbeitung ausgegeben 24. Bei der weiteren Verarbeitung kann beispielsweise ein Algorithmus zur Objektverfolgung auf die Daten des virtuellen Sensors angewandt werden. Der Algorithmus kann z.B. eine akkumulierende Sensordatenfusion vornehmen. Zudem können die Daten des virtuellen Sensors segmentiert werden. Das Segmentieren kann dabei wiederum durch ein neuronales Netz erfolgen.
  • 3 zeigt schematisch das Fusionieren von Kamerabildern mit 3D-Messpunkten zu Daten eines virtuellen Sensors. In einem ersten Schritt wird aus zumindest einem ersten Kamerabild und einem zweiten Kamerabild ein optischer Fluss berechnet 30. Aus dem optischen Fluss kann optional für die Pixel der Kamerabilder eine Zeit bis zur Kollision bestimmt werden 31. Aus der Zeit bis zur Kollision, dem optischen Fluss und einer Abstandsmessung für einen 3D-Messpunkt kann zudem ein Geschwindigkeitsvektor für diesen 3D-Messpunkt berechnet werden. Alternativ kann aus einer radialen Relativgeschwindigkeit und einer Abstandsmessung eine Zeit bis zur Kollision aus einer 3D-Messung bestimmt werden. Aus der Zeit bis zur Kollision und dem optischen Fluss kann dann ein kartesischer Geschwindigkeitsvektor für diesen 3D-Messpunkt berechnet werden.
  • Auf Basis des optischen Flusses werden schließlich Pixel in zumindest einem der Kamerabilder bestimmt 32, die einem der 3D-Messpunkte zugeordnet sind. Dazu kann zunächst ein Kamerabild in der zeitlichen Nähe eines Messzeitpunktes des 3D-Sensors auf Basis des optischen Flusses umgerechnet werden. Die 3D-Messpunkte können dann in das umgerechnete Kamerabild projiziert werden.
  • 4 zeigt eine vereinfachte schematische Darstellung einer ersten Ausführungsform einer Vorrichtung 40 zur Verarbeitung von Sensordaten. Die Vorrichtung 40 hat einen Eingang 41, über den Kamerabilder I1, I2 einer Kamera 61 und 3D-Messpunkte MP zumindest eines 3D-Sensors 62, 64 empfangen werden können. Die Vorrichtung 40 hat zudem optional einen Segmentierer 42 zum Segmentieren zumindest eines Kamerabildes bzw. eines mit weiteren Messungen angereicherten Kamerabildes I1, I2, z.B. mittels eines neuronalen Netzes. Durch eine Datenfusionseinheit 43 werden die Kamerabilder I1, I2 mit den 3D-Messpunkten MP zu Daten VS eines virtuellen Sensors fusioniert. Die 3D-Messpunkte MP können dabei um Attribute aus zumindest einem der Kamerabilder I1, I2 erweitert werden. Für das Fusionieren kann die Datenfusionseinheit 43 in einem ersten Schritt aus zumindest einem ersten Kamerabild I1 und einem zweiten Kamerabild I2 einen optischen Fluss berechnen. Aus dem optischen Fluss kann optional eine Zeit bis zur Kollision für die Pixel der Kamerabilder I1, I2 bestimmt werden. Aus der Zeit bis zur Kollision, dem optischen Fluss und einer Abstandsmessung für einen gegebenen 3D-Messpunkt MP kann dann ein Geschwindigkeitsvektor für diesen 3D-Messpunkt MP berechnet werden. Alternativ kann aus einer radialen Relativgeschwindigkeit und einer Abstandsmessung eine Zeit bis zur Kollision aus einer 3D-Messung bestimmt werden. Aus der Zeit bis zur Kollision und dem optischen Fluss kann dann ein kartesischer Geschwindigkeitsvektor für diesen 3D-Messpunkt MP berechnet werden. Auf Basis des optischen Flusses bestimmt die Datenfusionseinheit 43 schließlich Pixel in zumindest einem der Kamerabilder I1, I2, die einem der 3D-Messpunkte MP zugeordnet sind. Dazu kann zunächst ein Kamerabild I1, I2 in der zeitlichen Nähe eines Messzeitpunktes MP des 3D-Sensors 62, 64 auf Basis des optischen Flusses umgerechnet werden. Die 3D-Messpunkte MP können dann in das umgerechnete Kamerabild projiziert werden.
  • Ein ebenfalls optionaler Objekttracker 44 kann auf Basis der Daten VS des virtuellen Sensors eine Objektverfolgung durchführen. Der Objekttracker 44 kann z.B. eine akkumulierende Sensordatenfusion vornehmen. Diese kann allerdings ebenfalls außerhalb der Vorrichtung 40 vorgenommen werden. Über einen Ausgang 47 der Vorrichtung 40 werden die Daten VS des virtuellen Sensors oder die Ergebnisse der Objektverfolgung oder der Segmentierung für eine weitere Verarbeitung ausgegeben.
  • Der Segmentierer 42, die Datenfusionseinheit 43 und der Objekttracker 44 können von einer Kontrolleinheit 45 gesteuert werden. Über eine Benutzerschnittstelle 48 können gegebenenfalls Einstellungen des Segmentierers 42, der Datenfusionseinheit 43, des Objekttrackers 44 oder der Kontrolleinheit 45 geändert werden. Die in der Vorrichtung 40 anfallenden Daten können bei Bedarf in einem Speicher 46 der Vorrichtung 40 abgelegt werden, beispielsweise für eine spätere Auswertung oder für eine Nutzung durch die Komponenten der Vorrichtung 40. Der Segmentierer 42, die Datenfusionseinheit 43, der Objekttracker 44 sowie die Kontrolleinheit 45 können als dedizierte Hardware realisiert sein, beispielsweise als integrierte Schaltungen. Natürlich können sie aber auch teilweise oder vollständig kombiniert oder als Software implementiert werden, die auf einem geeigneten Prozessor läuft, beispielsweise auf einer GPU oder einer CPU. Der Eingang 41 und der Ausgang 47 können als getrennte Schnittstellen oder als eine kombinierte bidirektionale Schnittstelle implementiert sein.
  • 5 zeigt eine vereinfachte schematische Darstellung einer zweiten Ausführungsform einer Vorrichtung 50 zur Verarbeitung von Sensordaten. Die Vorrichtung 50 weist einen Prozessor 52 und einen Speicher 51 auf. Beispielsweise handelt es sich bei der Vorrichtung 50 um einen Computer oder ein Steuergerät. Im Speicher 51 sind Instruktionen abgelegt, die die Vorrichtung 50 bei Ausführung durch den Prozessor 52 veranlassen, die Schritte gemäß einem der beschriebenen Verfahren auszuführen. Die im Speicher 51 abgelegten Instruktionen verkörpern somit ein durch den Prozessor 52 ausführbares Programm, welches das erfindungsgemäße Verfahren realisiert. Die Vorrichtung 50 hat einen Eingang 53 zum Empfangen von Informationen, insbesondere von Sensordaten. Vom Prozessor 52 generierte Daten werden über einen Ausgang 54 bereitgestellt. Darüber hinaus können sie im Speicher 51 abgelegt werden. Der Eingang 53 und der Ausgang 54 können zu einer bidirektionalen Schnittstelle zusammengefasst sein.
  • Der Prozessor 52 kann eine oder mehrere Prozessoreinheiten umfassen, beispielsweise Mikroprozessoren, digitale Signalprozessoren oder Kombinationen daraus.
  • Die Speicher 46, 51 der beschriebenen Ausführungsformen können sowohl volatile als auch nichtvolatile Speicherbereiche aufweisen und unterschiedlichste Speichergeräte und Speichermedien umfassen, beispielsweise Festplatten, optische Speichermedien oder Halbleiterspeicher.
  • 6 stellt schematisch ein Kraftfahrzeug 50 dar, in dem eine erfindungsgemäße Lösung realisiert ist. Das Kraftfahrzeug 60 weist eine Kamera 61 zum Erfassen von Kamerabildern sowie einen Radarsensor 62 zum Erfassen von 3D-Messpunkten auf. Weiterhin weist das Kraftfahrzeug 60 eine Vorrichtung 40 zur Verarbeitung von Sensordaten auf, mittels derer die Kamerabilder mit den 3D-Messpunkten zu Daten eines virtuellen Sensors fusioniert werden. Weitere Komponenten des Kraftfahrzeugs 60 sind Ultraschallsensoren 63 und ein Lidar-System 64 zur Umgebungserfassung, eine Datenübertragungseinheit 65 sowie eine Reihe von Assistenzsystemen 66, von denen eines exemplarisch dargestellt ist. Die Assistenzsysteme können die von der Vorrichtung 20 bereitgestellten Daten nutzen, beispielsweise für ein Objekttracking. Mittels der Datenübertragungseinheit 65 kann eine Verbindung zu Dienstanbietern aufgebaut werden, beispielsweise zum Abrufen von Navigationsdaten. Zur Speicherung von Daten ist ein Speicher 67 vorhanden. Der Datenaustausch zwischen den verschiedenen Komponenten des Kraftfahrzeugs 50 erfolgt über ein Netzwerk 68.
  • Nachfolgend sollen bevorzugte Ausführungsformen der Erfindung anhand der 7 und 8 beschrieben werden.
  • Anstatt Messdaten verschiedener Sensoren mit systematischen Fehlern über die Zeit in einem gemeinsamen Modell zu fusionieren, wobei leicht Assoziationsfehler auftreten, wird das Konzept eines virtuellen Sensors eingeführt. Dieser fusioniert die Messdaten von Kamera und 3D-Sensoren auf einer früheren Messpunkt-Ebene und abstrahiert somit die einzelnen Sensoren.
  • 7 zeigt schematisch das Konzept eines virtuellen Sensors als Basis für eine akkumulierende Sensordatenfusion. Eingangsgrößen für die Sensorfusion durch eine Datenfusionseinheit 43 sind 3D-Messpunkte eines 3D-Sensors (Radar 62) sowie Kamerabilder einer Kamera 61. Die Kamera 61 kann bereits eine Verarbeitung der Kamerabilder vornehmen, um beispielsweise den optischen Fluss zu bestimmen, Bildpunkte im Rahmen einer Segmentierung zu klassifizieren oder mittels SfM-Algorithmen (SfM: Structure from Motion; Struktur aus Bewegung) Punkte aus den Kamerabildern zu extrahieren. Diese Verarbeitung der Kamerabilder kann aber auch durch die Datenfusionseinheit 43 vorgenommen werden. Weiterhin kann die Kamera 61 Angaben zur Kameraposition übermitteln. Weitere mögliche Datenquellen sind Ultraschallsensoren 63 oder ein Lidar-System 64. Durch die Datenfusionseinheit 43 erfolgt einen Fusion der Daten über eine sehr kurze Zeitspanne. Die 3D-Punkte aus der Datenfusionseinheit 42 werden anschließend einer akkumulierenden Sensordatenfusion 44 übergeben, welche eine Filterung über Zeit ermöglicht.
  • Eine wesentliche Herausforderung für die Datenfusion besteht darin, dass die Sensoren 61, 62 zu unterschiedlichen Zeitpunkten messen. Es ist daher eine präzise Synchronisation der Daten der verschiedenen Sensoren 61, 62 erforderlich. Für die Synchronisation der Sensoren 61, 62 wird vorzugsweise der aus den Kamerabildern bestimmte optische Fluss genutzt. Nachfolgend sollen zunächst Grundlagen der Synchronisation erläutert werden. Eine detaillierte Beschreibung, wie die verschiedenen auftretenden Koordinatensysteme behandelt werden, erfolgt weiter unten.
  • Gegeben sind die 3D-Messpunkte, welche zu einem Zeitpunkt t aufgenommen worden sind. Es werden nun zumindest zwei Kamerabilder verwendet, z.B. die Kamerabilder vor und nach dem Messzeitpunkt t, um zunächst einen optischen Fluss o zu berechnen.
  • Vorzugsweise wird das Bild, welches sich vom Aufnahmezeitpunkt t am dichtesten vom Messzeitpunkt des 3D-Sensors befindet, herangezogen. Die Differenzzeit zwischen dem Aufnahmezeitpunkt dieses Bildes und der Messung sei Δt. Der optische Fluss o wird im Bildraum (Polarraum) gemessen.
  • Ein Pixel mit der Position p und dem optischem Fluss o wird nun wie folgt prädiziert: p ' = p + o Δ t
    Figure DE102018205879A1_0001
  • Unter Berücksichtigung der Zeit bis zur Kollision (Time to collision), bezeichnet mit TTC, deren Bestimmung weiter unten erläutert wird, kann diese Formel noch verfeinert werden: p ' = p + o Δ t TTC TTC Δ t
    Figure DE102018205879A1_0002
  • Mit diesem Ansatz lässt sich das ganze Bild auf den Messzeitpunkt t des 3D-Sensors umrechnen. Im Anschluss lassen sich leicht die 3D-Messpunkte aus dem tiefenmessenden Sensor in das Bild projizieren. Hierzu können die Pixel als unendlich lange Strahlen behandelt werden, welche sich mit dem 3D-Messpunkten schneiden.
  • Bei einem Lidar-System ist es allerdings so, dass durch den scannenden Effekt jeder Messpunkt seinen eigenen Zeitstempel hat. Man kann in diesem Fall für jeden Messpunkt das ganze Bild umrechnen, dies ist aber rechenaufwendig. Eine Alternativmöglichkeit ist es, nach demjenigen Pixel mit der Position p im Originalbild zu suchen, welche die obige Gleichung (1) für den 3D-Messpunkt mit den Bildkoordinaten p' erfüllt.
  • Hierzu können verschiedene Algorithmen genutzt werden. Zum einen kann man alle optischen Flussvektoren mit Linienalgorithmen so rendern, dass in jedem Pixel die umschließende Box („Bounding Box“) des Vektors angeben wird. Überschneiden sich mehrere Flussvektoren in einem Pixel, so wird die Bounding Box entsprechend so vergrößert, dass beide Vektoren in der Box enthalten sind. Der anschließende Suchalgorithmus muss nun nur die Bounding Box berücksichtigen, in der der gesuchte Pixel enthalten sein muss.
  • Eine weitere Möglichkeit besteht in der Implementierung von Suchbäumen, z. B. von Quadtrees (Quaternärbäume), ähnlich wie zur Kollisionserkennung.
  • Der 3D-Messpunkt hat meist eine Winkelunsicherheit, z. B. durch Strahlaufweitung. Daher werden vorzugsweise alle Pixel im Umkreis der Unsicherheit berücksichtigt, um den 3D-Messpunkt um Attribute aus dem Bild zu erweitern. Bei den Attributen kann es sich beispielsweise um den gemittelten optischen Fluss o (ox, oy) oder die Position im Bildraum p (px, py) handeln.
  • Aufgrund jüngster Fortschritte im Bereich der Bildverarbeitung mittels „[Deep] Convolutional Neuronal Networks (CNN)“ ([tiefe] gefaltete neuronale Netze) ist mit entsprechender Rechenleistung eine pixelgenaue Segmentierung von Bildern möglich. Wird zumindest eines der Kamerabilder durch ein solches neuronales Netz segmentiert, so können die 3D-Messpunkte zusätzlich um die aus der Segmentierung resultierenden Klasse sowie den zugehörigen Identifikator erweitert werden.
  • Die resultierenden Punkte aus dem virtuellen Sensor lassen sich zu Objekthypothesen mit hoher Qualität clustern, da sie umfangreiche Informationen enthalten, um Klassen zu separieren. Insbesondere sind dies die Klasseninformation und der Identifikator aus der Segmentierung sowie der kartesische Geschwindigkeitsvektor, der z. B. bei überlappenden Objekten der gleichen Klasse von Nutzen ist.
  • Die erweiterten 3D-Messpunkte oder Cluster aus dem virtuellen Sensor bzw. die Cluster werden anschließend einer akkumulierenden Sensordatenfusion übergeben, welche eine Filterung über Zeit ermöglicht. Bei einigen aktuellen neuronalen Netzen ist es möglich, dass diese sogenannte Instanzen bilden. Als Beispiel sein eine Parkreihe mit stehenden Fahrzeugen gegeben, die von der Kamera schräg erfasst werden. Neuere Verfahren können dann trotz Überlappung im Bild die unterschiedlichen Fahrzeuge trennen. Wenn das neuronale Netz Instanzen bildet, kann man diese natürlich als Clusterinformation in der akkumulierenden Sensordatenfusion nutzen.
  • Sofern durch eine Segmentierung der Kamerabilder Informationen zu Bildsegmenten vorliegen, kann gegebenenfalls auf die vollständige Berechnung des optischen Flusses verzichtet werden. Stattdessen können durch geeignete Algorithmen auch die Veränderungen der einzelnen Bildsegmente über die Zeit bestimmt werden, was sich besonders effizient umsetzen lässt.
  • Aus dem optischen Fluss o im Bildraum lässt sich eine Zeit bis zur Kollision bestimmen. Diese beschreibt, wann ein Punkt die Hauptebene der Kameraoptik durchstößt.
  • Mit dem Abstand b = p1 - p2 zweier zusammengehöriger Punkte p1, p2 im Bild zu zwei Zeitpunkten t1, t2 bzw. mit dem Abstand zu einem Zeitpunkt und den zugehörigen optischen Flüssen o1, o2 kann die TTC berechnet werden: TTC = ( t 2 t 1 ) b ( t 2 ) ( b ( t 2 ) b ( t 1 ) ) = b ( o 1 o 2 ) .
    Figure DE102018205879A1_0003
  • Im Folgenden wird für die mathematische Darstellung ein Lochkameramodell genutzt. Aus der Bildposition px, py (in Pixel), der TTC (in s), dem optischen Fluss o (in Pixel/s) und der Abstandsmessung d in Richtung Bildebene des Kamerasensors (in m) lässt sich ein kartesischer Geschwindigkeitsvektor v (in m/s) für die 3D-Messung bestimmen, welcher relativ zur Egobewegung im Kamerakoordinatensystem ist. Zu beachten ist, dass optischer Fluss o und Pixelposition p im Bildraum angegeben ist, während die Geschwindigkeiten vx,y,z im Kamerakoordinatensystem bestimmt werden.
  • Zusätzlich zu den Messattributen wird eine Kamerakonstante K benötigt, die die Bildweite b (in m) und die Auflösung D (Pixel pro m) des abbildenden Systems berücksichtigt. Die Geschwindigkeiten ergeben sich dann wie folgt v x = d TTC
    Figure DE102018205879A1_0004
    v y = d ( o x p x TTC ) K v z = d ( o y p y TTC ) K K = 1 ( b D )
    Figure DE102018205879A1_0005
  • Sollte der 3D-Messpunkt aus einem Radarsensor stammen, so kann zusätzlich die radiale Relativgeschwindigkeit (Dopplergeschwindigkeit) genutzt werden, um die Messung zu stabilisieren: Mittels dieser Relativgeschwindigkeit und Abstandsmessung kann durch Quotientenbildung eine alternative TTC bestimmt werden. Dies ist insbesondere bei Features nahe dem Expansionspunkt der Kamera nützlich, da dort nur ein geringer optischer Fluss herrscht. Dieses betrifft also Objekte im Fahrschlauch. Der Fahrschlauch wird jedoch meist durch besonders viele Sensoren abgedeckt, sodass die Information in der Regel verfügbar ist.
  • 8 zeigt schematisch das Konzept eines virtuellen Sensors mit Klassifikator. Das Konzept entspricht weitgehend dem aus 7 bekannten Konzept. Zurzeit werden zur Bildklassifikation oftmals gefaltete neuronale Netze verwendet. Diese benötigen nach Möglichkeit lokal assoziierbare Daten, welche in einem Bild natürlicherweise vorliegen. Nachbarpixel gehören häufig zum gleichen Objekt und beschreiben die Nachbarschaft im polaren Bildraum.
  • Vorzugsweise verlassen sich die neuronalen Netze allerdings nicht nur auf Bilddaten, welche bei schlechten Lichtverhältnissen kaum Daten liefern und auch Abstandsschätzungen generell schwer machen. In weiteren Dimensionen werden deshalb Messdaten anderer Sensoren, insbesondere aus Laser- und Radarmessungen, in den Zustandsraum projiziert. Für eine gute Performance ist es dabei sinnvoll, die Messdaten mittels des optischen Flusses zu synchronisieren, damit die neuronalen Netze die Datenlokalität gut ausnutzen können.
  • Die Synchronisation kann dabei auf folgende Weise vorgenommen werden. Ausgangspunkt ist ein Kamerabild, welches vom Aufnahmezeitpunkt möglichst nahe an allen Sensordaten liegt. Neben den Pixelinformationen werden nun weitere Daten annotiert: Dazu gehört im ersten Schritt die Verschiebung im Bild, beispielsweise mit Hilfe des optischen Flusses. Mittels des weiter oben bereits beschriebenen Prädiktionsschrittes werden wiederum die Pixel identifiziert, welche gemäß der Pixelverschiebung mit den verfügbaren 3D-Messdaten, beispielsweise aus Laser- oder Radarmessungen, assoziieren. Da es bei den Messungen Strahlaufweitungen gibt, sind hier meist mehrere Pixel betroffen. Die assoziierten Pixel werden um weitere Dimensionen erweitert und die Messattribute entsprechend eingetragen. Mögliche Attribute sind beispielsweise: neben der Abstandsmessung aus Laser, Radar oder Ultraschall, die Dopplergeschwindigkeit vom Radar, die Reflektivität bzw. der Radarquerschnitt oder auch Konfidenz.
  • Das synchronisierte und um Messattribute erweiterte Kamerabild wird nun mit einem Klassifikator bzw. Segmentierer 42, bevorzugt mit einem gefalteten neuronalen Netz, klassifiziert. Hierbei können nun alle Informationen so generiert werden, wie dies weiter oben in Verbindung mit 7 beschrieben wurde.
  • Nachfolgend soll detailliert der mathematische Hintergrund erläutert werden, der für die Synchronisation der Kamerabilder und der 3D-Messpunkte erforderlich ist. Angenommen wird dabei eine Kamera, die als Lochkamera modelliert werden kann. Diese Annahme dient lediglich dazu, die Transformationen leichter handhabbar zu machen. Lässt sich die verwendete Kamera nicht angemessen als Lochkamera modellieren, können stattdessen Verzerrungsmodelle genutzt werden, um Ansichten zu generieren, die dem Lochkameramodell genügen. In diesen Fällen müssen in den folgenden Gleichungen die Parameter des virtuellen Lochkameramodells verwendet werden.
  • Zunächst müssen Koordinatensysteme und die Transformationen zwischen den Koordinatensystemen definiert werden. Insgesamt werden fünf Koordinatensysteme definiert:
    • - CW ist das 3D-Weltkoordinatensystem
    • - CV ist das 3D-Koordinatensystem des Ego-Fahrzeugs
    • - CC ist das 3D-Koordinatensystem der Kamera
    • - CS ist das 3D-Koordinatensystem des 3D-Sensors
    • - CI ist das 2D-Bildkoordinatensystem
  • Die Koordinatensysteme von Kamera, 3D-Sensor, Bild und Ego-Fahrzeug sind eng miteinander verknüpft. Da sich das Ego-Fahrzeug relativ zum Weltkoordinatensystem bewegt, werden die folgenden vier Transformationen zwischen den Koordinatensystemen definiert:
    • - Ty←w(t) ist die Transformation, die einen 3D-Punkt im Weltkoordinatensystem in das 3D-Koordinatensystem des Ego-Fahrzeugs transformiert. Diese Transformation hängt von der Zeit t ab, da sich das Ego-Fahrzeug über die Zeit bewegt.
    • - Ts←v ist die Transformation, die einen 3D-Punkt im 3D-Koordinatensystem des Ego-Fahrzeugs in das 3D-Koordinatensystem des 3D-Sensors transformiert.
    • - Tc←v ist die Transformation, die einen 3D-Punkt im 3D-Koordinatensystem des Ego-Fahrzeugs in das 3D-Koordinatensystem der Kamera transformiert.
    • - PI←C ist die Transformation, die einen 3D-Punkt im 3D-Koordinatensystem der Kamera in das 2D-Bildkoordinatensystem projiziert.
  • Ein sich im Weltkoordinatensystem bewegender Weltpunkt, z.B. ein Punkt auf einem Fahrzeug, kann beschrieben werden durch xw(t).
  • Dieser Punkt wird durch die Kamera zu einem Zeitpunkt t0 und durch den 3D-Sensor zu einem Zeitpunkt t1 erfasst. In homogenen Koordinaten beobachtet die Kamera den zugehörigen Bildpunkt xi(t0): x i ( t 0 ) = P I C T C V T V W ( t 0 ) x w ( t 0 )
    Figure DE102018205879A1_0006
  • Der 3D-Sensor beobachtet den zugehörigen Punkt xs: x s ( t 1 ) = T S V T V W ( t 1 ) x w ( t 1 )
    Figure DE102018205879A1_0007
  • Die Gleichungen (6) und (7) sind miteinander durch die Bewegung des Ego-Fahrzeugs und die Bewegung des Weltpunktes verknüpft. Während Informationen zur Bewegung des Ego-Fahrzeugs vorliegen, ist die Bewegung des Weltpunktes unbekannt.
  • Es ist daher erforderlich, Informationen zur Bewegung des Weltpunktes zu ermitteln.
  • Gegeben sei eine zweite Messung der Kamera zu einem Zeitpunkt t2: x i ( t 2 ) = P I V T C V T V W ( t 2 ) x w ( t 2 )
    Figure DE102018205879A1_0008
  • Man kann nun die Gleichungen (6) und (8) miteinander kombinieren: Δ x i ( t 0 , t 2 ) = x i ( t 2 ) x i ( t 0 ) = P I C T C V T V W ( t 2 ) x w ( t 2 ) P I C T C V T V W ( t 0 ) x w ( t 0 ) = P I C T C V ( T V W ( t 2 ) x w ( t 2 ) T V W ( t 0 ) x w ( t 0 ) )
    Figure DE102018205879A1_0009
  • Im Koordinatensystem des Ego-Fahrzeugs ist der beobachtete Punkt xv(t) gegeben durch: x v ( t ) = T V W ( t ) x w ( t )
    Figure DE102018205879A1_0010
  • Wendet man dies auf Gleichung (10) an, so erhält man: Δ x i ( t 0 , t 2 ) = P I C T C V ( T V W ( t 2 ) x w ( t 2 ) T V W ( t 0 ) x w ( t 0 ) ) = P I C T C V ( x v ( t 2 ) x v ( t 0 ) ) = P I C T C V Δ x v ( t 0 , t 2 )
    Figure DE102018205879A1_0011
  • Gleichung (11) stellt eine Beziehung zwischen dem optischen Flussvektor und dem Bewegungsvektor des Weltpunktes her. Δxi(t0,t2) ist nichts anderes als der optische Flussvektor zwischen den zu den Zeitpunkten t0 und t2 aufgenommenen Kamerabildern und Δxv(t0,t2) ist der korrespondierende Bewegungsvektor des Weltpunktes ausgedrückt in CV. Der optische Flussvektor ist somit die Projektion des Bewegungsvektors im 3D-Raum.
  • Die Messungen der Kamera und des 3D-Sensors können nicht direkt miteinander kombiniert werden. Es muss zunächst als zusätzliche Annahme eingeführt werden, dass die Bewegung in der Bildebene zwischen den Zeitpunkten t0 und t2 linear ist. Unter dieser Annahme ist der zu einem Weltpunkt gehörige Bildpunkt bestimmt durch: x i ( t ) = Δ x i ( t 0 , t 2 ) t t 0 t 2 t 0 + x i ( t 0 )
    Figure DE102018205879A1_0012
  • Aus Gleichung (11) ist klar, dass sowohl die Bewegung des Weltpunktes als auch die Bewegung des Ego-Fahrzeugs linear sein müssen.
  • Die Transformation aus Gleichung (7) in Bezug auf den 3D-Sensor kann genutzt werden, um einen in CS zum Zeitpunkt t1 gemessenen 3D-Messpunkt im Koordinatensystem CC der Kamera zu bestimmen: x s ( t 1 ) = T S V T V W ( t 1 ) x w ( t 1 ) = T S V x v ( t 1 ) x v ( t 1 ) = T S V 1 x s ( t 1 )
    Figure DE102018205879A1_0013
  • Zudem kann man mittels Gleichung (6) die Pixelkoordinaten des Weltpunktes bestimmen, die dieser in einem zum Zeitpunkt t1 aufgenommenen virtuellen Kamerabild hätte: x i ( t 1 ) = P I C T C V T V W ( t 1 ) x w ( t 1 ) = P I C T C V x v ( t 1 )
    Figure DE102018205879A1_0014
  • Wendet man Gleichung (13) auf Gleichung (14) an, so erhält man: x i ( t 1 ) = P I C T C V T S V 1 x s ( t 1 )
    Figure DE102018205879A1_0015
  • Andererseits kann man xi(t1) aus Gleichung (12) bestimmen: Δ x i ( t 0 , t 2 ) t 1 t 0 t 2 t 0 + x i ( t 0 ) = x i ( t 1 ) = P I C T C V T S V 1 x s ( t 1 )
    Figure DE102018205879A1_0016
  • Gleichung (16) stellt eine Beziehung zwischen den Messungen der Kamera und den Messungen des 3D-Sensors her. Wenn der Weltpunkt in Weltkoordinaten wohldefiniert ist, die Zeitpunkte t0, t1 und t2 sowie die Bildkoordinaten in zwei Kamerabildern und die Messung des 3D-Sensors bekannt sind, so stellt Gleichung (16) eine vollständige Beziehung her, d.h. es gibt keine unbekannten Größen.
  • Dieser Umstand kann selbst dann genutzt werden, wenn die korrekte Übereinstimmung zwischen Messungen des 3D-Sensors und der Kamera nicht bekannt ist. Liegt eine Messung des 3D-Sensors zum Zeitpunkt t1 vor, so kann sie in ein virtuelles Kamerabild transformiert werden, d.h. das Kamerabild, das die Kamera zum Zeitpunkt t1 erfassen würde. Die virtuellen Pixelkoordinaten dazu sind xi(t1). Mittels des optischen Flussvektors vi(t0, t2) kann man nun nach dem Pixel xi(t0) suchen, für den v i ( t 0 , t 2 ) t 1 t 0 t 2 t 0 + x i ( t 0 )
    Figure DE102018205879A1_0017
    gleich oder zumindest sehr nahe xi(t1) ist.
  • Bezugszeichenliste
  • 10
    Assoziieren einer Messung mit einem Track
    11
    Überprüfen der Assoziation auf Erfolg
    12
    Aktualisieren des entsprechenden Tracks
    13
    Initialisieren eines neuen Tracks
    14
    Überprüfen eines Tracks auf Zeitpunkt der letzten Aktualisierung
    15
    Löschen eines Tracks
    16
    Prädizieren der Tracks auf den nächsten Messzeitpunkt
    17
    Transformieren der Trackzustände in den Messraum
    20
    Erfassen von Kamerabildern
    21
    Erfassen von 3D-Messpunkten
    22
    Segmentieren zumindest eines Kamerabildes
    23
    Fusionieren der Kamerabilder mit den 3D-Messpunkten
    24
    Ausgeben von Daten eines virtuellen Sensors
    30
    Berechnen eines optischen Flusses
    31
    Bestimmen einer Zeit bis zur Kollision
    32
    Bestimmen von Pixeln, die einem der 3D-Messpunkte zugeordnet sind
    40
    Vorrichtung
    41
    Eingang
    42
    Segmentierer
    43
    Datenfusionseinheit
    44
    Objekttracker
    45
    Kontrolleinheit
    46
    Speicher
    47
    Ausgang
    48
    Benutzerschnittstelle
    50
    Vorrichtung
    51
    Speicher
    52
    Prozessor
    53
    Eingang
    54
    Ausgang
    60
    Kraftfahrzeug
    61
    Kamera
    62
    Radarsensor
    63
    Ultraschallsensor
    64
    Lidar-System
    65
    Datenübertragungseinheit
    66
    Assistenzsystem
    67
    Speicher
    68
    Netzwerk
    A
    Objektliste
    E
    Sensordaten
    FL
    Optischer Fluss
    I1, I2
    Kamerabild
    MP
    Messpunkt
    TTC
    Zeit bis zur Kollision
    VS
    Daten eines virtuellen Sensors
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102011013776 A1 [0003]
    • DE 102017100199 A1 [0004]
    • DE 102011119767 A1 [0008]

Claims (14)

  1. Verfahren zur Verarbeitung von Sensordaten, mit den Schritten: - Erfassen (20) von Kamerabildern (I1, I2) durch eine Kamera (61); - Erfassen (21) von 3D-Messpunkten (MP) durch zumindest einen 3D-Sensor (62, 64); und - Fusionieren (23) der Kamerabilder (I1, I2) mit den 3D-Messpunkten (MP) zu Daten (VS) eines virtuellen Sensors.
  2. Verfahren gemäß Anspruch 1, wobei das Fusionieren der Bilddaten mit den 3D-Messpunkten zu Daten eines virtuellen Sensors umfasst: - Berechnen (30) eines optischen Flusses (FL) aus zumindest einem ersten Kamerabild (I1) und einem zweiten Kamerabild (I2); und - Bestimmen (32) von Pixeln in zumindest einem der Kamerabilder (I1, I2), die einem der 3D-Messpunkte (MP) zu einem Zeitpunkt der Messung zuzuordnen sind, auf Basis des optischen Flusses (FL).
  3. Verfahren gemäß Anspruch 2, wobei das Bestimmen (32) von Pixeln in zumindest einem der Kamerabilder (I1, I2), die einem der 3D-Messpunkte (MP) zu einem Zeitpunkt der Messung zuzuordnen sind, umfasst: - Umrechnen eines Kamerabildes (I1, I2) in der zeitlichen Nähe eines Messzeitpunktes des 3D-Sensors (62, 64) auf Basis des optischen Flusses (FL); und - Projizieren der 3D-Messpunkte (MP) in das umgerechnete Kamerabild.
  4. Verfahren gemäß Anspruch 2, wobei das Bestimmen (32) von Pixeln in zumindest einem der Kamerabilder (I1, I2), die einem der 3D-Messpunkte (MP) zu einem Zeitpunkt der Messung zuzuordnen sind, umfasst: - Bestimmen derjenigen Pixel im Kamerabild (I1, I2), die zum Zeitpunkt der Messung den 3D-Messpunkten (MP) zuzuordnen sind, auf Basis des optischen Flusses (FL) und eines Suchverfahrens; und - Projizieren der 3D-Messpunkte (MP) an die so bestimmten Stellen im Kamerabild (I1, I2).
  5. Verfahren gemäß einem der Ansprüche 2 bis 4, wobei aus dem optischen Fluss (FL) eine Zeit bis zur Kollision (TTC) für die Pixel der Kamerabilder bestimmt wird (31) und aus der Zeit bis zur Kollision (TTC), dem optischen Fluss (FL) und einer Abstandsmessung für einen 3D-Messpunkt (MP) ein Geschwindigkeitsvektor für diesen 3D-Messpunkt (MP) berechnet wird.
  6. Verfahren gemäß 5, wobei die Zeit bis zur Kollision statt aus dem optischen Fluss aus einer Messung des 3D-Sensors (62, 64) bestimmt wird (31).
  7. Verfahren gemäß einem der vorherigen Ansprüche, wobei die 3D-Messpunkte um Attribute aus zumindest einem der Kamerabilder (I1, I2) erweitert werden.
  8. Verfahren gemäß einem der vorherigen Ansprüche, wobei zumindest ein Kamerabild (I1, I2) nahe eines Messzeitpunktes des 3D-Sensors (62, 64) segmentiert wird.
  9. Verfahren gemäß Anspruch 8, wobei die Segmentierung neben Bildinformationen auch Messungen des 3D-Sensors (62, 64) berücksichtigt.
  10. Verfahren gemäß einem der vorherigen Ansprüche, wobei ein Algorithmus zur Objektverfolgung auf die Daten (VS) des virtuellen Sensors angewandt wird.
  11. Verfahren gemäß Anspruch 10, wobei der Algorithmus zur Objektverfolgung eine akkumulierende Sensordatenfusion vornimmt.
  12. Computerlesbares Speichermedium mit Instruktionen, die bei Ausführung durch einen Computer den Computer zur Ausführung der Schritte eines Verfahrens gemäß einem der Ansprüche 1 bis 11 zur Verarbeitung von Sensordaten veranlassen.
  13. Vorrichtung (20) zur Verarbeitung von Sensordaten, mit: - einem Eingang (41) zum Empfangen von Kamerabildern (I1, I2) einer Kamera (61) und von 3D-Messpunkten (MP) eines 3D-Sensors (62, 64); und - einer Datenfusionseinheit (43) zum Fusionieren (23) der Kamerabilder (I1, I2) mit den 3D-Messpunkten (MP) zu Daten (VS) eines virtuellen Sensors.
  14. Kraftfahrzeug (60), dadurch gekennzeichnet, dass das Kraftfahrzeug (60) eine Vorrichtung (40) gemäß Anspruch 13 aufweist oder eingerichtet ist, ein Verfahren gemäß einem der Ansprüche 1 bis 11 zur Verarbeitung von Sensordaten auszuführen.
DE102018205879.2A 2018-04-18 2018-04-18 Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten Pending DE102018205879A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102018205879.2A DE102018205879A1 (de) 2018-04-18 2018-04-18 Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten
PCT/EP2019/057701 WO2019201565A1 (de) 2018-04-18 2019-03-27 Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur verarbeitung von sensordaten
EP19715031.1A EP3782117A1 (de) 2018-04-18 2019-03-27 Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur verarbeitung von sensordaten
CN201980026426.5A CN111937036A (zh) 2018-04-18 2019-03-27 用于处理传感器数据的方法、设备和具有指令的计算机可读存储介质
US17/048,701 US11935250B2 (en) 2018-04-18 2019-03-27 Method, device and computer-readable storage medium with instructions for processing sensor data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018205879.2A DE102018205879A1 (de) 2018-04-18 2018-04-18 Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten

Publications (1)

Publication Number Publication Date
DE102018205879A1 true DE102018205879A1 (de) 2019-10-24

Family

ID=66001192

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018205879.2A Pending DE102018205879A1 (de) 2018-04-18 2018-04-18 Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten

Country Status (5)

Country Link
US (1) US11935250B2 (de)
EP (1) EP3782117A1 (de)
CN (1) CN111937036A (de)
DE (1) DE102018205879A1 (de)
WO (1) WO2019201565A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200175315A1 (en) * 2018-11-30 2020-06-04 Qualcomm Incorporated Early fusion of camera and radar frames
DE102019134985A1 (de) * 2019-12-18 2021-06-24 S.M.S, Smart Microwave Sensors Gmbh Verfahren zum Erfassen wenigstens eines Verkehrsteilnehmers
DE102020005343A1 (de) 2020-08-31 2022-03-03 Daimler Ag Verfahren zur Objektverfolgung von mindestens einem Objekt, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Objektverfolgungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Objektverfolgungsvorrichtung
US11935250B2 (en) 2018-04-18 2024-03-19 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium with instructions for processing sensor data

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220153262A1 (en) * 2020-11-19 2022-05-19 Nvidia Corporation Object detection and collision avoidance using a neural network
US20230273308A1 (en) * 2022-01-31 2023-08-31 Qualcomm Incorporated Sensor based object detection
CN115431968B (zh) * 2022-11-07 2023-01-13 北京集度科技有限公司 车辆控制器、车辆及车辆控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009012435A1 (de) * 2008-03-27 2010-01-07 Mando Corp., Pyungtaek Vorrichtung und Verfahren zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen
DE102011013776A1 (de) 2011-03-12 2011-11-10 Daimler Ag Verfahren zur Erfassung und/oder Verfolgung von Objekten
DE102011119767A1 (de) 2010-12-02 2012-06-14 GM Global Technology Operations LLC Erscheinungsbild-gestützte vereinigung von kamera- undentfernungssensordaten für mehrere objekte
DE102015012809A1 (de) * 2015-10-02 2017-04-06 Audi Ag Bildaufnahmeeinrichtung für ein Kraftfahrzeug und Verfahren zum Betreiben einer derartigen Bildaufnahmeeinrichtung
DE102017100199A1 (de) 2016-01-15 2017-09-07 Ford Global Technologies, Llc FUßGÄNGERERKENNUNG MIT AUFFÄLLIGKEITSKARTEN

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9255989B2 (en) 2012-07-24 2016-02-09 Toyota Motor Engineering & Manufacturing North America, Inc. Tracking on-road vehicles with sensors of different modalities
DE102012023030A1 (de) 2012-11-26 2014-05-28 Audi Ag Verfahren zur Ermittlung der Bewegung eines Kraftfahrzeugs
DE102014211166A1 (de) * 2013-11-20 2015-05-21 Continental Teves Ag & Co. Ohg Verfahren, Fusionsfilter und System zur Fusion von Sensorsignalen mit unterschiedlichen zeitlichen Signalausgabeverzügen zu einem Fusionsdatensatz
WO2015177643A2 (en) * 2014-05-22 2015-11-26 Erez Dagan Systems and methods for braking a vehicle based on a detected object
US10482331B2 (en) 2015-11-20 2019-11-19 GM Global Technology Operations LLC Stixel estimation methods and systems
US10328934B2 (en) * 2017-03-20 2019-06-25 GM Global Technology Operations LLC Temporal data associations for operating autonomous vehicles
US10444759B2 (en) * 2017-06-14 2019-10-15 Zoox, Inc. Voxel based ground plane estimation and object segmentation
US10535138B2 (en) * 2017-11-21 2020-01-14 Zoox, Inc. Sensor data segmentation
US10514462B2 (en) * 2017-12-13 2019-12-24 Luminar Technologies, Inc. Training a machine learning based model of a vehicle perception component based on sensor settings
US20190235521A1 (en) * 2018-02-01 2019-08-01 GM Global Technology Operations LLC System and method for end-to-end autonomous vehicle validation
US11435752B2 (en) * 2018-03-23 2022-09-06 Motional Ad Llc Data fusion system for a vehicle equipped with unsynchronized perception sensors
DE102018205879A1 (de) 2018-04-18 2019-10-24 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten
DE102019201565A1 (de) 2019-02-07 2020-08-13 Aktiebolaget Skf Lagerkäfigsegment mit einer Stoßkante im Bereich eines zu bildenden Stegs

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009012435A1 (de) * 2008-03-27 2010-01-07 Mando Corp., Pyungtaek Vorrichtung und Verfahren zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen
DE102011119767A1 (de) 2010-12-02 2012-06-14 GM Global Technology Operations LLC Erscheinungsbild-gestützte vereinigung von kamera- undentfernungssensordaten für mehrere objekte
DE102011013776A1 (de) 2011-03-12 2011-11-10 Daimler Ag Verfahren zur Erfassung und/oder Verfolgung von Objekten
DE102015012809A1 (de) * 2015-10-02 2017-04-06 Audi Ag Bildaufnahmeeinrichtung für ein Kraftfahrzeug und Verfahren zum Betreiben einer derartigen Bildaufnahmeeinrichtung
DE102017100199A1 (de) 2016-01-15 2017-09-07 Ford Global Technologies, Llc FUßGÄNGERERKENNUNG MIT AUFFÄLLIGKEITSKARTEN

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11935250B2 (en) 2018-04-18 2024-03-19 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium with instructions for processing sensor data
US20200175315A1 (en) * 2018-11-30 2020-06-04 Qualcomm Incorporated Early fusion of camera and radar frames
DE102019134985A1 (de) * 2019-12-18 2021-06-24 S.M.S, Smart Microwave Sensors Gmbh Verfahren zum Erfassen wenigstens eines Verkehrsteilnehmers
DE102019134985B4 (de) 2019-12-18 2022-06-09 S.M.S, Smart Microwave Sensors Gmbh Verfahren zum Erfassen wenigstens eines Verkehrsteilnehmers
DE102020005343A1 (de) 2020-08-31 2022-03-03 Daimler Ag Verfahren zur Objektverfolgung von mindestens einem Objekt, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Objektverfolgungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Objektverfolgungsvorrichtung

Also Published As

Publication number Publication date
CN111937036A (zh) 2020-11-13
US11935250B2 (en) 2024-03-19
WO2019201565A1 (de) 2019-10-24
US20210158544A1 (en) 2021-05-27
EP3782117A1 (de) 2021-02-24

Similar Documents

Publication Publication Date Title
DE102018205879A1 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten
EP1298454B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE112018006665T5 (de) Verfahren zum zugreifen auf ergänzende wahrnehmungsdaten von anderen fahrzeugen
DE102017125963A1 (de) Objektverfolgung mit sensorfusion innerhalb eines probabalistischen rahmens
DE102019115455A1 (de) Fokus-basiertes markieren von sensordaten
EP1589484A1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE102007013023A1 (de) Probabilistische Rasterkarte
DE112014003818T5 (de) Objektschätzvorrichtung und Objektschätzverfahren
WO2014118178A1 (de) Erstellen eines umfeldmodells für ein fahrzeug
DE102018200683A1 (de) Verfahren zur Detektion eines Objektes
EP3877776A1 (de) Verfahren und verarbeitungseinheit zur ermittlung von information in bezug auf ein objekt in einem umfeld eines fahrzeugs
DE102019111249A1 (de) Verfahren und system zur verbesserung der objekterkennung und objektklassifizierung
DE102019208216A1 (de) Detektion, 3D-Rekonstruktion und Nachverfolgung von mehreren relativ zueinander bewegten starren Objekten
DE102006039104A1 (de) Verfahren zur Entfernungsmessung von Objekten auf von Bilddaten eines Monokamerasystems
DE102014113372B4 (de) Filtervorrichtung
WO2022247994A1 (de) System zur sensordatenfusion für die umgebungswahrnehmung
WO2020104551A1 (de) Objekterkennung mittels sensorsystem von fahrzeugen
DE102020105192A1 (de) Verfahren zum Detektieren bewegter Objekte in einer Fahrzeugumgebung und Kraftfahrzeug
DE112022002046T5 (de) Fahrvorrichtung, fahrzeug und verfahren zum automatisierten fahren und/oder assistierten fahren
DE102022100545A1 (de) Verbesserte objekterkennung
DE102020200876B4 (de) Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs
DE102011111856B4 (de) Verfahren und Vorrichtung zur Detektion mindestens einer Fahrspur in einem Fahrzeugumfeld
DE102021101336A1 (de) Verfahren zur Auswertung von Sensordaten eines Abstandssensors, Ermittlungseinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
DE102020200875A1 (de) Verfahren zum Bereitstellen von Sensordaten durch eine Sensorik eines Fahrzeugs
DE102010053150B4 (de) Verfahren und Vorrichtung zur Auswertung einer Verkehrslage

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication