DE102011013776A1 - Verfahren zur Erfassung und/oder Verfolgung von Objekten - Google Patents

Verfahren zur Erfassung und/oder Verfolgung von Objekten Download PDF

Info

Publication number
DE102011013776A1
DE102011013776A1 DE102011013776A DE102011013776A DE102011013776A1 DE 102011013776 A1 DE102011013776 A1 DE 102011013776A1 DE 102011013776 A DE102011013776 A DE 102011013776A DE 102011013776 A DE102011013776 A DE 102011013776A DE 102011013776 A1 DE102011013776 A1 DE 102011013776A1
Authority
DE
Germany
Prior art keywords
objects
determined
sensor
optical flow
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102011013776A
Other languages
English (en)
Inventor
Nikolas Engelhard
Dr. Ing. Krüger Lars
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102011013776A priority Critical patent/DE102011013776A1/de
Publication of DE102011013776A1 publication Critical patent/DE102011013776A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/16Special procedures for taking photographs; Apparatus therefor for photographing the track of moving objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Erfassung und/oder Verfolgung von Objekten (O1, O2), insbesondere in einer Fahrzeugumgebung, wobei die Objekte (O1, O2) aus einem optischen Fluss anhand einer Ermittlung von korrespondierenden Bildpunkten in zumindest zwei Bildern (B1 bis Bn) erfasst werden. Erfindungsgemäß wird eine Entfernung der Objekte (O1, O2) aus dem optischen Fluss anhand der Ermittlung der korrespondierenden Bildpunkte in den zumindest zwei Bildern (B1 bis Bn) ermittelt und es bleiben diejenigen Objekte (O1, O2) unberücksichtigt, welche sich in einem Erfassungsbereich (E2) eines Entfernungs-Messsensors (3) befinden und deren aus dem optischen Fluss ermittelte Entfernung kleiner ist als ein mittels des Entfernungs-Messsensors (3) ermittelter Entfernungswert.

Description

  • Die Erfindung betrifft ein Verfahren zur Erfassung und/oder Verfolgung von Objekten, insbesondere in einer Fahrzeugumgebung, wobei die Objekte aus einem optischen Fluss anhand einer Ermittlung von korrespondierenden Bildpunkten in zumindest zwei Bildern erfasst werden.
  • Aus der DE 103 51 778 A1 ist ein Verfahren zur Korrespondenzanalyse in Bilddatensätzen bekannt, um innerhalb von zwei Bilddatensätzen miteinander korrespondierende Bildpunkte, im Folgenden auch als Pixel bezeichnet, zu identifizieren. Dabei wird in einem ersten Schritt der Bilddatensatz mit einem Signaturoperator derart transformiert, dass für jedes Pixel ein Signaturstring berechnet und in einer Signaturtabelle gemeinsam mit den Pixelkoordinaten abgelegt wird, wobei in einem nächsten Schritt jedes Pixel des anderen Bilddatensatzes mittels desselben Signaturoperators transformiert wird, worauf die resultierenden Signaturstrings gemeinsam mit den jeweiligen Pixelkoordinaten in einer weiteren Signaturtabelle abgelegt werden. Die Einträge der beiden Signaturtabellen werden dahingehend untersucht, ob Signaturstrings vorliegen, welche in beiden Tabellen aufzufinden sind, worauf in diesen Fällen für die diesen Signaturstrings zugeordneten Koordinaten eine Korrespondenzhypothese generiert und in einer Hypothesenliste zur Weiterverarbeitung gespeichert wird. Weiterhin ist eine Verwendung des Verfahrens zur Korrespondenzanalyse bei der Berechnung eines optischen Flusses innerhalb einer Sequenz von Kamerabilddaten bekannt, wobei anhand des optischen Flusses Objekte in Szenarien erfasst und verfolgt werden.
  • Der Erfindung liegt die Aufgabe zugrunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Erfassung und/oder Verfolgung von Objekten anzugeben.
  • Die Aufgabe wird erfindungsgemäß mit einem Verfahren gelöst, welches die im Anspruch 1 angegebenen Merkmale aufweist.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • In einem Verfahren zur Erfassung und/oder Verfolgung von Objekten, insbesondere in einer Fahrzeugumgebung, werden die Objekte aus einem optischen Fluss anhand einer Ermittlung von korrespondierenden Bildpunkten in zumindest zwei Bildern erfasst.
  • Erfindungsgemäß wird eine Entfernung der Objekte aus dem optischen Fluss anhand der Ermittlung der korrespondierenden Bildpunkte in den zumindest zwei Bildern ermittelt und diejenigen Objekte bleiben unberücksichtigt, welche sich in einem Erfassungsbereich eines Entfernungs-Messsensors, insbesondere eines Ultraschallsensors oder Radarsensors, befinden und deren aus dem optischen Fluss ermittelte Entfernung kleiner ist als ein mittels des Entfernungs-Messsensors ermittelter Entfernungswert.
  • Aus dem erfindungsgemäßen Verfahren resultiert in vorteilhafter Weise, dass eine Mehrdeutigkeit zwischen der Entfernung und einer Geschwindigkeit der Objekte vermieden wird, so dass in einfacher Weise zwischen bewegten und unbewegten Objekten unterschieden werden kann. Weiterhin ist es möglich, dreidimensionale Positions- und Geschwindigkeitsinformationen zu ermitteln.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand einer Zeichnung näher erläutert.
  • Dabei zeigt:
  • 1 schematisch ein Fahrzeug mit einer Bilderfassungsvorrichtung und einem Entfernungs-Messsensor.
  • In der einzigen 1 ist ein Fahrzeug 1 mit einer Bilderfassungsvorrichtung 2 und einem Entfernungs-Messsensor 3 dargestellt, wobei mittels der Bilderfassungsvorrichtung 2 Bilder B1 bis Bn einer Umgebung des Fahrzeugs 1 in einem Erfassungsbereich E1 erfasst werden.
  • Die Bilderfassungsvorrichtung 2 umfasst in nicht näher dargestellter Weise eine oder mehrere Kameras, wobei mittels der zumindest einen Kamera mehrere Bilder B1 bis Bn zeitlich nacheinander oder mittels mehrerer Kameras Bilder B1 bis Bn gleichzeitig und/oder zeitlich nacheinander erfasst werden. Dabei ist die Bilderfassungsvorrichtung 2 in einem Ausführungsbeispiel zur Erfassung der Fahrzeugumgebung in Abschnitten, d. h. zur Erfassung der Fahrzeugumgebung vor, hinter und/oder seitlich des Fahrzeugs 1, vorgesehen.
  • Alternativ oder zusätzlich ist die Bilderfassungsvorrichtung 2 zur Realisierung eines so genannten ”Surround-Views” vorgesehen, mittels welchem einem Fahrer des Fahrzeugs 1 die Fahrzeugumgebung vollständig in einem Winkel von 360° ausgebbar ist.
  • In einem alternativen oder zusätzlichen Ausführungsbeispiel ist die Bilderfassungsvorrichtung 2 derart ausgebildet, dass das Fahrzeug 1 und dessen Umgebung aus einer Vogelperspektive ausgebbar sind.
  • Zur Erfassung und Verfolgung von Objekten O1, O2 in der Umgebung des Fahrzeugs 1 wird ein optischer Fluss ermittelt. Der optische Fluss wird anhand einer Berechnung von Korrespondenzen zwischen zeitlich nacheinander erfassten Bildern B1 bis Bn bei bekannter Bewegung des Fahrzeugs 1 ermittelt. Hierzu werden in den Bildern B1 bis Bn korrespondierende Bildpunkte ermittelt.
  • Um eine Mehrdeutigkeit zwischen einer Entfernung der Objekte O1, O2 von der Bilderfassungsvorrichtung 2 und somit vom Fahrzeug und einer Geschwindigkeit bei der Ermittlung des optischen Flusses zu vermeiden, werden aus den Bildern B1 bis Bn unbewegte Objekte O1 rekonstruiert, Erkennungsfehler anhand von Messungen eines Entfernungs-Messsensors 3 eliminiert und bewegte Objekte O2 rekonstruiert.
  • Die Rekonstruktion unbewegter Objekte O1 erfolgt, wie allgemein bekannt, aus dem optischen Fluss durch Berechnung der Korrespondenzen zwischen den Bildern B1 bis Bn mit bekannter Bewegung des Fahrzeugs 1. Hierbei werden die Korrespondenzen beispielsweise durch ein aus "F. Stein: Efficient Computation of Optical Flow Using the Census Transform, Lecture Notes in Computer Science, 2004, Volume 3175/2004, Seiten 79–86, Springer Verlag" bekanntes PowerFlow-Verfahren berechnet und ermittelte Koordinaten in Strahlen in einem Kamerakoordinatesystem des aktuellen Bildes B1 bis Bn umgewandelt. Danach werden Schnittpunkte der Strahlen bestimmt. Alternativ oder zusätzlich werden die Schnittpunkte anhand von anderen Verfahren, beispielsweise mittels Epipolargeometrie ermittelt.
  • Die Schnittpunkte bilden rekonstruierte Punkte. Punkte, welche bestimmte Gütekriterien erfüllen, beispielsweise einen minimalen Winkel zwischen den Strahlen aufweisen, werden in eine dreidimensionale Rastergrafik, insbesondere ein dünn besetztes Voxel-Raster, übertragen
  • Das Voxel-Raster wird zum Beispiel durch so genannte Splay-Bäume – im Englischen Splay-Trees – realisiert, welche gleichzeitig eine so genannte leastrecently-used-Optimierung des Zugriffs anbieten. Der Zweck des Voxel-Rasters besteht darin, nahe beieinander liegende Schnittpunkte, d. h. rekonstruierte Punkte, mit geringem Abstand für den nächsten Schritt zu gruppieren.
  • In allen Punkten eines Voxels oder nebeneinander liegender Voxel werden Häufungen in Form von Häufungspunkten gesucht. Dies erfolgt beispielsweise durch Clustering, Dichteschätzung und/oder durch so genanntes Mode-Searching auf Basis eines so genannten Medoid-Shift-Algorithmus. Eine andere Möglichkeit besteht darin, einen so genannten Mean-Shift-Algorithmus von mehreren Start-Punkten innerhalb des Voxels auszuführen.
  • Die Voxel sind in einem ortsfesten Koordinatensystem definiert, insbesondere relativ zur Fahrzeugposition beim Aktivieren der Surround-View-Funktion. Dadurch wird verhindert, dass Zwischenergebnisse kontinuierlich ins aktuelle Fahrzeug-Koordinatensystem umgerechnet werden müssen.
  • Eine Rekonstruktion aus Messdaten des Entfernungs-Messsensors 3, welcher vorzugsweise als Ultraschall-Sensor ausgebildet ist, erfolgt in ähnlicher Weise. Für jeden Entfernungs-Messwert wird auf Basis der aktuellen Fahrzeugposition und -orientierung relativ zum ortsfesten Koordinatensystem ein Kreisbogen in ein Voxel-Raster, welches identisch zu oder unterschiedlich zum Voxel-Raster des optischen Flusses sein kann, eingetragen. Parameter des Kreisbogens, insbesondere ein Mittelpunkt und ein Winkelbereich, sind abhängig von einer Einbau-Position des Entfernungs-Messsensors 3 am Fahrzeug 1 und einem konstruktiv bedingten Erfassungsbereich E2 des Entfernungs-Messsensors 3.
  • Der Kreisbogen wird durch eine Anzahl von Punkten auf dem Kreisbogen oder Segmenten des Kreisbogens dargestellt. Ist eine feste Anzahl von Messungen erfolgt, wird eine Dichteschätzung ähnlich zur Bildverarbeitung der Bilderfassungsvorrichtung ausgeführt und es werden Häufungen in Form von Häufungspunkten ermittelt. Bei einer alternativen Ausbildung des Entfernungs-Messsensors 3 als Radarsensor ist eine Anwendung auf Radar-Daten mit unverändertem Algorithmus möglich. Weiterhin können je nach Verfügbarkeit von Ultraschall- und Radarsensoren verschiedene Kombinationen ohne Verfahrensänderung eingesetzt werden.
  • Ermittelte Häufungspunkte beider Sensoren, d. h. der Bilderfassungsvorrichtung 2 und des Entfernungs-Messsensors 3, werden vorzugsweise zur Realisierung einer Fahrerassistenzfunktion, beispielsweise zur Fahrtplanung oder zur Prüfung einer Kollision mit einem Fahrschlauch, verwendet.
  • Die Rekonstruktion unbewegter Objekte O1 aus dem optischen Fluss tendiert zu Falsch-Positiven. Das heißt, das Verfahren erkennt vermehrt Objekte O1 an Positionen, an denen in der Realität keine sind. Zur Elimination von Erkennungsfehlern bleiben diejenigen Objekte O1 unberücksichtigt, welche sich im Erfassungsbereich E2 des Entfernungs-Messsensors 3 befinden und deren aus dem optischen Fluss ermittelte Entfernung kleiner ist als ein mittels des Entfernungs-Messsensors 3 ermittelter Entfernungswert.
  • Weiterhin wird zwischen unbewegten Objekten O1 und bewegten Objekten O2 unterschieden. Bewegte Objekte O2 weisen eine relativ geringe Häufigkeit auf und sind nur dann von Interesse, wenn sie einen vorgegebenen Bereich im Bild B1 bis Bn einnehmen.
  • Zur Erfassung der bewegten Objekte O2 werden die Punkte und/oder Segmente der Kreisbögen mit den zugehörigen Entfernungswerten aus der Messung mit dem Entfernungs-Messsensor 3 und einem vorgebbaren Höhenwert in die Bilder B1 bis Bn projiziert. Der Höhenwert liegt dabei vorzugsweise in einem Höhenbereich zwischen den Werten 0 und 2 Meter. Alle Fluss-Vektoren, welche in einen Punkt und/oder ein Segment eines Kreisbogens fallen, werden unter Annahme einer korrekten Entfernung des Punktes oder Segments in eine radiale Bewegung umgerechnet. Aus nahe beieinander liegenden Fluss-Vektoren mit ähnlicher Radial-Geschwindigkeit wird mittels Clustering eine Objekthypothese bezüglich der Bewegtheit und Unbewegtheit der Objekte O1, O2 generiert, wobei die Objekthypothese beispielsweise mittels eines Kalmen-Filters getreckt werden.
  • Bezugszeichenliste
  • 1
    Fahrzeug
    2
    Bilderfassungsvorrichtung
    3
    Entfernungs-Messsensor
    B1 bis Bn
    Bild
    E1
    Erfassungsbereich
    E2
    Erfassungsbereich
    O1
    Objekt
    O2
    Objekt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10351778 A1 [0002]
  • Zitierte Nicht-Patentliteratur
    • ”F. Stein: Efficient Computation of Optical Flow Using the Census Transform, Lecture Notes in Computer Science, 2004, Volume 3175/2004, Seiten 79–86, Springer Verlag” [0018]

Claims (7)

  1. Verfahren zur Erfassung und/oder Verfolgung von Objekten (O1, O2), insbesondere in einer Fahrzeugumgebung, wobei die Objekte (O1, O2) aus einem optischen Fluss anhand einer Ermittlung von korrespondierenden Bildpunkten in zumindest zwei Bildern (B1 bis Bn) erfasst werden, dadurch gekennzeichnet, dass eine Entfernung der Objekte (O1, O2) aus dem optischen Fluss anhand der Ermittlung der korrespondierenden Bildpunkte in den zumindest zwei Bildern (B1 bis Bn) ermittelt wird, und dass diejenigen Objekte (O1, O2) unberücksichtigt bleiben, welche sich in einem Erfassungsbereich (E2) eines Entfernungs-Messsensors (3) befinden und deren aus dem optischen Fluss ermittelte Entfernung kleiner ist als ein mittels des Entfernungs-Messsensors (3) ermittelter Entfernungswert.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass Koordinaten der korrespondierenden Bildpunkte ermittelt und in Strahlen in einem Kamerakoordinatensystem eines aktuellen Bildes (B1 bis Bn) umgewandelt werden.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass Schnittpunkte der Strahlen ermittelt und in eine dreidimensionale Rastergrafik, insbesondere ein Voxel-Raster, übertragen werden, wobei nahe nebeneinander liegende Schnittpunkte in der dreidimensionalen Rastergrafik gruppiert werden.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass innerhalb der dreidimensionalen Rastergrafik Häufungen von Schnittpunkten ermittelt werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für die mittels des Entfernungs-Messsensors (3) ermittelten Entfernungswerte auf Basis einer aktuellen Position und Orientierung des Entfernungs-Messsensors (3) relativ zu einem ortsfesten Koordinatensystem ein Kreisbogen in eine dreidimensionale Rastergrafik, insbesondere ein Voxel-Raster, übertragen werden, wobei nahe nebeneinander liegende Punkte und/oder Segmente der Kreisbögen in der dreidimensionalen Rastergrafik gruppiert werden und Häufungen ermittelt werden.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zwischen unbewegten Objekten (O1) und bewegten Objekten (O2) unterschieden wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass zur Ermittlung der bewegten Objekte (O2) die Punkte und/oder Segmente der Kreisbögen mit aus den mittels des Entfernungs-Messsensors (3) ermittelten zugehörigen Entfernungswerten und einem vorgebbaren Höhenwert in die Bilder (B1 bis Bn) projiziert werden, wobei Fluss-Vektoren, welche in einen Punkt und/oder ein Segment eines Kreisbogens fallen, in eine radiale Bewegung umgerechnet werden und aus nahe beieinander liegenden Fluss-Vektoren mit ähnlicher Radial-Geschwindigkeit eine Objekthypothese bezüglich der Bewegtheit und Unbewegtheit der Objekte (O1, O2) generiert wird.
DE102011013776A 2011-03-12 2011-03-12 Verfahren zur Erfassung und/oder Verfolgung von Objekten Withdrawn DE102011013776A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102011013776A DE102011013776A1 (de) 2011-03-12 2011-03-12 Verfahren zur Erfassung und/oder Verfolgung von Objekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011013776A DE102011013776A1 (de) 2011-03-12 2011-03-12 Verfahren zur Erfassung und/oder Verfolgung von Objekten

Publications (1)

Publication Number Publication Date
DE102011013776A1 true DE102011013776A1 (de) 2011-11-10

Family

ID=44803159

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011013776A Withdrawn DE102011013776A1 (de) 2011-03-12 2011-03-12 Verfahren zur Erfassung und/oder Verfolgung von Objekten

Country Status (1)

Country Link
DE (1) DE102011013776A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016200656A1 (de) 2016-01-20 2017-07-20 Robert Bosch Gmbh Verfahren zum Auswerten eines Umfeldes eines Fahrzeuges
DE102016224131B3 (de) * 2016-12-05 2017-10-26 Audi Ag Ermittlung von Bewegungsdaten eines fahrzeugexternen Objekts durch ein Fahrerassistenzsystem
CN107667047A (zh) * 2015-06-03 2018-02-06 法雷奥开关和传感器有限责任公司 用于将机动车辆侧向周围环境区域中细长静止物体分类的方法、驾驶员辅助系统和机动车辆
DE102017123228A1 (de) * 2017-10-06 2019-04-11 Connaught Electronics Ltd. Verfahren zum Klassifizieren eines Objektpunkts als statisch oder dynamisch, Fahrerassistenzsystem und Kraftfahrzeug
DE102018205879A1 (de) 2018-04-18 2019-10-24 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10351778A1 (de) 2003-11-06 2005-06-09 Daimlerchrysler Ag Verfahren zur Korrespondenzanalyse in Bilddatensätzen

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10351778A1 (de) 2003-11-06 2005-06-09 Daimlerchrysler Ag Verfahren zur Korrespondenzanalyse in Bilddatensätzen

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"F. Stein: Efficient Computation of Optical Flow Using the Census Transform, Lecture Notes in Computer Science, 2004, Volume 3175/2004, Seiten 79-86, Springer Verlag"

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107667047A (zh) * 2015-06-03 2018-02-06 法雷奥开关和传感器有限责任公司 用于将机动车辆侧向周围环境区域中细长静止物体分类的方法、驾驶员辅助系统和机动车辆
DE102016200656A1 (de) 2016-01-20 2017-07-20 Robert Bosch Gmbh Verfahren zum Auswerten eines Umfeldes eines Fahrzeuges
WO2017125199A1 (de) 2016-01-20 2017-07-27 Robert Bosch Gmbh Verfahren zum auswerten eines umfeldes eines fahrzeuges
DE102016224131B3 (de) * 2016-12-05 2017-10-26 Audi Ag Ermittlung von Bewegungsdaten eines fahrzeugexternen Objekts durch ein Fahrerassistenzsystem
DE102017123228A1 (de) * 2017-10-06 2019-04-11 Connaught Electronics Ltd. Verfahren zum Klassifizieren eines Objektpunkts als statisch oder dynamisch, Fahrerassistenzsystem und Kraftfahrzeug
DE102018205879A1 (de) 2018-04-18 2019-10-24 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten
WO2019201565A1 (de) 2018-04-18 2019-10-24 Volkswagen Aktiengesellschaft Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur verarbeitung von sensordaten
US11935250B2 (en) 2018-04-18 2024-03-19 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium with instructions for processing sensor data

Similar Documents

Publication Publication Date Title
DE102006012914B4 (de) System und Verfahren zur Bestimmung des Abstands zu einem vorausfahrenden Fahrzeug
DE102010015566B4 (de) Verfahren und System zur Vermessung spiegelnder Oberflächen
DE102016209625A1 (de) Verfahren zur Auswertung von Bilddaten einer Fahrzeugkamera
DE102016225595A1 (de) Verfahren und Anordnung zur Kalibrierung mindestens eines Sensors eines Schienenfahrzeugs
DE102011013776A1 (de) Verfahren zur Erfassung und/oder Verfolgung von Objekten
DE102009019399B4 (de) Verfahren zur automatischen Bestimmung wenigstens einer die Änderung der Lage eines Kraftfahrzeugs beschreibenden Zielgröße
DE102012023060A1 (de) Verfahren zum Detektieren eines beweglichen Objekts mithilfe eines Histogramms anhand von Bildern einer Kamera und Kamerasystem für ein Kraftfahrzeug
EP2381207A1 (de) 3D-Zielvermessung und Zieleinweisung aus IR-Daten
DE102011082477A1 (de) Verfahren und System zur Erstellung einer digitalen Abbildung eines Fahrzeugumfeldes
DE102012211961A1 (de) Verfahren und Vorrichtung zum Berechnen einer Veränderung eines Abbildungsmaßstabs eines Objekts
DE102009028742A1 (de) Verfahren und Steuergerät zur Bestimmung einer Bewegungsinformation eines Objekts
DE102014204360A1 (de) Verfahren sowie Vorrichtung zur Abschätzung des Abstandes eines in Bewegung befindlichen Fahrzeuges von einem Objekt
DE102013018561A1 (de) Verfahren zur Datenerfassung und Datenverarbeitung für eine Fahrspurkennung eines Fahrzeugs
DE102017105910A1 (de) Frequenzbasierte Projektions-Segmentierung
DE102019210518A1 (de) Verfahren zum Erkennen eines Objektes in Sensordaten, Fahrerassistenzsystem sowie Computerprogramm
DE102015118941A1 (de) Probabilistisches Verfolgungsverfahren für Partikel in einem Fluid
DE102007055252A1 (de) Verfahren zur Bestimmung der Abstände eines Objekts innerhalb einer Struktur
DE102011000088A1 (de) Verfahren zur Ermittlung eines Verfahrweges bei der Messung von Strukturen eines Objekts
CN105574874A (zh) 一种序列图像变化检测的伪变化目标去除方法
EP2048618A1 (de) Verfahren zur Objekterfassung
DE102008057979A1 (de) Lerneinheit für ein Objekterkennungssystem und Objekterkennungssytem
DE102015011674A1 (de) Verfahren zur Tiefenfilterung von Tiefenbildern
CN116402871B (zh) 一种基于场景平行要素的单目测距方法、系统及电子设备
DE102013016032A1 (de) Verfahren zur Objektdetektion in stereoskopisch erfassten Bildern
DE102018208604A1 (de) Ermitteln eines Aufnahmeverhaltens einer Aufnahmeeinheit

Legal Events

Date Code Title Description
R230 Request for early publication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee