DE102011013776A1 - Verfahren zur Erfassung und/oder Verfolgung von Objekten - Google Patents
Verfahren zur Erfassung und/oder Verfolgung von Objekten Download PDFInfo
- Publication number
- DE102011013776A1 DE102011013776A1 DE102011013776A DE102011013776A DE102011013776A1 DE 102011013776 A1 DE102011013776 A1 DE 102011013776A1 DE 102011013776 A DE102011013776 A DE 102011013776A DE 102011013776 A DE102011013776 A DE 102011013776A DE 102011013776 A1 DE102011013776 A1 DE 102011013776A1
- Authority
- DE
- Germany
- Prior art keywords
- objects
- determined
- sensor
- optical flow
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
- G03B15/16—Special procedures for taking photographs; Apparatus therefor for photographing the track of moving objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Erfassung und/oder Verfolgung von Objekten (O1, O2), insbesondere in einer Fahrzeugumgebung, wobei die Objekte (O1, O2) aus einem optischen Fluss anhand einer Ermittlung von korrespondierenden Bildpunkten in zumindest zwei Bildern (B1 bis Bn) erfasst werden. Erfindungsgemäß wird eine Entfernung der Objekte (O1, O2) aus dem optischen Fluss anhand der Ermittlung der korrespondierenden Bildpunkte in den zumindest zwei Bildern (B1 bis Bn) ermittelt und es bleiben diejenigen Objekte (O1, O2) unberücksichtigt, welche sich in einem Erfassungsbereich (E2) eines Entfernungs-Messsensors (3) befinden und deren aus dem optischen Fluss ermittelte Entfernung kleiner ist als ein mittels des Entfernungs-Messsensors (3) ermittelter Entfernungswert.
Description
- Die Erfindung betrifft ein Verfahren zur Erfassung und/oder Verfolgung von Objekten, insbesondere in einer Fahrzeugumgebung, wobei die Objekte aus einem optischen Fluss anhand einer Ermittlung von korrespondierenden Bildpunkten in zumindest zwei Bildern erfasst werden.
- Aus der
DE 103 51 778 A1 ist ein Verfahren zur Korrespondenzanalyse in Bilddatensätzen bekannt, um innerhalb von zwei Bilddatensätzen miteinander korrespondierende Bildpunkte, im Folgenden auch als Pixel bezeichnet, zu identifizieren. Dabei wird in einem ersten Schritt der Bilddatensatz mit einem Signaturoperator derart transformiert, dass für jedes Pixel ein Signaturstring berechnet und in einer Signaturtabelle gemeinsam mit den Pixelkoordinaten abgelegt wird, wobei in einem nächsten Schritt jedes Pixel des anderen Bilddatensatzes mittels desselben Signaturoperators transformiert wird, worauf die resultierenden Signaturstrings gemeinsam mit den jeweiligen Pixelkoordinaten in einer weiteren Signaturtabelle abgelegt werden. Die Einträge der beiden Signaturtabellen werden dahingehend untersucht, ob Signaturstrings vorliegen, welche in beiden Tabellen aufzufinden sind, worauf in diesen Fällen für die diesen Signaturstrings zugeordneten Koordinaten eine Korrespondenzhypothese generiert und in einer Hypothesenliste zur Weiterverarbeitung gespeichert wird. Weiterhin ist eine Verwendung des Verfahrens zur Korrespondenzanalyse bei der Berechnung eines optischen Flusses innerhalb einer Sequenz von Kamerabilddaten bekannt, wobei anhand des optischen Flusses Objekte in Szenarien erfasst und verfolgt werden. - Der Erfindung liegt die Aufgabe zugrunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Erfassung und/oder Verfolgung von Objekten anzugeben.
- Die Aufgabe wird erfindungsgemäß mit einem Verfahren gelöst, welches die im Anspruch 1 angegebenen Merkmale aufweist.
- Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
- In einem Verfahren zur Erfassung und/oder Verfolgung von Objekten, insbesondere in einer Fahrzeugumgebung, werden die Objekte aus einem optischen Fluss anhand einer Ermittlung von korrespondierenden Bildpunkten in zumindest zwei Bildern erfasst.
- Erfindungsgemäß wird eine Entfernung der Objekte aus dem optischen Fluss anhand der Ermittlung der korrespondierenden Bildpunkte in den zumindest zwei Bildern ermittelt und diejenigen Objekte bleiben unberücksichtigt, welche sich in einem Erfassungsbereich eines Entfernungs-Messsensors, insbesondere eines Ultraschallsensors oder Radarsensors, befinden und deren aus dem optischen Fluss ermittelte Entfernung kleiner ist als ein mittels des Entfernungs-Messsensors ermittelter Entfernungswert.
- Aus dem erfindungsgemäßen Verfahren resultiert in vorteilhafter Weise, dass eine Mehrdeutigkeit zwischen der Entfernung und einer Geschwindigkeit der Objekte vermieden wird, so dass in einfacher Weise zwischen bewegten und unbewegten Objekten unterschieden werden kann. Weiterhin ist es möglich, dreidimensionale Positions- und Geschwindigkeitsinformationen zu ermitteln.
- Ausführungsbeispiele der Erfindung werden im Folgenden anhand einer Zeichnung näher erläutert.
- Dabei zeigt:
-
1 schematisch ein Fahrzeug mit einer Bilderfassungsvorrichtung und einem Entfernungs-Messsensor. - In der einzigen
1 ist ein Fahrzeug1 mit einer Bilderfassungsvorrichtung2 und einem Entfernungs-Messsensor3 dargestellt, wobei mittels der Bilderfassungsvorrichtung2 Bilder B1 bis Bn einer Umgebung des Fahrzeugs1 in einem Erfassungsbereich E1 erfasst werden. - Die Bilderfassungsvorrichtung
2 umfasst in nicht näher dargestellter Weise eine oder mehrere Kameras, wobei mittels der zumindest einen Kamera mehrere Bilder B1 bis Bn zeitlich nacheinander oder mittels mehrerer Kameras Bilder B1 bis Bn gleichzeitig und/oder zeitlich nacheinander erfasst werden. Dabei ist die Bilderfassungsvorrichtung2 in einem Ausführungsbeispiel zur Erfassung der Fahrzeugumgebung in Abschnitten, d. h. zur Erfassung der Fahrzeugumgebung vor, hinter und/oder seitlich des Fahrzeugs1 , vorgesehen. - Alternativ oder zusätzlich ist die Bilderfassungsvorrichtung
2 zur Realisierung eines so genannten ”Surround-Views” vorgesehen, mittels welchem einem Fahrer des Fahrzeugs1 die Fahrzeugumgebung vollständig in einem Winkel von 360° ausgebbar ist. - In einem alternativen oder zusätzlichen Ausführungsbeispiel ist die Bilderfassungsvorrichtung
2 derart ausgebildet, dass das Fahrzeug1 und dessen Umgebung aus einer Vogelperspektive ausgebbar sind. - Zur Erfassung und Verfolgung von Objekten O1, O2 in der Umgebung des Fahrzeugs
1 wird ein optischer Fluss ermittelt. Der optische Fluss wird anhand einer Berechnung von Korrespondenzen zwischen zeitlich nacheinander erfassten Bildern B1 bis Bn bei bekannter Bewegung des Fahrzeugs1 ermittelt. Hierzu werden in den Bildern B1 bis Bn korrespondierende Bildpunkte ermittelt. - Um eine Mehrdeutigkeit zwischen einer Entfernung der Objekte O1, O2 von der Bilderfassungsvorrichtung
2 und somit vom Fahrzeug und einer Geschwindigkeit bei der Ermittlung des optischen Flusses zu vermeiden, werden aus den Bildern B1 bis Bn unbewegte Objekte O1 rekonstruiert, Erkennungsfehler anhand von Messungen eines Entfernungs-Messsensors3 eliminiert und bewegte Objekte O2 rekonstruiert. - Die Rekonstruktion unbewegter Objekte O1 erfolgt, wie allgemein bekannt, aus dem optischen Fluss durch Berechnung der Korrespondenzen zwischen den Bildern B1 bis Bn mit bekannter Bewegung des Fahrzeugs 1. Hierbei werden die Korrespondenzen beispielsweise durch ein aus "F. Stein: Efficient Computation of Optical Flow Using the Census Transform, Lecture Notes in Computer Science, 2004, Volume 3175/2004, Seiten 79–86, Springer Verlag" bekanntes PowerFlow-Verfahren berechnet und ermittelte Koordinaten in Strahlen in einem Kamerakoordinatesystem des aktuellen Bildes B1 bis Bn umgewandelt. Danach werden Schnittpunkte der Strahlen bestimmt. Alternativ oder zusätzlich werden die Schnittpunkte anhand von anderen Verfahren, beispielsweise mittels Epipolargeometrie ermittelt.
- Die Schnittpunkte bilden rekonstruierte Punkte. Punkte, welche bestimmte Gütekriterien erfüllen, beispielsweise einen minimalen Winkel zwischen den Strahlen aufweisen, werden in eine dreidimensionale Rastergrafik, insbesondere ein dünn besetztes Voxel-Raster, übertragen
- Das Voxel-Raster wird zum Beispiel durch so genannte Splay-Bäume – im Englischen Splay-Trees – realisiert, welche gleichzeitig eine so genannte leastrecently-used-Optimierung des Zugriffs anbieten. Der Zweck des Voxel-Rasters besteht darin, nahe beieinander liegende Schnittpunkte, d. h. rekonstruierte Punkte, mit geringem Abstand für den nächsten Schritt zu gruppieren.
- In allen Punkten eines Voxels oder nebeneinander liegender Voxel werden Häufungen in Form von Häufungspunkten gesucht. Dies erfolgt beispielsweise durch Clustering, Dichteschätzung und/oder durch so genanntes Mode-Searching auf Basis eines so genannten Medoid-Shift-Algorithmus. Eine andere Möglichkeit besteht darin, einen so genannten Mean-Shift-Algorithmus von mehreren Start-Punkten innerhalb des Voxels auszuführen.
- Die Voxel sind in einem ortsfesten Koordinatensystem definiert, insbesondere relativ zur Fahrzeugposition beim Aktivieren der Surround-View-Funktion. Dadurch wird verhindert, dass Zwischenergebnisse kontinuierlich ins aktuelle Fahrzeug-Koordinatensystem umgerechnet werden müssen.
- Eine Rekonstruktion aus Messdaten des Entfernungs-Messsensors
3 , welcher vorzugsweise als Ultraschall-Sensor ausgebildet ist, erfolgt in ähnlicher Weise. Für jeden Entfernungs-Messwert wird auf Basis der aktuellen Fahrzeugposition und -orientierung relativ zum ortsfesten Koordinatensystem ein Kreisbogen in ein Voxel-Raster, welches identisch zu oder unterschiedlich zum Voxel-Raster des optischen Flusses sein kann, eingetragen. Parameter des Kreisbogens, insbesondere ein Mittelpunkt und ein Winkelbereich, sind abhängig von einer Einbau-Position des Entfernungs-Messsensors3 am Fahrzeug1 und einem konstruktiv bedingten Erfassungsbereich E2 des Entfernungs-Messsensors3 . - Der Kreisbogen wird durch eine Anzahl von Punkten auf dem Kreisbogen oder Segmenten des Kreisbogens dargestellt. Ist eine feste Anzahl von Messungen erfolgt, wird eine Dichteschätzung ähnlich zur Bildverarbeitung der Bilderfassungsvorrichtung ausgeführt und es werden Häufungen in Form von Häufungspunkten ermittelt. Bei einer alternativen Ausbildung des Entfernungs-Messsensors
3 als Radarsensor ist eine Anwendung auf Radar-Daten mit unverändertem Algorithmus möglich. Weiterhin können je nach Verfügbarkeit von Ultraschall- und Radarsensoren verschiedene Kombinationen ohne Verfahrensänderung eingesetzt werden. - Ermittelte Häufungspunkte beider Sensoren, d. h. der Bilderfassungsvorrichtung
2 und des Entfernungs-Messsensors3 , werden vorzugsweise zur Realisierung einer Fahrerassistenzfunktion, beispielsweise zur Fahrtplanung oder zur Prüfung einer Kollision mit einem Fahrschlauch, verwendet. - Die Rekonstruktion unbewegter Objekte O1 aus dem optischen Fluss tendiert zu Falsch-Positiven. Das heißt, das Verfahren erkennt vermehrt Objekte O1 an Positionen, an denen in der Realität keine sind. Zur Elimination von Erkennungsfehlern bleiben diejenigen Objekte O1 unberücksichtigt, welche sich im Erfassungsbereich E2 des Entfernungs-Messsensors
3 befinden und deren aus dem optischen Fluss ermittelte Entfernung kleiner ist als ein mittels des Entfernungs-Messsensors3 ermittelter Entfernungswert. - Weiterhin wird zwischen unbewegten Objekten O1 und bewegten Objekten O2 unterschieden. Bewegte Objekte O2 weisen eine relativ geringe Häufigkeit auf und sind nur dann von Interesse, wenn sie einen vorgegebenen Bereich im Bild B1 bis Bn einnehmen.
- Zur Erfassung der bewegten Objekte O2 werden die Punkte und/oder Segmente der Kreisbögen mit den zugehörigen Entfernungswerten aus der Messung mit dem Entfernungs-Messsensor
3 und einem vorgebbaren Höhenwert in die Bilder B1 bis Bn projiziert. Der Höhenwert liegt dabei vorzugsweise in einem Höhenbereich zwischen den Werten 0 und 2 Meter. Alle Fluss-Vektoren, welche in einen Punkt und/oder ein Segment eines Kreisbogens fallen, werden unter Annahme einer korrekten Entfernung des Punktes oder Segments in eine radiale Bewegung umgerechnet. Aus nahe beieinander liegenden Fluss-Vektoren mit ähnlicher Radial-Geschwindigkeit wird mittels Clustering eine Objekthypothese bezüglich der Bewegtheit und Unbewegtheit der Objekte O1, O2 generiert, wobei die Objekthypothese beispielsweise mittels eines Kalmen-Filters getreckt werden. - Bezugszeichenliste
-
- 1
- Fahrzeug
- 2
- Bilderfassungsvorrichtung
- 3
- Entfernungs-Messsensor
- B1 bis Bn
- Bild
- E1
- Erfassungsbereich
- E2
- Erfassungsbereich
- O1
- Objekt
- O2
- Objekt
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 10351778 A1 [0002]
- Zitierte Nicht-Patentliteratur
-
- ”F. Stein: Efficient Computation of Optical Flow Using the Census Transform, Lecture Notes in Computer Science, 2004, Volume 3175/2004, Seiten 79–86, Springer Verlag” [0018]
Claims (7)
- Verfahren zur Erfassung und/oder Verfolgung von Objekten (O1, O2), insbesondere in einer Fahrzeugumgebung, wobei die Objekte (O1, O2) aus einem optischen Fluss anhand einer Ermittlung von korrespondierenden Bildpunkten in zumindest zwei Bildern (B1 bis Bn) erfasst werden, dadurch gekennzeichnet, dass eine Entfernung der Objekte (O1, O2) aus dem optischen Fluss anhand der Ermittlung der korrespondierenden Bildpunkte in den zumindest zwei Bildern (B1 bis Bn) ermittelt wird, und dass diejenigen Objekte (O1, O2) unberücksichtigt bleiben, welche sich in einem Erfassungsbereich (E2) eines Entfernungs-Messsensors (
3 ) befinden und deren aus dem optischen Fluss ermittelte Entfernung kleiner ist als ein mittels des Entfernungs-Messsensors (3 ) ermittelter Entfernungswert. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass Koordinaten der korrespondierenden Bildpunkte ermittelt und in Strahlen in einem Kamerakoordinatensystem eines aktuellen Bildes (B1 bis Bn) umgewandelt werden.
- Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass Schnittpunkte der Strahlen ermittelt und in eine dreidimensionale Rastergrafik, insbesondere ein Voxel-Raster, übertragen werden, wobei nahe nebeneinander liegende Schnittpunkte in der dreidimensionalen Rastergrafik gruppiert werden.
- Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass innerhalb der dreidimensionalen Rastergrafik Häufungen von Schnittpunkten ermittelt werden.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für die mittels des Entfernungs-Messsensors (
3 ) ermittelten Entfernungswerte auf Basis einer aktuellen Position und Orientierung des Entfernungs-Messsensors (3 ) relativ zu einem ortsfesten Koordinatensystem ein Kreisbogen in eine dreidimensionale Rastergrafik, insbesondere ein Voxel-Raster, übertragen werden, wobei nahe nebeneinander liegende Punkte und/oder Segmente der Kreisbögen in der dreidimensionalen Rastergrafik gruppiert werden und Häufungen ermittelt werden. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zwischen unbewegten Objekten (O1) und bewegten Objekten (O2) unterschieden wird.
- Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass zur Ermittlung der bewegten Objekte (O2) die Punkte und/oder Segmente der Kreisbögen mit aus den mittels des Entfernungs-Messsensors (
3 ) ermittelten zugehörigen Entfernungswerten und einem vorgebbaren Höhenwert in die Bilder (B1 bis Bn) projiziert werden, wobei Fluss-Vektoren, welche in einen Punkt und/oder ein Segment eines Kreisbogens fallen, in eine radiale Bewegung umgerechnet werden und aus nahe beieinander liegenden Fluss-Vektoren mit ähnlicher Radial-Geschwindigkeit eine Objekthypothese bezüglich der Bewegtheit und Unbewegtheit der Objekte (O1, O2) generiert wird.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011013776A DE102011013776A1 (de) | 2011-03-12 | 2011-03-12 | Verfahren zur Erfassung und/oder Verfolgung von Objekten |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011013776A DE102011013776A1 (de) | 2011-03-12 | 2011-03-12 | Verfahren zur Erfassung und/oder Verfolgung von Objekten |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102011013776A1 true DE102011013776A1 (de) | 2011-11-10 |
Family
ID=44803159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102011013776A Withdrawn DE102011013776A1 (de) | 2011-03-12 | 2011-03-12 | Verfahren zur Erfassung und/oder Verfolgung von Objekten |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102011013776A1 (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016200656A1 (de) | 2016-01-20 | 2017-07-20 | Robert Bosch Gmbh | Verfahren zum Auswerten eines Umfeldes eines Fahrzeuges |
DE102016224131B3 (de) * | 2016-12-05 | 2017-10-26 | Audi Ag | Ermittlung von Bewegungsdaten eines fahrzeugexternen Objekts durch ein Fahrerassistenzsystem |
CN107667047A (zh) * | 2015-06-03 | 2018-02-06 | 法雷奥开关和传感器有限责任公司 | 用于将机动车辆侧向周围环境区域中细长静止物体分类的方法、驾驶员辅助系统和机动车辆 |
DE102017123228A1 (de) * | 2017-10-06 | 2019-04-11 | Connaught Electronics Ltd. | Verfahren zum Klassifizieren eines Objektpunkts als statisch oder dynamisch, Fahrerassistenzsystem und Kraftfahrzeug |
DE102018205879A1 (de) | 2018-04-18 | 2019-10-24 | Volkswagen Aktiengesellschaft | Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10351778A1 (de) | 2003-11-06 | 2005-06-09 | Daimlerchrysler Ag | Verfahren zur Korrespondenzanalyse in Bilddatensätzen |
-
2011
- 2011-03-12 DE DE102011013776A patent/DE102011013776A1/de not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10351778A1 (de) | 2003-11-06 | 2005-06-09 | Daimlerchrysler Ag | Verfahren zur Korrespondenzanalyse in Bilddatensätzen |
Non-Patent Citations (1)
Title |
---|
"F. Stein: Efficient Computation of Optical Flow Using the Census Transform, Lecture Notes in Computer Science, 2004, Volume 3175/2004, Seiten 79-86, Springer Verlag" |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107667047A (zh) * | 2015-06-03 | 2018-02-06 | 法雷奥开关和传感器有限责任公司 | 用于将机动车辆侧向周围环境区域中细长静止物体分类的方法、驾驶员辅助系统和机动车辆 |
DE102016200656A1 (de) | 2016-01-20 | 2017-07-20 | Robert Bosch Gmbh | Verfahren zum Auswerten eines Umfeldes eines Fahrzeuges |
WO2017125199A1 (de) | 2016-01-20 | 2017-07-27 | Robert Bosch Gmbh | Verfahren zum auswerten eines umfeldes eines fahrzeuges |
DE102016224131B3 (de) * | 2016-12-05 | 2017-10-26 | Audi Ag | Ermittlung von Bewegungsdaten eines fahrzeugexternen Objekts durch ein Fahrerassistenzsystem |
DE102017123228A1 (de) * | 2017-10-06 | 2019-04-11 | Connaught Electronics Ltd. | Verfahren zum Klassifizieren eines Objektpunkts als statisch oder dynamisch, Fahrerassistenzsystem und Kraftfahrzeug |
DE102018205879A1 (de) | 2018-04-18 | 2019-10-24 | Volkswagen Aktiengesellschaft | Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten |
WO2019201565A1 (de) | 2018-04-18 | 2019-10-24 | Volkswagen Aktiengesellschaft | Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur verarbeitung von sensordaten |
US11935250B2 (en) | 2018-04-18 | 2024-03-19 | Volkswagen Aktiengesellschaft | Method, device and computer-readable storage medium with instructions for processing sensor data |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102006012914B4 (de) | System und Verfahren zur Bestimmung des Abstands zu einem vorausfahrenden Fahrzeug | |
DE102010015566B4 (de) | Verfahren und System zur Vermessung spiegelnder Oberflächen | |
DE102016209625A1 (de) | Verfahren zur Auswertung von Bilddaten einer Fahrzeugkamera | |
DE102016225595A1 (de) | Verfahren und Anordnung zur Kalibrierung mindestens eines Sensors eines Schienenfahrzeugs | |
DE102011013776A1 (de) | Verfahren zur Erfassung und/oder Verfolgung von Objekten | |
DE102009019399B4 (de) | Verfahren zur automatischen Bestimmung wenigstens einer die Änderung der Lage eines Kraftfahrzeugs beschreibenden Zielgröße | |
DE102012023060A1 (de) | Verfahren zum Detektieren eines beweglichen Objekts mithilfe eines Histogramms anhand von Bildern einer Kamera und Kamerasystem für ein Kraftfahrzeug | |
EP2381207A1 (de) | 3D-Zielvermessung und Zieleinweisung aus IR-Daten | |
DE102011082477A1 (de) | Verfahren und System zur Erstellung einer digitalen Abbildung eines Fahrzeugumfeldes | |
DE102012211961A1 (de) | Verfahren und Vorrichtung zum Berechnen einer Veränderung eines Abbildungsmaßstabs eines Objekts | |
DE102009028742A1 (de) | Verfahren und Steuergerät zur Bestimmung einer Bewegungsinformation eines Objekts | |
DE102014204360A1 (de) | Verfahren sowie Vorrichtung zur Abschätzung des Abstandes eines in Bewegung befindlichen Fahrzeuges von einem Objekt | |
DE102013018561A1 (de) | Verfahren zur Datenerfassung und Datenverarbeitung für eine Fahrspurkennung eines Fahrzeugs | |
DE102017105910A1 (de) | Frequenzbasierte Projektions-Segmentierung | |
DE102019210518A1 (de) | Verfahren zum Erkennen eines Objektes in Sensordaten, Fahrerassistenzsystem sowie Computerprogramm | |
DE102015118941A1 (de) | Probabilistisches Verfolgungsverfahren für Partikel in einem Fluid | |
DE102007055252A1 (de) | Verfahren zur Bestimmung der Abstände eines Objekts innerhalb einer Struktur | |
DE102011000088A1 (de) | Verfahren zur Ermittlung eines Verfahrweges bei der Messung von Strukturen eines Objekts | |
CN105574874A (zh) | 一种序列图像变化检测的伪变化目标去除方法 | |
EP2048618A1 (de) | Verfahren zur Objekterfassung | |
DE102008057979A1 (de) | Lerneinheit für ein Objekterkennungssystem und Objekterkennungssytem | |
DE102015011674A1 (de) | Verfahren zur Tiefenfilterung von Tiefenbildern | |
CN116402871B (zh) | 一种基于场景平行要素的单目测距方法、系统及电子设备 | |
DE102013016032A1 (de) | Verfahren zur Objektdetektion in stereoskopisch erfassten Bildern | |
DE102018208604A1 (de) | Ermitteln eines Aufnahmeverhaltens einer Aufnahmeeinheit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R230 | Request for early publication | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |