DE102009009047A1 - Verfahren zur Objektdetektion - Google Patents

Verfahren zur Objektdetektion Download PDF

Info

Publication number
DE102009009047A1
DE102009009047A1 DE102009009047A DE102009009047A DE102009009047A1 DE 102009009047 A1 DE102009009047 A1 DE 102009009047A1 DE 102009009047 A DE102009009047 A DE 102009009047A DE 102009009047 A DE102009009047 A DE 102009009047A DE 102009009047 A1 DE102009009047 A1 DE 102009009047A1
Authority
DE
Germany
Prior art keywords
determined
segments
segment
height
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102009009047A
Other languages
English (en)
Inventor
Hernan Dr.-Ing. Badino
Uwe Dr.-Ing. Franke
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102009009047A priority Critical patent/DE102009009047A1/de
Priority to US13/201,241 priority patent/US8548229B2/en
Priority to EP10703018A priority patent/EP2396746A2/de
Priority to PCT/EP2010/000671 priority patent/WO2010091818A2/de
Priority to CN201080007837.9A priority patent/CN102317954B/zh
Publication of DE102009009047A1 publication Critical patent/DE102009009047A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Abstract

Die Erfindung betrifft ein Verfahren zur Objektdetektion, bei dem jeweils zwei Bilder einer Umgebung (1) aufgenommen und mittels Stereobildverarbeitung ein Disparitätsbild ermittelt wird, wobei aus den ermittelten Disparitäten eine Tiefenkarte der Umgebung (1) bestimmt wird, in der eine Freiraumbegrenzungslinie (2) identifiziert wird, die einen hindernisfreien Bereich der Umgebung (1) umgrenzt, wobei außerhalb und entlang der Freiraumbegrenzungslinie (1) die Tiefenkarte segmentiert wird, indem Segmente (3) einer geeigneten Breite aus Pixeln gleicher oder ähnlicher Entfernung zu einer Bildebene gebildet werden, wobei eine Höhe jedes Segments (3) als Teil eines außerhalb des hindernisfreien Bereichs befindlichen Objekts (4.1 bis 4.6) geschätzt wird, so dass jedes Segment (3) durch die zweidimensionale Position seines Fußpunkts (z.B. gegeben durch Entfernung und Winkel zur Fahrzeuglängsachse) und seine Höhe charakterisiert wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Objektdetektion nach dem Oberbegriff des Anspruchs 1.
  • Moderne Stereoverfahren, aber auch entfernungsmessende Sensoren wie z. B. PMD, Lidar oder hochauflösende Radare, generieren ein dreidimensionales Bild der Umgebung. Aus diesen Daten sind die relevanten Objekte zu extrahieren, beispielsweise stehende oder bewegte Hindernisse. Der Schritt von den Rohdaten zu Objekten erweist sich in der Praxis als sehr groß und führt oft zu vielen heuristischen Speziallösungen. Für die Weiterverarbeitung wird daher eine kompakte Abstraktion mit geringen Datenmengen angestrebt.
  • Bekannte Verfahren der Stereo-Bildverarbeitung arbeiten mit nicht dichten Stereokarten und extrahieren direkt Objekte unter Verwendung als geeignet angesehener Heuristiken. Ein Abstraktionslevel, der diesen Schritt unterstützt, existiert im Allgemeinen nicht.
  • Aus der US 2007/0274566 A1 ist ein Verfahren zur Detektion von Fußgängern bekannt, bei dem ein Bild einer Szene vor einem Fahrzeug aufgenommen wird. Anschließend wird im Bild eine Geschwindigkeit und eine Richtung von Pixeln, die jeweils charakteristische Punkte repräsentieren, berechnet. Dabei ermittelte Koordinaten der Pixel werden auf eine Draufsicht umgerechnet. Es wird ermittelt, ob die charakteristischen Punkte ein zweidimensionales oder ein dreidimensionales Objekt repräsentieren. Falls es sich um ein dreidimensionales Objekt handelt wird ermittelt, ob das Objekt sich bewegt. Anhand der Änderungen der Geschwindigkeit, mit der das Objekt sich bewegt, wird ermittelt, ob es sich bei dem Objekt um einen Fußgänger handelt. Bei der Extraktion der charakteristischen Punkte werden Kanten der Objekte detektiert, erodiert und damit die Mitte der Kante ermittelt. Die erodierte Kante wird anschließend wieder erweitert, so dass die Kante eine vorbestimmte Breite, beispielsweise drei Pixel, aufweist, so dass alle Objektkanten eine gleiche Breite aufweisen.
  • Es ist eine Aufgabe der Erfindung, ein verbessertes Verfahren zur Objektdetektion anzugeben.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren mit den Merkmalen des Anspruchs 1.
  • Vorteilhafte Weiterbildungen sind Gegenstand der Unteransprüche.
  • Bei einem erfindungsgemäßen Verfahren zur Objektdetektion wird mittels eines Sensorsystems ein Entfernungsbild über horizontalem und vertikalem Winkel ermittelt, wobei aus dem Entfernungsbild eine Tiefenkarte einer Umgebung bestimmt wird. Erfindungsgemäß wird eine Freiraumbegrenzungslinie identifiziert, die einen hindernisfreien Bereich der Umgebung umgrenzt, wobei die Tiefenkarte außerhalb und entlang der Freiraumbegrenzungslinie segmentiert wird, indem Segmente geeigneter, gleicher Breite aus Pixeln gleicher oder ähnlicher Entfernung zu einer Ebene gebildet werden, wobei eine Höhe jedes Segments als Teil eines außerhalb des hindernisfreien Bereichs befindlichen Objekts geschätzt wird, so dass jedes Segment durch eine zweidimensionale Position eines Fußpunkts (z. B. gegeben durch Entfernung und Winkel zu einer Fahrzeuglängsachse) und durch seine Höhe charakterisiert wird.
  • Die durch das Entfernungsbild und die Tiefenkarte beschriebene dreidimensionale Umgebung wird durch den hindernisfreien Bereich (auch Freiraumfläche genannt) approximiert. Der hindernisfreie Bereich ist beispielsweise ein befahrbarer Bereich, der jedoch nicht zwingend planar sein muss. Der hindernisfreie Bereich wird begrenzt durch die stabartigen Segmente, die in ihrer Gesamtheit die den hindernisfreien Bereich umgebenden Objekte modellieren. Diese Segmente stehen im einfachsten Fall auf dem Boden und approximieren eine mittlere Höhe des Objekts im Bereich des jeweiligen Segments. Objekte mit variabler Höhe, beispielsweise Radfahrer von der Seite, werden so durch eine stückweise konstante Höhenfunktion beschrieben.
  • Die so gewonnenen Segmente (auch als Stixel bezeichnet) stellen eine kompakte und robuste Repräsentation der Objekte dar und erfordern nur ein begrenztes Datenvolumen, unabhängig von der Dichte der für die Erstellung der Tiefenkarte verwendeten Stereo-Korrespondenzanalyse. Zu jedem Stixel sind Ort und Höhe gespeichert. Diese Repräsentation eignet sich optimal für gegebenenfalls nachfolgende Schritte, wie Objektbildung und Szeneninterpretation. Die Stixel-Repräsentation stellt eine ideale Schnittstelle zwischen applikationsunabhängiger Stereoanalyse und applikationsspezifischen Auswertungen dar.
  • Im Folgenden wird ein Ausführungsbeispiel der Erfindung anhand einer Zeichnung näher erläutert.
  • Dabei zeigt:
  • 1 eine zweidimensionale Darstellung einer Umgebung mit einer Freiraumbegrenzungslinie und einer Anzahl von Segmenten zur Modellierung von Objekten in der Umgebung.
  • 1 zeigt eine zweidimensionale Darstellung einer Umgebung 1 mit einer Freiraumbegrenzungslinie 2 und einer Anzahl von Segmenten 3 zur Modellierung von Objekten 4.1 bis 4.6 in der Umgebung 1. Die Segmente 3 oder Stixel modellieren die Objekte 4.1 bis 4.6, die den durch die Freiraumbegrenzungslinie 2 definierten freien Fahrraum begrenzen.
  • Zur Erstellung der gezeigten Darstellung kommt ein Verfahren zum Einsatz, bei dem jeweils zwei Bilder einer Umgebung aufgenommen und mittels Stereobildverarbeitung ein Disparitätsbild ermittelt wird. Beispielsweise kann zur Stereobildverarbeitung das in [H. Hirschmüller: "Accurate and efficient stereo processing by semi-global matching and mutual information. CVPR 2005, San Diego, CA. Volume 2. (June 2005), pp. 807–814.] beschriebene Verfahren verwendet werden.
  • Aus den ermittelten Disparitäten wird eine Tiefenkarte der Umgebung bestimmt, beispielsweise wie in [H. Badino, U. Franke, R. Mester: "Free Space Computation using Stochastic Occupancy Grids and Dynamic Programming", In Dynamic Programming Workshop for ICCV 07, Rio de Janeiro, Brasil] beschrieben.
  • Es wird die Freiraumbegrenzungslinie 2 identifiziert, die den hindernisfreien Bereich der Umgebung 1 umgrenzt. Außerhalb und entlang der Freiraumbegrenzungslinie 2 wird die Tiefenkarte segmentiert, indem die Segmente 3 mit einer vorgegebenen Breite aus Pixeln gleicher oder ähnlicher Entfernung zu einer Bildebene einer Kamera oder mehrerer Kameras gebildet werden.
  • Die Segmentierung kann beispielsweise mittels des in [H. Badino, U. Franke, R. Mester: "Free Space Computation using Stochastic Occupancy Grids and Dynamic Programming", In Dynamic Vision Workshop for ICCV 07, Rio de Janeiro, Brasil.] beschriebenen Verfahrens erfolgen.
  • Eine Approximation der gefundenen Freiraumbegrenzungslinie 2 in Segmente 3 (Stäbe, Stixel) vorgegebener Breite (beliebige Vorgaben möglich) liefert die Entfernung der Segmente; bei bekannter Orientierung der Kamera zur Umgebung (beispielsweise einer Straße vor einem Fahrzeug, an dem die Kamera angeordnet ist) und bekanntem 3D-Verlauf ergibt sich ein jeweiliger Fußpunkt der Segmente 3 im Bild.
  • Anschließend wird eine Höhe jedes Segments 3 geschätzt, so dass jedes Segment 3 durch eine zweidimensionale Position eines Fußpunkts und seine Höhe charakterisiert wird.
  • Die Schätzung der Höhe kann am einfachsten durch histogrammbasierte Auswertung aller 3D-Punkte im Bereich des Segments erfolgen. Dieser Schritt kann durch dynamische Programmierung gelöst werden.
  • Bereiche, die keine Segmente 3 aufweisen, sind solche, in denen von der Freiraumanalyse keine Objekte gefunden wurden.
  • Es können mehrere Bilder sequentiell aufgenommen und verarbeitet werden, wobei aus Veränderungen in der Tiefenkarte und im Disparitätsbild Bewegungsinformationen extrahiert und den Segmenten 3 zugeordnet werden können. Auf diese Weise können auch bewegte Szenen repräsentiert werden und beispielsweise zur Prognose einer zu erwartenden Bewegung der Objekte 4.1 bis 4.6 verwendet werden. Bei dieser Art von Bewegungsverfolgung spricht man auch von Tracking. Dabei kann zur Bestimmung der Bewegung der Segmente 3 eine Fahrzeug-Eigenbewegung ermittelt und zur Kompensation herangezogen werden. Die Kompaktheit und Robustheit der Segmente 3 resultiert aus der Integration vieler Pixel im Bereich des Segments 3 und – bei der Tracking-Variante – aus der zusätzlichen Integration über die Zeit.
  • Die Zugehörigkeit jedes der Segmente 3 zu einem der Objekte 4.1 bis 4.6 kann ebenfalls mit den übrigen Informationen zu jedem Segment gespeichert sein. Dies ist jedoch nicht zwingend erforderlich.
  • Die Bewegungsinformationen können beispielsweise durch Integration des optischen Flusses gewonnen werden, so dass sich für jedes der Segmente 3 eine reale Bewegung schätzen lässt. Entsprechende Verfahren sind z. B. aus Arbeiten zur 6D-Vision, welche in der DE 10 2005 008 131 A1 veröffentlicht sind, bekannt. Diese Bewegungsinformation vereinfacht weiter die Gruppierung zu Objekten, da auf kompatible Bewegungen geprüft werden kann.
  • Die Position des Fußpunkts, die Höhe und die Bewegungsinformation des Segments 3 können mittels Scene Flow ermittelt werden. Beim Scene Flow handelt es sich um eine Klasse von Verfahren, die aus mindestens 2 aufeinander folgenden Stereobildpaaren versucht, für möglichst jeden Bildpunkt die korrekte Bewegung im Raum plus seine 3D-Position zu ermitteln; siehe hierzu [Sundar Vedulay, Simon Bakery, Peter Randeryz, Robert Collinsy, and Takeo Kanade, "Three-Dimensional Scene Flow", Appeared in the 7th International Conference an Computer Vision, Corfu, Greece, September 1999.] Auf der Basis der identifizierten Segmente 3 können Informationen für ein Fahrerassistenzsystem in einem Fahrzeug generiert werden, an dem die Kameras angeordnet sind.
  • Beispielsweise kann eine verbleibende Zeit bis zur Kollision des Fahrzeugs mit einem durch Segmente 3 gebildeten Objekt 4.1 bis 4.6 geschätzt werden.
  • Weiter kann ein Fahrkorridor 5 in den hindernisfreien Bereich gelegt werden, der vom Fahrzeug benutzt werden soll, wobei ein seitlicher Abstand mindestens eines der Objekte 4.1 bis 4.6 zum Fahrkorridor 5 ermittelt wird.
  • Ebenso können kritische, insbesondere bewegte Objekte 4.1 bis 4.6 zur Unterstützung eines Abbiegeassistenzsystems und/oder einer automatische Fahrlichtschaltung und/oder eines Fußgängerschutzsystems und/oder eines Notbremssystems identifiziert werden.
  • Informationen weiterer Sensoren können mit den Informationen zur Unterstützung des Fahrerassistenzsystems, die den Segmenten 3 zugeordnet sind, kombiniert werden (Sensorfusion). Insbesondere kommen hierfür aktive Sensoren, wie zum Beispiel ein LIDAR, in Frage.
  • Die Breite der Segmente 3 kann beispielsweise auf fünf Bildpunkte gesetzt werden. Für ein Bild mit VGA-Auflösung ergeben sich dann maximal 640/5 = 128 Segmente, die durch Entfernung und Höhe eindeutig beschrieben sind. Die Segmente 3 haben eindeutige Nachbarschaftsbeziehungen, wodurch sie sich sehr einfach zu Objekten 4.1 bis 4.6 gruppieren lassen. Im einfachsten Fall sind zu jedem Segment 3 nur Entfernung und Höhe zu übertragen, bei bekannter Breite des Segments 3 ergibt sich ein Winkel (Spalten im Bild) aus einem Index.
  • Das Entfernungsbild kann mittels eines beliebigen Sensorsystems über horizontalem und vertikalem Winkel ermittelt werden, wobei aus dem Entfernungsbild die Tiefenkarte der Umgebung bestimmt wird.
  • Insbesondere können jeweils zwei Bilder der Umgebung (1) mittels je einer Kamera aufgenommen und mittels Stereobildverarbeitung ein Disparitätsbild ermittelt werden, wobei aus den ermittelten Disparitäten das Entfernungsbild und die Tiefenkarte bestimmt werden.
  • Ebenso kann als Sensorsystem ein Photomischdetektor und/oder eine dreidimensionale Kamera und/oder ein Lidar und/oder ein Radar verwendet werden.
  • 1
    Umgebung
    2
    Freiraumbegrenzungslinie
    3
    Segment
    4.1 bis 4.6
    Objekt
    5
    Fahrkorridor
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 2007/0274566 A1 [0004]
    • - DE 102005008131 A1 [0025]
  • Zitierte Nicht-Patentliteratur
    • - H. Hirschmüller: ”Accurate and efficient stereo processing by semi-global matching and mutual information. CVPR 2005, San Diego, CA. Volume 2. (June 2005), pp. 807–814. [0015]
    • - H. Badino, U. Franke, R. Mester: ”Free Space Computation using Stochastic Occupancy Grids and Dynamic Programming”, In Dynamic Programming Workshop for ICCV 07, Rio de Janeiro, Brasil [0016]
    • - H. Badino, U. Franke, R. Mester: ”Free Space Computation using Stochastic Occupancy Grids and Dynamic Programming”, In Dynamic Vision Workshop for ICCV 07, Rio de Janeiro, Brasil. [0018]
    • - Sundar Vedulay, Simon Bakery, Peter Randeryz, Robert Collinsy, and Takeo Kanade, ”Three-Dimensional Scene Flow”, Appeared in the 7th International Conference an Computer Vision, Corfu, Greece, September 1999. [0026]

Claims (13)

  1. Verfahren zur Objektdetektion, bei dem mittels eines Sensorsystems ein Entfernungsbild über horizontalem und vertikalem Winkel ermittelt wird, wobei aus dem Entfernungsbild eine Tiefenkarte einer Umgebung (1) bestimmt wird, dadurch gekennzeichnet, dass im Entfernungsbild eine Freiraumbegrenzungslinie (2) identifiziert wird, die einen hindernisfreien Bereich der Umgebung (1) umgrenzt, wobei die Tiefenkarte außerhalb und entlang der Freiraumbegrenzungslinie (1) segmentiert wird, indem Segmente (3) gleicher Breite aus Pixeln gleicher oder ähnlicher Entfernung zu einer Ebene gebildet werden, wobei eine Höhe jedes Segments (3) als Teil eines außerhalb des hindernisfreien Bereichs befindlichen Objekts (4.1 bis 4.6) geschätzt wird, so dass jedes Segment (3) durch eine zweidimensionale Position eines Fußpunkts und seine Höhe charakterisiert wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass jeweils zwei Bilder der Umgebung (1) mittels je einer Kamera aufgenommen und mittels Stereobildverarbeitung ein Disparitätsbild ermittelt wird, wobei aus den ermittelten Disparitäten das Entfernungsbild und die Tiefenkarte bestimmt werden.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als Sensorsystem ein Photomischdetektor und/oder eine dreidimensionale Kamera und/oder ein Lidar und/oder ein Radar verwendet wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass mehrere Entfernungsbilder sequentiell ermittelt und verarbeitet werden, wobei aus Veränderungen in der Tiefenkarte Bewegungsinformationen extrahiert und den Segmenten (3) zugeordnet werden.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Bewegungsinformationen durch Integration des optischen Flusses gewonnen werden.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Zugehörigkeit der Segmente (3) zu einem der Objekte (4.1 bis 4.6) bestimmt und die Segmente (3) mit Informationen über ihre Zugehörigkeit zu einem der Objekte (4.1 bis 4.6) versehen werden.
  7. Verfahren nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass die Position des Fußpunkts, die Höhe und die Bewegungsinformation des Segments (3) mittels Scene Flow ermittelt werden.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Höhe des Segments (3) mittels histogrammbasierter Auswertung aller dreidimensionalen Punkte im Bereich des Segments (3) durchgeführt wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass auf der Basis der identifizierten Segmente (3) Informationen für ein Fahrerassistenzsystem in einem Fahrzeug generiert werden, an dem Kameras zur Aufnahme der Bilder angeordnet sind.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass eine verbleibende Zeit bis zur Kollision des Fahrzeugs mit einem durch Segmente (3) gebildeten Objekt (4.1 bis 4.6) geschätzt wird.
  11. Verfahren nach einem der Ansprüche 9 oder 10, dadurch gekennzeichnet, dass ein Fahrkorridor (5) in den hindernisfreien Bereich gelegt wird, wobei ein seitlicher Abstand mindestens eines der Objekte (4.1 bis 4.6) zum Fahrkorridor (5) ermittelt wird.
  12. Verfahren nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass kritische Objekte (4.1 bis 4.6) zur Unterstützung eines Abbiegeassistenzsystems und/oder einer automatischen Fahrlichtschaltung und/oder eines Fußgängerschutzsystems und/oder eines Notbremssystems identifiziert werden und/oder ein Fahrer beim Befahren enger Fahrspuren unterstützt wird.
  13. Verfahren nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass Informationen weiterer Sensoren mit den Segmenten (3) zugeordneten Informationen zur Unterstützung des Fahrerassistenzsystems kombiniert werden.
DE102009009047A 2009-02-16 2009-02-16 Verfahren zur Objektdetektion Withdrawn DE102009009047A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102009009047A DE102009009047A1 (de) 2009-02-16 2009-02-16 Verfahren zur Objektdetektion
US13/201,241 US8548229B2 (en) 2009-02-16 2010-02-04 Method for detecting objects
EP10703018A EP2396746A2 (de) 2009-02-16 2010-02-04 Verfahren zur objektdetektion
PCT/EP2010/000671 WO2010091818A2 (de) 2009-02-16 2010-02-04 Verfahren zur objektdetektion
CN201080007837.9A CN102317954B (zh) 2009-02-16 2010-02-04 检测对象的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009009047A DE102009009047A1 (de) 2009-02-16 2009-02-16 Verfahren zur Objektdetektion

Publications (1)

Publication Number Publication Date
DE102009009047A1 true DE102009009047A1 (de) 2010-08-19

Family

ID=42338731

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009009047A Withdrawn DE102009009047A1 (de) 2009-02-16 2009-02-16 Verfahren zur Objektdetektion

Country Status (5)

Country Link
US (1) US8548229B2 (de)
EP (1) EP2396746A2 (de)
CN (1) CN102317954B (de)
DE (1) DE102009009047A1 (de)
WO (1) WO2010091818A2 (de)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011111440A1 (de) 2011-08-30 2012-06-28 Daimler Ag Verfahren zur Umgebungsrepräsentation
DE102012000459A1 (de) 2012-01-13 2012-07-12 Daimler Ag Verfahren zur Objektdetektion
DE102012021617A1 (de) 2012-11-06 2013-05-16 Daimler Ag Verfahren zur Objektdetektion
CN104723953A (zh) * 2013-12-18 2015-06-24 青岛盛嘉信息科技有限公司 一种行人检测装置
DE102017123980A1 (de) 2017-10-16 2017-11-30 FEV Europe GmbH Fahrerassistenzsystem mit einer frequenzgesteuerten Ausrichtung eines Senders zur Erfassung eines Objektes in einem Umfeld eines Fahrzeugs
DE102017123984A1 (de) 2017-10-16 2017-11-30 FEV Europe GmbH Fahrerassistenzsystem mit einem Nanodraht zur Erfassung eines Objektes in einem Umfeld eines Fahrzeugs
DE102018114987A1 (de) 2018-06-21 2018-08-09 FEV Europe GmbH Fahrerassistenzsystem zur Bestimmung einer Farbe eines Objektes in einer Fahrzeugumgebung
DE102018128538A1 (de) 2018-11-14 2019-01-24 FEV Europe GmbH Fahrerassistenzsystem mit einem Sender mit einer frequenzgesteuerten Abstrahlrichtung und einem Konverter zur Frequenzangleichung
US10240934B2 (en) * 2014-04-30 2019-03-26 Tomtom Global Content B.V. Method and system for determining a position relative to a digital map
DE102019107310A1 (de) 2019-03-21 2019-06-19 FEV Europe GmbH Fahrerassistenzsystem zur Erkennung fremder Signale
DE102018202244A1 (de) 2018-02-14 2019-08-14 Robert Bosch Gmbh Verfahren zur Abbildung der Umgebung eines Fahrzeugs
WO2019162327A2 (de) 2018-02-23 2019-08-29 Audi Ag Verfahren zur ermittlung einer entfernung zwischen einem kraftfahrzeug und einem objekt
WO2020020654A1 (de) 2018-07-27 2020-01-30 Daimler Ag Verfahren zum betreiben eines fahrerassistenzsystems mit zwei erfassungseinrichtungen
DE102019211582A1 (de) * 2019-08-01 2021-02-04 Robert Bosch Gmbh Verfahren zum Erstellen einer Höhenkarte
US10948302B2 (en) 2015-08-03 2021-03-16 Tomtom Global Content B.V. Methods and systems for generating and using localization reference data
DE102020208066B3 (de) 2020-06-30 2021-12-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren Objekterkennung Computerprogramm, Speichermedium und Steuereinrichtung
DE102020208068A1 (de) 2020-06-30 2021-12-30 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Erkennung eines in einem Überwachungsbereich erscheinenden Objekts, Computerprogramm, Speichermedium und Steuereinrichtung
EP4009228A1 (de) * 2020-12-02 2022-06-08 Aptiv Technologies Limited Verfahren zur bestimmung eines semantischen freiraums
US11503251B2 (en) 2012-01-20 2022-11-15 Magna Electronics Inc. Vehicular vision system with split display
US11662461B2 (en) 2020-03-20 2023-05-30 Aptiv Technologies Limited Method for generating a dynamic occupancy grid
US11719799B2 (en) 2020-04-27 2023-08-08 Aptiv Technologies Limited Method for determining a collision free space
US11763576B2 (en) 2020-04-27 2023-09-19 Aptiv Technologies Limited Method for determining a drivable area
DE102022115447A1 (de) 2022-06-21 2023-12-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Assistenzsystem zum Unterstützen einer Fahrzeugführung basierend auf einem Fahrschlauch und einer Begrenzungsschätzung und Kraftfahrzeug

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10776635B2 (en) * 2010-09-21 2020-09-15 Mobileye Vision Technologies Ltd. Monocular cued detection of three-dimensional structures from depth images
JP5316572B2 (ja) * 2011-03-28 2013-10-16 トヨタ自動車株式会社 物体認識装置
CN103164851B (zh) * 2011-12-09 2016-04-20 株式会社理光 道路分割物检测方法和装置
US8768007B2 (en) 2012-03-26 2014-07-01 Tk Holdings Inc. Method of filtering an image
US8824733B2 (en) 2012-03-26 2014-09-02 Tk Holdings Inc. Range-cued object segmentation system and method
CN103390164B (zh) * 2012-05-10 2017-03-29 南京理工大学 基于深度图像的对象检测方法及其实现装置
TWI496090B (zh) * 2012-09-05 2015-08-11 Ind Tech Res Inst 使用深度影像的物件定位方法與裝置
US9349058B2 (en) 2012-10-31 2016-05-24 Tk Holdings, Inc. Vehicular path sensing system and method
US20140139632A1 (en) * 2012-11-21 2014-05-22 Lsi Corporation Depth imaging method and apparatus with adaptive illumination of an object of interest
CN103871042B (zh) * 2012-12-12 2016-12-07 株式会社理光 基于视差图的视差方向上连续型物体检测方法和装置
WO2014152470A2 (en) 2013-03-15 2014-09-25 Tk Holdings, Inc. Path sensing using structured lighting
CN112665556B (zh) 2015-04-01 2023-09-05 瓦亚视觉传感有限公司 使用被动和主动测量生成场景的三维地图
US9928430B2 (en) * 2015-04-10 2018-03-27 GM Global Technology Operations LLC Dynamic stixel estimation using a single moving camera
EP3324359B1 (de) 2015-08-21 2019-10-02 Panasonic Intellectual Property Management Co., Ltd. Bildverarbeitungsvorrichtung und bildverarbeitungsverfahren
US9761000B2 (en) 2015-09-18 2017-09-12 Qualcomm Incorporated Systems and methods for non-obstacle area detection
US10482331B2 (en) * 2015-11-20 2019-11-19 GM Global Technology Operations LLC Stixel estimation methods and systems
CN106909141A (zh) * 2015-12-23 2017-06-30 北京机电工程研究所 障碍物探测定位装置及避障系统
KR101795270B1 (ko) 2016-06-09 2017-11-07 현대자동차주식회사 장애물의 지면경계 정보를 이용한 물체 측면 검출 방법 및 장치
CN105974938B (zh) * 2016-06-16 2023-10-03 零度智控(北京)智能科技有限公司 避障方法、装置、载体及无人机
US10321114B2 (en) 2016-08-04 2019-06-11 Google Llc Testing 3D imaging systems
EP3293668B1 (de) 2016-09-13 2023-08-30 Arriver Software AB Sichtsystem und -verfahren für ein kraftfahrzeug
US10535142B2 (en) 2017-01-10 2020-01-14 Electronics And Telecommunication Research Institute Method and apparatus for accelerating foreground and background separation in object detection using stereo camera
US10445928B2 (en) 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
US10474908B2 (en) * 2017-07-06 2019-11-12 GM Global Technology Operations LLC Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation
JP6970577B2 (ja) * 2017-09-29 2021-11-24 株式会社デンソー 周辺監視装置および周辺監視方法
DE102018214875A1 (de) * 2018-08-31 2020-03-05 Audi Ag Verfahren und Anordnung zum Erzeugen einer Umgebungsrepräsentation eines Fahrzeugs und Fahrzeug mit einer solchen Anordnung
CN110659578A (zh) * 2019-08-26 2020-01-07 中国电子科技集团公司电子科学研究院 基于检测跟踪技术的客流统计方法、系统及设备
US11669092B2 (en) * 2019-08-29 2023-06-06 Rockwell Automation Technologies, Inc. Time of flight system and method for safety-rated collision avoidance
EP4185894A1 (de) 2020-07-21 2023-05-31 Leddartech Inc. Systeme und verfahren für weitwinkel-lidar mit optik mit ungleichförmiger vergrösserung
EP4185924A1 (de) 2020-07-21 2023-05-31 Leddartech Inc. Strahllenkungsvorrichtung, insbesondere für lidar-systeme
CA3125618C (en) 2020-07-21 2023-05-23 Leddartech Inc. Beam-steering device particularly for lidar systems
DE102020210816A1 (de) * 2020-08-27 2022-03-03 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Erkennung dreidimensionaler Objekte, Computerprogramm, Maschinenlesbares Speichermedium, Steuergerät, Fahrzeug und Videoüberwachungssystem

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005008131A1 (de) 2005-01-31 2006-08-03 Daimlerchrysler Ag Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen
US20070274566A1 (en) 2006-05-24 2007-11-29 Nissan Motor Co., Ltd. Pedestrian detector and pedestrian detecting method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9913687D0 (en) * 1999-06-11 1999-08-11 Canon Kk Image processing apparatus
CN1343551A (zh) * 2000-09-21 2002-04-10 上海大学 机器视觉分层模块结构模型
US7822241B2 (en) * 2003-08-21 2010-10-26 Koninklijke Philips Electronics N.V. Device and method for combining two images
EP1772752A4 (de) * 2004-07-30 2009-07-08 Panasonic Elec Works Co Ltd Einzeldetektor und zusatzdetektor
US7362419B2 (en) * 2004-09-17 2008-04-22 Matsushita Electric Works, Ltd. Range image sensor
US8385599B2 (en) * 2008-10-10 2013-02-26 Sri International System and method of detecting objects

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005008131A1 (de) 2005-01-31 2006-08-03 Daimlerchrysler Ag Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen
US20070274566A1 (en) 2006-05-24 2007-11-29 Nissan Motor Co., Ltd. Pedestrian detector and pedestrian detecting method

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
H. Badino, U. Franke, R. Mester: "Free Space Computation using Stochastic Occupancy Grids and Dynamic Programming", In Dynamic Programming Workshop for ICCV 07, Rio de Janeiro, Brasil
H. Badino, U. Franke, R. Mester: "Free Space Computation using Stochastic Occupancy Grids and Dynamic Programming", In Dynamic Vision Workshop for ICCV 07, Rio de Janeiro, Brasil.
H. Hirschmüller: "Accurate and efficient stereo processing by semi-global matching and mutual information. CVPR 2005, San Diego, CA. Volume 2. (June 2005), pp. 807-814.
Sundar Vedulay, Simon Bakery, Peter Randeryz, Robert Collinsy, and Takeo Kanade, "Three-Dimensional Scene Flow", Appeared in the 7th International Conference an Computer Vision, Corfu, Greece, September 1999.

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013029722A2 (de) 2011-08-30 2013-03-07 Daimler Ag Verfahren zur umgebungsrepräsentation
US9042639B2 (en) 2011-08-30 2015-05-26 Daimler Ag Method for representing surroundings
DE102011111440A1 (de) 2011-08-30 2012-06-28 Daimler Ag Verfahren zur Umgebungsrepräsentation
DE102012000459A1 (de) 2012-01-13 2012-07-12 Daimler Ag Verfahren zur Objektdetektion
US11503251B2 (en) 2012-01-20 2022-11-15 Magna Electronics Inc. Vehicular vision system with split display
DE102012021617A1 (de) 2012-11-06 2013-05-16 Daimler Ag Verfahren zur Objektdetektion
CN104723953A (zh) * 2013-12-18 2015-06-24 青岛盛嘉信息科技有限公司 一种行人检测装置
US10240934B2 (en) * 2014-04-30 2019-03-26 Tomtom Global Content B.V. Method and system for determining a position relative to a digital map
US11287264B2 (en) 2015-08-03 2022-03-29 Tomtom International B.V. Methods and systems for generating and using localization reference data
US11274928B2 (en) 2015-08-03 2022-03-15 Tomtom Global Content B.V. Methods and systems for generating and using localization reference data
US11137255B2 (en) 2015-08-03 2021-10-05 Tomtom Global Content B.V. Methods and systems for generating and using localization reference data
US10948302B2 (en) 2015-08-03 2021-03-16 Tomtom Global Content B.V. Methods and systems for generating and using localization reference data
DE102018124969A1 (de) 2017-10-16 2018-11-29 FEV Europe GmbH Fahrerassistenzsystem mit einem Nanodraht zur Erfassung eines Objektes in einem Umfeld eines Fahrzeugs
DE102017123984A1 (de) 2017-10-16 2017-11-30 FEV Europe GmbH Fahrerassistenzsystem mit einem Nanodraht zur Erfassung eines Objektes in einem Umfeld eines Fahrzeugs
DE102017123980A1 (de) 2017-10-16 2017-11-30 FEV Europe GmbH Fahrerassistenzsystem mit einer frequenzgesteuerten Ausrichtung eines Senders zur Erfassung eines Objektes in einem Umfeld eines Fahrzeugs
DE102018124986A1 (de) 2017-10-16 2018-12-20 FEV Europe GmbH Fahrerassistenzsystem mit einer frequenzgesteuerten Ausrichtung eines Senders zur Erfassung eines Objektes in einem Umfeld eines Fahrzeugs
WO2019158450A1 (de) 2018-02-14 2019-08-22 Robert Bosch Gmbh Verfahren zur abbildung der umgebung eines fahrzeugs
DE102018202244A1 (de) 2018-02-14 2019-08-14 Robert Bosch Gmbh Verfahren zur Abbildung der Umgebung eines Fahrzeugs
WO2019162327A2 (de) 2018-02-23 2019-08-29 Audi Ag Verfahren zur ermittlung einer entfernung zwischen einem kraftfahrzeug und einem objekt
DE102018114987A1 (de) 2018-06-21 2018-08-09 FEV Europe GmbH Fahrerassistenzsystem zur Bestimmung einer Farbe eines Objektes in einer Fahrzeugumgebung
DE102019115723A1 (de) 2018-06-21 2019-09-05 FEV Europe GmbH Fahrerassistenzsystem zur Bestimmung einer Farbe eines Objektes in einer Fahrzeugumgebung
WO2020020654A1 (de) 2018-07-27 2020-01-30 Daimler Ag Verfahren zum betreiben eines fahrerassistenzsystems mit zwei erfassungseinrichtungen
DE102019130016A1 (de) 2018-11-14 2020-01-09 FEV Europe GmbH Fahrerassistenzsystem mit einem Sender mit einer frequenzgesteuerten Abstrahlrichtung und einem Konverter zur Frequenzangleichung
DE102018128538A1 (de) 2018-11-14 2019-01-24 FEV Europe GmbH Fahrerassistenzsystem mit einem Sender mit einer frequenzgesteuerten Abstrahlrichtung und einem Konverter zur Frequenzangleichung
DE102020107012A1 (de) 2019-03-21 2020-04-30 FEV Europe GmbH Fahrerassistenzsystem zur Erkennung fremder Signale
DE102019107310A1 (de) 2019-03-21 2019-06-19 FEV Europe GmbH Fahrerassistenzsystem zur Erkennung fremder Signale
DE102019211582A1 (de) * 2019-08-01 2021-02-04 Robert Bosch Gmbh Verfahren zum Erstellen einer Höhenkarte
US11662461B2 (en) 2020-03-20 2023-05-30 Aptiv Technologies Limited Method for generating a dynamic occupancy grid
US11719799B2 (en) 2020-04-27 2023-08-08 Aptiv Technologies Limited Method for determining a collision free space
US11763576B2 (en) 2020-04-27 2023-09-19 Aptiv Technologies Limited Method for determining a drivable area
WO2022002604A1 (de) 2020-06-30 2022-01-06 Robert Bosch Gmbh Vermeidung von fehldetektionen einer objekterkennung
DE102020208068A1 (de) 2020-06-30 2021-12-30 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Erkennung eines in einem Überwachungsbereich erscheinenden Objekts, Computerprogramm, Speichermedium und Steuereinrichtung
DE102020208066B3 (de) 2020-06-30 2021-12-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren Objekterkennung Computerprogramm, Speichermedium und Steuereinrichtung
EP4009228A1 (de) * 2020-12-02 2022-06-08 Aptiv Technologies Limited Verfahren zur bestimmung eines semantischen freiraums
DE102022115447A1 (de) 2022-06-21 2023-12-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Assistenzsystem zum Unterstützen einer Fahrzeugführung basierend auf einem Fahrschlauch und einer Begrenzungsschätzung und Kraftfahrzeug
WO2023247356A1 (de) 2022-06-21 2023-12-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren und assistenzsystem zum unterstützen einer fahrzeugführung basierend auf einem fahrschlauch und einer begrenzungsschätzung und kraftfahrzeug

Also Published As

Publication number Publication date
WO2010091818A3 (de) 2011-10-20
EP2396746A2 (de) 2011-12-21
US20110311108A1 (en) 2011-12-22
US8548229B2 (en) 2013-10-01
CN102317954A (zh) 2012-01-11
CN102317954B (zh) 2014-09-24
WO2010091818A2 (de) 2010-08-19

Similar Documents

Publication Publication Date Title
DE102009009047A1 (de) Verfahren zur Objektdetektion
DE102007002419B4 (de) Fahrzeugumgebungsüberwachungsgerät, -verfahren und -programm
DE102012101014A1 (de) Fahrzeugdetektionsvorrichtung
EP1589484B1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE60308782T2 (de) Vorrichtung und Methode zur Hinderniserkennung
DE69937699T2 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges
WO2013029722A2 (de) Verfahren zur umgebungsrepräsentation
DE102012103473A1 (de) Umgebungserkennungsvorrichtung und Umgebungserkennungsverfahren
DE102012103908A1 (de) Umgebungserkennungsvorrichtung und Umgebungserkennungsverfahren
DE102012103860A1 (de) Umgebungserkennungsvorrichtung und Umgebungserkennungsverfahren
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
DE102015203016A1 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102012000459A1 (de) Verfahren zur Objektdetektion
DE102015115012A1 (de) Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
DE112018007485T5 (de) Straßenoberflächen-Detektionsvorrichtung, Bildanzeige-Vorrichtung unter Verwendung einer Straßenoberflächen-Detektionsvorrichtung, Hindernis-Detektionsvorrichtung unter Nutzung einer Straßenoberflächen-Detektionsvorrichtung, Straßenoberflächen-Detektionsverfahren, Bildanzeige-Verfahren unter Verwendung eines Straßenoberflächen-Detektionsverfahrens, und Hindernis-Detektionsverfahren unter Nutzung eines Straßenoberflächen-Detektionsverfahrens
DE102009022278A1 (de) Verfahren zur Ermittlung eines hindernisfreien Raums
WO2004049000A1 (de) Verfahren zur erfassung der vorausliegenden umgebung eines strassenfahrzeugs mittels eines umgebungserfassungssystems
DE102018129388A1 (de) Erkennungsvorrichtung für die äussere umgebung von fahrzeugen
DE102016218852A1 (de) Detektion von Objekten aus Bildern einer Kamera
DE112021005357T5 (de) System und Verfahren zur Ausrichtung dreidimensionalen Scannens
DE102014212866A1 (de) Verfahren zum Ermitteln eines Parkplatzes aus einer Anzahl von Messpunkten
DE102018121008A1 (de) Kreuzverkehrserfassung unter verwendung von kameras
EP2707862B1 (de) Abstandsbestimmung mittels eines kamerasensors
DE102021002798A1 (de) Verfahren zur kamerabasierten Umgebungserfassung
EP3520023A1 (de) Detektion und validierung von objekten aus sequentiellen bildern einer kamera

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R120 Application withdrawn or ip right abandoned