DE102009009047A1 - Verfahren zur Objektdetektion - Google Patents
Verfahren zur Objektdetektion Download PDFInfo
- Publication number
- DE102009009047A1 DE102009009047A1 DE102009009047A DE102009009047A DE102009009047A1 DE 102009009047 A1 DE102009009047 A1 DE 102009009047A1 DE 102009009047 A DE102009009047 A DE 102009009047A DE 102009009047 A DE102009009047 A DE 102009009047A DE 102009009047 A1 DE102009009047 A1 DE 102009009047A1
- Authority
- DE
- Germany
- Prior art keywords
- determined
- segments
- segment
- height
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Abstract
Die Erfindung betrifft ein Verfahren zur Objektdetektion, bei dem jeweils zwei Bilder einer Umgebung (1) aufgenommen und mittels Stereobildverarbeitung ein Disparitätsbild ermittelt wird, wobei aus den ermittelten Disparitäten eine Tiefenkarte der Umgebung (1) bestimmt wird, in der eine Freiraumbegrenzungslinie (2) identifiziert wird, die einen hindernisfreien Bereich der Umgebung (1) umgrenzt, wobei außerhalb und entlang der Freiraumbegrenzungslinie (1) die Tiefenkarte segmentiert wird, indem Segmente (3) einer geeigneten Breite aus Pixeln gleicher oder ähnlicher Entfernung zu einer Bildebene gebildet werden, wobei eine Höhe jedes Segments (3) als Teil eines außerhalb des hindernisfreien Bereichs befindlichen Objekts (4.1 bis 4.6) geschätzt wird, so dass jedes Segment (3) durch die zweidimensionale Position seines Fußpunkts (z.B. gegeben durch Entfernung und Winkel zur Fahrzeuglängsachse) und seine Höhe charakterisiert wird.
Description
- Die Erfindung betrifft ein Verfahren zur Objektdetektion nach dem Oberbegriff des Anspruchs 1.
- Moderne Stereoverfahren, aber auch entfernungsmessende Sensoren wie z. B. PMD, Lidar oder hochauflösende Radare, generieren ein dreidimensionales Bild der Umgebung. Aus diesen Daten sind die relevanten Objekte zu extrahieren, beispielsweise stehende oder bewegte Hindernisse. Der Schritt von den Rohdaten zu Objekten erweist sich in der Praxis als sehr groß und führt oft zu vielen heuristischen Speziallösungen. Für die Weiterverarbeitung wird daher eine kompakte Abstraktion mit geringen Datenmengen angestrebt.
- Bekannte Verfahren der Stereo-Bildverarbeitung arbeiten mit nicht dichten Stereokarten und extrahieren direkt Objekte unter Verwendung als geeignet angesehener Heuristiken. Ein Abstraktionslevel, der diesen Schritt unterstützt, existiert im Allgemeinen nicht.
- Aus der
US 2007/0274566 A1 - Es ist eine Aufgabe der Erfindung, ein verbessertes Verfahren zur Objektdetektion anzugeben.
- Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren mit den Merkmalen des Anspruchs 1.
- Vorteilhafte Weiterbildungen sind Gegenstand der Unteransprüche.
- Bei einem erfindungsgemäßen Verfahren zur Objektdetektion wird mittels eines Sensorsystems ein Entfernungsbild über horizontalem und vertikalem Winkel ermittelt, wobei aus dem Entfernungsbild eine Tiefenkarte einer Umgebung bestimmt wird. Erfindungsgemäß wird eine Freiraumbegrenzungslinie identifiziert, die einen hindernisfreien Bereich der Umgebung umgrenzt, wobei die Tiefenkarte außerhalb und entlang der Freiraumbegrenzungslinie segmentiert wird, indem Segmente geeigneter, gleicher Breite aus Pixeln gleicher oder ähnlicher Entfernung zu einer Ebene gebildet werden, wobei eine Höhe jedes Segments als Teil eines außerhalb des hindernisfreien Bereichs befindlichen Objekts geschätzt wird, so dass jedes Segment durch eine zweidimensionale Position eines Fußpunkts (z. B. gegeben durch Entfernung und Winkel zu einer Fahrzeuglängsachse) und durch seine Höhe charakterisiert wird.
- Die durch das Entfernungsbild und die Tiefenkarte beschriebene dreidimensionale Umgebung wird durch den hindernisfreien Bereich (auch Freiraumfläche genannt) approximiert. Der hindernisfreie Bereich ist beispielsweise ein befahrbarer Bereich, der jedoch nicht zwingend planar sein muss. Der hindernisfreie Bereich wird begrenzt durch die stabartigen Segmente, die in ihrer Gesamtheit die den hindernisfreien Bereich umgebenden Objekte modellieren. Diese Segmente stehen im einfachsten Fall auf dem Boden und approximieren eine mittlere Höhe des Objekts im Bereich des jeweiligen Segments. Objekte mit variabler Höhe, beispielsweise Radfahrer von der Seite, werden so durch eine stückweise konstante Höhenfunktion beschrieben.
- Die so gewonnenen Segmente (auch als Stixel bezeichnet) stellen eine kompakte und robuste Repräsentation der Objekte dar und erfordern nur ein begrenztes Datenvolumen, unabhängig von der Dichte der für die Erstellung der Tiefenkarte verwendeten Stereo-Korrespondenzanalyse. Zu jedem Stixel sind Ort und Höhe gespeichert. Diese Repräsentation eignet sich optimal für gegebenenfalls nachfolgende Schritte, wie Objektbildung und Szeneninterpretation. Die Stixel-Repräsentation stellt eine ideale Schnittstelle zwischen applikationsunabhängiger Stereoanalyse und applikationsspezifischen Auswertungen dar.
- Im Folgenden wird ein Ausführungsbeispiel der Erfindung anhand einer Zeichnung näher erläutert.
- Dabei zeigt:
-
1 eine zweidimensionale Darstellung einer Umgebung mit einer Freiraumbegrenzungslinie und einer Anzahl von Segmenten zur Modellierung von Objekten in der Umgebung. -
1 zeigt eine zweidimensionale Darstellung einer Umgebung1 mit einer Freiraumbegrenzungslinie2 und einer Anzahl von Segmenten3 zur Modellierung von Objekten4.1 bis4.6 in der Umgebung1 . Die Segmente3 oder Stixel modellieren die Objekte4.1 bis4.6 , die den durch die Freiraumbegrenzungslinie2 definierten freien Fahrraum begrenzen. - Zur Erstellung der gezeigten Darstellung kommt ein Verfahren zum Einsatz, bei dem jeweils zwei Bilder einer Umgebung aufgenommen und mittels Stereobildverarbeitung ein Disparitätsbild ermittelt wird. Beispielsweise kann zur Stereobildverarbeitung das in [H. Hirschmüller: "Accurate and efficient stereo processing by semi-global matching and mutual information. CVPR 2005, San Diego, CA. Volume 2. (June 2005), pp. 807–814.] beschriebene Verfahren verwendet werden.
- Aus den ermittelten Disparitäten wird eine Tiefenkarte der Umgebung bestimmt, beispielsweise wie in [H. Badino, U. Franke, R. Mester: "Free Space Computation using Stochastic Occupancy Grids and Dynamic Programming", In Dynamic Programming Workshop for ICCV 07, Rio de Janeiro, Brasil] beschrieben.
- Es wird die Freiraumbegrenzungslinie
2 identifiziert, die den hindernisfreien Bereich der Umgebung1 umgrenzt. Außerhalb und entlang der Freiraumbegrenzungslinie2 wird die Tiefenkarte segmentiert, indem die Segmente3 mit einer vorgegebenen Breite aus Pixeln gleicher oder ähnlicher Entfernung zu einer Bildebene einer Kamera oder mehrerer Kameras gebildet werden. - Die Segmentierung kann beispielsweise mittels des in [H. Badino, U. Franke, R. Mester: "Free Space Computation using Stochastic Occupancy Grids and Dynamic Programming", In Dynamic Vision Workshop for ICCV 07, Rio de Janeiro, Brasil.] beschriebenen Verfahrens erfolgen.
- Eine Approximation der gefundenen Freiraumbegrenzungslinie
2 in Segmente3 (Stäbe, Stixel) vorgegebener Breite (beliebige Vorgaben möglich) liefert die Entfernung der Segmente; bei bekannter Orientierung der Kamera zur Umgebung (beispielsweise einer Straße vor einem Fahrzeug, an dem die Kamera angeordnet ist) und bekanntem 3D-Verlauf ergibt sich ein jeweiliger Fußpunkt der Segmente3 im Bild. - Anschließend wird eine Höhe jedes Segments
3 geschätzt, so dass jedes Segment3 durch eine zweidimensionale Position eines Fußpunkts und seine Höhe charakterisiert wird. - Die Schätzung der Höhe kann am einfachsten durch histogrammbasierte Auswertung aller 3D-Punkte im Bereich des Segments erfolgen. Dieser Schritt kann durch dynamische Programmierung gelöst werden.
- Bereiche, die keine Segmente
3 aufweisen, sind solche, in denen von der Freiraumanalyse keine Objekte gefunden wurden. - Es können mehrere Bilder sequentiell aufgenommen und verarbeitet werden, wobei aus Veränderungen in der Tiefenkarte und im Disparitätsbild Bewegungsinformationen extrahiert und den Segmenten
3 zugeordnet werden können. Auf diese Weise können auch bewegte Szenen repräsentiert werden und beispielsweise zur Prognose einer zu erwartenden Bewegung der Objekte4.1 bis4.6 verwendet werden. Bei dieser Art von Bewegungsverfolgung spricht man auch von Tracking. Dabei kann zur Bestimmung der Bewegung der Segmente3 eine Fahrzeug-Eigenbewegung ermittelt und zur Kompensation herangezogen werden. Die Kompaktheit und Robustheit der Segmente3 resultiert aus der Integration vieler Pixel im Bereich des Segments3 und – bei der Tracking-Variante – aus der zusätzlichen Integration über die Zeit. - Die Zugehörigkeit jedes der Segmente
3 zu einem der Objekte4.1 bis4.6 kann ebenfalls mit den übrigen Informationen zu jedem Segment gespeichert sein. Dies ist jedoch nicht zwingend erforderlich. - Die Bewegungsinformationen können beispielsweise durch Integration des optischen Flusses gewonnen werden, so dass sich für jedes der Segmente
3 eine reale Bewegung schätzen lässt. Entsprechende Verfahren sind z. B. aus Arbeiten zur 6D-Vision, welche in derDE 10 2005 008 131 A1 veröffentlicht sind, bekannt. Diese Bewegungsinformation vereinfacht weiter die Gruppierung zu Objekten, da auf kompatible Bewegungen geprüft werden kann. - Die Position des Fußpunkts, die Höhe und die Bewegungsinformation des Segments
3 können mittels Scene Flow ermittelt werden. Beim Scene Flow handelt es sich um eine Klasse von Verfahren, die aus mindestens2 aufeinander folgenden Stereobildpaaren versucht, für möglichst jeden Bildpunkt die korrekte Bewegung im Raum plus seine 3D-Position zu ermitteln; siehe hierzu [Sundar Vedulay, Simon Bakery, Peter Randeryz, Robert Collinsy, and Takeo Kanade, "Three-Dimensional Scene Flow", Appeared in the 7th International Conference an Computer Vision, Corfu, Greece, September 1999.] Auf der Basis der identifizierten Segmente3 können Informationen für ein Fahrerassistenzsystem in einem Fahrzeug generiert werden, an dem die Kameras angeordnet sind. - Beispielsweise kann eine verbleibende Zeit bis zur Kollision des Fahrzeugs mit einem durch Segmente
3 gebildeten Objekt4.1 bis4.6 geschätzt werden. - Weiter kann ein Fahrkorridor
5 in den hindernisfreien Bereich gelegt werden, der vom Fahrzeug benutzt werden soll, wobei ein seitlicher Abstand mindestens eines der Objekte4.1 bis4.6 zum Fahrkorridor5 ermittelt wird. - Ebenso können kritische, insbesondere bewegte Objekte
4.1 bis4.6 zur Unterstützung eines Abbiegeassistenzsystems und/oder einer automatische Fahrlichtschaltung und/oder eines Fußgängerschutzsystems und/oder eines Notbremssystems identifiziert werden. - Informationen weiterer Sensoren können mit den Informationen zur Unterstützung des Fahrerassistenzsystems, die den Segmenten
3 zugeordnet sind, kombiniert werden (Sensorfusion). Insbesondere kommen hierfür aktive Sensoren, wie zum Beispiel ein LIDAR, in Frage. - Die Breite der Segmente
3 kann beispielsweise auf fünf Bildpunkte gesetzt werden. Für ein Bild mit VGA-Auflösung ergeben sich dann maximal 640/5 = 128 Segmente, die durch Entfernung und Höhe eindeutig beschrieben sind. Die Segmente3 haben eindeutige Nachbarschaftsbeziehungen, wodurch sie sich sehr einfach zu Objekten4.1 bis4.6 gruppieren lassen. Im einfachsten Fall sind zu jedem Segment3 nur Entfernung und Höhe zu übertragen, bei bekannter Breite des Segments3 ergibt sich ein Winkel (Spalten im Bild) aus einem Index. - Das Entfernungsbild kann mittels eines beliebigen Sensorsystems über horizontalem und vertikalem Winkel ermittelt werden, wobei aus dem Entfernungsbild die Tiefenkarte der Umgebung bestimmt wird.
- Insbesondere können jeweils zwei Bilder der Umgebung (
1 ) mittels je einer Kamera aufgenommen und mittels Stereobildverarbeitung ein Disparitätsbild ermittelt werden, wobei aus den ermittelten Disparitäten das Entfernungsbild und die Tiefenkarte bestimmt werden. - Ebenso kann als Sensorsystem ein Photomischdetektor und/oder eine dreidimensionale Kamera und/oder ein Lidar und/oder ein Radar verwendet werden.
-
- 1
- Umgebung
- 2
- Freiraumbegrenzungslinie
- 3
- Segment
- 4.1 bis 4.6
- Objekt
- 5
- Fahrkorridor
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- - US 2007/0274566 A1 [0004]
- - DE 102005008131 A1 [0025]
- Zitierte Nicht-Patentliteratur
-
- - H. Hirschmüller: ”Accurate and efficient stereo processing by semi-global matching and mutual information. CVPR 2005, San Diego, CA. Volume 2. (June 2005), pp. 807–814. [0015]
- - H. Badino, U. Franke, R. Mester: ”Free Space Computation using Stochastic Occupancy Grids and Dynamic Programming”, In Dynamic Programming Workshop for ICCV 07, Rio de Janeiro, Brasil [0016]
- - H. Badino, U. Franke, R. Mester: ”Free Space Computation using Stochastic Occupancy Grids and Dynamic Programming”, In Dynamic Vision Workshop for ICCV 07, Rio de Janeiro, Brasil. [0018]
- - Sundar Vedulay, Simon Bakery, Peter Randeryz, Robert Collinsy, and Takeo Kanade, ”Three-Dimensional Scene Flow”, Appeared in the 7th International Conference an Computer Vision, Corfu, Greece, September 1999. [0026]
Claims (13)
- Verfahren zur Objektdetektion, bei dem mittels eines Sensorsystems ein Entfernungsbild über horizontalem und vertikalem Winkel ermittelt wird, wobei aus dem Entfernungsbild eine Tiefenkarte einer Umgebung (
1 ) bestimmt wird, dadurch gekennzeichnet, dass im Entfernungsbild eine Freiraumbegrenzungslinie (2 ) identifiziert wird, die einen hindernisfreien Bereich der Umgebung (1 ) umgrenzt, wobei die Tiefenkarte außerhalb und entlang der Freiraumbegrenzungslinie (1 ) segmentiert wird, indem Segmente (3 ) gleicher Breite aus Pixeln gleicher oder ähnlicher Entfernung zu einer Ebene gebildet werden, wobei eine Höhe jedes Segments (3 ) als Teil eines außerhalb des hindernisfreien Bereichs befindlichen Objekts (4.1 bis4.6 ) geschätzt wird, so dass jedes Segment (3 ) durch eine zweidimensionale Position eines Fußpunkts und seine Höhe charakterisiert wird. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass jeweils zwei Bilder der Umgebung (
1 ) mittels je einer Kamera aufgenommen und mittels Stereobildverarbeitung ein Disparitätsbild ermittelt wird, wobei aus den ermittelten Disparitäten das Entfernungsbild und die Tiefenkarte bestimmt werden. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als Sensorsystem ein Photomischdetektor und/oder eine dreidimensionale Kamera und/oder ein Lidar und/oder ein Radar verwendet wird.
- Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass mehrere Entfernungsbilder sequentiell ermittelt und verarbeitet werden, wobei aus Veränderungen in der Tiefenkarte Bewegungsinformationen extrahiert und den Segmenten (
3 ) zugeordnet werden. - Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Bewegungsinformationen durch Integration des optischen Flusses gewonnen werden.
- Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Zugehörigkeit der Segmente (
3 ) zu einem der Objekte (4.1 bis4.6 ) bestimmt und die Segmente (3 ) mit Informationen über ihre Zugehörigkeit zu einem der Objekte (4.1 bis4.6 ) versehen werden. - Verfahren nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass die Position des Fußpunkts, die Höhe und die Bewegungsinformation des Segments (
3 ) mittels Scene Flow ermittelt werden. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Höhe des Segments (
3 ) mittels histogrammbasierter Auswertung aller dreidimensionalen Punkte im Bereich des Segments (3 ) durchgeführt wird. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass auf der Basis der identifizierten Segmente (
3 ) Informationen für ein Fahrerassistenzsystem in einem Fahrzeug generiert werden, an dem Kameras zur Aufnahme der Bilder angeordnet sind. - Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass eine verbleibende Zeit bis zur Kollision des Fahrzeugs mit einem durch Segmente (
3 ) gebildeten Objekt (4.1 bis4.6 ) geschätzt wird. - Verfahren nach einem der Ansprüche 9 oder 10, dadurch gekennzeichnet, dass ein Fahrkorridor (
5 ) in den hindernisfreien Bereich gelegt wird, wobei ein seitlicher Abstand mindestens eines der Objekte (4.1 bis4.6 ) zum Fahrkorridor (5 ) ermittelt wird. - Verfahren nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass kritische Objekte (
4.1 bis4.6 ) zur Unterstützung eines Abbiegeassistenzsystems und/oder einer automatischen Fahrlichtschaltung und/oder eines Fußgängerschutzsystems und/oder eines Notbremssystems identifiziert werden und/oder ein Fahrer beim Befahren enger Fahrspuren unterstützt wird. - Verfahren nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass Informationen weiterer Sensoren mit den Segmenten (
3 ) zugeordneten Informationen zur Unterstützung des Fahrerassistenzsystems kombiniert werden.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102009009047A DE102009009047A1 (de) | 2009-02-16 | 2009-02-16 | Verfahren zur Objektdetektion |
US13/201,241 US8548229B2 (en) | 2009-02-16 | 2010-02-04 | Method for detecting objects |
EP10703018A EP2396746A2 (de) | 2009-02-16 | 2010-02-04 | Verfahren zur objektdetektion |
PCT/EP2010/000671 WO2010091818A2 (de) | 2009-02-16 | 2010-02-04 | Verfahren zur objektdetektion |
CN201080007837.9A CN102317954B (zh) | 2009-02-16 | 2010-02-04 | 检测对象的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102009009047A DE102009009047A1 (de) | 2009-02-16 | 2009-02-16 | Verfahren zur Objektdetektion |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102009009047A1 true DE102009009047A1 (de) | 2010-08-19 |
Family
ID=42338731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102009009047A Withdrawn DE102009009047A1 (de) | 2009-02-16 | 2009-02-16 | Verfahren zur Objektdetektion |
Country Status (5)
Country | Link |
---|---|
US (1) | US8548229B2 (de) |
EP (1) | EP2396746A2 (de) |
CN (1) | CN102317954B (de) |
DE (1) | DE102009009047A1 (de) |
WO (1) | WO2010091818A2 (de) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011111440A1 (de) | 2011-08-30 | 2012-06-28 | Daimler Ag | Verfahren zur Umgebungsrepräsentation |
DE102012000459A1 (de) | 2012-01-13 | 2012-07-12 | Daimler Ag | Verfahren zur Objektdetektion |
DE102012021617A1 (de) | 2012-11-06 | 2013-05-16 | Daimler Ag | Verfahren zur Objektdetektion |
CN104723953A (zh) * | 2013-12-18 | 2015-06-24 | 青岛盛嘉信息科技有限公司 | 一种行人检测装置 |
DE102017123980A1 (de) | 2017-10-16 | 2017-11-30 | FEV Europe GmbH | Fahrerassistenzsystem mit einer frequenzgesteuerten Ausrichtung eines Senders zur Erfassung eines Objektes in einem Umfeld eines Fahrzeugs |
DE102017123984A1 (de) | 2017-10-16 | 2017-11-30 | FEV Europe GmbH | Fahrerassistenzsystem mit einem Nanodraht zur Erfassung eines Objektes in einem Umfeld eines Fahrzeugs |
DE102018114987A1 (de) | 2018-06-21 | 2018-08-09 | FEV Europe GmbH | Fahrerassistenzsystem zur Bestimmung einer Farbe eines Objektes in einer Fahrzeugumgebung |
DE102018128538A1 (de) | 2018-11-14 | 2019-01-24 | FEV Europe GmbH | Fahrerassistenzsystem mit einem Sender mit einer frequenzgesteuerten Abstrahlrichtung und einem Konverter zur Frequenzangleichung |
US10240934B2 (en) * | 2014-04-30 | 2019-03-26 | Tomtom Global Content B.V. | Method and system for determining a position relative to a digital map |
DE102019107310A1 (de) | 2019-03-21 | 2019-06-19 | FEV Europe GmbH | Fahrerassistenzsystem zur Erkennung fremder Signale |
DE102018202244A1 (de) | 2018-02-14 | 2019-08-14 | Robert Bosch Gmbh | Verfahren zur Abbildung der Umgebung eines Fahrzeugs |
WO2019162327A2 (de) | 2018-02-23 | 2019-08-29 | Audi Ag | Verfahren zur ermittlung einer entfernung zwischen einem kraftfahrzeug und einem objekt |
WO2020020654A1 (de) | 2018-07-27 | 2020-01-30 | Daimler Ag | Verfahren zum betreiben eines fahrerassistenzsystems mit zwei erfassungseinrichtungen |
DE102019211582A1 (de) * | 2019-08-01 | 2021-02-04 | Robert Bosch Gmbh | Verfahren zum Erstellen einer Höhenkarte |
US10948302B2 (en) | 2015-08-03 | 2021-03-16 | Tomtom Global Content B.V. | Methods and systems for generating and using localization reference data |
DE102020208066B3 (de) | 2020-06-30 | 2021-12-23 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren Objekterkennung Computerprogramm, Speichermedium und Steuereinrichtung |
DE102020208068A1 (de) | 2020-06-30 | 2021-12-30 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zur Erkennung eines in einem Überwachungsbereich erscheinenden Objekts, Computerprogramm, Speichermedium und Steuereinrichtung |
EP4009228A1 (de) * | 2020-12-02 | 2022-06-08 | Aptiv Technologies Limited | Verfahren zur bestimmung eines semantischen freiraums |
US11503251B2 (en) | 2012-01-20 | 2022-11-15 | Magna Electronics Inc. | Vehicular vision system with split display |
US11662461B2 (en) | 2020-03-20 | 2023-05-30 | Aptiv Technologies Limited | Method for generating a dynamic occupancy grid |
US11719799B2 (en) | 2020-04-27 | 2023-08-08 | Aptiv Technologies Limited | Method for determining a collision free space |
US11763576B2 (en) | 2020-04-27 | 2023-09-19 | Aptiv Technologies Limited | Method for determining a drivable area |
DE102022115447A1 (de) | 2022-06-21 | 2023-12-21 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Assistenzsystem zum Unterstützen einer Fahrzeugführung basierend auf einem Fahrschlauch und einer Begrenzungsschätzung und Kraftfahrzeug |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10776635B2 (en) * | 2010-09-21 | 2020-09-15 | Mobileye Vision Technologies Ltd. | Monocular cued detection of three-dimensional structures from depth images |
JP5316572B2 (ja) * | 2011-03-28 | 2013-10-16 | トヨタ自動車株式会社 | 物体認識装置 |
CN103164851B (zh) * | 2011-12-09 | 2016-04-20 | 株式会社理光 | 道路分割物检测方法和装置 |
US8768007B2 (en) | 2012-03-26 | 2014-07-01 | Tk Holdings Inc. | Method of filtering an image |
US8824733B2 (en) | 2012-03-26 | 2014-09-02 | Tk Holdings Inc. | Range-cued object segmentation system and method |
CN103390164B (zh) * | 2012-05-10 | 2017-03-29 | 南京理工大学 | 基于深度图像的对象检测方法及其实现装置 |
TWI496090B (zh) * | 2012-09-05 | 2015-08-11 | Ind Tech Res Inst | 使用深度影像的物件定位方法與裝置 |
US9349058B2 (en) | 2012-10-31 | 2016-05-24 | Tk Holdings, Inc. | Vehicular path sensing system and method |
US20140139632A1 (en) * | 2012-11-21 | 2014-05-22 | Lsi Corporation | Depth imaging method and apparatus with adaptive illumination of an object of interest |
CN103871042B (zh) * | 2012-12-12 | 2016-12-07 | 株式会社理光 | 基于视差图的视差方向上连续型物体检测方法和装置 |
WO2014152470A2 (en) | 2013-03-15 | 2014-09-25 | Tk Holdings, Inc. | Path sensing using structured lighting |
CN112665556B (zh) | 2015-04-01 | 2023-09-05 | 瓦亚视觉传感有限公司 | 使用被动和主动测量生成场景的三维地图 |
US9928430B2 (en) * | 2015-04-10 | 2018-03-27 | GM Global Technology Operations LLC | Dynamic stixel estimation using a single moving camera |
EP3324359B1 (de) | 2015-08-21 | 2019-10-02 | Panasonic Intellectual Property Management Co., Ltd. | Bildverarbeitungsvorrichtung und bildverarbeitungsverfahren |
US9761000B2 (en) | 2015-09-18 | 2017-09-12 | Qualcomm Incorporated | Systems and methods for non-obstacle area detection |
US10482331B2 (en) * | 2015-11-20 | 2019-11-19 | GM Global Technology Operations LLC | Stixel estimation methods and systems |
CN106909141A (zh) * | 2015-12-23 | 2017-06-30 | 北京机电工程研究所 | 障碍物探测定位装置及避障系统 |
KR101795270B1 (ko) | 2016-06-09 | 2017-11-07 | 현대자동차주식회사 | 장애물의 지면경계 정보를 이용한 물체 측면 검출 방법 및 장치 |
CN105974938B (zh) * | 2016-06-16 | 2023-10-03 | 零度智控(北京)智能科技有限公司 | 避障方法、装置、载体及无人机 |
US10321114B2 (en) | 2016-08-04 | 2019-06-11 | Google Llc | Testing 3D imaging systems |
EP3293668B1 (de) | 2016-09-13 | 2023-08-30 | Arriver Software AB | Sichtsystem und -verfahren für ein kraftfahrzeug |
US10535142B2 (en) | 2017-01-10 | 2020-01-14 | Electronics And Telecommunication Research Institute | Method and apparatus for accelerating foreground and background separation in object detection using stereo camera |
US10445928B2 (en) | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
US10474908B2 (en) * | 2017-07-06 | 2019-11-12 | GM Global Technology Operations LLC | Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation |
JP6970577B2 (ja) * | 2017-09-29 | 2021-11-24 | 株式会社デンソー | 周辺監視装置および周辺監視方法 |
DE102018214875A1 (de) * | 2018-08-31 | 2020-03-05 | Audi Ag | Verfahren und Anordnung zum Erzeugen einer Umgebungsrepräsentation eines Fahrzeugs und Fahrzeug mit einer solchen Anordnung |
CN110659578A (zh) * | 2019-08-26 | 2020-01-07 | 中国电子科技集团公司电子科学研究院 | 基于检测跟踪技术的客流统计方法、系统及设备 |
US11669092B2 (en) * | 2019-08-29 | 2023-06-06 | Rockwell Automation Technologies, Inc. | Time of flight system and method for safety-rated collision avoidance |
EP4185894A1 (de) | 2020-07-21 | 2023-05-31 | Leddartech Inc. | Systeme und verfahren für weitwinkel-lidar mit optik mit ungleichförmiger vergrösserung |
EP4185924A1 (de) | 2020-07-21 | 2023-05-31 | Leddartech Inc. | Strahllenkungsvorrichtung, insbesondere für lidar-systeme |
CA3125618C (en) | 2020-07-21 | 2023-05-23 | Leddartech Inc. | Beam-steering device particularly for lidar systems |
DE102020210816A1 (de) * | 2020-08-27 | 2022-03-03 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zur Erkennung dreidimensionaler Objekte, Computerprogramm, Maschinenlesbares Speichermedium, Steuergerät, Fahrzeug und Videoüberwachungssystem |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005008131A1 (de) | 2005-01-31 | 2006-08-03 | Daimlerchrysler Ag | Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen |
US20070274566A1 (en) | 2006-05-24 | 2007-11-29 | Nissan Motor Co., Ltd. | Pedestrian detector and pedestrian detecting method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9913687D0 (en) * | 1999-06-11 | 1999-08-11 | Canon Kk | Image processing apparatus |
CN1343551A (zh) * | 2000-09-21 | 2002-04-10 | 上海大学 | 机器视觉分层模块结构模型 |
US7822241B2 (en) * | 2003-08-21 | 2010-10-26 | Koninklijke Philips Electronics N.V. | Device and method for combining two images |
EP1772752A4 (de) * | 2004-07-30 | 2009-07-08 | Panasonic Elec Works Co Ltd | Einzeldetektor und zusatzdetektor |
US7362419B2 (en) * | 2004-09-17 | 2008-04-22 | Matsushita Electric Works, Ltd. | Range image sensor |
US8385599B2 (en) * | 2008-10-10 | 2013-02-26 | Sri International | System and method of detecting objects |
-
2009
- 2009-02-16 DE DE102009009047A patent/DE102009009047A1/de not_active Withdrawn
-
2010
- 2010-02-04 EP EP10703018A patent/EP2396746A2/de not_active Withdrawn
- 2010-02-04 US US13/201,241 patent/US8548229B2/en not_active Expired - Fee Related
- 2010-02-04 CN CN201080007837.9A patent/CN102317954B/zh not_active Expired - Fee Related
- 2010-02-04 WO PCT/EP2010/000671 patent/WO2010091818A2/de active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005008131A1 (de) | 2005-01-31 | 2006-08-03 | Daimlerchrysler Ag | Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen |
US20070274566A1 (en) | 2006-05-24 | 2007-11-29 | Nissan Motor Co., Ltd. | Pedestrian detector and pedestrian detecting method |
Non-Patent Citations (4)
Title |
---|
H. Badino, U. Franke, R. Mester: "Free Space Computation using Stochastic Occupancy Grids and Dynamic Programming", In Dynamic Programming Workshop for ICCV 07, Rio de Janeiro, Brasil |
H. Badino, U. Franke, R. Mester: "Free Space Computation using Stochastic Occupancy Grids and Dynamic Programming", In Dynamic Vision Workshop for ICCV 07, Rio de Janeiro, Brasil. |
H. Hirschmüller: "Accurate and efficient stereo processing by semi-global matching and mutual information. CVPR 2005, San Diego, CA. Volume 2. (June 2005), pp. 807-814. |
Sundar Vedulay, Simon Bakery, Peter Randeryz, Robert Collinsy, and Takeo Kanade, "Three-Dimensional Scene Flow", Appeared in the 7th International Conference an Computer Vision, Corfu, Greece, September 1999. |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013029722A2 (de) | 2011-08-30 | 2013-03-07 | Daimler Ag | Verfahren zur umgebungsrepräsentation |
US9042639B2 (en) | 2011-08-30 | 2015-05-26 | Daimler Ag | Method for representing surroundings |
DE102011111440A1 (de) | 2011-08-30 | 2012-06-28 | Daimler Ag | Verfahren zur Umgebungsrepräsentation |
DE102012000459A1 (de) | 2012-01-13 | 2012-07-12 | Daimler Ag | Verfahren zur Objektdetektion |
US11503251B2 (en) | 2012-01-20 | 2022-11-15 | Magna Electronics Inc. | Vehicular vision system with split display |
DE102012021617A1 (de) | 2012-11-06 | 2013-05-16 | Daimler Ag | Verfahren zur Objektdetektion |
CN104723953A (zh) * | 2013-12-18 | 2015-06-24 | 青岛盛嘉信息科技有限公司 | 一种行人检测装置 |
US10240934B2 (en) * | 2014-04-30 | 2019-03-26 | Tomtom Global Content B.V. | Method and system for determining a position relative to a digital map |
US11287264B2 (en) | 2015-08-03 | 2022-03-29 | Tomtom International B.V. | Methods and systems for generating and using localization reference data |
US11274928B2 (en) | 2015-08-03 | 2022-03-15 | Tomtom Global Content B.V. | Methods and systems for generating and using localization reference data |
US11137255B2 (en) | 2015-08-03 | 2021-10-05 | Tomtom Global Content B.V. | Methods and systems for generating and using localization reference data |
US10948302B2 (en) | 2015-08-03 | 2021-03-16 | Tomtom Global Content B.V. | Methods and systems for generating and using localization reference data |
DE102018124969A1 (de) | 2017-10-16 | 2018-11-29 | FEV Europe GmbH | Fahrerassistenzsystem mit einem Nanodraht zur Erfassung eines Objektes in einem Umfeld eines Fahrzeugs |
DE102017123984A1 (de) | 2017-10-16 | 2017-11-30 | FEV Europe GmbH | Fahrerassistenzsystem mit einem Nanodraht zur Erfassung eines Objektes in einem Umfeld eines Fahrzeugs |
DE102017123980A1 (de) | 2017-10-16 | 2017-11-30 | FEV Europe GmbH | Fahrerassistenzsystem mit einer frequenzgesteuerten Ausrichtung eines Senders zur Erfassung eines Objektes in einem Umfeld eines Fahrzeugs |
DE102018124986A1 (de) | 2017-10-16 | 2018-12-20 | FEV Europe GmbH | Fahrerassistenzsystem mit einer frequenzgesteuerten Ausrichtung eines Senders zur Erfassung eines Objektes in einem Umfeld eines Fahrzeugs |
WO2019158450A1 (de) | 2018-02-14 | 2019-08-22 | Robert Bosch Gmbh | Verfahren zur abbildung der umgebung eines fahrzeugs |
DE102018202244A1 (de) | 2018-02-14 | 2019-08-14 | Robert Bosch Gmbh | Verfahren zur Abbildung der Umgebung eines Fahrzeugs |
WO2019162327A2 (de) | 2018-02-23 | 2019-08-29 | Audi Ag | Verfahren zur ermittlung einer entfernung zwischen einem kraftfahrzeug und einem objekt |
DE102018114987A1 (de) | 2018-06-21 | 2018-08-09 | FEV Europe GmbH | Fahrerassistenzsystem zur Bestimmung einer Farbe eines Objektes in einer Fahrzeugumgebung |
DE102019115723A1 (de) | 2018-06-21 | 2019-09-05 | FEV Europe GmbH | Fahrerassistenzsystem zur Bestimmung einer Farbe eines Objektes in einer Fahrzeugumgebung |
WO2020020654A1 (de) | 2018-07-27 | 2020-01-30 | Daimler Ag | Verfahren zum betreiben eines fahrerassistenzsystems mit zwei erfassungseinrichtungen |
DE102019130016A1 (de) | 2018-11-14 | 2020-01-09 | FEV Europe GmbH | Fahrerassistenzsystem mit einem Sender mit einer frequenzgesteuerten Abstrahlrichtung und einem Konverter zur Frequenzangleichung |
DE102018128538A1 (de) | 2018-11-14 | 2019-01-24 | FEV Europe GmbH | Fahrerassistenzsystem mit einem Sender mit einer frequenzgesteuerten Abstrahlrichtung und einem Konverter zur Frequenzangleichung |
DE102020107012A1 (de) | 2019-03-21 | 2020-04-30 | FEV Europe GmbH | Fahrerassistenzsystem zur Erkennung fremder Signale |
DE102019107310A1 (de) | 2019-03-21 | 2019-06-19 | FEV Europe GmbH | Fahrerassistenzsystem zur Erkennung fremder Signale |
DE102019211582A1 (de) * | 2019-08-01 | 2021-02-04 | Robert Bosch Gmbh | Verfahren zum Erstellen einer Höhenkarte |
US11662461B2 (en) | 2020-03-20 | 2023-05-30 | Aptiv Technologies Limited | Method for generating a dynamic occupancy grid |
US11719799B2 (en) | 2020-04-27 | 2023-08-08 | Aptiv Technologies Limited | Method for determining a collision free space |
US11763576B2 (en) | 2020-04-27 | 2023-09-19 | Aptiv Technologies Limited | Method for determining a drivable area |
WO2022002604A1 (de) | 2020-06-30 | 2022-01-06 | Robert Bosch Gmbh | Vermeidung von fehldetektionen einer objekterkennung |
DE102020208068A1 (de) | 2020-06-30 | 2021-12-30 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zur Erkennung eines in einem Überwachungsbereich erscheinenden Objekts, Computerprogramm, Speichermedium und Steuereinrichtung |
DE102020208066B3 (de) | 2020-06-30 | 2021-12-23 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren Objekterkennung Computerprogramm, Speichermedium und Steuereinrichtung |
EP4009228A1 (de) * | 2020-12-02 | 2022-06-08 | Aptiv Technologies Limited | Verfahren zur bestimmung eines semantischen freiraums |
DE102022115447A1 (de) | 2022-06-21 | 2023-12-21 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Assistenzsystem zum Unterstützen einer Fahrzeugführung basierend auf einem Fahrschlauch und einer Begrenzungsschätzung und Kraftfahrzeug |
WO2023247356A1 (de) | 2022-06-21 | 2023-12-28 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und assistenzsystem zum unterstützen einer fahrzeugführung basierend auf einem fahrschlauch und einer begrenzungsschätzung und kraftfahrzeug |
Also Published As
Publication number | Publication date |
---|---|
WO2010091818A3 (de) | 2011-10-20 |
EP2396746A2 (de) | 2011-12-21 |
US20110311108A1 (en) | 2011-12-22 |
US8548229B2 (en) | 2013-10-01 |
CN102317954A (zh) | 2012-01-11 |
CN102317954B (zh) | 2014-09-24 |
WO2010091818A2 (de) | 2010-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102009009047A1 (de) | Verfahren zur Objektdetektion | |
DE102007002419B4 (de) | Fahrzeugumgebungsüberwachungsgerät, -verfahren und -programm | |
DE102012101014A1 (de) | Fahrzeugdetektionsvorrichtung | |
EP1589484B1 (de) | Verfahren zur Erkennung und/oder Verfolgung von Objekten | |
DE60308782T2 (de) | Vorrichtung und Methode zur Hinderniserkennung | |
DE69937699T2 (de) | Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges | |
WO2013029722A2 (de) | Verfahren zur umgebungsrepräsentation | |
DE102012103473A1 (de) | Umgebungserkennungsvorrichtung und Umgebungserkennungsverfahren | |
DE102012103908A1 (de) | Umgebungserkennungsvorrichtung und Umgebungserkennungsverfahren | |
DE102012103860A1 (de) | Umgebungserkennungsvorrichtung und Umgebungserkennungsverfahren | |
DE102017218366A1 (de) | Verfahren und system zur fussgängererfassung in einem fahrzeug | |
DE102015203016A1 (de) | Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld | |
DE102012000459A1 (de) | Verfahren zur Objektdetektion | |
DE102015115012A1 (de) | Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug | |
DE112018007485T5 (de) | Straßenoberflächen-Detektionsvorrichtung, Bildanzeige-Vorrichtung unter Verwendung einer Straßenoberflächen-Detektionsvorrichtung, Hindernis-Detektionsvorrichtung unter Nutzung einer Straßenoberflächen-Detektionsvorrichtung, Straßenoberflächen-Detektionsverfahren, Bildanzeige-Verfahren unter Verwendung eines Straßenoberflächen-Detektionsverfahrens, und Hindernis-Detektionsverfahren unter Nutzung eines Straßenoberflächen-Detektionsverfahrens | |
DE102009022278A1 (de) | Verfahren zur Ermittlung eines hindernisfreien Raums | |
WO2004049000A1 (de) | Verfahren zur erfassung der vorausliegenden umgebung eines strassenfahrzeugs mittels eines umgebungserfassungssystems | |
DE102018129388A1 (de) | Erkennungsvorrichtung für die äussere umgebung von fahrzeugen | |
DE102016218852A1 (de) | Detektion von Objekten aus Bildern einer Kamera | |
DE112021005357T5 (de) | System und Verfahren zur Ausrichtung dreidimensionalen Scannens | |
DE102014212866A1 (de) | Verfahren zum Ermitteln eines Parkplatzes aus einer Anzahl von Messpunkten | |
DE102018121008A1 (de) | Kreuzverkehrserfassung unter verwendung von kameras | |
EP2707862B1 (de) | Abstandsbestimmung mittels eines kamerasensors | |
DE102021002798A1 (de) | Verfahren zur kamerabasierten Umgebungserfassung | |
EP3520023A1 (de) | Detektion und validierung von objekten aus sequentiellen bildern einer kamera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R120 | Application withdrawn or ip right abandoned |