DE102012200135A1 - Verfahren zu bildbasierenden Detektionen von Objekten - Google Patents

Verfahren zu bildbasierenden Detektionen von Objekten Download PDF

Info

Publication number
DE102012200135A1
DE102012200135A1 DE102012200135A DE102012200135A DE102012200135A1 DE 102012200135 A1 DE102012200135 A1 DE 102012200135A1 DE 102012200135 A DE102012200135 A DE 102012200135A DE 102012200135 A DE102012200135 A DE 102012200135A DE 102012200135 A1 DE102012200135 A1 DE 102012200135A1
Authority
DE
Germany
Prior art keywords
cameras
camera
data
vehicle
vehicle environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102012200135A
Other languages
English (en)
Inventor
Tobias Ehlgen
Leo Vepa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102012200135A priority Critical patent/DE102012200135A1/de
Priority to PCT/EP2012/074647 priority patent/WO2013102529A1/de
Publication of DE102012200135A1 publication Critical patent/DE102012200135A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

Die Erfindung bezieht sich auf ein Verfahren zur Überwachung eines Fahrzeugumfeldes (10) mit mindestens zwei Kameras (34, 38), insbesondere mit mindestens zwei Monokameras (34, 38). Zunächst erfolgt eine Erfassung von Objekten oder eines Objektes (12, 14, 48), welche sich im Fahrzeugumfeld (10) befinden. Anschließend wird eine Korrelation von Objektdaten vorgenommen, in der die Objektdaten, die eine der mindestens zwei Kameras (34, 38) aufnimmt mit Objektdaten ein und desselben Objektes (12, 14, 48), welche die andere der mindestens zwei Kameras (34) aufnimmt, korreliert. Schließlich werden die Aufnahmezeitpunkte der mindestens zwei Kamerabilder der mindestens zwei Kameras (34, 38) ermittelt und es erfolgt die Vornahme einer Ebenenschätzung, in der sich das Objekt (12, 14, 48) bewegt.

Description

  • Stand der Technik
  • Die Erfindung bezieht sich auf ein Verfahren zur Verbesserung bildbasierter Detektionen von Objekten sowie von deren Dimensionieren durch die Fusion von Daten multipler Kameras mit unterschiedlichen Blickwinkeln, auf ein dieses Verfahren implementierendes Computerprogramm sowie auf eine Vorrichtung, insbesondere ein Fahrerassistenzsystem, bei der dieses Verfahren implementierbar ist.
  • DE 101 31 196 A1 offenbart eine Vorrichtung zur Detektion von Gegenständen oder dergleichen, die sich im Umfeld eines Fahrzeugs befinden. Eine Bildaufzeichnungseinheit umfasst wenigstens zwei Bildsensoren, wobei die optischen Achsen der Bildsensoren relativ zueinander und/oder relativ zum Fahrzeug veränderbar ausgerichtet werden können. Entsprechend der Ausrichtung der optischen Achsen in Bezug zueinander kann der Überlappungsbereich der Erfassungsbereiche der einzelnen Sensoren vergrößert oder im anderen Falle verkleinert werden. In den Bildpaaren werden korrespondierende Bildbereiche in den beiden aus geringfügig unterschiedlichen Blickwinkeln aufgenommenen Bildern gesucht. Für die korrespondierenden Bildbereiche erstellt die Auswerteeinheit entsprechend der Ausrichtung der optischen Achsen eine dreidimensionale Geometrie. Der Überlagerungsbereich definiert die Stereoerfassung der aufgenommenen Szenen und die übrigen Abschnitte der Bilderfassungsbereiche bzw. außerhalb des Überlappungsbereiches definieren die Monoerfassung der aufgenommenen Szene.
  • DE 196 40 938 A1 offenbart eine Anordnung zur Überwachung von Verkehrsflächen mit Hilfe von Videokameras, wobei jeweils zwei Videokameras gleichzeitig einen überlappten Bildausschnitt beobachten. Durch die Auswertung der Bildinformationen von überlappenden Bildausschnitten zweier Kameras, ist eine wesentlich robustere Verkehrsmessung möglich. Bei Verwendung von zwei Kameras kann unterschieden werden, ob Grauwertänderungen auf einer Fläche in der beobachteten dreidimensionalen Szene auf Objekten oberhalb der Fläche oder auf virtuellen Objekten in der Fläche, wie beispielsweise Schatten, oder auf virtuelle Objekte unter der Fläche, so zum Beispiel Spiegelungen zurückzuführen sind. Für die Anwendung dieses Verfahrens nehmen mindestens zwei Videokameras zeitgleich Bilder auf. Derart zeitgleich und einander überlappend aufgenommene Bilder bilden die Grundlage für die stereoskopische Erfassung des Verkehrsgeschehens. Durch die Anwendung von stereoskopischen Algorithmen werden virtuelle Objekte aus den Bildern getrennt und es kann eine räumliche Objektvermessung vorgenommen werden.
  • DE 197 44 694 A1 offenbart eine Videobewegungsmeldeeinrichtung zur Überwachung einer Gesamtfläche, wobei diese Einrichtung zueinander beabstandet angeordnete Videokameras für unterschiedliche Flächenbereich der Gesamtfläche umfasst. Eine dreidimensionale Auswertung der überwachten Flächen wird dadurch erreicht, dass eine Videoüberwachung der großen Fläche mit mehreren Videokameras erfolgt, die derart angeordnet sind, dass sich ihre Blick- bzw. Erfassungsbereiche teilweise überschneiden. Für diese Schnittbereiche liegen demnach Bildinformationen von zumindest zwei Videokameras aus unterschiedlichen Blickwinkeln vor, die eine dreidimensionale Auswertung ermöglichen.
  • Eine bildbasierte Detektion von Objekten sowie von deren Dimensionen wird meist auf Bildern einer einzelnen Kamera bzw. mit einer Stereokamera mit sehr ähnlichen Sichtbereichen (Field of Views) durchgeführt. Dadurch können diese Objekte nur aus einem Blickwinkel bzw. aus einem Sichtbereich gesehen werden. Daraus wiederum folgt, dass aus den Bildern bestenfalls die Höhe und die Breite von der zur Kamera gerichteten Objektseite geschätzt werden kann.
  • Da nur ein Blickwinkel bzw. bei Stereokamerasystemen ähnliche Blickwinkel zum Objekt zur Verfügung stehen, lassen sich nicht alle Objektdimensionen wie die Höhe und die Breite und insbesondere die Tiefe schätzen. Falls sich die Objekte in einer verdrehten Lage zur Kamera befinden, lassen sich die Objekte schlechter detektieren und die schätzbaren Dimensionen wie Höhe und Breite können sehr stark fehlerbehaftet sein.
  • Darstellung der Erfindung
  • Erfindungsgemäß wird vorgeschlagen, mehrere Kameras, die in unterschiedlichen Blickwinkeln auf die Szenerie angeordnet sind, einzusetzen, so dass sich auch zur Kamera verdreht erscheinende Objekte und deren Dimensionen robuster schätzen lassen, wobei insbesondere von Vorteil ist, dass sich derartige Objekte im gemeinsamen Sichtbereich von mehreren Kameras befinden.
  • Da die Objektdetektion und die Dimensionsschätzung mittels mehrerer Kameras durchgeführt wird, die in bekannten Positionen am Fahrzeug verbaut sind, so zum Beispiel Frontkameras, Seitenkameras und Heckkameras, können bei mehreren Kameras bei gemeinsamen Überlappungsbereichen unterschiedliche Blickwinkel realisiert werden. Damit ist ein und dasselbe Objekt aus unterschiedlichen Blickwinkeln sichtbar. Somit lässt sich das Objekt, insbesondere dessen dreidimensionale Ausbildung, wesentlich robuster bestimmen und die Objektdimensionen, insbesondere sei hier die Objekttiefe hervorgehoben, können besser geschätzt werden.
  • Auch andere aus Bildern bzw. aus Videos gewonnene Informationen, so zum Beispiel die Objektgeschwindigkeit, man denke nur an einen rollenden Ball und die Richtung, in die sich das Objekt bewegt, können durch die Verwendung mehrerer Kameras mit unterschiedlichen Blickwinkeln erheblich verbessert werden. Anstelle von Kameras könnten auch Sensoriken wie zum Beispiel Radar, Lidar oder Ultraschall eingesetzt werden.
  • Das erfindungsgemäß vorgeschlagene Verfahren lässt sich insbesondere besonders einfach an Fahrzeugen einsetzen bzw. nachrüsten oder verwirklichen, die ein Surround View System oder ein Area View System, ein Top View oder ein Bird’s Eye View aufweisen. Derartige Fahrzeuge sind meist mit vier Kameras an der Fahrzeugfront, am Fahrzeugheck und auf den beiden Außenspiegeln ausgestattet. Somit kann das erfindungsgemäß vorgeschlagene System unter Rückgriff auf derartige Kamera zu einer Verbesserung einer dreidimensionalen Wiedergabe von in den Fahrschlauch eindringenden Objekten für ein Fahrassistenzsystem ausgenutzt werden.
  • Vorteile der Erfindung
  • Durch den Einsatz des erfindungsgemäß vorgeschlagenen Verfahrens können Objekte robuster detektiert werden, da mehr Bilddaten für die jeweiligen Objekte zur Verfügung stehen, wenn diese mit einer Anzahl von Kameras, so zum Beispiel zwei oder drei Kameras aus bekannten Einbauorten am Fahrzeug detektiert werden. Durch die unterschiedlichen Objektansichten lassen sich die Objektdimensionen hinsichtlich Höhe, Breite und Tiefe wesentlich besser schätzen.
  • Damit können aus dem Umfeld des Fahrzeuges mehr Informationen gewonnen werden, wodurch sich wiederum bessere Modellannahmen für das Umfeld treffen lassen, so dass das Fahrassistenzsystem, bei Implementierung des erfindungsgemäß vorgeschlagenen Verfahrens, eine verbesserte Gefahreneinschätzung oder eine wesentlich verbesserte Ausweichstrategie zur Folge hat.
  • Kurze Beschreibung der Zeichnungen
  • Anhand der Zeichnung wird die Erfindung nachstehend eingehender beschrieben.
  • Es zeigt:
  • 1 eine sich vor einem Fahrzeug abspielende Szenerie, aufgenommen mit einer Monokamera und
  • 2 eine Darstellung sich teilweise überlappender Erfassungsbereich zweier an verschiedenen Orten am Fahrzeug angeordneter Monokameras, die gleichzeitig ein dreidimensionales Objekt erfassen.
  • Ausführungsvarianten
  • 1 zeigt eine Szenerie, die sich vor einem Fahrzeug in dessen Fahrzeugumfeld abspielt, aufgenommen durch eine Monokamera, welche im vorderen Bereich des Fahrzeugs angeordnet ist.
  • Bei der Darstellung gemäß 1 ist eine Umgebung eines in 1 nicht dargestellten Fahrzeugs, beispielsweise durch eine vor dem Fahrzeug liegende Fahrbahn 10 gegeben. Seitlich der Fahrbahn 10 befindet sich ein Seitenstreifen 18, in dem einzelnen Parkbuchten erkennbar sind. Die Szenerie gemäß 1 zeigt eine Person 12, die die Fahrbahn betritt, sich in Bewegungsrichtung 16 fortbewegt und einem Gegenstand 14, der sich ebenfalls in Bewegungsrichtung 16 fortbewegt, hinterher eilt, so zum Beispiel ein plötzlich auf die Fahrbahn 10 laufendes Kind, welches einem auf die Fahrbahn gerollten Ball 14 nachläuft.
  • Sowohl die Person 12 als auch der Gegenstand 14 sind durch einen ersten Bildausschnitt als 2D-Bild sowie einen zweiten Bildausschnitt 24 als 2D-Bild hervorgehoben. Des Weiteren ist anzumerken, dass sich bei der Darstellung gemäß 1 auf der Fahrbahn 10 am linken Rand abgestellte Fahrzeuge 20 befinden, die jedoch lediglich im Hintergrund der in 1 dargestellten Szenerie angeordnet sind.
  • Der Darstellung gemäß 2 ist eine Draufsicht auf ein Fahrzeug 32 zu entnehmen. Wie 2 zeigt, umfasst das Fahrzeug 32 mindestens eine, beispielsweise in das Frontende eingelassene Frontkamera 34, deren Einbauort durch Bezugszeichen 36 angedeutet ist. Des Weiteren umfasst das in 2 dargestellte Fahrzeug 32 eine erste Seitenkamera 38. Der Einbauort der ersten Seitenkamer 38 ist beispielsweise der linke Außenspiegel 40 auf der Fahrerseite des Fahrzeugs 32.
  • Darüber hinaus kann das Fahrzeug 32 – wenngleich in der Darstellung gemäß 2 nicht eingezeichnet – im rechten Außenspiegel 40 eine weitere zweite Seitenkamera 42 umfassen. Darüber hinaus kann das Fahrzeug 32 mit einer Heckkamera 44 ausgestattet sein, welche sich beispielsweise am Oberen Rand der Heckscheibe befindet oder im Bereich des hinteren Schwellers, dort wo Ultraschallsensoren für ein Fahrassistenzsystem, heute üblicherweise zumindest eine Einparkhilfe, angeordnet sein können. Mit der Heckkamera 44, deren Einbauort mit Bezugszeichen 46 bezeichnet ist, lässt sich der hinter dem Fahrzeug liegende Bereich des Fahrzeugumfeldes 10 – hier gegeben durch die Fahrbahn 10 – überwachen, während die beiden in der Regel an der Unterseite oder an der Rückseite der Außenspiegel 40 angeordneten Seitenkameras 38 bzw. 42 den seitlichen Bereich des Fahrzeugs überwachen und beispielsweise so ausgerichtet sein können, dass die in den Außenspiegeln 40 untergebrachten Seitenkameras 38, 42, die senkrecht nach unten orientiert sind, d.h. die Oberseite des Fahrzeugumfeldes, im vorliegenden Falle der Fahrbahn 10 überwachen.
  • Der Darstellung gemäß 2 ist zu entnehmen, dass die Frontkamera 34 ein dreidimensionales Objekt 48 erfasst, welches ebenfalls von der im linken Außenspiegel 40 angeordneten ersten Seitenkamera 38 erfasst wird. Die Einbauorte beider Kameras, d.h. der Frontkamera 34 und der ersten Seitenkamera 38 am Fahrzeug 32 sind bekannt. Ebenso sind die Aufnahmezeitpunkte, mit der Bilder des dreidimensionalen Objektes 48 geschossen werden bekannt und können in einem Steuergerät beispielsweise für ein Surround View System, Area View System, Top View System oder Bird’s Eye View System verarbeitet werden. Ferner stehen die oben stehend aufgeführten Kameras, d.h. die Frontkamera 34, die ersten und zweiten Seitenkameras 38 bzw. 42 sowie die Heckkamera 44 in Verbindung mit dem Steuergerät des Surround View-, bzw. Area View-, bzw. Top View, bzw. Bird’s Eye View System in Verbindung.
  • Wie aus 2 hervorgeht, ist die Frontkamera 34 an der Vorderseite des Fahrzeugs 32 in einem ersten Blickwinkel 50 orientiert und erfasst mit ihrem Erfassungsbereich 54 das dreidimensionale Objekt 48. Gleichzeitig wird dieses dreidimensionale Objekt 48 von der im linken Außenspiegel 40 angeordneten ersten Seitenkamera 38 erfasst, welche in Bezug auf die Fahrzeuglängsachse in einem zweiten Blickwinkel 52 orientiert ist. Es ist festzuhalten, dass sich der erste Blickwinkel 50 der Frontkamera 34 aufgrund des anderen Einbauortes 36 am Fahrzeug 32 vom zweiten Blickwinkel 52 der ersten Seitenkamera 38, bezogen auf deren Einbau auf dem Außenspiegel 40 auf der Fahrerseite, signifikant unterscheidet. Beide Monokameras, d.h. die Frontkamera 34 und die erste Seitenkamera 38 erfassen gleichzeitig das dreidimensionale Objekt 48, welches sich links vorne vor dem Fahrzeug 32 befindet.
  • Das dreidimensionale Objekt 48 befindet sich gleichzeitig in einem Erfassungsbereich 54 der Frontkamera 34 sowie in einem Erfassungsbereich 36 der ersten Seitenkamera 38, welche im Außenspiegel 40 auf der Fahrerseite des Fahrzeugs 32 untergebracht ist. Beide Erfassungsbereiche, d.h. der Erfassungsbereich 54 der Frontkamera 34 und der Erfassungsbereich 56 der ersten Seitenkamera 38 überlappen einander, in 2 angedeutet durch einen Überlappungsbereich 58.
  • Wird das dreidimensionale Objekt 48 von der Frontkamera 34 und der ersten Seitenkamera 38 gleichzeitig erfasst, so werden jeweils von den beiden Monokameras 34 und 38 aufgenommene Bilder an einer Steuereinheit des Fahrassistenzsystems übermittelt. Es erfolgt eine Verarbeitung der von den Monokameras 34 bzw. 38 aufgenommenen Bilder, wobei für den Fall, dass das Objekt 48 von der ersten Seitenkamera 38 beispielsweise entdeckt wird, dessen Objektdaten mit den Objektdaten der anderen Kamera, im vorliegenden Falle der Frontkamera 34 korreliert werden können, ohne eine aufwändige Stereoberechnung durchführen zu müssen. Durch die unterschiedlichen Blickwinkel erhält die Steuereinheit mehr Informationen über das dreidimensionale Objekt 48. Die Einbaupositionen der Kameras, d.h. der Einbauort 36 der Frontkamera 34 ist im System ebenso bekannt, wie der Einbauort der ersten Seitenkamera 38, nämlich im Außenspiegel auf der Fahrerseite des Fahrzeugs 32. Da die Aufnahmezeitpunkte der von den beiden Monokameras 34, 38 gelieferten Bilder ebenso bekannt sind, kann eine Ebenenschätzung erfolgen um das gleichzeitig von beiden Kameras 34, 38 detektierte dreidimensionale Objekt zeitlich und örtlich miteinander zu korrelieren. Die in verschiedenen Blickwinkeln 50 bzw. 52 orientierten Kameras lassen sich Informationen halten, aus denen sich eine Aussage über eine geschätzte Tiefe 62 des dreidimensionalen Objektes 48 bzw. hinsichtlich von dessen Breite 60 mit einer größeren Aussagekräftigkeit herleiten lassen, im Vergleich zu einer Aufnahme einer Szenerie vor dem Fahrzeug 32 mit lediglich einer Monokamera.
  • Da die Lage der Kameras bzw. deren Einbauorte im Fahrzeug 32 bekannt sind, vergleiche Einbauort 36 der Frontkamera 34, Einbauorte der ersten und zweiten Seitenkameras 38, 42 in den Außenspiegel 40 sowie ein Einbauort 46 der Heckkamera 44, kann bei einem derartigen Multikamerasystem möglicherweise nur bedingt eine Stereoberechnung erfolgen, da die beiden Seitenkameras 38 bzw. 42 in den Außenspiegeln 40 in der Regel nach unten orientiert sind und somit trotz 180° Optik oft einen anderen Blickwinkel aufweisen. Hier besteht die Möglichkeit, dass keine Korrelation für eine Stereoberechnung möglich ist, was zu einer Nachverarbeitung, wie oben stehend skizziert, führt, um einen Mehrgewinn zu erreichen.
  • Durch die Verwendung mindestens zweier Kameras im vorliegenden Falle zumindest der Frontkamera 34 und der ersten Seitenkamera 38 an dem Fahrzeug 32, und deren Anordnung mit unterschiedlichem Blickwinkel 50 bzw. 52 wie in Zusammenhang in 2 erklärt, lassen sich auch zu den Monokameras 34, 38 verdrehte Objekte 48 robuster schätzen, ebenso wie deren Dimensionen bezüglich auf die Breite 60 bzw. die Tiefe 62, welche zur räumlichen Erfassung eines dreidimensionalen Objektes 48 für das menschliche Wahrnehmungsvermögen unerlässlich ist. Die Objektdetektion und Schätzung der Dimension findet dem erfindungsgemäß vorgeschlagenen Verfahren folgend auf mehreren Kameras 34, 38 mit einem gemeinsamen Überlappungsbereich 58 statt, jedoch unter unterschiedlichen Blickwinkeln 50 bzw. 52. Dadurch ist ein und dasselbe dreidimensionale Objekt 48 aus den unterschiedlichen Blickwinkeln 50 bzw. 52 der beiden Monokameras 34, 38, wie in 2 dargestellt, sichtbar. Daraus wiederum lässt sich das dreidimensionale Objekt 48 robuster bestimmen, ferner die Objektdimensionen, wobei hier insbesondere die Tiefe 62 des dreidimensionalen Objektes 48 hervorzuheben ist.
  • Auch andere, aus den Bildern der beiden Monokameras 34, 38 gewonnen Informationen, zum Beispiel die Bewegungsgeschwindigkeit bzw. die Bewegungsrichtung 16 des dreidimensionalen Objektes, lassen sich durch Verwendung mehrerer Kameras 34, 38, wobei es sich um mindestens zwei handeln sollte, die in unterschiedlichen Blickwinkeln 50 bzw. 52 angeordnet sind, verbessern.
  • Bei Fahrzeugen 32, die ein Surround View System, welches auch als Area View System bezeichnet werden kann, ein Top View System oder ein Bird’s Eye View System umfassen, sind meist – wie in 2 angedeutet – mehrere Kameras, vergleiche die Frontkamera 34, die erste Seitenkamera 38 und die zweite Seitenkamera 42 sowie die Heckkamera 44 vorhanden und so besteht in vorteilhafter Weise die Möglichkeit, die Kameraumgebung bei einem derartig ausgestatteten Fahrzeug 32 zur Implementierung des erfindungsgemäß vorgeschlagenen Verfahrens auszunutzen. Durch den Einsatz des erfindungsgemäß vorgeschlagenen Verfahrens werden dreidimensionale Objekte 48 robuster detektiert, da Mehrbilddaten des dreidimensionalen Objektes 48 zur Verfügung stehen. Durch die unterschiedlichen Objektansichten ein und desselben dreidimensionalen Objektes 48, aufgenommen durch die mindestens zwei unterschiedliche Erfassungsbereiche 54, 56 abtastende Kameras 34, 36, lassen sich die Dimensionen des dreidimensionalen Objektes wesentlich besser schätzen. Somit werden mehr Informationen über das Fahrzeugumfeld 10 gewonnen, wodurch sich eine bessere Modellannahme für das Umfeld treffen lässt, was zum Beispiel in Fahrassistenzsystemen zu einer verbesserten Gefahreneinschätzung sowie der Verbesserung von Ausweichstrategien genutzt werden kann.
  • Die Erfindung bezieht sich des Weiteren auf ein Computerprogramm, mit welchem das erfindungsgemäß vorgeschlagene Verfahren auf einer programmierbaren Computereinrichtung ausgeführt werden kann. Des Weiteren hat die vorliegende Erfindung ein Fahrassistenzsystem zum Gegenstand, welches bereits am Fahrzeug verbaute Komponenten in Gestalt der Frontkamera 34, der ersten Seitenkamera 38, der zweiten Seitenkamera 42 sowie der Heckkamera 44 nutzt. Die besagten Kameras sind mit einem Steuergerät des Fahrassistenzsystems verbunden, so dass die von den einzelnen Monokameras aufgenommenen Bilder an die Steuereinheit zur weiteren Bildverarbeitung übertragen werden können. Des Weiteren sind der Steuereinheit des Fahrassistenzsystems die Aufnahmezeitpunkte der Monokameras 34, 38, 42, 44 bekannt sowie deren Einbauorte sowie deren unterschiedliche Blinkwinkel, vergleiche Bezugszeichen 50 bzw. 52 in der Darstellung gemäß 2, bei der es sich um eine Wiedergabe aus der Vogelperspektive handelt. Ausgehend von den bekannten Einbauorten der Kameras 34, 38, 42, 44, in unterschiedlichen Blickwinkeln 50 bzw. 52 der mindestens zwei Monokameras, hier der Frontkamera 34 in Bezug auf das Fahrzeug 32 sowie der ersten Seitenkamera 38 in Bezug auf die Längsachse des Fahrzeugs 32, können aus den aufgenommenen Aufnahmen Informationen hinsichtlich der Objektgeschwindigkeit und der Bewegungsrichtung des dreidimensionalen Objektes 48 geschlossen werden. Handelt es sich dabei beispielsweise um ein Kind, welches einem auf die Fahrbahn 10 gelangten Ball hinterherläuft, sind die Bewegungsrichtungen von Ball und Kind bekannt, so dass eine Ausweichstrategie – vergleiche in 1 dargestellte Szenerie – in Richtung auf den hier freien Seitenstreifen 18 erfolgen könnte, in dem keine Fahrzeuge 20 abgestellt sind, so dass ein Ausweichen ohne weiteres möglich wäre.
  • Die Erfindung ist nicht auf die hier beschriebenen Ausführungsbeispiele und die darin hervorgehobenen Aspekte beschränkt. Vielmehr ist innerhalb des durch die anhängigen Ansprüche angegebenen Bereiches eine Vielzahl von Abwandlungen möglich, die im Rahmen technischen Handelns liegen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10131196 A1 [0002]
    • DE 19640938 A1 [0003]
    • DE 19744694 A1 [0004]

Claims (10)

  1. Verfahren zur Überwachung eines Fahrzeugumfeldes (10) mit mindestens zwei Kameras (34, 38), insbesondere Monokameras (34, 38), mit nachfolgenden Verfahrensschritten: a) Erfassen von Objekten (12, 14, 48), die sich im Fahrzeugumfeld (10) befinden, b) Korrelieren von Objektdaten, die eine der mindestens zwei Kameras (34, 38) aufnimmt mit Objektdaten ein und desselben Objektes (12, 14, 48), welche die andere der mindestens zwei Kameras (34, 38) aufnimmt, c) Ermittlung der Aufnahmezeitpunkte der von den mindestens zwei Kameras (34, 38) gelieferten Bildern und Vornahme einer Ebenenschätzung, in der sich das Objekt (12, 14, 48) bewegt.
  2. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, dass die Aufnahmezeitpunkte der Bilder der mindestens zwei Kameras (34, 38) und die Ebenenschätzung zur zeitlichen und örtlichen Korrelation der Daten des Objektes (12, 14, 48) herangezogen werden.
  3. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, dass aus der zeitlichen und örtlichen Korrelation der Daten des Objektes (12, 14, 48) eine Breite (60) und eine Tiefe (62) des Objektes (12, 14, 48) geschätzt werden.
  4. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Objekt (12, 14, 48) von den mindestens zwei Kameras (34, 38) mit unterschiedlichen Blickwinkeln (50, 52) erfasst wird.
  5. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Bewegungsrichtung (16) und eine Bewegungsgeschwindigkeit des Objektes (12, 14, 48) bestimmt werden.
  6. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aus den von den mindestens zwei Kameras (34, 38) gelieferten Bildern eine Bild-Nachverarbeitung unter Einschluss einer Stereoberechnung erfolgt.
  7. Computerprogramm zur Durchführung eines Verfahrens gemäß einem der vorhergehenden Ansprüche, wenn das Computerprogramm auf einer programmierbaren Computereinrichtung ausgeführt wird.
  8. Fahrassistenzsystem zum Überwachen eines Fahrzeugumfeldes (10) mit mindestens zwei Kameras (34, 38), insbesondere Monokameras (34, 38), die ein sich im Fahrzeugumfeld befindendes Objekt (12, 14, 48) erfassen, dadurch gekennzeichnet, dass eine Komponente vorgesehen ist, die Objektdaten, die mindestens eine der mindestens zwei Kameras (34, 38) aufnimmt mit Objektdaten ein und desselben Objektes (12, 14, 48), welche die andere der mindestens zwei Kameras (34, 38) aufnimmt, korreliert.
  9. Fahrassistenzsystem gemäß dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die Komponente zur Korrelation der Objektdaten des Objektes (12, 14, 48) eine Breite (60) und eine Tiefe (62) des Objektes (12, 14, 48) bestimmbar macht.
  10. Fahrassistenzsystem gemäß den beiden vorhergehenden Ansprüchen, dadurch gekennzeichnet, dass die Komponente zur Korrelation der Objektdaten des Objektes (12, 14, 48) mit einer Frontkamera (34), einer ersten und einer zweiten Seitenkamera (38, 42) und einer Heckkamera (44) eines Surround View Systems oder eines Bird’s Eye View Systems Daten austauscht.
DE102012200135A 2012-01-05 2012-01-05 Verfahren zu bildbasierenden Detektionen von Objekten Pending DE102012200135A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102012200135A DE102012200135A1 (de) 2012-01-05 2012-01-05 Verfahren zu bildbasierenden Detektionen von Objekten
PCT/EP2012/074647 WO2013102529A1 (de) 2012-01-05 2012-12-06 Verfahren zur bildbasierten detektion von objekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012200135A DE102012200135A1 (de) 2012-01-05 2012-01-05 Verfahren zu bildbasierenden Detektionen von Objekten

Publications (1)

Publication Number Publication Date
DE102012200135A1 true DE102012200135A1 (de) 2013-07-11

Family

ID=47594613

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012200135A Pending DE102012200135A1 (de) 2012-01-05 2012-01-05 Verfahren zu bildbasierenden Detektionen von Objekten

Country Status (2)

Country Link
DE (1) DE102012200135A1 (de)
WO (1) WO2013102529A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016117518A1 (de) 2016-09-16 2018-03-22 Connaught Electronics Ltd. Angepasstes Zusammenfügen von Einzelbildern zu einem Gesamtbild in einem Kamerasystem für ein Kraftfahrzeug

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19640938A1 (de) 1996-10-04 1998-04-09 Bosch Gmbh Robert Anordnung und Verfahren zur Überwachung von Verkehrsflächen
DE19744694A1 (de) 1997-10-10 1999-04-15 Bosch Gmbh Robert Videobewegungsmeldeeinrichtung
DE10131196A1 (de) 2001-06-28 2003-01-16 Bosch Gmbh Robert Vorrichtung zur Detektion von Gegenständen, Personen oder dergleichen

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2893173B1 (fr) * 2005-11-10 2008-01-18 Valeo Vision Sa Procede d'evaluation, par un vehicule automobile, des caracteristiques d'un element frontal.
JP2010141836A (ja) * 2008-12-15 2010-06-24 Sanyo Electric Co Ltd 障害物検知装置
TW201022700A (en) * 2008-12-15 2010-06-16 Ind Tech Res Inst Localization and detecting system applying sensors, and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19640938A1 (de) 1996-10-04 1998-04-09 Bosch Gmbh Robert Anordnung und Verfahren zur Überwachung von Verkehrsflächen
DE19744694A1 (de) 1997-10-10 1999-04-15 Bosch Gmbh Robert Videobewegungsmeldeeinrichtung
DE10131196A1 (de) 2001-06-28 2003-01-16 Bosch Gmbh Robert Vorrichtung zur Detektion von Gegenständen, Personen oder dergleichen

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016117518A1 (de) 2016-09-16 2018-03-22 Connaught Electronics Ltd. Angepasstes Zusammenfügen von Einzelbildern zu einem Gesamtbild in einem Kamerasystem für ein Kraftfahrzeug

Also Published As

Publication number Publication date
WO2013102529A1 (de) 2013-07-11

Similar Documents

Publication Publication Date Title
DE102009009815B4 (de) Verfahren und Vorrichtung zur Erkennung von Parklücken
DE102006003538B3 (de) Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive
DE102012221563B4 (de) Funktionsdiagnose und validierung eines fahrzeugbasierten bildgebungssystems
DE102011080702B3 (de) Objekterfassungsvorrichtung für ein Fahrzeug, Fahrzeug mit einer derartigen Objekterfassungsvorrichtung
EP2623374A1 (de) Sichtsystem für Nutzfahrzeuge zur Darstellung von gesetzlich vorgeschriebenen Sichtfeldern eines Hauptspiegels und eines Weitwinkelspiegels
WO2015193158A1 (de) Fahrzeug mit umfeldüberwachungseinrichtung sowie verfahren zum betreiben einer solchen überwachungseinrichtung
DE102014205078A1 (de) System zur Betrachtung eines Bordsteines in einem vorderen Bereich auf Basis von zwei Kameras
DE102012112104A1 (de) Verfahren und vorrichtung zur befahrbarkeitsanalyse
EP2200881B1 (de) Verfahren zur schätzung der relativbewegung von video-objekten und fahrerassistenzsystem für kraftfahrzeuge
DE102014112797A1 (de) Fahrzeugaußenumgebungerkennungsvorrichtung
DE102012223481A1 (de) Vorrichtung und Verfahren zum Verfolgen der Position eines peripheren Fahrzeugs
DE102017108254B4 (de) Rundumsichtkamerasystem zur Objekterkennung und -verfolgung und Verfahren zum Ausstatten eines Fahrzeugs mit einem Rundumsichtkamerasystem
EP3167427A1 (de) Zusammenfügen von teilbildern zu einem abbild einer umgebung eines fortbewegungsmittels
DE102006060893A1 (de) Vorrichtung und Verfahren zum Bestimmen eines Freiraums vor einem Fahrzeug
DE102013012930A1 (de) Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug
DE102012023060A1 (de) Verfahren zum Detektieren eines beweglichen Objekts mithilfe eines Histogramms anhand von Bildern einer Kamera und Kamerasystem für ein Kraftfahrzeug
DE102018108751B4 (de) Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten
DE102011082477A1 (de) Verfahren und System zur Erstellung einer digitalen Abbildung eines Fahrzeugumfeldes
DE102013012778A1 (de) Verfahren zum Detektieren eines sich bewegenden Fußgängers anhand von charakteristischen Merkmalen und optischen Flussvektoren eines Bilds, Kamerasystem und Kraftfahrzeug
DE102009026091A1 (de) Verfahren und System zur Überwachung eines dreidimensionalen Raumbereichs mit mehreren Kameras
DE102010013093A1 (de) Verfahren und System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs
DE102011082881A1 (de) Darstellung der Umgebung eines Kraftfahrzeugs in einer bestimmten Ansicht unter Verwendung räumlicher Information
DE10049366A1 (de) Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System
EP3409541B1 (de) Vorrichtung zur fahrschlauchabsicherung
WO2012110654A1 (de) Verfahren zur auswertung einer mehrzahl zeitlich versetzter bilder, vorrichtung zur auswertung von bildern, überwachungssystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000