DE102014224762A1 - Verfahren und Vorrichtung zur Informationsgewinnung über ein Objekt in einem nicht einsehbaren, vorausliegenden Umfeldbereich eines Kraftfahrzeugs - Google Patents

Verfahren und Vorrichtung zur Informationsgewinnung über ein Objekt in einem nicht einsehbaren, vorausliegenden Umfeldbereich eines Kraftfahrzeugs Download PDF

Info

Publication number
DE102014224762A1
DE102014224762A1 DE102014224762.4A DE102014224762A DE102014224762A1 DE 102014224762 A1 DE102014224762 A1 DE 102014224762A1 DE 102014224762 A DE102014224762 A DE 102014224762A DE 102014224762 A1 DE102014224762 A1 DE 102014224762A1
Authority
DE
Germany
Prior art keywords
image
vehicle
motor vehicle
camera system
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102014224762.4A
Other languages
English (en)
Other versions
DE102014224762B4 (de
Inventor
Steffen Heinrich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102014224762.4A priority Critical patent/DE102014224762B4/de
Publication of DE102014224762A1 publication Critical patent/DE102014224762A1/de
Application granted granted Critical
Publication of DE102014224762B4 publication Critical patent/DE102014224762B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Ein Verfahren und eine Vorrichtung zur Gewinnung von Information über ein Objekt in einem nicht einsehbaren, vorausliegenden Umfeldbereich eines Kraftfahrzeugs mittels eines Kamerasystems des Kraftfahrzeugs, weist die folgenden Schritte auf: – Erzeugen zweier Bilder des vorausliegenden Umfeldes des Kraftfahrzeugs mittels des Kamerasystems, wobei ein Bild ungefiltert und das andere Bild polarisationsgefiltert aufgenommen wird, – Erzeugen eines Differenzbildes der beiden Bilder, und – Untersuchen des Differenzbildes auf Reflektionen des Objekts an reflektierenden Flächen im Blickfeld des Kamerasystems.

Description

  • Die Erfindung betrifft ein Verfahren zur kameragestützten Gewinnung von Information über ein Objekt in einem nicht einsehbaren, vorausliegenden Umfeldbereich eines Kraftfahrzeugs gemäß dem Oberbegriff des Anspruchs 1 sowie eine entsprechende Vorrichtung gemäß dem Oberbegriff des Anspruchs 7.
  • Für die Längsführung von Kraftfahrzeugen sind eine Reihe von den Fahrer unterstützenden Fahrerassistenzsystemen bekannt. Zu nennen ist hier beispielsweise das ACC (Adaptive Cruise Control), welches mittels einer geeigneten Sensorik den Bereich vor dem Fahrzeug in einem vorgegebenen Entfernungsbereich erfasst, um dort befindliche Objekte zu detektieren und deren Abstand, Geschwindigkeit und Winkellage in Bezug auf das eigene Fahrzeug zu bestimmen. Geeignete Auswerteverfahren bewerten dabei die Relevanz der detektierten Objekte bezüglich der eigenen Fahrspur, so dass auf der Grundlage der Auswertung des Sensorsignals der Folgeabstand des Kraftfahrzeugs zu einem vorausfahrenden Fahrzeug auf einen bestimmten Sollabstand geregelt wird.
  • Allerdings können große Fahrzeuge, wie beispielsweise Lastwagen, Kastenwagen oder SUVs, die Voraussicht sowohl für den Fahrer als auch für die Sensorik verdecken und nicht beobachtbare Bereiche insbesondere vor dem unmittelbar vorausfahrenden Fahrzeug für das wahrnehmende System erzeugen. Dies gilt sowohl für den mehrspurigen urbanen Verkehr als auch für den Autobahnverkehr. So ist es beispielsweise insbesondere im dichten Verkehr kurz vor einer Staubildung wünschenswert nicht nur das Fahrverhalten des unmittelbar vorausfahrenden Verkehrsteilnehmers zu kennen, sondern auch Informationen über das Fahrverhalten weiter vorne fahrender Verkehrsteilnehmer zu erhalten, die aufgrund der Verdeckung nicht unmittelbar von der Umfeldsensorik erfasst werden können.
  • Die Druckschrift DE 10 2007 035 026 A1 betrifft ein Fahrerassistenzsystem zur Unterstützung eines Fahrers eines Kraftfahrzeuges mit einem Radarsensor, welches in einem vom Fahrer einsehbaren Sichtfeld Radarstrahlen in eine Fahrtrichtung des Kraftfahrzeugs aussendet und von den ausgesendeten Radarstrahlen resultierende Rückstreusignale empfängt. Dabei ermittelt eine Auswerteeinheit aus den empfangenen Rückstreusignalen diejenigen, die sich einem Objekt zuordnen lassen, welches sich in einem vom Fahrer nicht einsehbaren Sichtfeld befindet. Mittels dieser Signale kann dem Fahrer ein Hinweis auf ein solches, in einem nicht einsehbaren Sichtfeld befindliches Objekt ausgegeben werden. Mit anderen Worten, die Erkennung von Objekten mittels der Radarsensorik ist nicht mehr allein auf den einsehbaren Bereich beschränkt, sondern mittels einer entsprechenden Auswertung der Sensordaten des Radarsensors ist sozusagen ein "Um-die-Ecke-schauen" möglich. Zur Unterscheidung der Rückstreusignale in einerseits unmittelbar an Objekten reflektierte Signale und andererseits Spiegelungen nicht sichtbarer Objekte an Zweitobjekten wie Leitplanken oder ähnlichem kann neben den Streusignalamplituden noch eine Auswertung eines optischen Bildes eines Videosensors herangezogen werden.
  • Allerdings ist bei dem bekannten Radarverfahren nur eine Aussage über das Vorhandensein oder Nichtvorhandensein eines Objekts in einem nicht einsehbaren Bereich möglich. Zwar ist unter Umständen aus der Beobachtung eine stark verrauschte Schätzung der Objektbeschleunigung möglich, jedoch können weitere Aussagen über das Objekt, wie beispielsweise sein Fahrvorhaben, nicht getroffen werden.
  • Der Erfindung liegt daher die Aufgabe zugrunde ein Verfahren und eine Vorrichtung zur Gewinnung von weiteren Informationen über ein Objekt in einem nicht einsehbaren, vorausliegenden Umfeldbereich eines Kraftfahrzeugs zu schaffen.
  • Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 sowie durch eine entsprechende Vorrichtung mit den Merkmalen des Anspruchs 7 gelöst. Bevorzugte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche.
  • Das erfindungsgemäße Verfahren zur Gewinnung von Information über ein Objekt in einem nicht einsehbaren, vorausliegenden Umfeldbereich eines Kraftfahrzeugs mittels eines Kamerasystems des Kraftfahrzeugs, weist die folgenden Schritte auf:
    • – Erzeugen zweier Bilder des vorausliegenden Umfeldes des Kraftfahrzeugs mittels des Kamerasystems, wobei ein Bild ungefiltert und das andere Bild polarisationsgefiltert aufgenommen wird,
    • – Erzeugen eines Differenzbildes der beiden Bilder, und
    • – Untersuchen des Differenzbildes auf Reflexionen des Objekts an reflektierenden Flächen im Blickfeld des Kamerasystems.
  • Durch die Ausnutzung der Informationen, die sich in Reflexionsflächen befinden und die durch die Differenzbildung zwischen einem ungefilterten Bild und einem polarisationsgefilterten Bild hervortreten, kann die fusionierte Wahrnehmung sozusagen "um die Ecke sehen". Als Reflexionsflächen kommen Schaufenster, Fahrzeugfenster, lackierte Seitenflächen des Fahrzeugs, Chromelemente eines Fahrzeugs, etc. in Betracht, die aufgrund der Polarisation der reflektierten Strahlung an derartigen Flächen vom Polarisationsfilter gefiltert werden, so dass die Reflexionen im Differenzbild zutage treten. Dabei können die beiden Bilder beispielsweise von zwei Sensoren aufgenommen werden, die baulich dicht aneinander grenzen, um eine hohe Überlappung der Pixelregionen zu erhalten oder die beiden Bilder werden von einem Sensor erzeugt, der zeitlich kurz nacheinander die beiden Bilder aufnimmt und zwar einmal ohne Filter und einmal mit Filter.
  • Vorzugsweise wird das Differenzbild als Textur auf die umliegenden Fahrzeuge im 3D-Raum gelegt. Auf diese Weise wird eine Entzerrung der reflektierten Information durchgeführt. Dazu kann für jedes umliegende Fahrzeug ein 3D-Modell erzeugt werden. Insbesondere kann ein vereinfachtes 3D-Modell verwendet werden.
  • Weiter bevorzugt werden die Fahrzeugrichtungen und/oder die Fahrzeugtypen der Fahrzeuge im Umfeld des Kraftfahrzeugs ermittelt und/oder es erfolgt eine Fahrzeugnachverfolgung der Fahrzeuge im Umfeld des Kraftfahrzeugs. Durch die bekannten Kamerapositionen lassen sich die Flächen der Kraftfahrzeug im Umfeld des Eigenfahrzeugs festlegen, die im 2D-Bild der Kameras gesehen werden. Ebenso kann die Reflexionsquelle im dreidimensionalen zurückgerechnet werden, wenn die Positionen und Ausrichtung des anderen Fahrzeugs bzw. der der anderen Fahrzeuge bekannt ist bzw. bekannt sind.
  • Vorzugsweise werden die ermittelten Reflexionen hinsichtlich Blinker, Bremslichter und/oder Warnblinker eines Objekts in dem nicht einsehbaren, vorausliegenden Umfeldbereich untersucht. Auf diese Weise kann eine Aussage über das zukünftige Verhalten des Objekts in dem Sinne gemacht werden, dass das unmittelbar vorausfahrende Fahrzeug eine Maßnahme einleiten wird, wenn das verdeckt vor diesem fahrende Fahrzeug Brems-, Blink- oder Warnblinksignale abgibt. Ferner können den ermittelten Reflexionen auch Infrastrukturinformationen entnommen werden, wie beispielsweise der Status einer Lichtsignalanlage, wobei in diesem Fall ist die Lichtsignalanlage das interessierende Objekt darstellt.
  • Weiter bevorzugt werden aus den Reflexionen die Position und die Orientierung des Objekts in dem nicht einsehbaren, vorausliegenden Umfeldbereich abgeleitet. Ist die Struktur der Reflexionsfläche bekannt, so kann nicht nur Kontextinformationen wie Bremsen, Blinken oder Warnblinken des verdeckt fahrenden Fahrzeugs ermittelt werden, sondern es können auch Aussagen über die Position und die Orientierung des Objekts bzw. des Fahrzeugs erfolgen.
  • Die erfindungsgemäße Vorrichtung zur Gewinnung von Information über ein Objekt in einem nicht einsehbaren, vorausliegenden Umfeldbereich eines Kraftfahrzeugs, wobei die Vorrichtung zu Durchführung des im vorangegangenen erläuterten Verfahrens eingerichtet und ausgelegt ist, umfasst ein Kamerasystem zur Beobachtung des vorausliegenden Umfelds und eine Auswerteeinrichtung zur Auswertung der Bilder des Kamerasystems. Dabei erzeugt das Kamerasystem sowohl ein ungefiltertes Bild der Umgebung als auch ein polarisationsgefiltertes Bild. Ferner weist die Auswerteeinrichtung eine Einrichtung zur Erzeugung eines Differenzbildes aus ungefiltertem und polarisationsgefiltertem Bild und eine Einrichtung zur Analyse des Differenzbildes auf.
  • Vorzugsweise weist das Kamerasystem zwei Kameras auf, wobei eine Kamera das ungefilterte Bild und die andere Kamera einen Polarisationsfilter zur Erzeugung des gefilterten Bildes aufweist. Dabei sollten die beiden Kameras in enger räumlicher Nähe angeordnet sein, um eine hohe Überlappung der Pixelregionen zu gewährleisten.
  • Weiter bevorzugt weist das Kamerasystem eine Kamera auf, die alternierend gefilterte und ungefilterte Bilder aufnimmt. Die Aufnahmefrequenz muss dabei so gewählt sein, dass die beiden Bilder in einem ausreichend kurzen zeitlichen Abstand voneinander aufgenommen werden, so dass die Eigengeschwindigkeit des Fahrzeugs keine Rolle spielt.
  • Vorzugsweise weist die Einrichtung zur Analyse des Differenzbildes eine Einrichtung zur Entzerrung der reflektierten Informationen auf.
  • Weiter bevorzugt weist die Vorrichtung eine Einrichtung zur Klassifizierung und Nachverfolgung der Fahrzeuge im Umfeld des Kraftfahrzeugs auf.
  • Weiter bevorzugt weist die Vorrichtung eine Einrichtung zur Darstellung von im Umfeld erkannter Fahrzeuge als 3D-Modell auf, so dass das Differenzbild als Textur auf die umliegenden Fahrzeuge in 3D-Raum gelegt wird. Auf diese Weise können Verzerrungen beseitigt werden.
  • Eine bevorzugte Ausführungsform der Erfindung wird nachfolgend anhand der Zeichnungen näher erläutert. Dabei zeigt
  • 1 ein Beispiel einer Fahrsituationen in schematischer Darstellung,
  • 2 ein Beispiel eines Staus auf einer zweispurigen Autobahn,
  • 3 das Differenzbild der 2 mit Markierung der interessierenden Reflexionen, und
  • 4 eine schematische Darstellung einer Vorrichtung zur Gewinnung von Informationen über ein verdeckt vorausfahrendes Fahrzeug.
  • 1 zeigt eine typische Fahrsituation auf einer zweispurigen Fahrbahn 6, wobei sich unmittelbar vor einem Eigenfahrzeug A ein vorausfahrendes Fahrzeug B befindet. Vor dem unmittelbar vorausfahrenden Fahrzeug B befindet sich ein weiteres Fahrzeug D, welches für das Eigenfahrzeug A verdeckt ist. Ferner fährt seitlich versetzt vom Eigenfahrzeug A auf der Nachbarspur der Fahrbahn 6 ein weiteres vorausfahrendes Fahrzeug C. In der rechten Seitenfläche des auf der Nachbarspur befindlichen Fahrzeugs C spiegeln sich die Heckleuchten 2, 3 des verdeckt vorausfahrenden Fahrzeugs D, was durch die beiden Strahlengänge 4, 5 angedeutet ist. Das Eigenfahrzeug A ist mit einem vorausschauenden Kamerasystem (nicht dargestellt) zur Umfelderfassung ausgestattet, welches zumindest eine Monokamera ohne Polarisationsfilter und eine weitere Monokamera mit Polarisationsfilter aufweist. Das Kamerasystem des Eigenfahrzeug A weist das in der 1 dargestellte Kamera-Sichtfeld 1 auf, so dass das unmittelbar vorausfahrende Fahrzeug B sowie zumindest teilweise das seitlich auf der Nachbarspur fahrende Fahrzeug C vom Kamera-Sichtfeld 1 erfasst wird. Wie in 1 schematisch dargestellt ist, erfasst das Kamera-Sichtfeld 1 ebenfalls die auf der rechten Seitenfläche des seitlichen Fahrzeugs C auftretenden Reflektionen bzw. Spiegelungen 4, 5 der Rückleuchten 2, 3 des verdeckt vorausfahrenden Fahrzeugs D.
  • 2 zeigt ein Bild eines Staus auf einer mehrspurigen Fahrbahn 6, wobei das Eigenfahrzeug A (nicht dargestellt) auf der mittleren Fahrspur unmittelbar hinter dem vorausfahrenden Fahrzeug B fährt, welches sich im direkten Blickfeld des Kamerasystems des Eigenfahrzeugs A befindet. Auf der linken Nachbarspur der Fahrbahn 6 ist das seitlich versetzte Fahrzeug C der 1 zu erkennen, welches sich ebenfalls im Blickfeld des Kamerasystems des Eigenfahrzeugs A befindet. Umrandet ist die reflektierende rechte Seite 7 des seitlich versetzten Fahrzeugs C dargestellt, auf der ein Spiegelbild 8 des verdeckten Fahrzeugs D der 1 zu erkennen ist, das sich vor dem Fahrzeug B befindet.
  • In 3 ist das Differenzbild der in 2 dargestellten Verkehrssituation wiedergegeben, wobei das Kamerasystem des Eigenfahrzeug A ein ungefiltertes Umgebungsbild und ein polarisationsgefiltertes Umgebungsbild erzeugt, beispielsweise indem das Kamerasystem zumindest eine Monokamera ohne Polarisationsfilter und eine Monokamera mit Polarisationsfilter aufweist. Da der Abstand der beiden Kameras voneinander bekannt ist, lässt sich unter Berücksichtigung dieses Abstands ein pixelgenaues Differenzbild zwischen dem ungefilterten und dem polarisationsgefilterten Bildern der beiden Kameras erstellen. Dies führt, wie in 3 erkennbar, zu einem Auslöschen des Hintergrundes, so dass in der Differenz der durch den Polarisationsfilter entfernte polarisierte Anteil hervorgehoben verbleibt, der seinen physikalischen Grund im wesentlichen in der Reflektion unpolarisierter Strahlung an reflektierenden Oberflächen hat. Daher tritt im reflektierenden Seitenbereich 7 des seitlich versetzt angeordneten Fahrzeugs C das Spiegelbild 8 des vor dem Fahrzeug B befindlichen, verdeckt vorausfahrenden Fahrzeugs D im Differenzbild der 3 deutlich hervor, so dass insbesondere die Bremsleuchten 2, 3 deutlich wahrnehmbar sind. Ein im Eigenfahrzeug A befindliches Fahrerassistenzsystem, wie beispielsweise ein ACC, könnte daher auf die Bremsleuchten 2, 3 des verdeckt vorausfahrenden Fahrzeugs D reagieren, bevor das unmittelbar vorausfahrende Fahrzeug B bremst. Ferner können Blinker bzw. Warnblinker des verdeckt vorausfahrenden Fahrzeugs erkannt werden, wodurch eine Aussage über eine zukünftige Reaktion des unmittelbar vorausfahrenden Fahrzeugs B möglich ist. Zur besseren Erkennbarkeit der Situation sind in 3 die Konturen der Fahrzeuge B und C sowie die Fahrbahnmarkierung gestrichelt dargestellt, obwohl diese in dem Differenzbild tatsächlich nicht vorhanden sind.
  • Zur Entzerrung des Differenzbildes wird dieses als Textur auf die umliegenden Fahrzeuge im 3D-Raum gelegt, wobei für jedes Fahrzeug ein vereinfachtes 3D-Modell angenommen wird. Dies führt zur Entzerrung der reflektierten Informationen. Durch die bekannten Kamerapositionen lassen sich die Flächen im Raum festlegen, die im 2D-Bild der Kameras gesehen werden können. Ebenso kann die Reflexionsquelle im dreidimensionalen zurückgerechnet werden, wenn die Position und die Ausrichtung der anderen Fahrzeuge bekannt ist. Zur Bestimmung der Fahrzeugausrichtung sowie zur Klassifikation der Fahrzeugtypen sind entsprechende Algorithmen bekannt. Ebenso existieren Algorithmen zum sogenannten Objekt-Tracking im Fahrzeugumfeld, dem Beobachten und Nachverfolgen von Fahrzeugen durch eine entsprechende Sensorik.
  • 4 zeigt eine Vorrichtung zur Ermittlung von Informationen über Objekte im nicht einsehbaren, vorausliegenden Bereich des Umfeldes eines Kraftfahrzeugs. Dabei umfasst die Vorrichtung ein Kamerasystem 10 umfassend eine Monokamera 11 sowie eine weitere Monokamera 12, der ein Polarisationsfilter 13 vorgeordnet ist. Die beiden Videokameras 11, 12 erzeugen jeweils Bilder des vorausliegenden Umfeldes des Kraftfahrzeugs, wobei jedes Bild einer Kamera einer entsprechenden Bildverarbeitung bzw. Bildbearbeitung 14, 15 zugeführt wird. In den Bildbearbeitungen 14, 15 können beispielsweise die Bilder so berechnet werden, dass der Positionsunterschied der beiden Kameras 11, 12 eliminiert wird, so dass eine koordinatenmäßige Identität der beiderseitigen Pixel besteht. Ferner können die Bildbearbeitungen 14, 15 weitere Aufgaben, wie beispielsweise das Objekt-Tracking oder die Klassifizierung und Typisierung der Fahrzeuge im Umfeld des Eigenfahrzeugs, übernehmen.
  • Die in ihrer Position korrigierten Bilder der beiden Kameras 11, 12 werden einer Differenzbildung 16 zugeführt, die das Differenzbild des ungefilterten Bildes und des polarisationsgefilterten Bildes berechnet. In einer Auswerteeinheit 17 wird das von der Differenzbildung 16 erzeugte Differenzbild analysiert und hinsichtlich der Informationen, die sich in Reflexionsflächen befinden, untersucht. Ferner kann das Differenzbild der beiden Kamerasysteme als Textur auf die umliegenden Fahrzeuge im 3D-Raum gelegt werden, wobei für jedes Fahrzeug im Umfeld des Eigenfahrzeuges ein vereinfachtes 3D-Modell angenommen wird. Aufgrund des Objekt-Trackings und der Typ-Klassifizierung der Fahrzeuge im Umfeld des eigenen Fahrzeuges wird ein entsprechendes 3D-Modell gewählt, um Fahrzeuge mit Reflektionsflächen zu beschreiben. Ergibt beispielsweise die Klassifizierung, dass das benachbarte Fahrzeug ein Kombi, eine Limousine oder ein SUV ist, so wird ein entsprechendes 3D-Modell verwendet, um das Differenzbild auf eine entsprechende Fläche des Modells zu projizieren.
  • Bezugszeichenliste
  • A
    Eigenfahrzeug
    B
    unmittelbar voraus befindliches Fahrzeug
    C
    seitliches Fahrzeug
    D
    verdecktes Fahrzeug
    1
    Kamera-Sichtfeld
    2
    Rückleuchte
    3
    Rückleuchte
    4
    Reflexion
    5
    Reflexion
    6
    Fahrbahn
    7
    reflektierende Seitenfläche Fahrzeug C
    8
    Spiegelbild Fahrzeug D
    10
    Kamerasystem
    11
    Kamera 1
    12
    Kamera 2
    13
    Polarisationsfilter
    14
    Bilderstellung 1
    15
    Bilderstellung 2
    16
    Differenzbild
    17
    Auswertung Differenzbild
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102007035026 A1 [0004]

Claims (12)

  1. Verfahren zur Gewinnung von Information über ein Objekt (D) in einem nicht einsehbaren, vorausliegenden Umfeldbereich eines Kraftfahrzeugs (A) mittels eines Kamerasystems (10) des Kraftfahrzeugs (A), dadurch gekennzeichnet, dass das Kamerasystem (10) zwei Bilder des vorausliegenden Umfeldes des Kraftfahrzeugs (A) erzeugt, wobei das eine Bild ungefiltert und das andere Bild polarisationsgefiltert aufgenommen wird, ein Differenzbild der beiden Bilder erzeugt wird, und das Differenzbild auf Reflektionen des Objekts (D) an reflektierenden Flächen im Blickfeld des Kamerasystems (10) untersucht wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Differenzbild als Textur auf die umliegenden Fahrzeuge (C) im 3D-Raum gelegt wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass für jedes umliegende Fahrzeug (C) ein 3D-Modell erzeugt wird.
  4. Verfahren nach einem der Ansprüche 2 oder 3, dadurch gekennzeichnet, dass die Fahrzeugrichtungen und/oder die Fahrzeugtypen der Fahrzeuge (C) im Umfeld des Kraftfahrzeugs (A) ermittelt werden und/oder eine Fahrzeugnachverfolgung der Fahrzeuge (C) im Umfeld des Kraftfahrzeugs (A) erfolgt.
  5. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Reflektionen hinsichtlich Blinker, Bremslichter, Warnblinker (2, 3) und/oder Infrastrukturinformationen eines Objekts in dem nicht einsehbaren, vorausliegenden Umfeldbereich untersucht werden.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass aus den Reflektionen die Position und die Orientierung des Objekts (D) in dem nicht einsehbaren, vorausliegenden Umfeldbereich abgeleitet wird.
  7. Vorrichtung zur Gewinnung von Information über ein Objekt (D) in einem nicht einsehbaren, vorausliegenden Umfeldbereich eines Kraftfahrzeugs (A), wobei die Vorrichtung zu Durchführung des Verfahrens nach einem der vorangegangenen Ansprüche eingerichtet und ausgelegt ist, mit einem Kamerasystem (10) zur Beobachtung des vorausliegenden Umfelds und einer Auswerteeinrichtung zur Auswertung der Bilder des Kamerasystems (10), dadurch gekennzeichnet, dass das Kamerasystem (10) zwei Bilder aufnimmt, wobei das eine Bild ein ungefiltertes Bild der Umgebung ist und das andere Bild eines polarisationsgefilterten Bildes der Umgebung ist, die Auswerteeinrichtung eine Einrichtung (16) zur Erzeugung eines Differenzbildes aus ungefiltertem und polarisationsgefiltertem Bild und einer Einrichtung (17) zur Analyse des Differenzbildes aufweist.
  8. Vorrichtung nach Anspruch 7, dadurch gekennzeichnet, dass das Kamerasystem (10) zwei Kameras (11, 12) aufweist, wobei eine Kamera (11) das ungefilterte Bild aufnimmt und die andere Kamera (12) einen Polarisationsfilter (13) zur Erzeugung des gefilterten Bildes aufweist.
  9. Vorrichtung nach Anspruch 7, dadurch gekennzeichnet, dass das Kamerasystem (10) eine Kamera aufweist, die alternierend gefilterte und ungefilterte Bilder aufnimmt.
  10. Vorrichtung nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass die Einrichtung (17) zur Analyse des Differenzbildes eine Einrichtung zur Entzerrung der reflektierten Informationen aufweist.
  11. Vorrichtung nach einem der Ansprüche 7 bis 10, dadurch gekennzeichnet, dass die Vorrichtung eine Einrichtung (14, 15) zur Klassifizierung und Nachverfolgung der Fahrzeuge im Umfeld des Kraftfahrzeugs (A) aufweist.
  12. Vorrichtung nach Anspruch 11, dadurch gekennzeichnet, dass die Einrichtung (17) zur Analyse des Differenzbildes eine Einrichtung zur Darstellung von im Umfeld erkannter Fahrzeuge als 3D-Modell aufweist, so dass das Differenzbild als Textur auf die umliegenden Fahrzeuge im 3D-Raum gelegt wird.
DE102014224762.4A 2014-12-03 2014-12-03 Verfahren und Vorrichtung zur Informationsgewinnung über ein Objekt in einem nicht einsehbaren, vorausliegenden Umfeldbereich eines Kraftfahrzeugs Active DE102014224762B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014224762.4A DE102014224762B4 (de) 2014-12-03 2014-12-03 Verfahren und Vorrichtung zur Informationsgewinnung über ein Objekt in einem nicht einsehbaren, vorausliegenden Umfeldbereich eines Kraftfahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014224762.4A DE102014224762B4 (de) 2014-12-03 2014-12-03 Verfahren und Vorrichtung zur Informationsgewinnung über ein Objekt in einem nicht einsehbaren, vorausliegenden Umfeldbereich eines Kraftfahrzeugs

Publications (2)

Publication Number Publication Date
DE102014224762A1 true DE102014224762A1 (de) 2016-06-09
DE102014224762B4 DE102014224762B4 (de) 2016-10-27

Family

ID=55974296

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014224762.4A Active DE102014224762B4 (de) 2014-12-03 2014-12-03 Verfahren und Vorrichtung zur Informationsgewinnung über ein Objekt in einem nicht einsehbaren, vorausliegenden Umfeldbereich eines Kraftfahrzeugs

Country Status (1)

Country Link
DE (1) DE102014224762B4 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016215115A1 (de) * 2016-08-12 2018-02-15 Continental Automotive Gmbh Vorrichtung und Verfahren zum Detektieren von Verkehrsteilnehmern in einem Umfeld eines Ego-Fahrzeugs
DE102017200146A1 (de) * 2017-01-09 2018-07-12 Ford Global Technologies, Llc Verfahren zum Vermeiden von Kollisionen
DE102017223284A1 (de) 2017-12-19 2019-06-19 Lucas Automotive Gmbh Verfahren zum assistierten Betreiben eines Fahrzeugs und Fahrzeugassistentsystem
WO2020048909A1 (de) * 2018-09-04 2020-03-12 Robert Bosch Gmbh Verfahren zur Auswertung von Sensordaten mit einer erweiterten Objekterkennung
DE102018127077A1 (de) * 2018-10-30 2020-04-30 Robert Bosch Gmbh Automatisierte Vorbeifahrt an abgestellten Fahrzeugen
CN111373411A (zh) * 2017-11-29 2020-07-03 罗伯特·博世有限公司 用于确定与对象的间距的方法、设备和计算机程序
DE112018007130B4 (de) 2018-03-26 2024-05-02 Mitsubishi Electric Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6424272B1 (en) * 2001-03-30 2002-07-23 Koninklijke Philips Electronics, N.V. Vehicular blind spot vision system
US6483429B1 (en) * 1999-10-21 2002-11-19 Matsushita Electric Industrial Co., Ltd. Parking assistance system
DE102007035026A1 (de) 2007-07-26 2009-01-29 Adc Automotive Distance Control Systems Gmbh Fahrerassistenzsystem und Verfahren zum Betreiben eines Fahrerassistenzsystems
US20090265061A1 (en) * 2006-11-10 2009-10-22 Aisin Seiki Kabushiki Kaisha Driving assistance device, driving assistance method, and program
DE102009026463A1 (de) * 2009-05-26 2010-12-09 Robert Bosch Gmbh Bilderfassungsverfahren zur Erfassung mehrerer Bilder mittels eines automotiven Kamerasystems und zugehörige Bilderfassungsvorrichtung des Kamerasystems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6483429B1 (en) * 1999-10-21 2002-11-19 Matsushita Electric Industrial Co., Ltd. Parking assistance system
US6424272B1 (en) * 2001-03-30 2002-07-23 Koninklijke Philips Electronics, N.V. Vehicular blind spot vision system
US20090265061A1 (en) * 2006-11-10 2009-10-22 Aisin Seiki Kabushiki Kaisha Driving assistance device, driving assistance method, and program
DE102007035026A1 (de) 2007-07-26 2009-01-29 Adc Automotive Distance Control Systems Gmbh Fahrerassistenzsystem und Verfahren zum Betreiben eines Fahrerassistenzsystems
DE102009026463A1 (de) * 2009-05-26 2010-12-09 Robert Bosch Gmbh Bilderfassungsverfahren zur Erfassung mehrerer Bilder mittels eines automotiven Kamerasystems und zugehörige Bilderfassungsvorrichtung des Kamerasystems

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016215115A1 (de) * 2016-08-12 2018-02-15 Continental Automotive Gmbh Vorrichtung und Verfahren zum Detektieren von Verkehrsteilnehmern in einem Umfeld eines Ego-Fahrzeugs
DE102017200146A1 (de) * 2017-01-09 2018-07-12 Ford Global Technologies, Llc Verfahren zum Vermeiden von Kollisionen
CN111373411A (zh) * 2017-11-29 2020-07-03 罗伯特·博世有限公司 用于确定与对象的间距的方法、设备和计算机程序
DE102017223284A1 (de) 2017-12-19 2019-06-19 Lucas Automotive Gmbh Verfahren zum assistierten Betreiben eines Fahrzeugs und Fahrzeugassistentsystem
DE102017223284B4 (de) * 2017-12-19 2021-01-14 Zf Active Safety Gmbh Verfahren zum assistierten Betreiben eines Fahrzeugs
DE112018007130B4 (de) 2018-03-26 2024-05-02 Mitsubishi Electric Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm
WO2020048909A1 (de) * 2018-09-04 2020-03-12 Robert Bosch Gmbh Verfahren zur Auswertung von Sensordaten mit einer erweiterten Objekterkennung
US11900691B2 (en) 2018-09-04 2024-02-13 Robert Bosch Gmbh Method for evaluating sensor data, including expanded object recognition
DE102018127077A1 (de) * 2018-10-30 2020-04-30 Robert Bosch Gmbh Automatisierte Vorbeifahrt an abgestellten Fahrzeugen

Also Published As

Publication number Publication date
DE102014224762B4 (de) 2016-10-27

Similar Documents

Publication Publication Date Title
DE102014224762B4 (de) Verfahren und Vorrichtung zur Informationsgewinnung über ein Objekt in einem nicht einsehbaren, vorausliegenden Umfeldbereich eines Kraftfahrzeugs
DE102017207968A1 (de) Vorrichtung zum Vorbeugen gegen einen Fußgängerkollisionsunfall, System mit derselben, und Verfahren hierzu
DE102013113619A1 (de) Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem
DE102012224499A1 (de) Verfahren und System zum Erkennen eines Raums eines Seitenstreifens
DE102015223176A1 (de) Verfahren und Vorrichtung zur Ermittlung von Verdeckungsbereichen in der Fahrzeugumgebung eines Fahrzeuges
DE102005054972A1 (de) Verfahren zur Totwinkelüberwachung bei Fahrzeugen
DE102010030213A1 (de) Einparkhilfesystem für Querparklücken
DE102007022372A1 (de) Verfahren und Vorrichtung zur Ermittlung der Fahrzeugklasse von Fahrzeugen
EP3044727B1 (de) Verfahren und vorrichtung zur objekterkennung aus tiefenaufgelösten bilddaten
DE102011118726A1 (de) Verfahren zum Erkennen einer Parklücke für ein Kraftfahrzeug, Parkhilfesystem und Kraftfahrzeug mit einem Parkhilfesystem
DE102016210632A1 (de) Verfahren zum Überprüfen eines Medienverlustes eines Kraftfahrzeuges sowie Kraftfahrzeug und System zum Ausführen eines solchen Verfahrens
DE102008010119A1 (de) Vorrichtung zum Erfassen eines Objekts und System zur Kommunikation zwischen Fahrzeugen
WO2018206213A1 (de) Verfahren und vorrichtung zur ortsaufgelösten detektion von einem fahrzeugexternen objekt mithilfe eines in einem fahrzeug verbauten sensors
DE102011080928A1 (de) Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs
DE102009031319A1 (de) Verfahren und System zur Bestimmung einer Fahrzeugklasse
DE102017111468A1 (de) Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat
EP3078015B1 (de) Verfahren und vorrichtung zum erzeugen einer warnung mittels zweier durch kameras erfasster bilder einer fahrzeugumgebung
DE102011105074A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Sichtweite für ein Fahrzeug
DE102018217891A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems und Kraftfahrzeug
WO2009077445A1 (de) Verfahren und vorrichtung zum optischen erfassen einer fahrzeugumgebung
DE102012215014A1 (de) Verfahren zur Überwachung eines toten Winkels und Fahrassistenzsystem
DE102011010860A1 (de) Verfahren und Fahrerassistenzsystem zum Anzeigen von Bildern in einem Kraftfahrzeug sowie Kraftfahrzeug
DE102006044864A1 (de) Verfahren zur rechnergestützten Bildverarbeitung in einem Nachtsichtsystem eines Verkehrsmittels
DE102011055441A1 (de) Verfahren und Vorrichtung zur Abstandsermittlung zwischen Fahrzeugen
DE102013226773A1 (de) Vorrichtung, Verfahren und Computerprogramm zum Unterstützen eines Kurswechsels eines Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final