DE102013220005A1 - Verfahren und Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs und Fahrerassistenzsystem - Google Patents

Verfahren und Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs und Fahrerassistenzsystem Download PDF

Info

Publication number
DE102013220005A1
DE102013220005A1 DE102013220005.6A DE102013220005A DE102013220005A1 DE 102013220005 A1 DE102013220005 A1 DE 102013220005A1 DE 102013220005 A DE102013220005 A DE 102013220005A DE 102013220005 A1 DE102013220005 A1 DE 102013220005A1
Authority
DE
Germany
Prior art keywords
data
vehicle
object information
image data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102013220005.6A
Other languages
English (en)
Inventor
Dieter Krökel
Christian Exner
Herbert Meier
Stefan Lüke
Sebastian Houben
Jan Salmen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conti Temic Microelectronic GmbH
Continental Automotive GmbH
Continental Teves AG and Co OHG
Original Assignee
Conti Temic Microelectronic GmbH
Continental Automotive GmbH
Continental Teves AG and Co OHG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH, Continental Automotive GmbH, Continental Teves AG and Co OHG filed Critical Conti Temic Microelectronic GmbH
Priority to DE102013220005.6A priority Critical patent/DE102013220005A1/de
Priority to JP2016546143A priority patent/JP6522630B2/ja
Priority to PCT/DE2014/200509 priority patent/WO2015048967A1/de
Priority to US15/021,529 priority patent/US10093233B2/en
Priority to DE112014003327.8T priority patent/DE112014003327A5/de
Priority to EP14792732.1A priority patent/EP3053133B1/de
Publication of DE102013220005A1 publication Critical patent/DE102013220005A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Geometry (AREA)
  • Mechanical Engineering (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Anzeige der Umgebung eines Fahrzeuges (20, 220) sowie ein Fahrerassistenzsystem mit einer solchen Vorrichtung mit mindestens einem Sensor (1, 101, 111, 121, 131) zum Erzeugen von Sensordaten der Umgebung eines Fahrzeuges (20, 220). Es erfolgt dabei ein Aufbereitung der Sensordaten zu Roh-Bilddaten, ggf. unter Verwendung eines Gitter-Modells (21, 221) der Umgebung des Fahrzeugs (20, 220), ggf. eine Verarbeitung der Roh-Bilddaten zu Objektinformationen mit Hilfe eines Gitter-Modells (21, 221) der Umgebung des Fahrzeugs (20, 220) und Verwendung der gewonnenen Objektinformationen zur Aufbereitung von Roh-Bilddaten zu Bild-Objekt-Daten, sowie schließlich das Anzeigen der Bild-Objekt-Daten.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Anzeige der Umgebung eines Fahrzeuges, die insbesondere für den Einsatz in Fahrerassistenzsystemen geeignet sind sowie ein Fahrerassistenzsystem.
  • Fahrerassistenzsysteme sowie Verfahren und Vorrichtungen zur Anzeige der Umgebung eines Fahrzeuges sind grundsätzlich aus dem Stand der Technik bekannt. Hierzu wird beispielhaft auf DE 10059900A1 sowie DE10109665A1 verwiesen. Sogenannte kamera-basierte Top View-, Surround View- und Rear View-Systeme finden sich zunehmend in Fahrzeugen, um dem Fahrer das unmittelbare Umfeld des Fahrzeugs anzuzeigen und ihm dadurch z.B. das Rangieren seines Fahrzeugs zu erleichtern.
  • Die DE10247563A1 beschreibt ein Fahrerassistenzsystem, bei dem Gefährdungsobjekte eines Fahrzeugs auf einer Anzeigeeinrichtung augenfälliger als weniger gefährliche Gegenstände dargestellt werden.
  • Die DE10257484A1 offenbart ein Fahrerassistenzsystem mit einer Anzeigeeinrichtung zum perspektivisch korrekten Darstellen von mit einer Kamera erfassten Objekten. Weiterhin können zusätzliche Informationen zu den erfassten Objekten graphisch eingeblendet werden, um die Wahrnehmung durch einen Fahrer zu verbessern.
  • Aufgabe der vorliegenden Erfindung ist es nun, ein verbessertes Verfahren und eine verbesserte Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs vorzuschlagen.
  • Diese Aufgabe wird durch die Gegenstände der unabhängigen Ansprüche gelöst. Weitere Ausgestaltungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.
  • Eine Ausführungsform der vorliegenden Erfindung betrifft ein Verfahren zur Anzeige der Umgebung eines Fahrzeuges mit den folgenden Schritten:
    • – Erfassen der Umgebung eines Fahrzeuges mit mindestens einem Sensor und Erzeugen von Sensordaten der Umgebung eines Fahrzeuges,
    • – Aufbereitung der Sensordaten zu Roh-Bilddaten
    • – Verarbeitung der Roh-Bilddaten zu Objektinformationen mit Hilfe eines Gitter-Modells der Umgebung des Fahrzeugs
    • – Verwendung der gewonnenen Objektinformationen und/oder eines Gitter-Modells zur Aufbereitung von Roh-Bilddaten zu Bild-Objekt-Daten
    • – Anzeigen der Bild-Objekt-Daten
  • Eine weitere Ausführungsform der vorliegenden Erfindung betrifft ein Verfahren zur Anzeige der Umgebung eines Fahrzeuges mit den folgenden Schritten:
    • – Erfassen der Umgebung eines Fahrzeuges mit mindestens einem Sensor und Erzeugen von Sensordaten der Umgebung eines Fahrzeuges,
    • – Aufbereitung der Sensordaten zu Roh-Bilddaten in einem ersten Aufbereitungsschritt
    • – Aufbereitung der Roh-Bilddaten zu korrigierten Bild-Daten mit Hilfe eines Gitter-Modells in einem zweiten Aufbereitungsschritt
    • – Verwendung von sensorbasiert gewonnenen Objektinformationen zur Aufbereitung der korrigierten Bilddaten zu Bild-Objekt-Daten
    • – Anzeigen der Bild-Objekt-Daten.
  • Es wird also ein mehrstufiges, die Bilddaten verbesserndes Verfahren bereitgestellt. Die Sensordaten werden zu Roh-Bilddaten aufbereitet, mit deren Hilfe dann Objektinformationen gewonnen werden können, die wiederum zur Aufbereitung von Roh-Bilddaten zurückgeführt werden können. Es können also in einer Hin-Kanal-Richtung aus Sensordaten aufbereitete Roh-Bilddaten zur Verarbeitung der Roh-Bilddaten übertragen werden und in einem Rückkanal Objektinformationen zur (ggf. weiteren) Aufbereitung von Roh-Bilddaten übertragen werden. Dadurch kann die Aufbereitung der Bilddaten verbessert werden und es können im weiteren kombinierte Bild-Objekt-Daten angezeigt werden, die gegenüber den reinen Bilddaten zusätzliche Informationen enthalten.
  • Der mindestens eine Sensor kann dabei als jede Art geeigneter Sensor zur Erzeugung von Roh-Bilddaten ausgebildet sein, insbesondere als optischer Sensor wie z.B. als optische Kamera, Nachtsicht-System bzw. Restlichtverstärker-System, Infrarot-Kamera oder Wärmebild-Kamera. Grundsätzlich kann der Sensor aber auch zum Empfang von elektromagnetischer Strahlung anderer Wellenlängen wie z.B. Radar, Lidar oder zum Empfang von Schallwellen wie z.B. Ultraschall ausgebildet sein.
  • Die Objektinformationen können auf Basis eines Gitter-Modells der Umgebung des Fahrzeugs gewonnen werden. Damit können die Objektinformationen z.B. in Form einer Rasterkarte erfasst und/oder gespeichert und/oder übertragen werden. Weiter können Teilbereichen des Gitter-Modells spezifisch Informationen zugewiesen werden.
  • Objektinformationen können Informationen zur Charakterisierung und/oder Identifizierung von Objekten und/oder Zuständen von Objekten sein, insbesondere können diese Informationen die Position, Größe bzw. Höhe, Ausdehnung, Helligkeit, Bewegungsrichtung, Beschleunigung, Relativbewegung zum Sensor, Relativbewegungsrichtung zum Sensor, Relativbeschleunigung zum Sensor sein.
  • Auch im Rahmen der Aufbereitung der Roh-Bilddaten kann ein Gitter-Modell verwendet werden. Damit kann eine geeignete Korrektur bzw. Entzerrung von Bild-Rohdaten, insbesondere von verzerrten Bild-Rohdaten – beispielsweise aufgrund von optischen bzw. messtechnischen Verzerrungen aufgrund bestimmter Sensoreigenschaften wie z.B. Abbildungseigenschaften – erreicht werden. Aus Roh-Bilddaten werden damit korrigierte Bilddaten erzeugt, welche korrigierten Bildern entsprechen. Diese können dann weiteren Bilderarbeitungsschritten bzw. Bildaufbereitungsschritten zu Grunde gelegt werden.
  • Es kann vorgesehen sein, dass die Objektinformationen durch Abgleich mit Daten weiterer Sensoren verifiziert und/oder stabilisiert werden. Es können also zusätzlich oder ergänzend zu den vorgenannten Sensordaten, welche zur Erzeugung der Roh-Bilddaten genutzt werden, auch weitere Sensoren bzw. Sensordaten herangezogen werden. Dabei kann es sich z.B. um weitere optische Sensoren handeln wie z.B. als optische Kameras, Nachtsicht-Systeme bzw. Restlichtverstärker-Systeme, Infrarot-Kameras oder Wärmebild-Kameras. Grundsätzlich können aber auch die weiteren Sensoren auch zum Empfang von elektromagnetischer Strahlung anderer Wellenlängen wie z.B. Radar, Lidar oder zum Empfang von Schallwellen wie z.B. Ultraschall ausgebildet sein. Durch die zusätzlichen Sensorinformationen kann der Umfang der erfassten Objektinformationen und/oder die Genauigkeit der erfassten Objektinformationen erhöht werden und somit ein Beitrag dazu geleistet werden, dass die Objektinformationen stabilisiert werden und/oder es können Fehler in den gewonnenen Objektinformationen reduziert werden bzw. erkannte Objektinformationen bzw. Objekte verifiziert werden.
  • Es kann vorgesehen werden, dass im Rahmen der Verarbeitung der Roh-Bilddaten zusätzlich historische und/oder prognostizierte Objektinformationen verwendet werden. Es kann also ein zeitlicher Verlauf von Objektinformationen ermittelt und/oder gespeichert und/oder aus einem Speicher abgerufen werden und bei der Verarbeitung der Roh-Bilddaten mit herangezogen werden. Dabei kann auch die zeitliche Veränderung von Objektinformationen (wie die zeitliche Änderung von Position, Größe, Ausdehnung, Helligkeit, Bewegungsrichtung, Beschleunigung, Relativbewegung zum Sensor, Relativbewegungsrichtung zum Sensor, Relativbeschleunigung zum Sensor) mit herangezogen werden.
  • Es kann vorgesehen werden, dass das Gitter-Modell der Umgebung Zellen aufweist, wobei diesen Zellen Teil-Objektinformationen zugewiesen werden und aus Teil-Objektinformationen in einem Objekterkennungs-Schritt Objektinformationen erzeugt werden. Die Zellen des Gitter-Modells können identisch ausgebildet sein, d.h. gleiche Größe, Form und Orientierung aufweisen. Die Zellen können also eine uniforme Verteilung und eine uniforme Ausbildung aufweisen. Die Zellen des Gitter-Modells können aber auch eine von der Position der Zelle im Gitter abhängige Größe und/oder Form und/oder Orientierung aufweisen.
  • Insbesondere kann vorgesehen werden, dass als Gitter-Modell ein 3D-Gitter-Modell verwendet wird, also ein Gitter-Modell bei dem das Gitter eine dreidimensionale Form aufweist. Als dreidimensionale Form ist dabei jede Form zu verstehen, die in zumindest einem Teilbereich von einer zweidimensionalen und damit ebenen Form abweicht. Roh-Bilddaten können mit Hilfe eines Projektionsalgorithmus auf das 3D-Gitter-Modell projiziert werden. Damit kann eine besonders gut geeignete Korrektur bzw. Entzerrung von Roh-Bilddaten, insbesondere von verzerrten Roh-Bilddaten – beispielsweise aufgrund von optischen bzw. messtechnischen Verzerrungen aufgrund bestimmter Sensoreigenschaften wie z.B. Abbildungseigenschaften – erreicht werden.
  • Das 3D-Gitter-Modell der Umgebung des Fahrzeugs kann insbesondere ein Modell einer gekrümmten Oberfläche darstellen, wobei der Krümmungsradius mit zunehmendem Abstand vom Fahrzeug bzw. von dem die Sensor-Daten erzeugenden Sensor zunimmt. Es hat sich gezeigt, dass solche Modelle einer gekrümmten Oberfläche, insbesondere mit einem mit der Entfernung zunehmenden Krümmung dazu geeignet sind, Verzerrungen aufgrund von Weitwinkel-Effekten zu korrigieren, wie sie z.B. bei optischen Fischaugen-Sensoren (Fish Eye Sensoren) oder anderen Sensoren mit vergleichbaren Abbildungseigenschaften auftreten.
  • Den Zellen des Gitter-Modells können zellenbezogene Teil-Objektinformationen zugewiesen werden. Solche Teil-Objektinformationen können Informationen zur Identifizierung und/oder Charakterisierung von erfassten Objekt-Teilen oder erfassten Strukturen sein wie Informationen zu Position, Größe wie z.B. Objekthöhen, Form, Ausdehnung, Helligkeit, Bewegungsrichtung, Beschleunigung, Relativbewegung zum Sensor, Relativbewegungsrichtung zum Sensor, Relativbeschleunigung zum Sensor. Aus diesen Teil-Objektinformationen können zellen-bezogene Objektprofile gebildet werden und der jeweiligen Zelle zugewiesen werden. Objektprofile einer oder mehrerer Zellen können zu Objekten zusammen gefasst werden. Wenn im Rahmen des Verfahren ein Objekterkennungsschritt erfolgt, können Objektinformationen zu erkannten Objekten können mit Objektinformationen zu Objekthöhen an die Bildaufbereitungs-Einrichtung übertragen werden.
  • Eine weitere Ausführungsform der vorliegenden Erfindung betrifft eine Vorrichtung zur Anzeige der Umgebung eines Fahrzeuges, aufweisend:
    • – mindestens einen Sensor zum Erfassen der Umgebung eines Fahrzeuges und zum Erzeugen von Sensordaten der Umgebung eines Fahrzeuges,
    • – eine Bildaufbereitungs-Einrichtung mit Bilddaten-Aufbereitungs-Bereichen welche zur Aufbereitung der Sensordaten zu Roh-Bilddaten und zur Aufbereitung von Roh-Bilddaten mit Hilfe von Objektinformationen und/oder eines Gitter-Modells zu Bild-Objekt-Daten eingerichtet sind
    • – eine Bildverarbeitungs-Einrichtung, welche eine datentechnische Verbindung zu der Bildaufbereitungs-Einrichtung aufweist und zur Verarbeitung von Roh-Bilddaten zu Objektinformationen mit Hilfe eines Gitter-Modells eingerichtet ist und
    • – eine Anzeigevorrichtung zum Anzeigen der Bild-Objekt-Daten.
  • Zu den Vorteilen und möglichen weiteren Ausgestaltungen der erfindungsgemäßen Vorrichtung wird auf die Ausführungen zu den erfindungsgemäßen Verfahren verwiesen, die analog für die erfindungsgemäße Vorrichtung gelten.
  • Es kann also ein Hin-Kanal von der Bildaufbereitungs-Einrichtung hin zur Bildverarbeitungs-Einrichtung und ein Rück-Kanal von der Bildverarbeitungs-Einrichtung zurück zur Bildaufbereitungs-Einrichtung vorgesehen werden. Die Bildaufbereitungs-Einrichtung ist zur Aufbereitung der Sensordaten zu Roh-Bilddaten eingerichtet. Weiter kann die Bildaufbereitungs-Einrichtung zur Aufbereitung von Roh-Bilddaten mit Hilfe von Objektinformationen eingerichtet sein. Es kann aber auch die Bildaufbereitungs-Einrichtung zur Aufbereitung von Roh-Bilddaten mit Hilfe eines Gitter-Modells – ggf. unter Einbezug zusätzlicher Objektinformationen – zu Bild-Objekt-Daten eingerichtet sein.
  • Der mindestens eine Sensor kann wie bereits oben ausgeführt als jede Art geeigneter Sensor zur Erzeugung von Roh-Bilddaten ausgebildet sein, insbesondere als optischer Sensor wie z.B. als optische Kamera, Nachtsicht-System bzw. Restlichtverstärker-System, Infrarot-Kamera oder Wärmebild-Kamera. Grundsätzlich kann der Sensor aber auch zum Empfang von elektromagnetischer Strahlung anderer Wellenlängen wie z.B. Radar, Lidar oder zum Empfang von Schallwellen wie z.B. Ultraschall ausgebildet sein.
  • Es können weitere Sensoren vorgesehen sein, welche datentechnisch mit der Bildverarbeitungs-Einrichtung verbunden sind. Dabei kann die Bildverarbeitungs-Einrichtung zur Verifizierung und/oder Stabilisierung der Objektinformationen durch Abgleich mit Daten der weiteren Sensoren eingerichtet sein. Wie bereits oben ausgeführt kann es sich z.B. um weitere optische Sensoren handeln wie z.B. als optische Kameras, Nachtsicht-Systeme bzw. Restlichtverstärker-Systeme, Infrarot-Kameras oder Wärmebild-Kameras. Grundsätzlich können aber auch die weiteren Sensoren auch zum Empfang von elektromagnetischer Strahlung anderer Wellenlängen wie z.B. Radar, Lidar oder zum Empfang von Schallwellen wie z.B. Ultraschall ausgebildet sein.
  • Die Bildaufbereitungs-Einrichtung kann Bilddaten-Aufbereitungs-Bereiche aufweisen, die sich funktional, programmtechnisch oder hardware-technisch nach ihren Funktionen unterscheiden können. So kann die Bildaufbereitungs-Einrichtung einen ersten Bilddaten-Aufbereitungs-Bereich zur Aufbereitung der Sensordaten zu Roh-Bilddaten und einen zweiten Bilddaten-Aufbereitungs-Bereich zur Aufbereitung von Roh-Bilddaten und Objektinformationen zu Bild-Objekt-Daten aufweisen.
  • Es kann ein Datenspeicher zur Speicherung historischer und/oder prognostizierter Objektinformationen vorgesehen sein, wobei die Bildverarbeitungs-Einrichtung zur Verwendung historischer und/oder prognostizierter Objektinformationen im Rahmen der Verarbeitung der Roh-Bilddaten eingerichtet ist. In diesem Datenspeicher kann ein zeitlicher Verlauf von Objektinformationen gespeichert aus diesem Speicher abgerufen werden und es kann eine datentechnische Verbindung zur Bildverarbeitungs-Einrichtung vorgesehen werden, über die die historischer und/oder prognostizierter Objektinformationen zur Verarbeitung der Roh-Bilddaten übertragen werden können.
  • Weiterhin kann ein weiterer Datenspeicher zur Speicherung eines Gitter-Modells der Umgebung des Fahrzeugs vorgesehen werden, wobei der weitere Datenspeicher über eine datentechnische Verbindung mit der Bildverarbeitungs-Einrichtung verbunden ist und die Bildverarbeitungs-Einrichtung kann zur Objekterkennung auf Basis von Teil-Objektinformationen eingerichtet sein, welche Zellen des Gitter-Modells zugewiesen sind. Alternativ oder zusätzlich kann die Bildaufbereitungs-Einrichtung zur Aufbereitung von Roh-Bilddaten auf Basis des Gitter-Modells eingerichtet sein, wobei dann die Bildaufbereitungs-Einrichtung über eine datentechnische Verbindung mit dem Datenspeicher verbunden ist.
  • Eine weitere Ausführungsform der Erfindung betrifft ein Fahrerassistenzsystem mit einer Vorrichtung nach der Erfindung und wie hierin beschrieben.
  • Weitere Vorteile und Anwendungsmöglichkeiten der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung in Verbindung mit den in den Zeichnungen dargestellten Ausführungsbeispielen.
  • In der Beschreibung, in den Ansprüchen, in der Zusammenfassung und in den Zeichnungen werden die in der hinten angeführten Liste der Bezugszeichen verwendeten Begriffe und zugeordneten Bezugszeichen verwendet.
  • Die Zeichnungen zeigen in
  • 1: schematische Darstellung eines Systems mit automatischen Fahrerassistenzfunktionalitäten
  • 2: schematische Darstellung eines Systems mit automatischen Fahrerassistenzfunktionalitäten mit mehreren Sensoren und Rück-Kanal zur Übertragung von Objektinformationen
  • 3: schematische Darstellung eines ebenen Gitter-Modells
  • 4: schematische Darstellung eines entzerrten Top-View-Bildes
  • 5: schematische Darstellung der Entzerrung und perspektivischen Korrektur eines Fischaugen-Kamera-Bildes (Roh-Bilddaten)
  • 6: schematische Darstellung eines Fahrzeuges mit vier Kameras und vier einzelnen Fischaugen-Kamera-Bildern (Roh-Bilddaten)
  • 7: schematische Darstellung eines 3D-Gitter-Modells mit entfernungsabhängigem Krümmungsradius
  • 8: schematische Darstellung eines mittels 3D-Gitter-Modell entzerrten Bildes
  • 9: schematische Darstellung der Längenverzerrung bei Projektion eines stehenden Objekts auf eine Ebene
  • 10: schematische Darstellung der Längenverzerrung bei Projektion eines stehenden Objekts auf eine gekrümmte Fläche
  • In der folgenden Beschreibung können gleiche, funktional gleiche und funktional zusammenhängende Elemente mit den gleichen Bezugszeichen versehen sein. Absolute Werte sind im Folgenden nur beispielhaft angegeben und sind nicht als die Erfindung einschränkend zu verstehen.
  • Fahrerassistenz-Systeme sollen zunehmend mit automatischen Fahrerassistenzfunktionalitäten ausgerüstet werden. Dazu kann eine Bildverarbeitung eingesetzt werden, um automatisch Objekte, insbesondere Hindernisse, zu erkennen und in der Folge einen Eingriff in die Fahrzeugdynamik zu ermöglichen. 1 zeigt schematisch ein derartiges Fahrerassistenzsystem 10.
  • Dieses Fahrerassistenzsystem 10 weist einen optischen Sensor, beispielsweise eine Kamera als ersten Sensor 1 zur Erfassung von Sensordaten der Umgebung eines Fahrzeugs. Eine Bildaufbereitungs-Einrichtung 2 ist mit dem ersten Sensor 1 verbunden. Die Bildaufbereitungs-Einrichtung 2 ist zur Aufbereitung der Sensordaten zu Roh-Bilddaten und/oder zu aufbereiteten Bilddaten eingerichtet. Die Bildaufbereitungs-Einrichtung 2 ist weiterhin mit einer Anzeigevorrichtung 5 – insbesondere einem geeigneten Display – verbunden, um dem Fahrer die aufbereiteten Bilddaten im Fahrzeug anzuzeigen.
  • Das Fahrerassistenzsystem 10 weist außerdem eine Bildverarbeitungs-Einrichtung 4 auf, welche über eine datentechnische Verbindung 3 mit der Bildaufbereitungs-Einrichtung 2 verbunden ist und von dort aus Sensordaten aufbereitete Roh-Bilddaten empfängt. Die Bildverarbeitungs-Einrichtung 4 ist über eine weitere datentechnische Verbindung 9 mit einer Fahrzeug-Dynamik 13 – also einer Einrichtung zur Steuerung von Fahrzeug-Parametern bzw. Fahrzeug-Funktionen – verbunden.
  • Es kann nun insbesondere vorgesehen werden, dass bei einem Fahrerassistenzsystem schon vor einem Eingriff in die Fahrzeugdynamik erkannte Objekte, vor allem Hindernisse mit einer Anzeigeeinrichtung angezeigt werden, um einem Fahrer den automatischen Fahrzeugeingriff verständlich zu machen oder ihm eine Reaktion vor Eingriff in die Fahrzeugdynamik zu ermöglichen. 2 zeigt schematisch ein derartiges Fahrerassistenzsystem 100.
  • Das Fahrerassistenzsystem 100 nach 2 weist ebenfalls einen ersten Sensor 101 in Form eines optischen Sensors z.B. einer Kamera zur Erfassung von Sensordaten der Umgebung eines Fahrzeugs auf. Es ist wiederum eine Bildaufbereitungs-Einrichtung 102 mit dem ersten Sensor 101 verbunden. Die Bildaufbereitungs-Einrichtung 102 ist im Fahrerassistenzsystem 100 nach 2 zur Aufbereitung der Sensordaten zu Roh-Bilddaten eingerichtet. Die Bildaufbereitungs-Einrichtung 102 kann dabei funktional voneinander getrennte Bilddaten-Aufbereitungs-Bereiche 112, 122 aufweisen, die sich programmtechnisch oder hardware-technisch unterscheiden und programmtechnisch oder hardware-technisch getrennt voneinander angeordnet sein können, so dass verschiedene Bildaufbereitungs-Schritte parallel durchgeführt werden können. So kann die Bildaufbereitungs-Einrichtung 102 einen ersten Bilddaten-Aufbereitungs-Bereich 112 zur Aufbereitung der Sensordaten zu Roh-Bilddaten und einen zweiten Bilddaten-Aufbereitungs-Bereich 122 zur Aufbereitung von Roh-Bilddaten und Objektinformationen zu Bild-Objekt-Daten aufweisen. Die Bildaufbereitungs-Einrichtung 102 ist mit einer Anzeigevorrichtung 105 – insbesondere einem geeigneten Display – verbunden, um dem Fahrer die aufbereiteten Bilddaten im Fahrzeug anzuzeigen.
  • Die Bildaufbereitungs-Einrichtung 102 – und dabei insbesondere der erste Bilddaten-Aufbereitungs-Bereich 112 zur Aufbereitung der Sensordaten zu Roh-Bilddaten – ist über eine erste datentechnische Verbindung 103 (Hin-Kanal) mit einer Bildverarbeitungs-Einrichtung 104, verbunden, welche von der Bildaufbereitungs-Einrichtung 102 aufbereitete Roh-Bilddaten empfängt. Die Bildverarbeitungs-Einrichtung 104 ist einerseits über eine weitere datentechnische Verbindung 109 mit einer Fahrzeug-Dynamik 113 – also einer Einrichtung zur Steuerung von Fahrzeug-Parametern bzw. Fahrzeug-Funktionen – verbunden. Zum anderen ist die Bildverarbeitungs-Einrichtung 104 über eine weitere datentechnische Verbindung 106 (Rück-Kanal) mit Bildaufbereitungs-Einrichtung 102 – und dabei insbesondere mit einem zweiten Bilddaten-Aufbereitungs-Bereich 122 zur Aufbereitung von Roh-Bilddaten und Objektinformationen zu Bild-Objekt-Daten – verbunden.
  • Gemäß der Ausführungsform nach 2 wird es also ermöglicht, durch einen Rückkanal aus dem Systemblock der Bildverarbeitung in den Systemblock der Bildaufbereitung Objektinformationen wie z.B. Entfernung zum Hindernis und dessen Höhe zu übertragen. Diese Informationen können in der Bildaufbereitung genutzt werden, um ein Gefährdungspotential durch erkannte Objekte (z.B. durch farbliche Markierung von Objekten in den aufbereiteten Bild-Objekt-Daten) und/oder deren Entfernung und/oder Höhe relativ zum eigenen Fahrzeug anzuzeigen.
  • Die Erkennung von Objekten in der Bildverarbeitungs-Einrichtung 104 kann auf einem Gitter-Modell 21, 221 beruhen. Hierbei werden Zellen 22, 222 eines das Fahrzeug 20, 220 umgebenden Gitter-Modells 21, 220 definiert. Dieses Gitter-Modell 21, 221 kann z.B in einem Datenspeicher 108 gespeichert sein, der datentechnisch mit der Bildaufbereitungs-Einrichtung 102 und mit der Bildverarbeitungs-Einrichtung 104 verbunden ist. Je nach Ausgestaltung der Erfindung kann der Datenspeicher 108 auch nur mit einer der beiden Einrichtungen 102, 104 verbunden sein. Es können nun jeder der Zellen 22, 222 bestimmte Teil-Objektinformationen zugewiesen werden, die durch die Bildverarbeitungs-Einrichtung 104 ermittelt bzw. erkannt werden. So können den Zellen 22, 222 z.B. im Kamerabild erkannte Objekthöhen, Ausdehnung, Position oder Geschwindigkeit zugewiesen werden. Hier soll das Beispiel Objekthöhe betrachtet werden. Dabei kann es vorkommen, dass in einer Zelle nur ein Teil eines Objekts 23, 27 liegt und damit nur für diesen Teil des Objekts 23, 27 eine entsprechende Teil-Objektinformation – in diesem Fall eine Höheninformation – zugewiesen wird. Die Teil-Objektinformationen – beispielsweise zugewiesen als Objektprofile – werden zu einzelnen Objekten 23, 27 zusammengefasst. Diese den einzelnen Zellen 22, 222 zugewiesenen Gitterinformation zusammen mit den Objekthöhen und den erkannten Objekten 23, 27 werden an die Bildaufbereitungs-Einrichtung 102 zurück übertragen.
  • Neben Ausdehnung und Position von Objekten 23, 27 (also von potentiellen Hindernissen) kann man auch deren Bewegungsrichtung 26 (bei dynamischen Objekten 23) und Bewegungsgeschwindigkeit, sowie Typ (Person, Fahrrad, Pkw, sonstiges Objekt bzw. Hindernis) und Kollisionswahrscheinlichkeit bei extrapolierter Bewegung in der Anzeige sinnvoll unterbringen. Historische Objektinformationen 24 und/oder prognostizierte Objektinformationen 25 wie auch vergangenen und prognostizierten Trajektorien des eigenen Wagens können bspw. als Schweife den betreffenden Objekten 23 zugeordnet und auch entsprechend über die Bildverarbeitungs-Einrichtung 104 und Bildaufbereitungs-Einrichtung 102 gesteuert in einer Anzeigevorrichtung 105 (Display) angezeigt werden. Ebenso kann auch das Nichtvorhandensein von Hindernissen in gewissen Bereichen visualisiert werden (z.B. farbliche Unterlegung der gesamten befahrbaren Fläche im Bild). Denkbar sind auch Kameraschwenks oder Vergrößerungen als kritisch erkannter Stellen.
  • In der Bildaufbereitungs-Einrichtung 102 können die Objektinformationen und/oder das Gitter-Modell 21, 221 genutzt werden, um die Entzerrung von Roh-Bilddaten vor Erzeugung der TopView Daten zu optimieren. 4 zeigt schematisch eins solche TopView-Darstellung (oder BirdView) eines Fahrzeugs 20, 220, die dem Fahrer eine Perspektive bietet als würde er das Fahrzeug von oben betrachten. Hierzu wird das Bild in der Regel aus vier Kamerabildern zusammengesetzt (vorne, hinten, rechts und links am Fahrzeug 20, 220 angebracht, wie beispielhaft in 6 dargestellt). Übliche TopView Systeme projizieren die aufgenommenen 2D Bilder in eine 2D Ebene oder auf eine 2D Kugeloberfläche, um dem Nutzer den Eindruck zu geben als wenn er von oben auf das Fahrzeug und die Umgebung schaut. Die unterschiedlichen darzustellenden Bilder (sei es Rundumsicht, Seitensicht oder Rückfahrsicht) werden nach folgendem Prinzip erzeugt, dessen Schritte schematisch in 5 dargestellt sind: ein Bild – also Roh-Bilddaten werden gemäß 5a) auf Basis von Sensordaten einer Kamera, hier einer Fischaugen-Kamera erzeugt. Aufgrund der Abbildungseigenschaften der Fischaugen-Kamera ergibt sich ein verzerrtes Bild. Durch eine Fischaugen-Korrektur ergibt sich das Ergebnis wie in 5b) dargestellt. Als weiterer Schritt erfolgt eine perspektivische Korrektur mit dem Ergebnis wie in 5c) dargestellt. Auf diese Art lassen sich Roh-Bilddaten von mehreren Sensoren 1, 101, 11, 121, 131, insbesondere mehreren Kameras – zu einem Top-View-Bild zusammensetzen wie es in 4 dargestellt ist.
  • Die Fischaugenkameras oder Fish Eye Kameras, die in einem solchen System arbeiten und die sogenannten Fischaugenbilder liefern, bringen einen wichtigen Vorteil: den großen Blickwinkel. Mit so einem Winkel (horizontal >180° Sicht, vertikal > 130° Sicht) pro Kamera lässt sich das gesamte Fahrzeugumfeld rund herum mit nur vier Kameras beobachtet werden. Das führt dazu, dass Kosten erspart werden. Der Nachteil dabei ist, dass sich ein Fischaugenbild ohne Bearbeitung bzw. Entzerrung nicht benutzen lässt. Die Fischaugenbilder müssen daher zu einem planen Bild normalisiert werden, anschließend wird für den gewünschten Bildausschnitt die Perspektive korrigiert (durch bilineare Abbildung oder Look-Up Table). Diese Schritte sind in 5 gezeigt. Für ein Ausgabebild können dabei mehrere Ausschnitte aus den Eingangsvideos zusammengesetzt werden. Diese Schritte bzw. die hier beschriebenen Verfahren können mit Hilfe von sogenannten FPGAs (Field Programmable Gate Arrays) oder sonstigen DSPs (Ditigalen Signalprozessoren) durchgeführt werden.
  • Ein Problem dabei ist, dass bei üblichen Topview-Systeme weiter vom Fahrzeug entfernt befindliche senkrechte Objekte stark verzerrt (in die Länge gezogen) dargestellt werden. Die vorliegende Erfindung schlägt hierzu eine Verbesserung vor.
  • 6 zeigt schematisch ein Fahrzeug 220 mit vier Sensoren 101, 111, 121, 131 in Form von Kameras, insbesondere von Fischaugen-Kameras. Diese erzeugen entsprechende Roh-Bilddaten d.h. Bilder 301, 311, 321, 331, welche jedoch optisch verzerrt sind (Fischaugen-Bilder), so dass gerade Linien gekrümmt erscheinen und Dimensionen, insbesondere Längen verzerrt sind.
  • 7 zeigt nun schematisch ein Gitter-Modell, das als 3D-Gitter-Modell 221 ausgebildet ist und wobei die Zellen 222 des Gitter-Modells eine von der Position der Zelle im Gitter abhängige Größe und Form bzw. Orientierung aufweisen. Das 3D-Gitter-Modell 221 der Umgebung des Fahrzeugs 220 stellt ein Model einer gekrümmten Oberfläche dar, wobei der Krümmungsradius (man könnte auch sagen die Steigung) mit zunehmendem Abstand R vom Fahrzeug 220 zunimmt, vergleichbar einer Art „Schüssel“. Roh-Bilddaten eines jeden der Bilder 301, 311, 321, 331, können nun mit Hilfe eines Projektionsalgorithmus auf das 3D-Gitter-Modell 221 projiziert werden, um eine verbesserte Entzerrung der Roh-Bilddaten eines jeden der vier Sensoren 101, 111, 121, 131 zu erreichen. Damit ergibt sich eine realistischere Darstellung von der Umgebung des Fahrzeugs 220, welche auch aus verschiedenen Perspektiven betrachtet werden kann. 8 zeigt schematisch eine derart korrigierte Darstellung bzw. Anzeige von korrigierten Bilddaten eines korrigierten Bildes 351 der Umgebung des Fahrzeuges 220, welches auf den Roh-Bilddaten eines der vier Sensoren 101, 111, 121, 131 beruht und in dem die Linien nun gerader Verlaufen, Dimensionen wie insbesondere Längenverhältnisse realitätsnaher dargestellt sind und Objekte wie z.B. andere Fahrzeuge 223 besser und realistischer zu erkennen sind.
  • Insbesondere werden Längenverzerrungen vermieden, weiter weg befindliche Objekte werden kürzer und damit realitätsnaher dargestellt. Durch die Verwendung einer gekrümmten Projektionsoberfläche entspricht die Größe der dargestellten Objekte besser ihrer tatsächlichen Größe, als bei einer Projektion auf eine flache Ebene. Dies wird anhand der 9 und 10 genauer erläutert:
    In 9 ist die Längenverzerrung ips/iv bei der Projektion eines stehenden Objekts o auf eine Ebene E dargestellt. C ist die Kameraposition, v stellt den virtuellen Blickpunkt dar, aus dessen Perspektive dem Fahrer die Fahrzeugumgebung dargestellt werden soll. Dabei ist die Verzerrung umso größer, je weiter das Objekt vom Fahrzeug entfernt ist, weil der virtuelle Blickpunkt wesentlich höher als die Kameraposition ist.
  • 10 zeigt, dass diese dargestellte Länge eines entfernten stehenden Objekts O bei der Projektion auf eine gekrümmte Oberfläche GO wie beispielhaft in 7 dargestellt („Schüssel“) im Verhältnis deutlich besser der Länge des tatsächlichen Objekts entspricht. Weil die Verzerrung des Objekts in der Ebene mit der Entfernung vom Fahrzeug steigt, ist die Form der gekrümmten Oberfläche in geringem Abstand vom Fahrzeug relativ flach, weiter entfernt vom Fahrzeug nimmt der Krümmungsradius bzw. die Steigung der gekrümmten Oberfläche zu.
  • Liegt ein 3D Anzeigeelement vor, kann die Gitter-Information bzw. Zellen-Information oder die Objektinformationen (Position, Größe, Ausdehnung) insbesondere für eine 3D-Visualisierung hilfreich genutzt werden, da in der 3D-Darstellung Hindernisse oder andere Objekte deutlich plastischer für den Beobachter dargestellt werden können und dem Fahrer so einen deutlich verbesserten Eindruck von seinem Umfeld vermitteln. Das Gitter-Modell bzw. die gekrümmte Oberfläche kann dahin optimiert werden, dass die Umgebung wie ein Live 3D Modell aussieht. Es kann dabei ein Modell der Fahrzeugumgebung bestehend z.B. aus 10·10 cm Kacheln mit Objekthöheninformation verwendet bzw. erzeugt werden. Anhand dieser Information kann die Projektionsoberfläche so modelliert werden, dass die Anzeige fast wie ein echtes 3D Modell der Umgebung aussieht.
  • Bezugszeichenliste
  • 1
    Sensor
    2
    Bildaufbereitungs-Einrichtung
    3
    datentechnische Verbindung
    4
    Bildverarbeitungs-Einrichtung
    5
    Anzeigevorrichtung
    9
    datentechnische Verbindung
    10
    Fahrerassistenzsystem
    13
    Fahrzeug-Dynamik
    20
    Fahrzeug
    21
    Gitter-Modell
    22
    Zelle
    23
    Objekt
    24
    historische Objektinformationen
    25
    prognostizierte Objektinformationen
    26
    Bewegungsrichtung
    27
    Objekt
    100
    Fahrerassistenzsystem
    101
    Sensor
    102
    Bildaufbereitungs-Einrichtung
    103
    datentechnische Verbindung
    104
    Bildverarbeitungs-Einrichtung
    105
    Anzeigevorrichtung
    106
    datentechnische Verbindung
    107
    Datenspeicher
    108
    Datenspeicher
    109
    datentechnische Verbindung
    111
    Sensor
    112
    Bilddaten-Aufbereitungs-Bereich
    121
    Sensor
    122
    Bilddaten-Aufbereitungs-Bereich
    131
    Sensor
    220
    Fahrzeug
    221
    3D-Gitter-Modell
    222
    Zelle
    223
    Fahrzeug
    301
    Bild
    311
    Bild
    321
    Bild
    331
    Bild
    351
    korrigiertes Bild
    C
    Kameraposition
    E
    Ebene
    GO
    gekrümmte Oberfläche
    o
    Objekt
    R
    Abstand
    v
    virtueller Blickpunkt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10059900 A1 [0002]
    • DE 10109665 A1 [0002]
    • DE 10247563 A1 [0003]
    • DE 10257484 A1 [0004]

Claims (14)

  1. Verfahren zur Anzeige der Umgebung eines Fahrzeuges mit den folgenden Schritten: – Erfassen der Umgebung eines Fahrzeuges (20, 220) mit mindestens einem Sensor (1, 101, 111, 121, 131) und Erzeugen von Sensordaten der Umgebung eines Fahrzeuges (20, 220), – Aufbereitung der Sensordaten zu Roh-Bilddaten – Verarbeitung der Roh-Bilddaten zu Objektinformationen mit Hilfe eines Gitter-Modells (21, 221) der Umgebung des Fahrzeugs (20, 220) – Verwendung der gewonnenen Objektinformationen und/oder eines Gitter-Modells (21, 221) zur Aufbereitung von Roh-Bilddaten zu Bild-Objekt-Daten – Anzeigen der Bild-Objekt-Daten.
  2. Verfahren zur Anzeige der Umgebung eines Fahrzeuges (20, 220) mit den folgenden Schritten: – Erfassen der Umgebung eines Fahrzeuges (20, 220) mit mindestens einem Sensor (101, 111, 121, 131) und Erzeugen von Sensordaten der Umgebung eines Fahrzeuges (20, 220), – Aufbereitung der Sensordaten zu Roh-Bilddaten in einem ersten Aufbereitungsschritt – Aufbereitung der Roh-Bilddaten zu korrigierten Bild-Daten mit Hilfe eines Gitter-Modells (21, 221) in einem zweiten Aufbereitungsschritt – Verwendung von sensorbasiert gewonnenen Objektinformationen zur Aufbereitung der korrigierten Bilddaten zu Bild-Objekt-Daten – Anzeigen der Bild-Objekt-Daten.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Objektinformationen durch Abgleich mit Daten weiterer Sensoren (111, 121) verifiziert und/oder stabilisiert werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass im Rahmen der Verarbeitung der Roh-Bilddaten zusätzlich historische und/oder prognostizierte Objektinformationen (24, 25) verwendet werden.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das Gitter-Modell (21, 221) der Umgebung Zellen (22, 222) aufweist, wobei diesen Zellen (22, 222) Teil-Objektinformationen zugewiesen werden und aus Teil-Objektinformationen in einem Objekterkennungs-Schritt Objektinformationen erzeugt werden.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Zellen (22, 222) des Gitter-Modells (21, 221) eine von der Position der Zelle (22, 222) im Gitter (21, 221) abhängige Größe und/oder Form und/oder Orientierung aufweisen.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass als Gitter-Modell (21, 221) ein 3D-Gitter-Modell (221) verwendet wird und Bild-Rohdaten mit Hilfe eines Projektionsalgorithmus auf das 3D-Gitter-Modell (221) projiziert werden.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass das Gitter-Modell (21, 221) der Umgebung des Fahrzeugs (20, 220) ein Model einer gekrümmten Oberfläche darstellt, wobei der Krümmungsradius mit zunehmendem Abstand (R) vom Fahrzeug (20, 220) zunimmt.
  9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass den Zellen (22, 222) des Gitter-Modells (21, 221) zellenbezogene Teil-Objektinformationen zugewiesen werden und Objektinformationen zu erkannten Objekten (23, 27) zusammen mit Objektinformationen zu Objekthöhen an die Bildaufbereitungs-Einrichtung (102) übertragen werden.
  10. Vorrichtung (100) zur Anzeige der Umgebung eines Fahrzeuges (20, 220), aufweisend: – mindestens einen Sensor (1, 101, 111, 121, 131) zum Erfassen der Umgebung eines Fahrzeuges (20, 220) und zum Erzeugen von Sensordaten der Umgebung eines Fahrzeuges (20, 220), – eine Bildaufbereitungs-Einrichtung (102) mit Bilddaten-Aufbereitungs-Bereichen (112, 122) welche zur Aufbereitung der Sensordaten zu Roh-Bilddaten und zur Aufbereitung von Roh-Bilddaten mit Hilfe von Objektinformationen und/oder eines Gitter-Modells (21, 221) zu Bild-Objekt-Daten eingerichtet sind – eine Bildverarbeitungs-Einrichtung (104), welche eine datentechnische Verbindung (103, 106) zu der Bildaufbereitungs-Einrichtung (102) aufweist und zur Verarbeitung von Roh-Bilddaten zu Objektinformationen mit Hilfe eines Gitter-Modells (21, 221) eingerichtet ist und – eine Anzeigevorrichtung (105) zum Anzeigen der Bild-Objekt-Daten.
  11. Vorrichtung nach Anspruch 10, gekennzeichnet durch weitere Sensoren (111, 121, 131), welche datentechnisch mit der Bildverarbeitungs-Einrichtung (104) verbunden sind, wobei die Bildverarbeitungs-Einrichtung (104) zur Verifizierung und/oder Stabilisierung der Objektinformationen durch Abgleich mit Daten der weiteren Sensoren (111, 121, 131) eingerichtet ist.
  12. Vorrichtung nach Anspruch 10 oder 11, gekennzeichnet durch einen Datenspeicher (107) zur Speicherung historischer und/oder prognostizierter Objektinformationen (24, 25), wobei die Bildverarbeitungs-Einrichtung (104) zur Verwendung historischer und/oder prognostizierter Objektinformationen (24, 25) im Rahmen der Verarbeitung der Roh-Bilddaten eingerichtet ist.
  13. Vorrichtung nach einem der Ansprüche 10 bis 12, gekennzeichnet durch einen Datenspeicher (108) zur Speicherung eines Gitter-Modells (21, 221) der Umgebung des Fahrzeuges(20, 220), wobei die Bildverarbeitungs-Einrichtung (104) zur Objekterkennung auf Basis von Teil-Objektinformationen eingerichtet ist, welche Zellen (22, 222) des Gitter-Modells (21, 221) zugewiesen sind und/oder die Bildaufbereitungs-Einrichtung (102) zur Aufbereitung von Roh-Bilddaten auf Basis des Gitter-Modells (21, 221) eingerichtet ist.
  14. Fahrerassistenzsystem mit einer Vorrichtung nach einem der Ansprüche 10 bis 13.
DE102013220005.6A 2013-10-02 2013-10-02 Verfahren und Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs und Fahrerassistenzsystem Withdrawn DE102013220005A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102013220005.6A DE102013220005A1 (de) 2013-10-02 2013-10-02 Verfahren und Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs und Fahrerassistenzsystem
JP2016546143A JP6522630B2 (ja) 2013-10-02 2014-09-26 車両の周辺部を表示するための方法と装置、並びに、ドライバー・アシスタント・システム
PCT/DE2014/200509 WO2015048967A1 (de) 2013-10-02 2014-09-26 Verfahren und vorrichtung zur anzeige der umgebung eines fahrzeugs und fahrerassistenzsystem
US15/021,529 US10093233B2 (en) 2013-10-02 2014-09-26 Method and apparatus for displaying the surroundings of a vehicle, and driver assistance system
DE112014003327.8T DE112014003327A5 (de) 2013-10-02 2014-09-26 Verfahren und Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs und Fahrerassistenzsystem
EP14792732.1A EP3053133B1 (de) 2013-10-02 2014-09-26 Verfahren und vorrichtung zur anzeige der umgebung eines fahrzeugs und fahrerassistenzsystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013220005.6A DE102013220005A1 (de) 2013-10-02 2013-10-02 Verfahren und Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs und Fahrerassistenzsystem

Publications (1)

Publication Number Publication Date
DE102013220005A1 true DE102013220005A1 (de) 2015-04-02

Family

ID=51845262

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102013220005.6A Withdrawn DE102013220005A1 (de) 2013-10-02 2013-10-02 Verfahren und Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs und Fahrerassistenzsystem
DE112014003327.8T Withdrawn DE112014003327A5 (de) 2013-10-02 2014-09-26 Verfahren und Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs und Fahrerassistenzsystem

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112014003327.8T Withdrawn DE112014003327A5 (de) 2013-10-02 2014-09-26 Verfahren und Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs und Fahrerassistenzsystem

Country Status (5)

Country Link
US (1) US10093233B2 (de)
EP (1) EP3053133B1 (de)
JP (1) JP6522630B2 (de)
DE (2) DE102013220005A1 (de)
WO (1) WO2015048967A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016198059A1 (de) 2015-06-11 2016-12-15 Conti Temic Microelectronic Gmbh Verfahren zur erzeugung eines virtuellen bildes einer fahrzeugumgebung
US10464481B2 (en) * 2015-04-21 2019-11-05 Mando Corporation Multi-camera driver assistance system
DE102019119929A1 (de) * 2019-07-23 2021-01-28 Avl Software And Functions Gmbh Verfahren zur Erfassung einer Fahrzeugumgebung
DE102023115070A1 (de) 2023-06-07 2023-08-24 Daimler Truck AG Rangierassistenzsystem für ein Nutzfahrzeug sowie ein Verfahren

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10025886B1 (en) * 2015-09-30 2018-07-17 X Development Llc Methods and systems for using projected patterns to facilitate mapping of an environment
DE102015221356B4 (de) 2015-10-30 2020-12-24 Conti Temic Microelectronic Gmbh Vorrichtung und Verfahren zur Bereitstellung einer Fahrzeugrundumansicht
US11242068B2 (en) * 2016-05-30 2022-02-08 Lg Electronics Inc. Vehicle display device and vehicle
DE102016114168A1 (de) * 2016-08-01 2018-02-01 Connaught Electronics Ltd. Verfahren zum Erfassen eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs mit Vorhersage der Bewegung des Objekts, Kamerasystem sowie Kraftfahrzeug
US10678240B2 (en) * 2016-09-08 2020-06-09 Mentor Graphics Corporation Sensor modification based on an annotated environmental model
JP6678605B2 (ja) * 2017-01-11 2020-04-08 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
KR20180086794A (ko) 2017-01-23 2018-08-01 삼성전자주식회사 차량 주변의 객체를 나타내는 영상을 생성하는 방법 및 장치.
US10318822B2 (en) * 2017-04-06 2019-06-11 GM Global Technology Operations LLC Object tracking
JP6819514B2 (ja) 2017-08-28 2021-01-27 トヨタ自動車株式会社 画像処理装置及び撮像装置
US10491885B1 (en) * 2018-06-13 2019-11-26 Luminar Technologies, Inc. Post-processing by lidar system guided by camera information
CN112208438B (zh) * 2019-07-10 2022-07-29 台湾中华汽车工业股份有限公司 行车辅助影像产生方法及系统
US11034298B2 (en) 2019-11-18 2021-06-15 Continental Automotive Systems, Inc. Vehicle surround view system for identifying unobservable regions while reversing a trailer

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10059900A1 (de) 2000-12-01 2002-06-13 Daimler Chrysler Ag Darstellung von bildhafter Umgebungsinformation
DE10109665A1 (de) 2001-02-28 2002-09-05 Volkswagen Ag Verfahren zur Darstellung der Umgebung eines Gegenstands oder einer Person
DE10247563A1 (de) 2002-10-11 2004-04-22 Valeo Schalter Und Sensoren Gmbh Verfahren und System zur Unterstützung des Fahrers
DE10257484A1 (de) 2002-12-10 2004-07-01 Volkswagen Ag Vorrichtung und Verfahren zum Darstellen der Umgebung eines Fahrzeugs
EP1462762A1 (de) * 2003-03-25 2004-09-29 Aisin Seiki Kabushiki Kaisha Vorrichtung zur Umgebungserfassung eines Fahrzeugs
DE102009014437A1 (de) * 2008-03-26 2009-11-12 Continental Teves Ag & Co. Ohg Objekterkennungssystem und -verfahren
WO2011060759A1 (de) * 2009-11-18 2011-05-26 Conti Temic Microelectronic Gmbh Verfahren zum unterstützen eines fahrers beim einparken eines fahrzeugs
DE102012203171A1 (de) * 2012-02-29 2013-08-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5983251A (en) * 1993-09-08 1999-11-09 Idt, Inc. Method and apparatus for data analysis
US8364136B2 (en) * 1999-02-01 2013-01-29 Steven M Hoffberg Mobile system, a method of operating mobile system and a non-transitory computer readable medium for a programmable control of a mobile system
US20050089213A1 (en) * 2003-10-23 2005-04-28 Geng Z. J. Method and apparatus for three-dimensional modeling via an image mosaic system
JP2007181129A (ja) * 2005-12-28 2007-07-12 Hitachi Ltd 車載用移動体検出装置
JP2008102620A (ja) * 2006-10-17 2008-05-01 Toyota Motor Corp 画像処理装置
WO2008145545A1 (de) * 2007-05-25 2008-12-04 Continental Teves Ag & Co. Ohg Verfahren und vorrichtung zur erkennung von verkehrsrelevanten informationen
WO2009020918A1 (en) * 2007-08-04 2009-02-12 Omnivision Cdm Optics, Inc. Multi-region imaging systems
JP5439890B2 (ja) * 2009-03-25 2014-03-12 富士通株式会社 画像処理方法、画像処理装置及びプログラム
JP2011118482A (ja) * 2009-11-30 2011-06-16 Fujitsu Ten Ltd 車載装置および認知支援システム
JP5500255B2 (ja) * 2010-08-06 2014-05-21 富士通株式会社 画像処理装置および画像処理プログラム
DE102010040803A1 (de) 2010-09-15 2012-03-15 Continental Teves Ag & Co. Ohg Visuelles Fahrerinformations- und Warnsystem für einen Fahrer eines Kraftfahrzeugs
EP2481637B1 (de) * 2011-01-28 2014-05-21 Nxp B.V. Parkhilfesystem und -verfahren
JP2013140515A (ja) * 2012-01-05 2013-07-18 Toyota Central R&D Labs Inc 立体物検出装置及びプログラム
US10002297B2 (en) * 2012-06-20 2018-06-19 Imprivata, Inc. Active presence detection with depth sensing
US9274525B1 (en) * 2012-09-28 2016-03-01 Google Inc. Detecting sensor degradation by actively controlling an autonomous vehicle
US9715761B2 (en) * 2013-07-08 2017-07-25 Vangogh Imaging, Inc. Real-time 3D computer vision processing engine for object recognition, reconstruction, and analysis
US9485333B2 (en) * 2013-11-22 2016-11-01 Freescale Semiconductor, Inc. Method and apparatus for network streaming
US10127670B2 (en) * 2016-09-27 2018-11-13 Xactware Solutions, Inc. Computer vision systems and methods for detecting and modeling features of structures in images

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10059900A1 (de) 2000-12-01 2002-06-13 Daimler Chrysler Ag Darstellung von bildhafter Umgebungsinformation
DE10109665A1 (de) 2001-02-28 2002-09-05 Volkswagen Ag Verfahren zur Darstellung der Umgebung eines Gegenstands oder einer Person
DE10247563A1 (de) 2002-10-11 2004-04-22 Valeo Schalter Und Sensoren Gmbh Verfahren und System zur Unterstützung des Fahrers
DE10257484A1 (de) 2002-12-10 2004-07-01 Volkswagen Ag Vorrichtung und Verfahren zum Darstellen der Umgebung eines Fahrzeugs
EP1462762A1 (de) * 2003-03-25 2004-09-29 Aisin Seiki Kabushiki Kaisha Vorrichtung zur Umgebungserfassung eines Fahrzeugs
DE102009014437A1 (de) * 2008-03-26 2009-11-12 Continental Teves Ag & Co. Ohg Objekterkennungssystem und -verfahren
WO2011060759A1 (de) * 2009-11-18 2011-05-26 Conti Temic Microelectronic Gmbh Verfahren zum unterstützen eines fahrers beim einparken eines fahrzeugs
DE102012203171A1 (de) * 2012-02-29 2013-08-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
IZADI, S. [et al.]: KinectFusion: Real-Time 3D Reconstruction and Interaction Using a Moving Depth Camera. Proc. of the 24th annual ACM symposium on User interface software and technology, 2011, S. 559-568. *
NEDEVSCHI, S. [et al.]: A Sensor for Urban Driving Asistance Systems based on Dense Stereovision. Proc. of the 2007 IEEE Intelligent Vehicles Symposium, 2007, S. 276-283. *
SAXENA, A. [et al.]: Make3D: Learning 3D Scene Structure from a Single Still Image. IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol. 31, 2009, S. 824-840. *
STROTHOFF, S. [et al.]: Interactive Generation of Virtual Environments Using MUAVs. Proc. of the 2011 IEEE International Symposium on VR Innovation, 2011, S. 89-96. *
ZHANG, W. [et al.]: Primitive-based Building Reconstruction by Integration of LIDAR data and optical imagery. International Archives of the Photogrammetry, Remore Sensing and Spatial Information Sciences, Vol. XXXVIII-5/W12, 2011, S. 7-12. *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10464481B2 (en) * 2015-04-21 2019-11-05 Mando Corporation Multi-camera driver assistance system
US10821896B2 (en) 2015-04-21 2020-11-03 Mando Corporation Multi-camera driver assistance system
WO2016198059A1 (de) 2015-06-11 2016-12-15 Conti Temic Microelectronic Gmbh Verfahren zur erzeugung eines virtuellen bildes einer fahrzeugumgebung
US10412359B2 (en) 2015-06-11 2019-09-10 Conti Temic Microelectronic Gmbh Method for generating a virtual image of vehicle surroundings
DE102019119929A1 (de) * 2019-07-23 2021-01-28 Avl Software And Functions Gmbh Verfahren zur Erfassung einer Fahrzeugumgebung
DE102019119929B4 (de) 2019-07-23 2024-05-08 Avl Software And Functions Gmbh Verfahren zur Erfassung einer Fahrzeugumgebung
DE102023115070A1 (de) 2023-06-07 2023-08-24 Daimler Truck AG Rangierassistenzsystem für ein Nutzfahrzeug sowie ein Verfahren

Also Published As

Publication number Publication date
DE112014003327A5 (de) 2016-06-30
JP2016535377A (ja) 2016-11-10
US20160221503A1 (en) 2016-08-04
WO2015048967A1 (de) 2015-04-09
JP6522630B2 (ja) 2019-05-29
US10093233B2 (en) 2018-10-09
EP3053133A1 (de) 2016-08-10
EP3053133B1 (de) 2018-11-28

Similar Documents

Publication Publication Date Title
EP3053133B1 (de) Verfahren und vorrichtung zur anzeige der umgebung eines fahrzeugs und fahrerassistenzsystem
DE102016220075A1 (de) Kraftfahrzeug und Verfahren zur 360°-Umfelderfassung
DE102012200731A1 (de) Verfahren und Vorrichtung zum Visualisieren der Umgebung eines Fahrzeugs
DE102012025322A1 (de) Kraftfahrzeug mit Kamera-Monitor-System
WO2016162245A1 (de) Verfahren zur darstellung einer fahrzeugumgebung eines fahrzeuges
DE112016001150T5 (de) Schätzung extrinsischer kameraparameter anhand von bildlinien
DE102010042026B4 (de) Verfahren zum Erzeugen eines Abbildes mindestens eines Objekts in einer Umgebung eines Fahrzeugs
DE102010015079A1 (de) Verfahren zum Anzeigen eines Bildes auf einer Anzeigeeinrichtung in einem Fahrzeug. Fahrerassistenzsystem und Fahrzeug
DE102009022278A1 (de) Verfahren zur Ermittlung eines hindernisfreien Raums
DE102018100909A1 (de) Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden
DE102013012930A1 (de) Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug
DE102018108751B4 (de) Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten
DE102009035422A1 (de) Verfahren zur geometrischen Bildtransformation
DE102014012250B4 (de) Verfahren zur Bilderverarbeitung und -darstellung
DE102006044615A1 (de) Verfahren zur Kalibrierung von Bilderfassungseinrichtungen in Fahrzeugen
EP2996327B1 (de) Surround-view-system für fahrzeuge mit anbaugeräten
DE102006037600B4 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs
DE102016211227A1 (de) Verfahren und Fahrzeugsteuersystem zum Erzeugen von Abbildungen eines Umfeldmodells und entsprechendes Fahrzeug
DE102013215408A1 (de) Anzeigesystem für ein Fahrzeug und Verfahren für die Anzeige einer Fahrzeugumgebung
DE102011121473A1 (de) Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung, Kraftfahrzeug und Computerprogramm
DE102009052868A1 (de) Verfahren zum Betrieb eines Fahrassistenzsystems eines Fahrzeugs
EP3073446B1 (de) Verfahren zum darstellen einer fahrzeugumgebung eines fahrzeuges
DE102008050456B4 (de) Verfahren und Vorrichtung zur Fahrspurerkennung
DE102019218479A1 (de) Verfahren und Vorrichtung zur Klassifikation von Objekten auf einer Fahrbahn in einem Umfeld eines Fahrzeugs
DE102010034127A1 (de) Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung in einem Kraftfahrzeug, Fahrerassistenzsystem und Kraftfahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R118 Application deemed withdrawn due to claim for domestic priority