DE102010042063B4 - Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs - Google Patents

Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs Download PDF

Info

Publication number
DE102010042063B4
DE102010042063B4 DE102010042063.8A DE102010042063A DE102010042063B4 DE 102010042063 B4 DE102010042063 B4 DE 102010042063B4 DE 102010042063 A DE102010042063 A DE 102010042063A DE 102010042063 B4 DE102010042063 B4 DE 102010042063B4
Authority
DE
Germany
Prior art keywords
vehicle
surroundings
image data
image
symbol
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102010042063.8A
Other languages
English (en)
Other versions
DE102010042063A1 (de
Inventor
Thomas Focke
Henning Von Zitzewitz
Thomas Engelberg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102010042063.8A priority Critical patent/DE102010042063B4/de
Priority to IT001728A priority patent/ITMI20111728A1/it
Priority to US13/251,367 priority patent/US8712103B2/en
Priority to FR1158937A priority patent/FR2965764B1/fr
Priority to CN201110317059.XA priority patent/CN102442311B/zh
Publication of DE102010042063A1 publication Critical patent/DE102010042063A1/de
Application granted granted Critical
Publication of DE102010042063B4 publication Critical patent/DE102010042063B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Abstract

Es wird ein Verfahren zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs vorgeschlagen, das einen Schritt des, Zusammenführens (314) einer Karteninformation mit einer Position und einer Orientierung des Fahrzeugs und einem von einer Umfelderfassungseinrichtung des Fahrzeugs erfassten Abbild des Umfelds, um ein positionsbezogenes Abbild des Umfelds zu erhalten umfasst. Weiterhin umfasst das Verfahren einen Schritt des Aufbereitens (320) des positionsbezogenen Abbilds mit mindestens einem Symbol, das einem klassifizierten Objekt in dem positionsbezogenen Abbild zugeordnet ist, um die aufbereiteten Bilddaten zu bestimmen

Description

  • Stand der Technik
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs, sowie auf ein entsprechendes Computerprogrammprodukt.
  • Die DE 10 2009 005 505 A1 beschreibt ein Verfahren zur Erzeugung eines Abbildes der Umgebung eines Kraftfahrzeugs bezüglich einer virtuellen Kameraposition aus den Bildern von mindestens einer am Kraftfahrzeug angeordneten Kamera. Die Kamerabilder werden auf die virtuelle Kameraposition umgerechnet und durch Hinzunahme von weiteren Informationen über das Umfeld des Kraftfahrzeugs korrigiert.
  • Die US 2010 / 0 123 778 A1 offenbart ein Fahrzeug mit einem Display zur Anzeige von Ortsinformationen bezüglich eines externen Objekts.
  • Die US 7 088 262 B2 offenbart ein Fahrzeug mit einem Display zur Anzeige eines Umfelds des Fahrzeugs, wobei der Anzeige ein Parkplatzsymbol überlagert werden kann.
  • Bekannte Systeme für eine Vogelperspektivansicht eins Fahrzeugumfeldes beschränken sich auf die Entzerrung, Kombination von Einzelbildern und auf die einfache Darstellung der Vogelperspektivansicht.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund wird mit der vorliegenden Erfindung ein Verfahren zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs, weiterhin eine Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs sowie schließlich ein entsprechendes Computerprogrammprodukt gemäß den unabhängigen Patentansprüchen vorgestellt. Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung.
  • Kern der Erfindung ist eine synthetische, abstrahierte, intuitive Visualisierung der Fahrzeugumgebung bei der die für die Fahraufgabe relevanten Objekte, wie kollisionsrelevante Hindernisse, Bordsteine oder Straßenmarkierungen sowie Informationen, wie z.B. Parkverbotszonen, Parkgebühren oder Entfemungsgitter hervorgehoben im Fahrzeugdisplay, vorzugsweise im Display einer Headunit, dargestellt werden. Der erfindungsgemäße Ansatz ermöglicht eine zusätzliche Einblendung von für den Fahrer relevanten Zusatzinformationen bzw. eine neue Art der Darstellung. Diese Zusatzinformationen werden zum Teil durch Algorithmen der Bildverarbeitung generiert und teilweise durch Anbindung an eine digitale Karte, wie sie bei der Navigation eingesetzt wird, und das Internet gewonnen. Vorteilhafterweise kann mittels des erfindungsgemäßen Ansatzes verhindert werden, dass durch die Entzerrung und Änderung der Perspektive der relative Bezug zur echten Weit verloren geht. Zudem können Entfernungen und Abstände für den Fahrer intuitiv richtig angezeigt werden. Dies wird durch eine messtechnische Unterstützung des Fahrers in Form von Abstandsinformationen zu möglichen Hindernissen ermöglicht.
  • Darüber hinaus kann dem Fahrer durch die intuitive Einblendung von Parkverbotszonen in der Vogelperspektive Unterstützung beim Finden von Parkplätzen gegeben werden. Die Entzerrung von Objekten, die nicht vollständig von den Kameras erfasst werden, mitunter sehr irreführend bzw. führt zu Bildern, die nicht der menschlichen visuellen Wahrnehmung entsprechen. Dieser Mangel kann mit der erfindungsgemäßen Einblendung von synthetischen Objekten, die zu einer wesentlich verständlicheren Anzeige für den Fahrer führen, behoben werden.
  • Durch die Einblendung der Zusatzinformationen bzw. die Art der Darstellung erhöht sich der unmittelbare Nutzen für den Fahrer dadurch, dass Unfälle oder Verkehrsregelverstöße vermieden werden. Darüber hinaus steigert die erfindungsgemäße Art der Darstellung des Fahrzeugumfeldes den emotionalen Wert des „Surround View Systems“.
  • Die vorliegende Erfindung schafft ein Verfahren zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs, mit folgenden Schritten:
    • Zusammenführens einer Karteninformation mit einer Position und einer Orientierung des Fahrzeugs sowie einem Abbild des Umfelds, wobei das Abbild eine von einer Umfelderfassungseinrichtung des Fahrzeugs erfasste Information repräsentiert, um ein positionsbezogenes Abbild des Umfelds zu erhalten; und
    • Aufbereiten des positionsbezogenen Abbilds mit mindestens einem Symbol, das einem klassifizierten Objekt in dem positionsbezogenen Abbild zugeordnet ist, um die aufbereiteten Bilddaten zu bestimmen.
  • Das Umfeld kann eine Umgebung des Fahrzeugs oder ein Bereich in der Umgebung des Fahrzeugs darstellen. Das Zusammenführen kann einen Vorgang bezeichnen, durch den Informationen zueinander in Bezug gebracht, miteinander verknüpft oder aneinander ausgerichtet werden. Die Karteninformation kann eine digitale Karte umfassen. Ferner kann die Karteninformation das Umfeld betreffende Zusatzinformationen, beispielsweise über Parkplätze, umfassen. Die Karteninformation kann vorab bestimmt worden sein und auf einem Datenträger des Fahrzeugs gespeichert sein oder über eine Kommunikationsschnittstelle des Fahrzeugs empfangen werden. Auch kann die Karteninformation von einer Infrastruktur in dem Umfeld des Fahrzeugs bereitgestellt und an das Fahrzeug übermittelt werden. Die Position kann einen aktuellen Ort des Fahrzeugs und die Orientierung eine aktuelle Ausrichtung des Fahrzeugs bezeichnen. Die Position und die Orientierung können mittels eines bekannten Ortsbestimmungsverfahrens ermittelt werden. Das Abbild kann einen durch eine oder mehrere Umfelderfassungseinrichtungen erfassten Bereich des Umfelds abbilden. Demnach kann das Abbild das aktuelle Umfeld des Fahrzeugs abbilden. Das positionsbezogene Abbild kann der Position des Fahrzeugs zugeordnete Informationen der Karteninformation sowie Informationen des Abbilds des Umfelds miteinander kombinieren. Im Schritt des Zusammenführens oder im Schritt des Aufbereitens kann eine Objektklassifikation mittels bekannter Objektklassifizierungsverfahren durchgeführt werden. Bei dem klassifizierten Objekt kann es sich beispielsweise um ein Fahrzeug, eine Person, eine Fahrbahnmarkierung oder Fahrbahnbegrenzung, ein Verkehrsschild oder eine Parklücke handeln. Das Symbol kann entsprechend der Objektklassifikation ausgewählt und dem klassifizierten Objekt zugeordnet werden. Das Aufbereiten kann ein Überlagern oder Mischen der Informationen des positionsbezogenen Abbilds mit den Informationen des Objekts darstellen. Dabei können Teile des positionsbezogenen Abbilds durch das Symbol ausgetauscht oder durch das Symbol teilweise oder vollständig verdeckt werden. Das Symbol kann eine vereinfachte Repräsentation des Objekts sein. Beispielsweise kann das Symbol ein Fahrzeug darstellen oder einen Fußgänger. Das Symbol kann eine geringere Informationsdichte aufweisen als das repräsentierte Objekt. Die aufbereiteten Bilddaten können mittels einer Anzeigeeinrichtung angezeigt werden. Die aufbereiteten Bilddaten können eine Vogelperspektivenansicht darstellen, das heißt, das Fahrzeug und insbesondere das Umfeld von oben zeigen. Dazu kann eine virtuelle Kameraposition so gewählt werden, dass eine Draufsicht auf das Fahrzeug und dessen Umgebung erzeugt wird. Andere virtuelle Bezugspunkte der Kamera sowie Darstellungsformen der aufbereiteten Bilddaten sind jedoch ebenso möglich.
  • Das Verfahren kann einen Schritt des Anpassens einer Ausrichtung und/oder einer Skalierung des Symbols an das klassifizierte Objekt in den aufbereiteten Bilddaten umfassen. Symbole, die zur Darstellung der Informationen in den Bilddaten verwendet werden, können durch eine maßstabsgetreue Ausführung und Anordnung einen Eindruck der Realitätsnähe der aufbereiteten Daten verstärken. Dadurch kann der Fahrer die Darstellung leichter mit der wahrgenommenen Realität verknüpfen.
  • Im Schritt des Aufbereitens kann das positionsbezogene Abbild mit einer Entfernungsverkörperung aufbereitet werden, wobei die Entfernungsverkörperung ausgebildet ist, um in den aufbereiteten Bilddaten einen Abstand zwischen einem klassifizierten Objekt und dem Fahrzeug und/oder Entfernungslinien in einer für das Fahrzeug befahrbaren Freifläche darzustellen. Die Entfernungsverkörperung kann in Gestalt eines Gitters als Entfemungsgitter ausgeführt werden. Ebenso ist eine Darstellung mit Linien gleichen Abstands von dem Fahrzeug oder als Text möglich. Durch eine Einblendung der Entfernungsinformation kann ein direkter Zusammenhang für den Fahrer zwischen den aufbereiteten Bilddaten und der Umgebung des Fahrzeugs hergestellt werden.
  • Ferner kann im Schritt des Aufbereitens das positionsbezogene Abbild basierend auf einer voraussichtlichen Bewegungsbahn des Fahrzeugs und/oder einer erkannten Trajektorie des klassifizierten Objekts aufbereitet werden. Die voraussichtliche Bewegungsbahn des Fahrzeugs kann aus aktuellen Daten des Fahrzeugs, wie Geschwindigkeit und Lenkwinkel oder Gierrate ermittelt werden.
  • Ebenso kann ein voraussichtlicher Berührungspunkt oder Kollisionspunkt mit dem Objekt vorherbestimmt werden, wenn zusätzlich erkannte Bewegungsbahnen des Objekts in den Bilddaten berücksichtigt werden. Die Bewegungsbahn lässt sich als Fahrschlauch einblenden, der die äußeren Maße des Fahrzeugs umfasst, so dass eine Überschneidung mit dem Objekt, die eine Kollisionsgefahr andeutet, sicher und schnell erkannt oder hervorgehoben werden kann.
  • Ferner kann die Karteninformation eine Information über einen Parkraum umfassen, die im Schritt des Zusammenführens mit der Position des Fahrzeugs zusammengeführt wird. Im Schritt des Aufbereitens kann das positionsbezogene Abbild mit einem dem Parkraum zugeordneten Symbol aufbereitet werden. Ein Parkraum kann Verkehrsflächen bezeichnen, die für das Parken von Fahrzeugen vorgesehen sind. Ebenso kann der Parkraum Bereiche umfassen, die für das Parken nicht vorgesehen sind, oder in denen das Parken untersagt ist. Der Parkraum kann auch Parkhäuser und Parkgaragen in der Umgebung des Fahrzeugs umfassen. In den Informationen über den Parkraum können ebenfalls Informationen über zu entrichtende Parkgebühren enthalten sein. Die Information über einen Parkraum kann von einer Infrastruktur eines Parkplatzes bereitgestellt werden.
  • Demnach kann die Karteninformation von zumindest einem fahrzeugfernen Dienst empfangen werden, wobei die Karteninformation eine Information über eine für das Fahrzeug zu entrichtende Gebühr umfasst. Dabei können Daten an den fahrzeugfernen Dienst übermittelt werden, um die Gebühr zu entrichten. Durch eine drahtlose Übertragung von Informationen von Dienstleistern über einen fahrzeugfernen Dienst, wie das Internet oder proprietäre Netzwerke von Kommunen, Straßenbetreibern oder Parkplatzbetreibern, können aktuelle und zeitkritische Informationen an den Fahrer übermittelt werden. Falls für eine Benutzung der Parkräume oder Verkehrsräume Gebühren, wie Parkplatzkosten oder Maut, anfallen, so lassen sich die dadurch notwendigen Zahlungsvorgänge bargeldlos direkt aus dem Fahrzeug über eine Netzwerkverbindung bewerkstelligen.
  • Entsprechend einer weiteren Ausführungsform der vorliegenden Erfindung kann im Schritt des Aufbereitens ein für eine aktuelle Fahraufgabe des Fahrzeugs relevantes Objekt bestimmt und in den aufbereiteten Bilddaten hervorgehoben werden. Dabei kann ein Grad des Hervorhebens abhängig von einem Abstand des relevanten Objekts zu dem Fahrzeug sein. So können beispielsweise sich im Umfeld des Fahrzeugs befindliche Hindernisse oder Sperrzonen erkannt und besonders gekennzeichnet werden. Die Hervorhebung der Objekte aus den Bildinformationen kann durch Signalfarben oder unterschiedliche Helligkeitsstufen erfolgen. Ebenso können Kanten in den aufbereiteten Bilddaten hervorgehoben werden.
  • Auch kann im Schritt des Aufbereitens das positionsbezogene Abbild mit einer digitalen Karte aus der Karteninformation ergänzt werden. Dabei lassen unterschiedliche Fahrsituationen verschiedene Möglichkeiten der Darstellung zu. Beispielsweise lässt sich das erkannte Umfeld durch Einbindung von zusätzlichen Informationen erweitern. Dazu kann ein Umfang einer dargestellten Fläche bei höherer Fahrgeschwindigkeit erhöht werden. Flächen, die über das mittels der Umfelderfassungseinrichtung erkannte Fahrzeugumfeld hinausgehen, können durch Karteninformation ergänzt werden. Eine Erweiterung des dargestellten Umfelds kann auch mehrheitlich in eine Richtung erfolgen. Dazu kann der aktuelle Fahrzustand herangezogen werden. Beispielsweise bietet sich eine Erweiterung des Darstellungsbereichs in Fahrtrichtung des Fahrzeugs an. Ebenso können die Karteninformationen die Bildinformationen gänzlich oder teilweise verdecken, wobei auch eine transparente Darstellung möglich ist.
  • Die vorliegende Erfindung schafft ferner eine Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs, wobei die Vorrichtung die folgenden Merkmale umfasst:
    • eine Einrichtung zum Zusammenführen einer Karteninformation mit einer Position und einer Orientierung des Fahrzeugs sowie einem Abbild des Umfelds, wobei das Abbild eine von einer Umfelderfassungseinrichtung des Fahrzeugs erfasste Information repräsentiert, um ein positionsbezogenes Abbild des Umfelds zu erhalten; und
    • eine Einrichtung zum Aufbereiten des positionsbezogenen Abbilds mit mindestens einem Symbol, das einem klassifizierten Objekt in dem positionsbezogenen Abbild zugeordnet ist, um die aufbereiteten Bilddaten zu bestimmen.
  • Die Vorrichtung kann ein Informationssystem, insbesondere ein Navigationssystem, oder ein Teil davon sein. Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuersignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen des Verfahrens beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
  • Von Vorteil ist auch ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, wenn das Programm auf einem, einem Computer entsprechenden Gerät ausgeführt wird.
  • Die Erfindung wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
    • 1 ein Ablaufdiagramm eines Verfahrens gemäß einem Ausführungsbeispiels der vorliegenden Erfindung;
    • 2 eine schematische Darstellung eines Fahrzeugs mit einer Vorrichtung gemäß einem Ausführungsbeispiels der vorliegenden Erfindung;
    • 3 ein Blockschaltbild eines Ausführungsbeispiels eines TopView-Systems gemäß einem Ausführungsbeispiels der vorliegenden Erfindung; und
    • 4 eine mögliche Darstellungsform einer Fahrzeugumfeld-Visualisierung auf Basis eines Multikamerasystems gemäß einem Ausführungsbeispiels der vorliegenden Erfindung.
  • In der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • 1 zeigt ein Ablaufdiagramm eines Verfahrens zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs, gemäß einem Ausführungsbeispiels der vorliegenden Erfindung. In einem Schritt 110 erfolgt ein Zusammenführen einer Karteninformation mit einer Position des Fahrzeugs, einer Orientierung des Fahrzeugs und einem Abbild des Umfelds. Durch das Zusammenführen wird ein positionsbezogenes Abbild des Umfelds geschaffen. In einem Schritt 120 wird das positionsbezogene Abbild mit mindestens einem Symbol aufbereitet, um die aufbereiteten Bilddaten zu erhalten. Das Symbol ist dabei einem klassifizierten Objekt zugeordnet, das von dem positionsbezogenen Abbild umfasst ist.
  • Die Karteninformation, Informationen über die Position und das Abbild des Umfelds können dem Verfahren über geeignete Schnittstellen zugeführt werden oder mittels vorrangegangener Verfahrensschritte bestimmt werden. Beispielsweise kann das Abbild von einem Kamerasystem und einer entsprechenden Bildaufbereitung bereitgestellt werden. Die Position des Fahrzeugs und die Orientierung oder Ausrichtung des Fahrzeugs kann von einem Satellitenortungssystem oder einem optischen Positionsbestimmungssystem bereitgestellt werden. Durch den Schritt 110 des Zusammenführens wird die Karteninformation in Relation zum Abbild des Umfelds und zu der Position und Orientierung des Fahrzeugs gebracht. Daraus ergibt sich das positionsbezogene Abbild des Fahrzeugumfelds, das im Schntt 120 aufbereitet wird. Dabei kann zunächst eine Erkennung und Klassifzierung des Objekts mittels eines oder mehrerer Verfahrensschritte durchgeführt werden. Anschließend kann jedem oder ausgewählten erkannten oder klassifizierten Objekten im positionsbezogenen Abbild ein entsprechendes Symbol aus einer bereitgestellten Datenbank zugeordnet werden. Die aufbereiteten Bilddaten können ausgegeben und von einer Anzeigeeinrichtung angezeigt werden.
  • 2 zeigt ein Blockschaltbild einer Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs 200, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Die Vorrichtung weist ein Kamerasystem 202, eine Einrichtung 204 zum Zusammenführen, eine Einrichtung 206 zum Aufbereiten und eine Anzeigeeinrichtung 208 auf. Auf der Vorrichtung kann das Verfahren zum Bestimmen von aufbereiteten Bilddaten über das Umfeld des Fahrzeugs umgesetzt werden.
  • Das Kamerasystem 202 ist ausgebildet, um eine Mehrzahl von Bildern eines Umfelds des Fahrzeugs 200 aufzunehmen. Aus den Bildern kann ein Abbild des Umfelds zusammengestellt werden. Das Abbild kann eine Blickwinkelverschiebung beinhalten, so dass das Umfeld aus einer Vogelperspektive wiedergegeben werden kann. Objekte im Umfeld können erkannt und klassifiziert werden. Die Einrichtung 204 ist ausgebildet, um das Abbild des Umfelds mit Karteninformationen und einer Position des Fahrzeugs 200 zusammenzuführen. Dazu kann die Einrichtung 204 entsprechende Schnittstellen aufweisen. Ein in der Einrichtung 204 aus dem Abbild, den Karteninformationen und der Position ermittelte positionsbezogene Abbild wird von der Einrichtung 206 weiterverarbeitet. Die Einrichtung 206 ist ausgebildet, um den in dem positionsbezogenen Abbild erkannten Objekten Symbole zuzuordnen und aus den Symbolen und dem positionsbezogenen Abbild die aufbereiteten Bilddaten zu ermitteln. Eine Datenbank mit den entsprechenden Symbolen kann in der Einrichtung 206 gespeichert sein. Die aufbereiteten Bilddaten werden von der Einrichtung 206 die Anzeigeeinrichtung 208 ausgegeben. Die Anzeigeeinrichtung 208 ist ausgebildet, um die aufbereiteten Bilddaten für eine Insassen des Fahrzeugs, beispielsweise auf einem Bildschirm, darzustellen.
  • 3 zeigt ein Blockschaltbild einer Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs, gemäß einem Ausführungsbeispiel der Vorliegenden Erfindung. Gemäß diesem Ausführungsbeispiel ist die Vorrichtung als ein TopView-System ausgeführt.
  • Die Vorrichtung weist eine Umfelderfassungseinrichtung auf, die eine Mehrzahl von Kameras 302 und zusätzlich oder alternativ eine oder mehrere Radar-, Ultraschall- oder Lidareinrichtungen umfasst. Ferner weist die Vorrichtung eine Generierungseinrichtung 306, eine Erkennungseinrichtung 308, eine Lokalisierungseinrichtung 310 mit einer Positionsbestimmungseinrichtung 312, eine Fusionseinrichtung 314 mit einer digitalen Karte 316 und einem Zugang zum Internet 318 sowie eine Zuordnungseinrichtung 320 mit einer Symboldatenbank 322 auf.
  • Die Generierungseinrichtung 306 ist ausgebildet, um eine Aufnahme der Videokamerabilder der Kameras 302 zu steuern und eine Generierung einer dreidimensionalen Umgebungskarte und einer TopView Darstellung durchzuführen. Basierend auf der von der Generierungseinrichtung 306 erzeugten Information ist die Erkennungseinrichtung 308 ausgebildet, um eine videobasierte Objekterkennung und Klassifikation durchzuführen. Zusätzlich wird eine videobasierte Landmarkenerkennung durchgeführt. Eine Lokalisierungseinrichtung 310 weist eine Schnittstelle zu der Positionsbestimmungseinrichtung 312, die basierend auf einer Satellitenortung über GPS oder Galileo eine Information über die Position des Fahrzeugs an die Positionsbestimmungseinrichtung 312 bereitstellen kann. Die Positionsbestimmungseinrichtung 312 ist ausgebildet, um eine Egolokalisierung basierend auf der Position des Fahrzeugs und zusätzlich oder alternativ landmarkenbasiert durchzuführen. Die Fusionseinrichtung 314 weist Schnittstellen zu der digitalen Karte 316 und dem Internet 318 auf. Die Fusionseinrichtung 314 ist ausgebildet, um eine Fusion der Videodaten mit der digitalen Karte 316 sowie eine Fusion mit Daten aus dem Internet 318 durchzuführen. Die Zuordnungseinrichtung 320 ist ausgebildet, um eine Zuordnung von Symbolen aus der Symboldatenbank 322 zu erkannten Objekten durchzuführen. Desweiteren ist die Zuordnungseinrichtung 320 ausgebildet, um eine Bildkomposition aus dem Top-View Bild, Internetbildern und synthetischen Bildelementen durchzuführen. Eine Anzeige der Bildkomposition kann in einem Display durchgeführt werden.
  • Im Folgenden werden anhand der 3 unterschiedliche Ausführungsbeispiele einer Fahrzeugumfeld-Visualisierung auf Basis eines Multikamerasystems beschrieben.
  • Basis des Systems ist ein Multikamerasystem, wobei mehrere Kameras 302 rund um das Fahrzeug so angeordnet sind, dass eine lückenlose Erfassung des Fahrzeugumfeldes gegeben ist. Aus den Daten dieser Kameras 302 wird eine sogenannte „TopView Darstellung“ (gezeigt in 4) generiert und auf einem Display angezeigt. Die Berechnung der TopView Darstellung sowie alle weiteren Algorithmen zur Generierung der Zusatzinformationen finden vorzugsweise, jedoch nicht zwingend, direkt auf der Headunit statt.
  • Im Folgenden werden nun mehrere Realisierungen beschrieben, die eine Erhöhung des Nutzens bedeuten. Gemäß 3 besteht das erfindungsgemäße System aus mehreren Modulen, die im Einzelnen folgende Funktionen beinhalten. Das Multikamerasystem 302 ist an ein Videoeingangsmodul 306 angeschlossen. In diesem Videoeingangsmodul 306 werden die Bilder der einzelnen Videokameras 302 aufgenommen. Über Methoden der Gewinnung von Tiefeninformationen in einem Videobild wie Structure from Motion wird eine dreidimensionale Umgebungskarte des erfassten Fahrzeugumfeldes berechnet. Dies geschieht optional auch unter Verwendung vorhandener Umfeldsensorik 304 wie Ultraschallparksensoren sowie Radar- und Lidarsensoren. Auf der Basis der 3D-Umgebungskarte werden die Videobilddaten der einzelnen Kameras 302 zu einer Top-View-Perspektive umgerechnet und miteinander kombiniert. Ausgehend von den so gewonnenen Informationen werden in einem Objekterkennungsmodul 308 vorhandene Objekte und Landmarken mit bekannten Methoden detektiert und nach Möglichkeit klassifiziert. Die in der Headunit sowieso vorhandene GPS/Galileo-basierte Lokalisierung des eigenen Fahrzeugs wird um bekannte Methoden der videobasierten Lokalisierung mittels erkannter Landmarken, wie SLAM erweitert. Dies erfolgt in einem Lokalisierungsmodul 310. Nach erfolgter Lokalisierung werden die Daten aus der beschriebenen Videoverarbeitung und der digitalen Karte 316 in einem Fusionsmodul 314 fusioniert. In einem Synthesemodul 320 erfolgt die Zuordnung von Normsymbolen zu den klassifizierten Objekten und Landmarken. Dabei kommen die Symbole aus einer Datenbank 322, wobei die Datenbank in landestypische Symbole unterteilt wird. Zentrale Funktion dieses Moduls ist die Komposition des darzustellenden Bildes aus den synthetischen Elementen und dem zuvor generierten TopView Bild.
  • Gemäß einer Ausführungsform werden in das TopView Bild Informationen zu Parkverbotszonen ortsrichtig bzw. für den Fahrer intuitiv wahrnehmbar eingeblendet. Die Informationen zur Größe und Position der Parkverbotszonen können aus der digitalen Karte entnommen werden, was im Fall einer Realisierung auf der Headunit einfach möglich ist. Wichtige Voraussetzung dafür ist eine Lokalisierung des eigenen Fahrzeugs mittels GPS/Galileo und/oder eine videobasierte Landmarkenlokalisierung mit Bezug zur digitalen Karte. Darüber hinaus können Parksperrflächen mit Methoden der Bildverarbeitung erkannt und entsprechend angezeigt werden. Gemäß einem Ausführungsbeispiel können Parkverbotszonen, die in der Karte abgelegt sind und im Videobild erkannte Parkverbotszonen, per Verkehrszeichenerkennung oder Erkennung von gezackten Parksperrflächen, gegenseitig plausibilisiert werden.
  • Gemäß einem Ausführungsbeispiel können durch die Anbindung an die digitale Karte 316, optional erweitert um eine Internetverbindung 318 per Mobilfunklink oder DSRC Maut System, Informationen zu Parkgebühren in das TopView Bild eingeblendet und über die Funkverbindungen auch entsprechende Buchungsvorgänge abgewickelt werden.
  • Gemäß einem Ausführungsbeispiel können mittels Methoden der Bildverarbeitung, wie „Structure from Motion“ oder Gradienten- und Kantendetektionsverfahren, in Kombination mit Ebenenschätzverfahren Bordsteinkanten bzw. Parkmarkierungen in den Kamerabildern detektiert und in das TopView-Bild besonders hervorgehoben eingezeichnet werden. Die Art der Hervorhebung kann dabei mit dem Abstand zur Bordsteinkante variieren. Die Relevanz wird über die Art und Weise der Darstellung wie folgt codiert. Dicht am Fahrzeug befindliche Kanten werden deutlicher hervorgehoben als weiter entfernte Bordsteinkanten. Die Hervorhebung kann derart erfolgen, dass die Farbe, wie eine Signalfarbe bzw. die Helligkeit des Bordsteins der hervorgehoben werden soll entsprechend verstärkt wird. Das gleiche gilt für detektierte Hindernisse beispielsweise Parkhauspfeiler oder Blumenkübel welche als erkannte Objekte im TopView Bild hervorgehoben werden.
  • Gemäß einem Ausführungsbeispiel können Objekte, die in den Multikamerabildem mittels entsprechenden Methoden detektiert werden, im Videobild vermessen und klassifiziert. Auf Basis der Objektklassifikation erfolgt im TopView-Bild die Anzeige eines klassifizierten Objektes mittels eines Normsymbols, welches dann maßstabsgetreu und bei Farbkamerasystemen auch in der richtigen erkannten Farbe in das TopView-Bild eingezeichnet wird. Naheliegende Normsymbole für im Straßenverkehr anzutreffende Objekte sind beispielsweise das Norm-Autosymbol, oder das Norm-Fußgängersymbol, welche in einer Symboldatenbank 322 vorliegen.
  • Durch die Entzerrung und die perspektivische Darstellung kommt es zu einer möglichen Missdeutung der real vorhandenen Abstände und Entfernungen durch den Fahrer. Gemäß einem Ausführungsbeispiel kann dieses Problem durch eine Einblendung eines Entfernungsgitters in das TopView Bild gelöst werden, beschränkt auf den Bereich detektierter Freiflächen rund um das Egofahrzeug. Damit erhält der Fahrer einen optimalen Bezug zu real vorhandenen Abständen innerhalb der von ihm befahrbaren Flächen. Abstände zwischen dem eigenen Fahrzeug und kollisions- relevanten Hindernissen in Fahrtrichtung können zusätzlich in das TopView-Bild eingezeichnet werden. Dabei erfolgt die Auswahl des relevanten Objektes über die Prädiktion des eigenen Fahrschlauchs in Kombination mit der erkannten Trajektorie anderer im Erfassungsbereich befindlicher Fahrzeuge. In diesem Fall wird der Abstand zu einem prädizierten Kollisionspunkt berechnet und angezeigt, wie es in 4 gezeigt ist. Weitere Auswahlkriterien können das nächstgelegene Hindernis oder aber die manuelle Auswahl über den Touchscreen des Fahrerinformationssystems sein. Zusätzlich zu den erwähnten Abstandsinformationen wird der eigene prädizierte Fahrschlauchs, beispielsweise in halbtransparenter Form, in das TopView-Bild eingeblendet. Die Prädiktion des Fahrschlauchs erfolgt dabei auf der Basis des gemessenen Lenkwinkels und der Gierrate des Fahrzeugs.
  • Gemäß einem Ausführungsbeispiel kann durch die Anbindung an die digitale Karte 316 eine gemischte Darstellung aus dem TopView Bild und der digitalen Karte 316 erzeugt werden. Der Übergang zwischen den beiden Darstellungsarten kann dabei fließend sein, bzw. über ein geschwindigkeitsabhängiges Zoomlevel geregelt werden. Die gemischte Darstellung kann aber auch aus einem echten TopView-Kamerabild und einem halbtransparenten Kartenabbild im richtigen Maßstab bestehen
  • Gemäß einem Ausführungsbeispiel können kann statt des Kartenbildes ein Luftbild oder ein Satellitenbild verwendet werden, welches beispielsweise in einer Datenbank vorliegt, oder per Internetlink in das Fahrzeug übertragen wird. Auch hier kann eine gemischte Darstellung in einer halbtransparenten Überlagerung des Satellitenbildes über der TopView-Kameradarstellung realisiert werden. Die Datenbank wird dadurch gefüllt, dass potentielle Serviceanbieter wie Einkaufszentren, Messen und Restaurants Luftbilder oder Orientierungspläne oder Grundrisse ihrer jeweiligen Parkhäuser oder Parkplätze per Internet oder Datenträger anbieten. Zur effizienten Ausnutzung der Rechenressourcen auf der Headunit wird vorgeschlagen, die in der Datenbank vorhandenen Luftbilder oder Grundrisse zu einem früheren Zeitpunkt als der eigentlichen Anzeige vorzuverarbeiten. Dies bedeutet das die Bilder mittels Methoden der Bildverarbeitung hinsichtlich zu erkennender Parksperrflächen und Objekten entweder schon bei ihrer Ablage in der Datenbank „markiert“ werden, oder sobald sich das Fahrzeug dem „Zielgebiet“ nähert.
  • Gemäß einem Ausführungsbeispiel kann die TopView Darstellung dahingehend situationsabhängig geändert werden, dass die virtuelle Kamera so positioniert wird, dass sie dem Fahrer die optimale Sicht auf die für ihn relevante Szene gibt. Dies kann derart gestaltet sein, dass beispielsweise bei Einlegen des Rückwärtsgangs die virtuelle Kameraposition etwa über der Motorhaube gewählt wird, so dass der Fahrer sein eigenes Fahrzeug und möglichst viel vom Umfeld in Fahrtrichtung im Display sieht. Sowohl die Position als auch die Blickrichtung, Blickwinkel und der Zoomlevel der virtuellen Kamera können auch mit dem Lenkwinkel und der aktuellen Egogeschwindigkeit variieren
  • Als Alternative zur TopView-Darstellung der Multikamerabilder kann eine Panorama Darstellung des Fahrzeugumfeldes im Display realisiert werden. Dabei werden die Bilder der einzelnen Kameras nicht perspektivisch verändert, sondern lediglich so vorverarbeitet, dass sie zu einem hochwertigen Panoramabild zusammengefügt werden können. Dabei gelangt aber nicht ein komplettes Panoramabild zur Anzeige, sondern immer nur ein Teil des Panoramabildes, der einer bestimmten Blickrichtung entspricht. Die Entscheidung darüber, welche Blickrichtung gerade zur Anzeige kommt, trifft entweder der Fahrer durch Scrollen auf dem Touchscreen oder durch iDrive- oder Tastatureingabe z.B. an der Headunit. Alternativ kann die Blickrichtung der virtuellen Kamera anhand der erkannten Fahrsituation automatisch ausgewählt werden. Beispiele dafür sind rückwärtsfahren oder Rückwärtsgang einlegen, Blickrichtung nach hinten, Vorbeifahren an einer Parklücke Blickrichtung zur Seite bzw. schräg nach hinten. Abhängig von der jeweiligen Fahrsituation lässt sich mit dem System auch der Blickwinkelbereich skalieren. Wichtig dabei ist es, dem Fahrer in geeigneter Form eine Orientierung zu geben in welche Richtung sein Multikamerasystem gerade blickt. Dies kann z.B. über eine Kompassrose in Form eines Fahrzeugsymbols erfolgen, in dem die aktuelle Blickrichtung und der aktuelle Blickwinkel speziell eingefärbt sind.
  • Gemäß einem Ausführungsbeispiel können kann für die Darstellung des Top-View-Bildes und der überlagerten synthetischen Elemente ein Displaysystem zur Erzeugung eines 3-dimensionalen Eindrucks verwendet werden. Beispielsweise können autostereoskopische Systeme eingesetzt werden, bei denen keine 3D-Brille benötigt wird.
  • 4 zeigt eine Darstellungsform aufbereiteter Bilddaten, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Gezeigt ist ein relevantes Hindernis in einem aktuellen Fahrschlauch. Zwei Fahrzeuge 200 und 402 sind auf einer Straße 404 dargestellt. Um das Fahrzeug 402 ist ein runder Bereich 406 aufgehellt dargestellt. Hinter dem Fahrzeug 200 ist ein Fahrpfad 408 in Gestalt eines Fahrschlauchs dargestellt. Innerhalb des Fahrschlauchs 408 ist eine Entfernungsangabe 410 zwischen den zwei Fahrzeugen 200 sowie 402, in diesem Ausführungsbeispiel 6m dargestellt. In dem Ausführungsbeispiel befindet sich das Fahrzeug 200, dass das Egofahrzeug darstellt, in einer Fahrsituation des Einparkens. Dazu hat der Fahrer den Rückwärtsgang eingelegt und im Fahrzeug 200 wird ansprechend auf das Rückwärtsfahrsignal die Darstellung auf die Situation „einparken“ angepasst. Dazu wird basierend auf einer aktuellen Fahrtrichtung, einer aktuellen Gierrate und einen aktuellen Lenkereinschlagwinkel ein Fahrpfad ermittelt und als Fahrschlauch 408 dargestellt. Befindet sich im ermittelten aktuellen Fahrschlauch 408 ein relevantes Hindernis, in diesem Fall das Fahrzeug 402, so wird es durch den aufgehellten Bereich 406 in der Darstellung besonders hervorgehoben. Zusätzlich wird die Entfernungsinformation 410 in die Darstellung eingeblendet, die den Abstand zwischen den zwei Fahrzeugen 200 und 402 wiedergibt. Andere Hindernisse, wie beispielsweise Bordsteinkanten oder Begrenzungselemente werden ebenfalls erkannt und können zusätzlich hervorgehoben werden. Die Entfernungsinformation 410 kann auch auf andere Art und Weise dargestellt werden. Dazu lassen sich beispielsweise Linien in vorbestimmten Abständen rund um das Fahrzeug 200 eingeblendet werden. Diese Linien könne ausschließlich auf befahrbaren Flächen eingeblendet werden. Alternativ zu den Linien lässt sich die Entfernungsdarstellung auch mit einem projizierten Gitter auf die Fahrbahn bewerkstelligen. Die Fahrzeuge 200 und 402 sind in dieser Darstellung durch symbolische Fahrzeuge ersetzt. Dadurch kann auch die vom Fahrzeug 200 abgewandte Seite des Fahrzeugs 402 dargestellt werden. Das Fahrzeug 200 als Egofahrzeug ist mit einer symbolischen Lenkraddarstellung gekennzeichnet.
  • Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden. Femer können erfindungsgemäße Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden. Umfasst ein Ausführungsbeispiel eine „und/oder“ Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so kann dies so gelesen werden, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.

Claims (9)

  1. Verfahren zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs (200), mit folgenden Schritten: Zusammenführen (110; 314) einer Karteninformation mit einer Position und einer Orientierung des Fahrzeugs (200) sowie einem Abbild des Umfelds, wobei das Abbild eine von einer Umfelderfassungseinrichtung des Fahrzeugs (200) erfasste Information repräsentiert, um ein positionsbezogenes Abbild des Umfelds zu erhalten; und Aufbereiten (120; 320) des positionsbezogenen Abbilds mit mindestens einem Symbol, das einem klassifizierten Objekt in dem positionsbezogenen Abbild zugeordnet ist, um die aufbereiteten Bilddaten zum Anzeigen mittels einer Anzeigeeinrichtung (208) zu bestimmen, wobei es sich bei dem klassifizierten Objekt um ein sich im Umfeld des Fahrzeugs (200) befindliches kollisionsrelevantes Hindernis oder Verkehrsschild handelt, und wobei eine Ausrichtung und Skalierung des Symbols in den aufbereiteten Bilddaten an das klassifizierte Objekt angepasst wird, wobei eine maßstabsgetreue Ausführung und Anordnung des Symbols in den aufbereiteten Bilddaten erfolgt.
  2. Verfahren gemäß Anspruch 1, wobei im Schritt des Aufbereitens (120) das positionsbezogene Abbild mit einer Entfernungsverkörperung aufbereitet wird, wobei die Entfernungsverkörperung ausgebildet ist, um in den aufbereiteten Bilddaten einen Abstand zwischen einem klassifizierten Objekt und dem Fahrzeug (200) und/oder Entfernungslinien in einer für das Fahrzeug befahrbaren Freifläche darzustellen.
  3. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem im Schritt des Aufbereitens (120) das positionsbezogene Abbild basierend auf einer voraussichtlichen Bewegungsbahn (408) des Fahrzeugs (200) und/oder einer erkannten Trajektorie des klassifizierten Objekts aufbereitet wird.
  4. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem im Schritt des Aufbereitens (120) ein für eine aktuelle Fahraufgabe des Fahrzeugs (200) relevantes Objekt (402) bestimmt und in den aufbereiteten Bilddaten hervorgehoben wird, wobei ein Grad des Hervorhebens abhängig von einem Abstand des relevanten Objekts zu dem Fahrzeug ist.
  5. Verfahren gemäß einem der vorhergehenden Ansprüche bei dem die Karteninformation eine Information über einen Parkraum umfasst, die im Schritt (110) des Zusammenführens mit der Position und der Orientierung des Fahrzeugs (200) zusammengeführt wird und bei dem im Schritt des Aufbereitens (120) das positionsbezogene Abbild mit einem dem Parkraum zugeordneten Symbol aufbereitet wird.
  6. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem die Karteninformation von zumindest einem fahrzeugfernen Dienst empfangen wird und eine Information über eine für das Fahrzeug (200) zu entrichtende Gebühr umfasst, und wobei Daten an den fahrzeugfernen Dienst übermittelt werden, um die zu Gebühr zu entrichten.
  7. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei im Schritt des Aufbereitens (120) das positionsbezogene Abbild mit einer digitalen Karte (322) aus der Karteninformation ergänzt wird.
  8. Vorrichtung, insbesondere Informationssystem, zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs (200), mit folgenden Merkmalen: einer Einrichtung (204) zum Zusammenführen einer Karteninformation mit einer Position und einer Orientierung des Fahrzeugs (200) sowie einem Abbild des Umfelds, wobei das Abbild eine von einer Umfelderfassungseinrichtung des Fahrzeugs (200) erfasste Information repräsentiert, um ein positionsbezogenes Abbild des Umfelds zu erhalten; und einer Einrichtung (206) zum Aufbereiten des positionsbezogenen Abbilds mit mindestens einem Symbol, das einem klassifizierten Objekt in dem positionsbezogenen Abbild zugeordnet ist, um die aufbereiteten Bilddaten zum Anzeigen mittels einer Anzeigeeinrichtung (208) zu bestimmen, wobei es sich bei dem klassifizierten Objekt um ein sich im Umfeld des Fahrzeugs (200) befindliches kollisionsrelevantes Hindernis oder Verkehrsschild handelt, und wobei eine Ausrichtung und Skalierung des Symbols in den aufbereiteten Bilddaten an das klassifizierte Objekt angepasst wird, wobei eine maßstabsgetreue Ausführung und Anordnung des Symbols in den aufbereiteten Bilddaten erfolgt.
  9. Computerprogrammprodukt mit Programmcode zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 7, wenn das Programm in einer Vorrichtung ausgeführt wird.
DE102010042063.8A 2010-10-06 2010-10-06 Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs Active DE102010042063B4 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102010042063.8A DE102010042063B4 (de) 2010-10-06 2010-10-06 Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs
IT001728A ITMI20111728A1 (it) 2010-10-06 2011-09-26 Procedimento e dispositivo per determinare dati di immagine trattati erelativi ad un intorno di un veicolo
US13/251,367 US8712103B2 (en) 2010-10-06 2011-10-03 Method and device for determining processed image data about a surround field of a vehicle
FR1158937A FR2965764B1 (fr) 2010-10-06 2011-10-04 Procede et dispositif pour determiner les donnees d'image preparees concernant l'environnement d'un vehicule
CN201110317059.XA CN102442311B (zh) 2010-10-06 2011-10-08 确定与车辆周边环境有关的编辑的图像数据的方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010042063.8A DE102010042063B4 (de) 2010-10-06 2010-10-06 Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs

Publications (2)

Publication Number Publication Date
DE102010042063A1 DE102010042063A1 (de) 2012-01-19
DE102010042063B4 true DE102010042063B4 (de) 2021-10-28

Family

ID=45403038

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010042063.8A Active DE102010042063B4 (de) 2010-10-06 2010-10-06 Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs

Country Status (5)

Country Link
US (1) US8712103B2 (de)
CN (1) CN102442311B (de)
DE (1) DE102010042063B4 (de)
FR (1) FR2965764B1 (de)
IT (1) ITMI20111728A1 (de)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9854209B2 (en) * 2011-04-19 2017-12-26 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
KR101265711B1 (ko) * 2011-11-30 2013-05-20 주식회사 이미지넥스트 3d 차량 주변 영상 생성 방법 및 장치
US9762880B2 (en) * 2011-12-09 2017-09-12 Magna Electronics Inc. Vehicle vision system with customized display
US10338385B2 (en) * 2011-12-14 2019-07-02 Christopher V. Beckman Shifted reality display device and environmental scanning system
DE102012102771A1 (de) * 2012-03-30 2013-10-02 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Darstellung einer Fahrzeugumgebung
JP5857224B2 (ja) * 2012-03-30 2016-02-10 パナソニックIpマネジメント株式会社 駐車支援装置、及び駐車支援方法
CN103035005B (zh) * 2012-12-13 2015-08-05 广州致远电子股份有限公司 一种全景泊车的标定方法,及装置,一种自动标定方法
US9091628B2 (en) 2012-12-21 2015-07-28 L-3 Communications Security And Detection Systems, Inc. 3D mapping with two orthogonal imaging views
WO2014109016A1 (ja) * 2013-01-09 2014-07-17 三菱電機株式会社 車両周辺表示装置
JP6105416B2 (ja) * 2013-07-17 2017-03-29 矢崎総業株式会社 表示装置
DE102013215408A1 (de) 2013-08-06 2015-03-05 Bayerische Motoren Werke Aktiengesellschaft Anzeigesystem für ein Fahrzeug und Verfahren für die Anzeige einer Fahrzeugumgebung
CN104512329B (zh) * 2013-09-27 2017-04-05 比亚迪股份有限公司 倒车安全辅助方法、装置及汽车
US20150106010A1 (en) * 2013-10-15 2015-04-16 Ford Global Technologies, Llc Aerial data for vehicle navigation
US9558408B2 (en) * 2013-10-15 2017-01-31 Ford Global Technologies, Llc Traffic signal prediction
DE102014201801B4 (de) * 2014-01-31 2021-11-25 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur perspektivischen Darstellung eines Fahrzeugumfeldes mit einem Fahrzeug-Modell auf einer Fahrzeuganzeige und Anzeigesystem
US9298993B2 (en) * 2014-02-27 2016-03-29 Xerox Corporation On-street vehicle parking occupancy estimation via curb detection
US9359009B2 (en) * 2014-03-22 2016-06-07 Ford Global Technologies, Llc Object detection during vehicle parking
DE102014205511A1 (de) * 2014-03-25 2015-10-01 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zur anzeige von objekten auf einer fahrzeuganzeige
DE102015202863A1 (de) * 2015-02-17 2016-08-18 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges
JP6613795B2 (ja) * 2015-10-16 2019-12-04 株式会社デンソー 表示制御装置および車両制御装置
DE102015220831A1 (de) * 2015-10-26 2017-04-27 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen von Landmarken für eine Ortsbestimmung für ein bewegliches Objekt sowie Verfahren und Vorrichtung zur Ortsbestimmung für ein bewegliches Objekt
DE102015223471A1 (de) 2015-11-26 2017-06-01 Bayerische Motoren Werke Aktiengesellschaft System zum Einparken eines Fahrzeugs
JP6724653B2 (ja) * 2015-12-21 2020-07-15 株式会社Jvcケンウッド 車両用表示装置、表示方法および表示プログラム
DE102016205870A1 (de) 2016-04-08 2017-10-12 Robert Bosch Gmbh Verfahren zur Bestimmung einer Pose eines wenigstens teilautomatisiert fahrenden Fahrzeugs in einer Umgebung mittels Landmarken
KR102513745B1 (ko) * 2016-04-15 2023-03-24 주식회사 에이치엘클레무브 운전 지원 장치
CN105721793B (zh) * 2016-05-05 2019-03-12 深圳市歌美迪电子技术发展有限公司 一种驾驶距离校正方法及装置
EP3482163B1 (de) * 2016-07-07 2021-06-23 Saab Ab Anzeigesystem und verfahren zum anzeigen einer perspektivischen ansicht der umgebung eines flugzeugs in einem flugzeug
US10397089B2 (en) * 2016-08-04 2019-08-27 Here Global B.V. Method and apparatus for using virtual probe points for routing or navigation purposes
US10282074B2 (en) * 2017-03-10 2019-05-07 GM Global Technology Operations LLC Method and apparatus for enhancing top view image
BR112019019060B1 (pt) 2017-03-17 2021-01-19 Unity IPR ApS método e sistema para colisão de câmera automatizada e preservação de composição
US10339813B2 (en) * 2017-04-17 2019-07-02 GM Global Technology Operations LLC Display control systems and methods for a vehicle
KR20180123354A (ko) 2017-05-08 2018-11-16 엘지전자 주식회사 차량용 사용자 인터페이스 장치 및 차량
GB2565075B (en) * 2017-07-31 2020-05-20 Jaguar Land Rover Ltd Vehicle controller and method
CN108492523A (zh) * 2018-05-21 2018-09-04 四川斐讯信息技术有限公司 一种基于智能穿戴设备的安全防护方法及系统
US11373067B2 (en) * 2018-08-10 2022-06-28 Nec Corporation Parametric top-view representation of scenes
DE102018214874B3 (de) * 2018-08-31 2019-12-19 Audi Ag Verfahren und Anordnung zum Erzeugen einer mit Bildinformationen texturierten Umfeldkarte eines Fahrzeugs und Fahrzeug umfassend eine solche Anordnung
EP3626585A1 (de) * 2018-09-21 2020-03-25 Visteon Global Technologies, Inc. Fahrerassistenzsystem und verfahren zur anzeige von verkehrsinformationen
CN109472742B (zh) * 2018-10-09 2023-05-23 珠海大轩信息科技有限公司 自动调整融合区域的算法及其实现方法
US11598864B2 (en) 2018-12-27 2023-03-07 Wipro Limited Method and system for testing LiDAR sensors
DE102019105790A1 (de) * 2019-03-07 2020-09-10 Man Truck & Bus Se Kraftfahrzeug mit einer Mehrzahl von Sensoreinrichtungen zur Umfelderfassung
CN109849936A (zh) * 2019-03-07 2019-06-07 无锡众创未来科技应用有限公司 一种车辆周边局部障碍物地图的生成方法
DE102019207303A1 (de) * 2019-05-20 2020-11-26 Robert Bosch Gmbh Verfahren und System zum Erstellen einer Lokalisierungskarte für ein Fahrzeug
CN111652027B (zh) * 2019-09-20 2021-07-02 任元华 无声车辆即时识别平台
DE102020213147A1 (de) 2020-10-19 2022-04-21 Continental Automotive Gmbh Verfahren für ein Kamerasystem sowie Kamerasystem
US11792499B2 (en) 2021-10-21 2023-10-17 Raytheon Company Time-delay to enforce data capture and transmission compliance in real and near real time video
US11696011B2 (en) * 2021-10-21 2023-07-04 Raytheon Company Predictive field-of-view (FOV) and cueing to enforce data capture and transmission compliance in real and near real time video
US11700448B1 (en) 2022-04-29 2023-07-11 Raytheon Company Computer/human generation, validation and use of a ground truth map to enforce data capture and transmission compliance in real and near real time video of a local scene
CN116028435B (zh) * 2023-03-30 2023-07-21 深圳市深航华创汽车科技有限公司 行车记录仪的数据处理方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7088262B2 (en) 2002-10-25 2006-08-08 Donnelly Hohe Gmbh & Co. Kg Method of operating a display system in a vehicle for finding a parking place
DE102009005505A1 (de) 2008-03-28 2009-10-01 Volkswagen Ag Verfahren zur Erzeugung eines Abbildes der Umgebung eines Kraftfahrzeugs
US20100123778A1 (en) 2008-11-14 2010-05-20 Toyota Motor Engineering & Manufacturing North America, Inc. Integrated Visual Display System

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6822563B2 (en) * 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US7103460B1 (en) * 1994-05-09 2006-09-05 Automotive Technologies International, Inc. System and method for vehicle diagnostics
JP4615766B2 (ja) * 2000-12-15 2011-01-19 本田技研工業株式会社 駐車支援装置
JP2003102000A (ja) * 2001-09-26 2003-04-04 Clarion Co Ltd 車両後方監視方法、車両後方監視装置及び信号処理装置
US7451041B2 (en) * 2005-05-06 2008-11-11 Facet Technology Corporation Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
EP1792775B1 (de) * 2005-12-02 2018-03-07 Volkswagen Aktiengesellschaft Kraftfahrzeug mit einem sensor zum erkennen eines hindernisses in einer umgebung des kraftfahrzeuges

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7088262B2 (en) 2002-10-25 2006-08-08 Donnelly Hohe Gmbh & Co. Kg Method of operating a display system in a vehicle for finding a parking place
DE102009005505A1 (de) 2008-03-28 2009-10-01 Volkswagen Ag Verfahren zur Erzeugung eines Abbildes der Umgebung eines Kraftfahrzeugs
US20100123778A1 (en) 2008-11-14 2010-05-20 Toyota Motor Engineering & Manufacturing North America, Inc. Integrated Visual Display System

Also Published As

Publication number Publication date
CN102442311A (zh) 2012-05-09
ITMI20111728A1 (it) 2012-04-07
US8712103B2 (en) 2014-04-29
FR2965764A1 (fr) 2012-04-13
FR2965764B1 (fr) 2015-05-15
DE102010042063A1 (de) 2012-01-19
US20120087546A1 (en) 2012-04-12
CN102442311B (zh) 2016-01-20

Similar Documents

Publication Publication Date Title
DE102010042063B4 (de) Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs
DE69738209T2 (de) Verfahren und Vorrichtung zur Kartenanzeige
DE69730262T2 (de) Karten-Anzeigegerät, Navigationsgerät und Karten-Anzeigeverfahren
EP2769373B1 (de) Übernahme von daten aus bilddatenbasierenden kartendiensten in ein assistenzsystem
DE112008003424B4 (de) Navigationsgerät, das Videobilder einer Kamera verwendet
EP1415128B1 (de) Verfahren und vorrichtung zur darstellung von fahrhinweisen in auto-navigationssystemen
DE112018004521T5 (de) Anzeigevorrichtung eines überlagerten Bildes und Computerprogramm
DE112018002143T5 (de) Systeme und verfahren zur kompression von fahrspurdaten
DE202005021607U1 (de) Navigationsvorrichtung mit Kamerainformation
DE112017003916T5 (de) Head-Up-Display-Vorrichtung, Anzeigesteuerverfahren und Steuerprogramm
EP2002212A1 (de) Verfahren und anordnung zur anzeige von navigationshinweisen
DE112018000786T5 (de) EINE VORRICHTUNG UND EIN VERFAHREN ZUM STEUERN EINER HEAD-UP-vvANZEIGE EINES FAHRZEUGS
DE112016002268T5 (de) Bildverarbeitungsvorrichtung, elektronisches spiegelsystem und bildverarbeitungsverfahren
DE112019006171T5 (de) Anzeigesteuervorrichtung, Anzeigesteuerprogramm und nicht-transitorisches greifbares computerlesbares Speichermedium
DE112014007007T5 (de) Informationsanzeige-Steuersystem und Verfahren zum Steuern einer Anzeige einer Information
DE102021204765A1 (de) Rendern von Augmented-Reality mit Verdeckung
DE102010003851A1 (de) Verfahren und Informationssystem zum Markieren eines Zielorts für ein Fahrzeug
EP3685123A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug
WO2020043246A1 (de) Lokalisierungsvorrichtung zur visuellen lokalisierung eines fahrzeugs
WO2021115759A1 (de) Verfahren zum bereitstellen einer dreidimensionalen landkarte in einem kraftfahrzeug
DE102010062464A1 (de) Verfahren und Vorrichtung zur Darstellung eines Abschnitts einer Umgebung
DE102017221839A1 (de) Verfahren zur Positionsbestimmung für ein Fahrzeug, Steuergerät und Fahrzeug
DE102019216747A1 (de) Verfahren zum Bereitstellen eines Überlagerungskartenabschnitts
WO2013056954A1 (de) Verfahren zum assistieren eines fahrers in einer fremden umgebung
DE602004009975T2 (de) Fahrerassistenzsystem für Kraftfahrzeuge

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final