DE102019219017A1 - Anzeigeverfahren zur Darstellung eines Umgebungsmodells eines Fahrzeugs, Computerprogramm, Steuergerät und Fahrzeug - Google Patents

Anzeigeverfahren zur Darstellung eines Umgebungsmodells eines Fahrzeugs, Computerprogramm, Steuergerät und Fahrzeug Download PDF

Info

Publication number
DE102019219017A1
DE102019219017A1 DE102019219017.0A DE102019219017A DE102019219017A1 DE 102019219017 A1 DE102019219017 A1 DE 102019219017A1 DE 102019219017 A DE102019219017 A DE 102019219017A DE 102019219017 A1 DE102019219017 A1 DE 102019219017A1
Authority
DE
Germany
Prior art keywords
vehicle
projection surface
range projection
camera image
short
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019219017.0A
Other languages
English (en)
Inventor
Andreas Binder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102019219017.0A priority Critical patent/DE102019219017A1/de
Priority to PCT/EP2020/082482 priority patent/WO2021110412A1/de
Priority to US17/777,699 priority patent/US20230025209A1/en
Priority to CN202080084680.3A priority patent/CN114765972A/zh
Publication of DE102019219017A1 publication Critical patent/DE102019219017A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

Anzeigeverfahren zur Darstellung eines Umgebungsmodells (200) eines Fahrzeugs (100), umfassend die folgenden Schritte: Erfassung wenigstens einer Abfolge von Kamerabildern von zumindest einem Teilbereich der Umgebung (150) des Fahrzeugs mittels wenigstens einer Kamera (110), Erfassung einer Position (121) des Fahrzeugs (100) mittels wenigstens eines Positionssensors (120), Speicherung wenigstens eines Kamerabildes (230) der Umgebung (150) des Fahrzeugs (100) in einem elektronischen Speicher (130), wobei jedem gespeicherten Kamerabild (230) jeweils die erfasste Position (121) des Fahrzeugs (100) zu einem Erfassungszeitpunkt des gespeicherten Kamerabildes (230) zugeordnet wird, Erfassung von Abständen zwischen dem Fahrzeug (100) und Objekten (160) in der Umgebung (150) des Fahrzeugs (100), Erzeugung wenigstens einer Nahbereichsprojektionsfläche (210), welche den Nahbereich um das Fahrzeug repräsentiert, wobei die Nahbereichsprojektionsfläche (210) in Abhängigkeit der erfassten Abstände dreidimensional verformt wird, und Darstellung des Umgebungsmodells (200) in Abhängigkeit der erzeugten Nahbereichsprojektionsfläche (210), wenigstens eines aktuellen Kamerabildes (220), eines gespeicherten Kamerabildes (230) und der aktuellen Fahrzeugposition.

Description

  • Die vorliegende Erfindung betrifft ein Anzeigeverfahren zur Darstellung eines Umgebungsmodells eines Fahrzeugs. Die Erfindung betrifft darüber hinaus ein Computerprogramm sowie ein Steuergerät, welche jeweils dazu eingerichtet sind, das erfindungsgemäße Verfahren durchzuführen. Die Erfindung betrifft des Weiteren ein Fahrzeug mit dem erfindungsgemäßen Steuergerät.
  • Stand der Technik
  • Das Dokument DE 10 2008 034 594 A1 offenbart ein Verfahren zur Darstellung einer Umgebung eines Fahrzeugs, in welcher wenigstens zwei Bilder auf eine perspektivisch wiedergegebene virtuelle Fahrbahnebene abgebildet werden. Ferner kann das angezeigte Bild mittels einer Synthese aus dem Bild einer Kamera und einer Vorrichtung zur Umfeldsensierung zusammengesetzt werden. Beispielsweise kann das Fahrbahnprofil und/oder die Höhe eines Objektes auf der Fahrbahn erfasst und diese durch eine Verkrümmung entsprechender Bildbereiche dargestellt werden. Beispielsweise wird eine Bordsteinkante mit der Vorrichtung zur Umfeldsensierung erfasst und die virtuelle Fahrbahnfläche an der entsprechenden Stelle verformt.
  • Das Dokument EP 2 511 137 A1 offenbart eine Anzeige eines Umgebungsmodells eines Fahrzeugs.
  • Die vorliegende Erfindung hat zur Aufgabe die bekannten Darstellungen eines Umgebungsmodells eines Fahrzeugs zu verbessern.
  • Offenbarung der Erfindung
  • Die vorstehende Aufgabe wird gemäß der unabhängigen Ansprüche 1, 13, 14 und 15 erfindungsgemäß gelöst.
  • Die vorliegende Erfindung betrifft ein Anzeigeverfahren zur Darstellung eines Umgebungsmodells eines Fahrzeugs. In dem Verfahren wird in einem Schritt wenigstens eine Abfolge von Kamerabildern von zumindest einem Teilbereich der Umgebung des Fahrzeugs mittels wenigstens einer Kamera erfasst. Die Erfassung der Abfolge von Kamerabildern wird insbesondere kontinuierlich durchgeführt. Die Kamera ist am Fahrzeug angeordnet, wobei die Kamera vorzugsweise eine Weitwinkeloptik aufweist. Vorteilhafterweise sind mindestens vier Kameras am Fahrzeug angeordnet, wobei eine erste Kamera mit einer ersten Blickrichtung nach vorne, eine zweite Kamera mit einer zweiten Blickrichtung nach hinten, eine dritte Kamera mit einer dritten Blickrichtung nach rechts und eine vierte Kamera mit einer vierten Blickrichtung nach links jeweils unterschiedliche Teilbereiche der Umgebung des Fahrzeugs erfassen. Die erfassten Teilbereiche können sich teilweise überschneiden. Mit anderen Worten wird vorteilhafterweise die Umgebung rund um das Fahrzeug mittels wenigstens vier Kameras am Fahrzeug erfasst, wobei die Kameras voneinander unterschiedliche Blickrichtung aufweisen. In einem weiteren Verfahrensschritt erfolgt eine Erfassung einer Position des Fahrzeugs. Die Erfassung der Fahrzeugposition wird insbesondere kontinuierlich durchgeführt, wodurch die aktuelle Position des Fahrzeugs und vergangene Positionen des Fahrzeugs bekannt sind. Die Erfassung der Position erfolgt mittels wenigstens eines Positionssensors, vorzugsweise mittels eines Positionssensors für ein globales Navigationssatellitensystem. Die Erfassung der Position kann optional zusätzlich in Abhängigkeit erfasster Abstände zu Objekten in der Umgebung und/oder in Abhängigkeit von Kartendaten und/oder in Abhängigkeit von Odometriedaten des Fahrzeugs erfolgen. Anschließend erfolgt, insbesondere zumindest für eine vorgegebene Zeitspanne, eine Speicherung wenigstens eines erfassten Kamerabildes der Umgebung des Fahrzeugs in einem elektronischen Speicher. Jedem dieser gespeicherten Kamerabilder wird jeweils die erfasste Position des Fahrzeugs zum Erfassungszeitpunkt des gespeicherten Kamerabildes zugeordnet. In einem weiteren Schritt erfolgt eine Erfassung von Abständen zwischen dem Fahrzeug und Objekten in der Umgebung des Fahrzeugs. Die Abstände werden vorteilhafterweise dreidimensional erfasst, beispielsweise mittels wenigstens eines Ultraschallsensors, einer Stereo-Kamera, eines Radar-Sensors und/oder eines Lidar-Sensors und/oder basierend auf einer structure-from-motion - Analyse mittels wenigstens einer Kamera. Danach wird wenigstens eine Nahbereichsprojektionsfläche des Umgebungsmodells erzeugt, wobei zumindest ein Teilbereich der Nahbereichsprojektionsfläche in Abhängigkeit der erfassten Abstände räumlich beziehungsweise dreidimensional verformt wird. Es kann vorteilhafterweise optional vorgesehen sein, dass die Nahbereichsprojektionsfläche um eine Fernbereichsprojektionsfläche erweitert wird, wobei die Fernbereichsprojektionsfläche nicht in Abhängigkeit erfasster Abstände verformt wird und die Nahbereichsprojektionsfläche und die Fernbereichsprojektionsfläche beispielsweise nahtlos beziehungsweise unmittelbar aneinander oder getrennt voneinander angeordnet sind. Die dreidimensionale Verformung der Nahbereichsprojektionsfläche in Abhängigkeit der erfassten Abstände erfolgt vorteilhafterweise ausgehend von einem zumindest teilweise ebenen Gitternetz als Nahbereichsprojektionsfläche. Das Gitternetz kann dabei beliebige Maschenformen umfassen, beispielsweise weist das Gitternetz dreieckige oder viereckige Maschen auf. Beispielsweise wird die Nahbereichsprojektionsfläche in Abhängigkeit der erfassten Abstände und/oder in Abhängigkeit von im Kamerabild erkannter Objekte gekrümmt, so dass die Nahbereichsprojektionsfläche vorteilhafterweise eine Hüllfläche um den Untergrund und die Objekte in der näheren Umgebung des Fahrzeugs repräsentiert. Diese Nahbereichsprojektionsfläche beziehungsweise Hüllfläche ist bevorzugt, wie oben erwähnt, ein Gitternetz. Abschließend erfolgt eine Anzeige beziehungsweise Darstellung des Umgebungsmodells in Abhängigkeit der erzeugten Nahbereichsprojektionsfläche, wenigstens eines aktuellen Kamerabildes und eines gespeicherten Kamerabildes und der aktuellen Fahrzeugposition. Bei dieser Anzeige beziehungsweise Darstellung werden vorzugsweise das aktuelle Kamerabild in Abhängigkeit der aktuellen Fahrzeugposition und das gespeicherte Kamerabild in Abhängigkeit der aktuellen Position und der zugeordneten Position des Fahrzeugs zum Erfassungszeitpunkt als Texturen auf die erzeugte Nahbereichsprojektionsfläche und/oder eine Fernbereichsprojektionsfläche projiziert. Vorteilhafterweise werden bei dieser Darstellung mehrere aktuelle Kamerabilder von mehreren Kameras sowie mehrere gespeicherte Kamerabilder auf die Nahbereichsprojektionsfläche und/oder die Fernbereichsprojektionsfläche projiziert. Die Projektion eines aktuellen und/oder gespeicherten Kamerabilds auf die Nahbereichsprojektionsfläche und/oder die Fernbereichsprojektionsfläche erfolgt dabei bevorzugt für jede Gitternetzmasche separat beziehungsweise für Teilbereiche des jeweiligen Bilds, wobei vorteilhafterweise eine Bildkoordinatentransformationen eines Teilbereichs des erfassten Kamerabilds pro zugeordneter Masche in Abhängigkeit der Maschenform und der erfassten Abstände der jeweilig zugehörigen Gitternetzpunkte zum Fahrzeug durchgeführt werden. Durch das Verfahren resultiert der Vorteil, dass in dem Umgebungsmodell für den Nutzer auch Bereiche des Umgebungsmodells mit einer realistischen beziehungsweise gespeicherte Textur dargestellt sind, welche aktuell nicht mehr mittels einer Kamera am Fahrzeug eingesehen werden können, weil sie beispielsweise durch ein anderes Objekt, wie ein vorbeifahrendes Fahrzeug, zumindest kurzzeitig verdeckt sind. Das Verfahren weist den Vorteil auf, dass während eines Einparkvorgangs eine vollständigere und realistische Sicht der Umgebung für den Nutzer resultiert.
  • Es kann vorteilhafterweise vorgesehen sein, dass die Texturbereiche des Umgebungsmodells, welche auf gespeicherten Kamerabildern beziehungsweise auf nicht aktuellen Kamerabilden basieren gekennzeichnet werden, beispielsweise können diese farblich verfälscht oder statt farblich in Graustufen dargestellt sein. Dadurch kann der Nutzer jederzeit erkennen, welche Bereiche des dargestellten Umgebungsmodells aktuell erfasst werden und welche Bereiche des dargestellten Umgebungsmodells auf gespeicherten Kamerabildern basieren.
  • Es ist vorteilhafterweise vorgesehen, zur Nahbereichsprojektionsfläche mindestens eine Fernbereichsprojektionsfläche anzuordnen, welche insbesondere zumindest zum Teil einen Rand des Umgebungsmodells definiert. Beispielsweise ist die Fernbereichsprojektionsfläche eine im Wesentlichen senkrecht zur Nahbereichsprojektionsfläche angeordnete Innenfläche eines Zylindermantels. Auf der Fernbereichsprojektionsfläche werden bevorzugt Kamerabilder mit weit entfernteren Umgebungsansichten als Textur dargestellt. Mit anderen Worten werden ein Nahbereich der Umgebung des Fahrzeugs vorteilhafterweise als Textur auf einer dreidimensional verformten Nahbereichsprojektionsfläche, insbesondere als Hüllfläche, und ein Fernbereich der Umgebung auf zumindest einer Fernbereichsprojektionsfläche dargestellt, wobei die Fernbereichsprojektionsfläche bevorzugt im Wesentlichen senkrecht zur Nachbereichsprojektionsfläche angeordnet ist und nicht dreidimensional verformt wird. Die Nachbereichsprojektionsfläche und die wenigstens eine Fernbereichsprojektionsfläche können sich optional an den Grenzen kontaktieren, so dass der Eindruck einer zusammenhängenden Projektionsfläche resultiert. Durch diese Weiterbildung kann eine realistische Ansicht der Umgebung als Umgebungsmodell mit relativ geringer Rechenleistung erzeugt werden.
  • Es kann in einer bevorzugten Ausführungsform der Erfindung vorgesehen sein, dass die Speicherung des Kamerabilds beziehungsweise der Kamerabilder nur innerhalb einer vorgegebenen Zeitspanne ausgehend vom aktuellen Zeitpunkt aus erfolgt. Mit anderen Worten werden in dieser Ausführungsform ältere Kamerabilder verworfen beziehungsweise aus dem elektronischen Speicher gelöscht oder im elektronischen Speicher überschrieben. Ferner kann alternativ oder zusätzlich die Speicherung der Kamerabilder in Abhängigkeit eines vorgegebenen Zeitabstands und/oder in Abhängigkeit eines vorgegebenen Positionsabstandes des Fahrzeugs durchgeführt werden. Mit anderen Worten wird beispielsweise alle 5 Sekunden als vorgegebener Zeitabstand und/oder nach einer gefahrenen Wegstrecke des Fahrzeugs von beispielsweise 2 Metern als vorgegebener Positionsabstand jeweils ein neues Kamerabild gespeichert. Dadurch resultiert jeweils der Vorteil, dass der Speicherplatz zur Speicherung der Kamerabilder begrenzt wird und das Umgebungsmodell mit geringer Rechenleistung dargestellt werden kann.
  • In einer weiteren Ausgestaltung wird jedem gespeicherten Kamerabild zusätzlich ein Blickwinkel der jeweiligen Kamera zum Erfassungszeitpunkt zugeordnet. Ferner wird das gespeicherte Kamerabild im dargestellten Umgebungsmodell in Abhängigkeit des zugeordneten Blickwinkels als Textur auf die erzeugte Nahbereichsprojektionsfläche und/oder auf die Fernbereichsprojektionsfläche projiziert. Durch diese Ausgestaltung der Erfindung resultiert eine weniger rechenintensive Darstellung des Umgebungsmodells.
  • In einer Ausführung wird vor der Darstellung des Umgebungsmodells mindestens ein Objekt in der Umgebung des Fahrzeugs in Abhängigkeit des erfassten Kamerabilds erkannt. Vorteilhafterweise wird zusätzlich eine Objektbeweglichkeit erkannt. Bei der optionalen Erkennung der Objektbeweglichkeit wird beispielsweise ermittelt, ob das Objekt prinzipiell beweglich oder grundsätzlich statisch ist. Anschließend erfolgt eine Ermittlung einer Höhe und/oder einer Breite des erkannten Objektes. In dieser Ausführung wird bei der Erzeugung der Nahbereichsprojektionsfläche diese zusätzlich in Abhängigkeit der ermittelten Höhe und/oder der ermittelten Breite des erkannten Objekts dreidimensional verformt. Durch diese Ausführung resultiert ein für den Nutzer realistisches Umgebungsmodell. Optional erfolgt die Anpassung beziehungsweise Verformung beziehungsweise Erzeugung der Nahbereichsprojektionsfläche zusätzlich in Abhängigkeit der erkannten Objektbeweglichkeit. Es kann zur besseren Wahrnehmbarkeit bewegter Objekte vorgesehen sein, bewegte Objekte in Abhängigkeit der erkannten Objektbeweglichkeit besonders leicht erkennbar im Umgebungsmodell darzustellen, beispielsweise durch eine Überhöhung im Vergleich zu der erfassten Höhe und/oder eine Verbreiterung im Vergleich zu der erfassten Breite des Objektes und/oder durch farbliche Kennzeichnung des Objektes. Beispielsweise können bewegte Objekte mit doppelter Höhe und/oder mit doppelter Breite auf der Nahbereichsprojektionsfläche dargestellt werden. Dadurch werden die bewegten Objekte besonders leicht erkennbar.
  • In einer weiteren Ausführung wird auch eine Erkennung von mindestens einem Objekt in der Umgebung des Fahrzeugs in Abhängigkeit des erfassten Kamerabilds durchgeführt. Anschließend wird ein Standardmodell zu dem erkannten Objekt aus einer Datenbank geladen, wobei die Datenbank insbesondere eine Vielzahl an gespeicherten Objekten enthält. Die räumliche Verformung bei der Erzeugung der Nahbereichsprojektionsfläche erfolgt in dieser weiteren Ausführung zusätzlich in Abhängigkeit des geladenen Standardmodells. Mit anderen Worten werden erkannte Objekte, wie beispielsweise parkende Fahrzeuge und/oder Häuser, als gespeicherte Standardmodellen aus einer Datenbank geladen und die Nahbereichsprojektionsfläche in Abhängigkeit dieser geladenen Standardmodelle räumlich beziehungsweise dreidimensional verformt. Durch diese Ausführung wirkt das dargestellte Umgebungsmodell vorteilhafterweise für einen Betrachter realistischer, da beispielsweise auch die nicht mittels eines Sensors am Fahrzeug erfassbaren Dimensionen und Ansichten von beispielsweise zum Fahrzeug angeordneten Objektrückseiten realistisch dargestellt werden können. Beispielsweise kann in dieser Ausführung ein Baum als erkanntes Objekt in der Umgebung des Fahrzeugs durch Verformung der Projektionsfläche in Abhängigkeit eines Standardmodells eines Baums realistischer in dem Umgebungsmodell dargestellt werden.
  • Es kann vorgesehen sein, dass im dargestellten Umgebungsmodell wenigstens ein Texturbereich auf der Nahbereichsprojektionsfläche zumindest teilweise transparent dargestellt ist. Vorteilhafterweise werden die Texturbereiche zumindest teilweise transparent dargestellt, für welche die Nahbereichsprojektionsfläche gegenüber einer ebenen Gitterebene als Nahbereichsprojektionsfläche in Abhängigkeit von erfassten Abstandsdaten und/oder von geladenen Standardmodelle räumlich beziehungsweise dreidimensional verformt worden ist. Die Darstellung der Texturbereiche zu verformten Bereichen der Nahbereichsprojektionsfläche erfolgt vorteilhafterweise halbtransparent. Durch diese Ausgestaltung der Erfindung kann ein Betrachter durch im Umgebungsmodell dargestellte Objekte beziehungsweise Verformungen des Umgebungsmodells hindurchschauen und somit beispielsweise eine Parklücke in der Umgebung des Fahrzeugs unabhängig von der angezeigten Perspektive des Umgebungsmodells besser bewerten. Außerdem entsteht in dieser Ausgestaltung vorteilhafterweise für den Nutzer die Wirkung, dass die Darstellung des Umgebungsmodells seine persönliche Wahrnehmbarkeit der Umgebung erheblich erweitert.
  • In einer besonders bevorzugten Weiterführung der Erfindung wird eine Texturinformation zu einem unbekannten Bereich der Nahbereichsprojektionsfläche und/oder der Fernbereichsprojektionsfläche zu dem weder ein aktuelles Kamerabild noch ein gespeichertes Kamerabild im elektronischen Speicher des Fahrzeugs vorliegt von einer Servereinrichtung und/oder von einem anderen Fahrzeug in Abhängigkeit der aktuellen Fahrzeugposition geladen beziehungsweise empfangen. Dies erfolgt insbesondere mittels einer Funkverbindung zu der Servereinrichtung und/oder dem anderen Fahrzeug. Mit anderen Worten umfasst die empfangene Texturinformation eine Textur zu einem bisher nicht durch eine Kamera des Fahrzeugs einsehbaren unbekannten Bereich der näheren und/oder ferneren Umgebung. Die Darstellung des Umgebungsmodells umfasst in dieser Weiterbildung zusätzlich eine Projektion zumindest eines Teils der empfangenen Texturinformation auf die unbekannten Bereiche der erzeugten Nahbereichsprojektionsfläche und/oder der Fernbereichsprojektionsfläche. Es kann alternativ vorgesehen sein, dass auf den unbekannten Bereich der erzeugten Nahbereichsprojektionsfläche und/oder der Fernbereichsprojektionsfläche eine Schätztextur projiziert beziehungsweise gelegt wird, wobei die Schätztextur beispielsweise eine Mittelung oder eine Kopie von auf der Nahbereichsprojektionsfläche und/oder auf der Fernbereichsprojektionsfläche benachbarten Texturen umfasst. Die Schätztextur kann optional auch einem Standardmodell zugeordnet sein, welches basierend auf einem erkannten Objekt geladen wurde. Durch diese Weiterbildung wird die Nahbereichsprojektionsfläche und/oder die Fernbereichsprojektionsfläche vorteilhafterweise bei der Darstellung des Umgebungsmodells vollständig mit realistischen Texturen belegt, auch wenn der entsprechende Teilbereich der Projektionsfläche bisher nicht mittels einer Kamera am Fahrzeug einsehbar war und/oder aktuell nicht einsehbar ist.
  • In einer Weiterbildung der vorstehenden Weiterführung wird die empfangene Texturinformation oder eine Schätztextur während der Darstellung des Umgebungsmodells abstrahiert auf die Nahbereichsprojektionsfläche und/oder die Fernbereichsprojektionsfläche projiziert. Dadurch resultiert der Vorteil, dass für den Nutzer leicht erkennbar ist, welcher Bereich der Nahbereichsprojektionsfläche und/oder der Fernbereichsprojektionsfläche von einer Kamera des Fahrzeugs erfasst worden und welcher Bereich der Umgebung basierend auf einer empfangenen Texturinformation oder mittels eines Schätztextur geschätzt dargestellt ist. Die Abstraktion kann beispielsweise durch Betonung der Kanten und/oder eine farbliche Veränderung der Texturinformation und/oder der Schätztextur erfolgen. Ungenauigkeiten in der Darstellung des Umgebungsmodells, beispielsweise Farbabweichungen zwischen aktuellen Kamerabildern und empfangenen Texturinformationen und/oder Schätztexturen werden in dieser Weiterbildung außerdem vorteilhafterweise vermieden ohne das der Nutzer dies merkt, da die Abstraktion der empfangenen Texturinformationen und/oder Schätztexturen dem Nutzer vorteilhafterweise eine zusätzliche Information zur Aktualität der Textur liefert.
  • In einer anderen Ausgestaltung wird in der Darstellung des Umgebungsmodells eine Grenzlinie zwischen einer empfangenen Texturinformation und/oder einer Schätztextur und/oder einem aktuellen Kamerabild und/oder einem gespeicherten Kamerabild auf der Nahbereichsprojektionsfläche und/oder die Fernbereichsprojektionsfläche hervorgehoben oder alternativ geglättet. Beispielsweise wird die Grenzlinie farbig dargestellt. Dadurch werden die entsprechenden Bildquellen für den Nutzer insbesondere deutlich hervorgehoben und der Nutzer kann somit deren Aktualität gut einschätzen.
  • In einer weiteren Ausführung wird eine Gefahreninformation von einer Servereinrichtung und/oder von einem anderen Fahrzeug in Abhängigkeit der aktuellen Fahrzeugposition empfangen, wobei der Gefahreninformation insbesondere eine Gefahrpositionsinformation zugeordnet ist. Die Darstellung des Umgebungsmodells umfasst in dieser Ausführung zusätzlich die empfangene Gefahreninformation, wobei die empfangene Gefahreninformation insbesondere in Abhängigkeit der zugeordneten Gefahrpositionsinformation auf der Nahbereichsprojektionsfläche und/oder der Fernbereichsprojektionsfläche als Textur und/oder als Symbol dargestellt wird. Durch diese Ausführung wird ein Nutzer vorteilhafterweise auf eine Gefahr in der Umgebung des Fahrzeugs aufmerksam gemacht, auch wenn diese hinter Objekten liegt. Die Gefahreninformation umfasst beispielsweise Fahrbahnbereiche in der Nähe von Schulen beziehungsweise Kindergärten beziehungsweise Kinderspielplätzen beziehungsweise spielenden Kindern oder Kreuzungen mit einer hohen Unfallgefahr. Dadurch wird der Nutzer vorteilhafterweise auf mögliche Gefahren in der Umgebung aufmerksam gemacht beziehungsweise für solche Gefahren sensibilisiert. Somit wird die Gefahr eines Unfalls für den Nutzer vorteilhafterweise reduziert.
  • Es kann vorgesehen sein, dass zu einer empfangenen Gefahreninformation die Texturen in einem Gefahrenbereich des Umgebungsmodells in Abhängigkeit der der empfangenen Gefahreninformation zugeordneten Gefahrpositionsinformation farblich gekennzeichnet werden. Insbesondere wird der Gefahrenbereich in einem vorgegebenen Abstand von der zugeordneten Gefahrpositionsinformation und/oder in Abhängigkeit der Gefahreninformation eingefärbt. Beispielsweise wird eine Baustelle anders eingefärbt als ein Bereich des Umgebungsmodells zu einer Gefahreninformation mit spielenden Kindern. Durch diese Ausgestaltung kann der Nutzer leicht den Gefahrenbereich abgrenzen beziehungsweise erkennen.
  • Vorzugsweise wird ferner eine Eingabe eines Nutzers zur Aktivierung des Verfahrens erfasst. Diese Erfassung der Eingabe kann insbesondere durch Aktivierung eines Einparkassistenten mittels eines Druckknopfes erfolgen. Besonders bevorzugt repräsentiert die Eingabe eine Zielposition beziehungsweise ein Fahrziel zu einer gewünschten Navigationsroute beziehungsweise Fahrt des Nutzers. Mit anderen Worten wird vorteilhafterweise beim Erreichen eines Zielbereichs der Fahrt das Verfahren automatisch gestartet.
  • Die Erfindung betrifft auch ein Computerprogramm, wobei das Computerprogramm dazu eingerichtet ist, das erfindungsgemäßes Anzeigeverfahren durchzuführen.
  • Die Erfindung betrifft auch ein Steuergerät, wobei das Steuergerät dazu eingerichtet ist, das erfindungsgemäßes Anzeigeverfahren durchzuführen.
  • Die Erfindung betrifft auch ein Fahrzeug, wobei das Fahrzeug das erfindungsgemäße Steuergerät umfasst.
  • Weitere Vorteile ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen mit Bezug zu den Figuren.
    • 1: Fahrzeug
    • 2: Schematische Darstellung des Umgebungsmodells
    • 3: Ablaufdiagramm des Verfahrens als Blockschaltbild
  • Ausführungsbeispiele
  • In 1 ist ein Fahrzeug 100 mit vier Kameras 110 senkrecht von oben beziehungsweise aus einer Aufsicht beziehungsweise Vogelperspektive schematisch dargestellt. Jede der vier Kameras 110 weist eine Weitwinkeloptik auf. Jede Kamera 110 erfasst eine Abfolge von Kamerabildern eines jeweiligen Erfassungsbereichs beziehungsweise Umgebungsbereichs 151 der Umgebung 150 des Fahrzeugs 100. Das Fahrzeug 100 umfasst ferner einen Positionssensor 120, welcher dazu eingerichtet ist, eine aktuelle Position 121 des Fahrzeugs zu ermitteln. Der Positionssensor 120 ist bevorzugt ein Sensor für wenigstens ein globales Navigationssatellitensystem, wie z.B. GPS, Galileo, Glonass und/oder Beidou. Das Fahrzeug 100 umfasst ferner einen elektronischen Speicher 130, welcher dazu eingerichtet ist, ein erfasstes Kamerabild 230 zu speichern, wobei dem gespeicherten Kamerabild 230 jeweils die Position 121, 122, 123 oder 124 des Fahrzeugs 100 zum Erfassungszeitpunkt und bevorzugt auch ein Blickwinkel der jeweiligen Kamera 110, welche das gespeicherte Kamerabild erfasst hat, zugeordnet wird. Das Fahrzeug 100 umfasst ferner ein Steuergerät 140, welches dazu eingerichtet ist, das erfindungsgemäße Anzeigeverfahren durchzuführen. Ferner sind an dem Fahrzeug als Abstandssensoren Ultraschallsensoren 170, ein Lidarsensor 180 sowie eine Stereokamera 190 angeordnet. Die Ultraschallsensoren 170 sind vorne, hinten und an der rechten und linken Fahrzeugseite angeordnet. Ein Lidarsensor 180 und eine Stereokamera 190 zur Erfassung von Abständen bei unterschiedlichen Wetterbedingungen weisen in diesem Ausführungsbeispiel einen Erfassungsbereich in Fahrtrichtung des Fahrzeugs 100 beziehungsweise nach vorne auf.
  • In 2 ist ein Umgebungsmodell 200 zur Darstellung der Umgebung 150 des Fahrzeugs 100 schematisch dargestellt. Das Umgebungsmodell 200 umfasst eine Nahbereichsprojektionsfläche 210 sowie ein Fahrzeugmodell 250, welches mittig auf der Nahbereichsprojektionsfläche 210 angeordnet ist. Das Fahrzeugmodell 250 wird vorteilhafterweise aus dem elektronischen Speicher 130 geladen und entspricht zumindest einem Fahrzeugtyp des Fahrzeugs 100. Die Nahbereichsprojektionsfläche 210 repräsentiert einen Nahbereich der Umgebung 150 des Fahrzeugs 100 und umfasst bevorzugt ein, insbesondere relativ zur Größe des Fahrzeugmodells 250, engmaschiges Gitternetz. Ferner umfasst das Umgebungsmodell eine Fernbereichsprojektionsfläche 290. Die Fernbereichsprojektionsfläche 290 ist in diesem Ausführungsbeispiel zur Nahbereichsprojektionsfläche 210 im Wesentlichen senkrecht angeordnet. Die Nahbereichsprojektionsfläche 210 und die Fernbereichsprojektionsfläche 290 können alternativ zum in 2 gezeigten Ausführungsbeispiel auch unterschiedliche Teilbereiche einer Wannenformfläche umfassen, so dass beispielsweise die Nahbereichsprojektionsfläche 210 und die Fernbereichsprojektionsfläche 290 unmittelbar aneinander angeordnet sein und teilweise eine Krümmung aufweisen können. Die Fernbereichsprojektionsfläche 290 repräsentiert einen Fernbereich der Umgebung 150 des Fahrzeugs 100. In diesem Ausführungsbeispiel ist die Fernbereichsprojektionsfläche 290 einteilig und als Innenfläche einer zylindrischen Mantelfläche ausgestaltet. Alternativ kann die Fernbereichsprojektionsfläche 290 auch als Teil einer Mantelfläche ausgeführt sein, beispielsweise als Halbschale und in Fahrtrichtung angeordnet, oder es können mehrere, beispielsweise rechteckig um die Nahbereichsprojektionsfläche 210 angeordnete, Fernbereichsprojektionsflächen 290 vorgesehen sein. Mit anderen Worten werden im Umgebungsmodell auf der Nahbereichsprojektionsfläche 210 Texturen oder Kamerabilder 220, 230 dargestellt, welche den Nahbereich der Umgebung 150 des Fahrzeugs 100 abbilden beziehungsweise repräsentieren. Auf der Fernbereichsprojektionsfläche 290 werden dagegen Texturen oder Kamerabilder 220, 230 dargestellt, welche den Fernbereich beziehungsweise einen weiter entfernten Umgebungsbereich der Umgebung 150 abbilden beziehungsweise repräsentieren. Die Nahbereichsprojektionsfläche 210 ist räumlich beziehungsweise dreidimensional in Abhängigkeit erfasster Abstände zu den Objekten 240, 241 und 242 und/oder in Abhängigkeit von geladenen Standardmodellen zu den erkannten Objekten 240, 241 und/oder 242 verformt. Die Nahbereichsprojektionsfläche 210 bildet somit vorteilhafterweise eine Hüllkurve um die Objekte 240, 241 und 242 und einen Untergrund der Umgebung 150 im Nahbereich des Fahrzeugs 100. Das Fahrzeug 100 befindet sich in diesem Ausführungsbeispiel beispielsweise in Fahrt. Mit anderen Worten ändert sich das Umgebungsmodell laufend, da sich beispielsweise die Texturen auf der Nahbereichsprojektionsfläche 210 und der Fernbereichsprojektionsfläche 290 entsprechend der aktuellen Fahrzeugposition verschieben oder beispielsweise neue Objekte in die Nahbereichsprojektionsfläche 210 auftauchen oder erkannte Objekte 240, 241 und/oder 242 aus der Nahbereichsprojektionsfläche 210 austreten. Das Fahrzeug hat sich beispielsweise in einer vorgegebenen Zeitspanne vor dem aktuellen Zeitpunkt von einer ersten Fahrzeugposition 124 über eine vorletzte Fahrzeugposition 123 und über eine letzte Fahrzeugposition 122 zu einer aktuellen Fahrzeugposition 121 bewegt. Während dieser Fahrt von der ersten Fahrzeugposition 124 zu der aktuellen Fahrzeugposition 121 wurde mittels jeder Kameras 110 am Fahrzeug kontinuierlich eine Abfolge von Kamerabildern 220 erfasst und einzelne Kamerabilder 230 gespeichert, wobei jedem gespeicherten Kamerabild 230 die jeweilige Fahrzeugposition 124, 123, 122, oder 121 des Fahrzeugs 100 zum Erfassungszeitpunkt des jeweiligen Kamerabilds 230 zugeordnet wird. Die Frequenz der Speicherung der Kamerabilder beziehungsweise die Anzahl der gespeicherten Kamerabilder 230 und/oder die vorgegebene Zeitspanne zur Speicherung der Kamerabilder 230 können jeweils in Abhängigkeit der Fahrzeuggeschwindigkeit und/oder der Fahrzeugposition ermittelt beziehungsweise eingestellt werden. Bevorzugt sind die Zeitspanne zur Speicherung der Kamerabilder 230 sowie die Frequenz der Speicherung des Kamerabilds 230 jeweils so eingestellt, dass für alle während der Bewegung des Fahrzeugs 100 mittels der Kameras 110 einsehbaren Umgebungsbereiche Texturen auf die Nahbereichsprojektionsfläche 210 und/oder auf die Fernbereichsprojektionsfläche 290 des Umgebungsmodells 200 projizieren werden können. Mit anderen Worten sind für die auf der aktuellen Fahrzeugposition 121 nicht mehr einsehbaren Altsichtbereiche 270 gespeicherte Kamerabilder 230 im elektronischen Speicher 120 abgelegt beziehungsweise gespeichert, so dass das Umgebungsmodells realistischer als nur mittels aktueller Kamerabilder 220 als Texturen dargestellt werden kann. Die Darstellung des Umgebungsmodells 200 erfolgt also in Abhängigkeit aktueller Kamerabilder 220 und gespeicherter Kamerabilder 230, so dass auch für die von der aktuellen Fahrzeugposition nicht mittels der Kamera 110 einsehbaren Bereiche der Umgebung beziehungsweise für die Altsichtbereiche 270 im Umgebungsmodell 200 eine realistische Textur im Umgebungsmodell dargestellt wird. Für den Nutzer entsteht der Eindruck, dass die Darstellung des Umgebungsmodells 200 seine mögliche Wahrnehmung erheblich erweitert. Es können ferner unbekannte Bereiche 280, 281 auf der Nahbereichsprojektionsfläche 210 und/oder auf der Fernbereichsprojektionsfläche 290 vorliegen, welche während einer Fahrt des Fahrzeugs 100 nicht durch eine Kamera 110 des Fahrzeugs 100 einsehbar waren und auch aktuell nicht einsehbar sind, beispielsweise, weil diese unbekannte Bereiche 280, 281 von größeren Objekten 240, 241, 242 verdeckt sind. Die Texturinformation für diese unbekannten Bereiche 280, 281 wird bevorzugt von einer Servervorrichtung und/oder von einem anderen Fahrzeug empfangen. Alternativ oder zusätzlich wird die Textur für den jeweils unbekannten Bereich 280, 281 geschätzt. Die Schätzung der Textur für den unbekannten Bereich 280, 281 kann in Abhängigkeit des erkannten Objektes 240, 241 oder 242 in diesem Bereich 280, 281 und/oder durch Kopie im Umgebungsmodell benachbart projizierter Texturen erfolgen. Beispielsweise werden Texturinformationen von einer Servereinrichtung zu den unbekannten Bereichen 280 empfangen und auf die Bereiche 280 projiziert. Auf einen nicht einsehbaren beziehungsweise unbekannten Bereich 281 der Fernbereichsprojektionsfläche 290 kann eine unscharfe Kopie oder eine abstrahiert dargestellte Kopie der Texturen der zu dem unbekannten Bereich 281 benachbarten Texturen im Umgebungsmodell 200 projiziert beziehungsweise dargestellt werden.
  • In 3 ist ein Ablaufdiagramm des Anzeigeverfahrens als Blockschaltbild dargestellt. In einem optionalen ersten Schritt 310 wird eine Eingabe des Nutzers zur Aktivierung des Verfahrens erfasst. Die Eingabe im Schritt 310 kann beispielsweise durch Aktivierung eines Einparkassistenzen mittels eines Druckknopfes erfolgen. Alternativ erfolgt die Eingabe einer Zielposition beziehungsweise eines Fahrziels durch den Nutzer, wobei die Aktivierung 310 bei Ankunft in einem Bereich um das Fahrziel automatisch durchgeführt wird. Im Schritt 320 des Verfahrens wird die Umgebung 150 des Fahrzeugs 100 mittels der wenigstens einen Kamera 110 erfasst. In einem weiteren Schritt 330 erfolgt die Erfassung der Position 121 des Fahrzeugs 100. Anschließend wird im Schritt 340 wenigstens ein Kamerabild 230 der Umgebung 150 des Fahrzeugs in einem elektronischen Speicher 130 gespeichert, wobei jedem gespeicherten Kamerabild 230 jeweils die erfasste Fahrzeugposition 121 zum Erfassungszeitpunkt des Kamerabildes 230 zugeordnet wird. Jedem gespeicherten Kamerabild wird vorzugsweise zusätzlich der Blickwinkel der jeweiligen Kamera 110 zum Erfassungszeitpunkt zugeordnet. Die Speicherung 340 der Kamerabilder 230 erfolgt ferner vorteilhafterweise in Abhängigkeit einer vorgegebenen Zeitspanne, in Abhängigkeit eines vorgegebenen Zeitabstandes und/oder in Abhängigkeit eines vorgegebenen Positionsabstandes des Fahrzeugs. In einem weiteren Schritt 350 des Verfahrens werden Abstände zwischen dem Fahrzeug 100 und Objekten 240, 241, 242 in der Umgebung 15) des Fahrzeugs 100 erfasst, wobei die Erfassung der Abstände bevorzugt dreidimensional erfolgt. In einem optionalen Schritt 360 wird eine Objekterkennung von mindestens einem Objekt 240, 241, 242 in der Umgebung 150 des Fahrzeugs 100 in Abhängigkeit des erfassten und/oder gespeicherten Kamerabilds 220, 230 durchgeführt. Es kann in einem weiteren optionalen Schritt 361 vorgesehen sein, eine Höhe und/oder eine Breite des erkannten Objektes 240, 241, 242 zu ermitteln. In einem anderen optionalen Schritt 362 kann es vorgesehen sein, Standardmodelle zu den erkannten Objekten 240, 241, 242 aus einem elektrischen Speicher zu laden. Anschließend wird im Verfahrensschritt 370 wenigstens eine Nahbereichsprojektionsfläche 210 erzeugt. Die Nahbereichsprojektionsfläche 210 repräsentiert den Nahbereich der Umgebung 150 um das Fahrzeug 100. Die Nahbereichsprojektionsfläche 210 wird im Schritt 370 in Abhängigkeit der erfassten Abstände dreidimensional verformt erzeugt. Es kann im Schritt 370 optional vorgesehen sein, die Nahbereichsprojektionsfläche 210 zusätzlich in Abhängigkeit der ermittelten Höhe und/oder der ermittelten Breite der erkannten Objekte 240, 241, 242 und/oder in Abhängigkeit der geladenen Standardmodelle zu den erkannten Objekten 240, 241, 242 räumlich beziehungsweise dreidimensional zu verformen. Es kann ferner im Schritt 370 vorgesehen sein, die Nahbereichsprojektionsfläche 210 zusätzlich in Abhängigkeit einer ermittelten Objektbeweglichkeit dreidimensional zu verformen. In einem optionalen Schritt 380 kann es vorgesehen sein, das eine Texturinformation zu wenigstens einem unbekannten Bereich 280 der Nahbereichsprojektionsfläche 210 und/oder der Fernbereichsprojektionsfläche 290 zu dem weder ein aktuelles Kamerabild 220 noch ein gespeichertes Kamerabild 230 im elektronischen Speicher 130 des Fahrzeugs 100 vorliegt empfangen wird. Der Empfang erfolgt insbesondere von einer Servereinrichtung und/oder von einem anderen Fahrzeug in Abhängigkeit der aktuellen Fahrzeugposition 121 und vorteilhafterweise nach Absendung einer Anfrage für die Texturinformation in Abhängigkeit der aktuellen Fahrzeugposition 121 oder der Lage beziehungsweise Position des unbekannten Bereichs 280. In einem optionalen Schritt 386 kann es vorgesehen sein, eine Gefahreninformation von einer Servereinrichtung und/oder von einem anderen Fahrzeug in Abhängigkeit der aktuellen Fahrzeugposition zu empfangen, wobei der Gefahreninformation insbesondere eine Positionsinformation zugeordnet ist. Im Schritt 390 erfolgt eine Anzeige beziehungsweise Darstellung des Umgebungsmodells 200 in Abhängigkeit der erzeugten Nahbereichsprojektionsfläche 210, wenigstens eines aktuellen Kamerabildes 220, eines gespeicherten Kamerabildes 230 und der aktuellen Fahrzeugposition 121. Die Darstellung 390 des Umgebungsmodells 200 umfasst optional zusätzlich eine Projektion zumindest eines Teils der empfangenen Texturinformation auf den unbekannten Bereich 280 der Nahbereichsprojektionsfläche 210 und/oder der Fernbereichsprojektionsfläche 290. Optional werden im Verfahrensschritt 390 die empfangene Texturinformation oder eine Schätztextur im Umgebungsmodells abstrahiert auf die Nahbereichsprojektionsfläche 210 und/oder die Fernbereichsprojektionsfläche 290 projiziert. Ferner kann bei der Darstellung 390 des Umgebungsmodells 200 optional eine Grenzlinie zwischen einer empfangenen Texturinformation oder einer Schätztextur und einem aktuellen Kamerabild 220 oder einem gespeicherten Kamerabild 230 auf der Nahbereichsprojektionsfläche 210 und/oder auf der Fernbereichsprojektionsfläche 290 hervorgehoben werden. Die Darstellung 390 des Umgebungsmodells 200 kann optional zusätzlich die empfangene Gefahreninformation umfassen, wobei die empfangene Gefahreninformation insbesondere in Abhängigkeit der zugeordneten Positionsinformation auf der Nahbereichsprojektionsfläche und/oder der Fernbereichsprojektionsfläche dargestellt wird. In der Darstellung 390 des Umgebungsmodells 200 zu einer empfangenen Gefahreninformation können die Texturen in einem Gefahrenbereich des Umgebungsmodells 200 in Abhängigkeit der der empfangenen Gefahreninformation zugeordneten Positionsinformation farblich gekennzeichnet werden. Beispielsweise wird der Gefahrenbereich in einem vorgegebenen Abstand zu der Positionsinformation der Gefahreninformation und/oder in Abhängigkeit der Gefahreninformation eingefärbt. Es kann im Schritt 290 zusätzlich vorgesehen sein, dass ein einen spiegelnden Umgebungsbereich repräsentierender Teilbereich der Nahbereichsprojektionsfläche durch ein angelerntes neuronales Netz beziehungsweise durch ein automatisiertes angelerntes Erkennungsverfahren erkannt wird. Der spiegelnde Umgebungsbereich ist beispielsweise eine Fensterscheibe oder ein Außenspiegel eines Fremdfahrzeugs in der Umgebung des Fahrzeugs oder eine Spiegel- oder Glasfassade eines Gebäudes in der Umgebung des Fahrzeugs. Die Darstellung 390 des Umgebungsmodells 200 kann optional wenigstens eine Projektion wenigstens eines Teils eines aktuellen Kamerabildes 220, eines Teils eines gespeicherten Kamerabildes 230, eines Teils der empfangenen Texturinformation oder eines Teils der Schätztextur auf diesen erkannten Teilbereich umfassen, welcher den erkannten spiegelnden Umgebungsbereichs repräsentiert.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102008034594 A1 [0002]
    • EP 2511137 A1 [0003]

Claims (15)

  1. Anzeigeverfahren zur Darstellung eines Umgebungsmodells (200) eines Fahrzeugs (100), umfassend die folgenden Schritte • Erfassung (320) wenigstens einer Abfolge von Kamerabildern von zumindest einem Teilbereich der Umgebung (150) des Fahrzeugs mittels wenigstens einer Kamera (110), welche am Fahrzeug (100) angeordnet ist, • Erfassung (330) einer Position (121) des Fahrzeugs (100), • Speicherung (340) wenigstens eines Kamerabildes (230) der Umgebung (150) des Fahrzeugs (100) in einem elektronischen Speicher (130), wobei jedem gespeicherten Kamerabild (230) jeweils die erfasste Position (121) des Fahrzeugs (100) zu einem Erfassungszeitpunkt des gespeicherten Kamerabildes (230) zugeordnet wird, • Erfassung (350) von Abständen zwischen dem Fahrzeug (100) und Objekten (240, 241, 242) in der Umgebung (150) des Fahrzeugs (100), • Erzeugung (370) wenigstens einer Nahbereichsprojektionsfläche (210), welche einen Nahbereich der Umgebung (150) um das Fahrzeug (100) repräsentiert, wobei die Nahbereichsprojektionsfläche (210) in Abhängigkeit der erfassten Abstände dreidimensional verformt wird, und • Darstellung (390) des Umgebungsmodells (200) in Abhängigkeit der erzeugten Nahbereichsprojektionsfläche (210), wenigstens eines aktuellen Kamerabildes (220), eines gespeicherten Kamerabildes (230) und der aktuellen Fahrzeugposition.
  2. Verfahren nach Anspruch 1, wobei die Speicherung der Kamerabilder (230) in Abhängigkeit einer vorgegebenen Zeitspanne, in Abhängigkeit eines vorgegebenen Zeitabstandes und/oder in Abhängigkeit eines vorgegebenen Positionsabstandes des Fahrzeugs durchgeführt wird.
  3. Verfahren nach einem der Ansprüche 1 oder 2, wobei jedem gespeicherten Kamerabild zusätzlich ein Blickwinkel der jeweiligen Kamera (110) zum Erfassungszeitpunkt zugeordnet wird, und bei der Darstellung (390) des Umgebungsmodells (200) das gespeicherten Kamerabild (230) zusätzlich in Abhängigkeit des zugeordneten Blickwinkels als Textur auf die erzeugte Nahbereichsprojektionsfläche (210) und/oder die Fernbereichsprojektionsfläche (290) projiziert wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei vor der Darstellung (390) des Umgebungsmodells (200) folgende Schritte durchgeführt werden • Erkennung (360) von mindestens einem Objekt (240, 241, 242) in der Umgebung (150) des Fahrzeugs (100) in Abhängigkeit des erfassten Kamerabilds (220, 230), • Ermittlung (361) einer Höhe und/oder einer Breite des erkannten Objektes (240, 241, 242), und • Erzeugung (370) der Nahbereichsprojektionsfläche (210) zusätzlich in Abhängigkeit der ermittelten Höhe und/oder der ermittelten Breite des erkannten Objekts (240, 241, 242).
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei vor der Darstellung (390) des Umgebungsmodells (200) folgende Schritte durchgeführt werden • Erkennung (360) von mindestens einem Objekt (240, 241, 242) in der Umgebung des Fahrzeugs in Abhängigkeit des erfassten Kamerabilds (220, 230), • Laden (362) eines Standardmodells zu dem erkannten Objekt (240, 241, 242), und • Erzeugung (370) der Nahbereichsprojektionsfläche (210) zusätzlich in Abhängigkeit des geladenen Standardmodells zu dem erkannten Objekt (240, 241, 242).
  6. Verfahren nach Anspruch 5, wobei im Umgebungsmodell wenigstens ein Texturbereich auf der Nahbereichsprojektionsfläche zumindest teilweise transparent dargestellt ist.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei folgende Schritte durchgeführt werden • Empfangen (380) von Texturinformation zu wenigstens einem unbekannten Bereich (280) der Nahbereichsprojektionsfläche (210) und/oder der Fernbereichsprojektionsfläche (290) zu dem weder ein aktuelles Kamerabild (220) noch ein gespeichertes Kamerabild (230) im elektronischen Speicher (120) des Fahrzeugs (100) vorliegt, wobei der Empfang von einer Servereinrichtung und/oder von einem anderen Fahrzeug in Abhängigkeit der aktuellen Fahrzeugposition (121) erfolgt, und • Darstellung (390) des Umgebungsmodells (200), wobei das Umgebungsmodell (200) zusätzlich eine Projektion zumindest eines Teils der empfangenen Texturinformation auf den unbekannten Bereich (280) der Nahbereichsprojektionsfläche (210) und/oder der Fernbereichsprojektionsfläche (290) umfasst.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei die empfangene Texturinformation oder eine Schätztextur bei der Darstellung (390) des Umgebungsmodells abstrahiert auf die Nahbereichsprojektionsfläche (210) und/oder die Fernbereichsprojektionsfläche (290) projiziert wird.
  9. Verfahren nach einem der Ansprüche 7 oder 8, wobei in der Darstellung (390) des Umgebungsmodells (200) eine Grenzlinie zwischen einer empfangenen Texturinformation und/oder einer Schätztextur und/oder einem aktuellen Kamerabild (220) und/oder einem gespeicherten Kamerabild (230) auf der Nahbereichsprojektionsfläche (210) und/oder der Fernbereichsprojektionsfläche (290) hervorgehoben wird.
  10. Verfahren nach einem der vorhergehenden Ansprüche, wobei folgende Schritte durchgeführt werden • Empfangen (386) von einer Gefahreninformation von einer Servereinrichtung und/oder von einem anderen Fahrzeug in Abhängigkeit der aktuellen Fahrzeugposition, wobei der Gefahreninformation insbesondere eine Positionsinformation zugeordnet ist, und • Darstellung (390) des Umgebungsmodells (200), wobei das Umgebungsmodell (200) zusätzlich die empfangene Gefahreninformation umfasst, wobei die empfangene Gefahreninformation insbesondere in Abhängigkeit der zugeordneten Positionsinformation auf der Nahbereichsprojektionsfläche und/oder der Fernbereichsprojektionsfläche dargestellt wird.
  11. Verfahren nach Anspruch 10, wobei in der Darstellung (390) des Umgebungsmodells (200) zu einer empfangenen Gefahreninformation die Texturen in einem Gefahrenbereich des Umgebungsmodells (200) in Abhängigkeit der der empfangenen Gefahreninformation zugeordneten Positionsinformation farblich gekennzeichnet werden, insbesondere wird der Gefahrenbereich in einem vorgegebenen Abstand zur zugeordneten Positionsinformation und/oder in Abhängigkeit der Gefahreninformation eingefärbt.
  12. Verfahren nach einem der vorhergehenden Ansprüche, wobei vor der Darstellung (390) des Umgebungsmodells (200) folgender Schritte durchgeführt wird • Erfassung (310) einer Eingabe durch den Nutzer zur Aktivierung des Verfahrens, wobei die Eingabe insbesondere eine Zielposition zu einer gewünschten Fahrt des Nutzers repräsentiert.
  13. Computerprogramm, wobei das Computerprogramm dazu eingerichtet ist ein Verfahren nach einem der Ansprüche 1 bis 12 durchzuführen.
  14. Steuergerät (140), wobei das Steuergerät (140) dazu eingerichtet ist ein Verfahren nach einem der Ansprüche 1 bis 13 durchzuführen.
  15. Fahrzeug, wobei das Fahrzeug ein Steuergerät (140) nach Anspruch 14 umfasst.
DE102019219017.0A 2019-12-05 2019-12-05 Anzeigeverfahren zur Darstellung eines Umgebungsmodells eines Fahrzeugs, Computerprogramm, Steuergerät und Fahrzeug Pending DE102019219017A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102019219017.0A DE102019219017A1 (de) 2019-12-05 2019-12-05 Anzeigeverfahren zur Darstellung eines Umgebungsmodells eines Fahrzeugs, Computerprogramm, Steuergerät und Fahrzeug
PCT/EP2020/082482 WO2021110412A1 (de) 2019-12-05 2020-11-18 Anzeigeverfahren zur darstellung eines umgebungsmodells eines fahrzeugs, computerprogramm, steuergerät und fahrzeug
US17/777,699 US20230025209A1 (en) 2019-12-05 2020-11-18 Method for displaying a surroundings model of a vehicle, computer program, electronic control unit and vehicle
CN202080084680.3A CN114765972A (zh) 2019-12-05 2020-11-18 用于示出车辆的周围环境模型的显示方法、计算机程序、控制器和车辆

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019219017.0A DE102019219017A1 (de) 2019-12-05 2019-12-05 Anzeigeverfahren zur Darstellung eines Umgebungsmodells eines Fahrzeugs, Computerprogramm, Steuergerät und Fahrzeug

Publications (1)

Publication Number Publication Date
DE102019219017A1 true DE102019219017A1 (de) 2021-06-10

Family

ID=73497743

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019219017.0A Pending DE102019219017A1 (de) 2019-12-05 2019-12-05 Anzeigeverfahren zur Darstellung eines Umgebungsmodells eines Fahrzeugs, Computerprogramm, Steuergerät und Fahrzeug

Country Status (4)

Country Link
US (1) US20230025209A1 (de)
CN (1) CN114765972A (de)
DE (1) DE102019219017A1 (de)
WO (1) WO2021110412A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021214840A1 (de) 2021-12-21 2023-06-22 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ausparken eines Fahrzeugs, Computerprogramm, Steuergerät, System und Fahrzeug
DE102021214952A1 (de) 2021-12-22 2023-06-22 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Anzeige einer virtuellen Ansicht einer Umgebung eines Fahrzeugs, Computerprogramm, Steuergerät und Fahrzeug
DE102022207197A1 (de) 2022-07-14 2024-01-25 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ermitteln einer Fahrbahnfreifläche und Vorrichtung

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1462762A1 (de) * 2003-03-25 2004-09-29 Aisin Seiki Kabushiki Kaisha Vorrichtung zur Umgebungserfassung eines Fahrzeugs
DE102008034594A1 (de) * 2008-07-25 2010-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Information eines Insassen eines Fahrzeuges
EP2511137A1 (de) * 2011-04-14 2012-10-17 Harman Becker Automotive Systems GmbH Fahrzeug-Surround-Blicksystem
DE102012018325A1 (de) * 2012-09-15 2014-03-20 DSP-Weuffen GmbH Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit adaptiver Umsichtdarstellung
US20140118341A1 (en) * 2012-10-25 2014-05-01 Fujitsu Limited Image processing apparatus and method
DE102014208310A1 (de) * 2014-05-05 2015-11-05 Bayerische Motoren Werke Aktiengesellschaft Fahrerassistenzsystem zur Darstellung einer erweiterten Realität

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4309920B2 (ja) * 2007-01-29 2009-08-05 株式会社東芝 車載用ナビゲーション装置、路面標示識別プログラム及び路面標示識別方法
JP5439890B2 (ja) * 2009-03-25 2014-03-12 富士通株式会社 画像処理方法、画像処理装置及びプログラム
JP5165631B2 (ja) * 2009-04-14 2013-03-21 現代自動車株式会社 車両周囲画像表示システム
DE102010010906A1 (de) * 2010-03-10 2011-01-05 Daimler Ag Verfahren zur Erzeugung einer Darstellung eines Fahrzeuges und einer aktuellen Fahrzeugumgebung des Fahrzeuges
US20140267282A1 (en) * 2013-03-14 2014-09-18 Robert Bosch Gmbh System And Method For Context Dependent Level Of Detail Adjustment For Navigation Maps And Systems
US9013286B2 (en) * 2013-09-23 2015-04-21 Volkswagen Ag Driver assistance system for displaying surroundings of a vehicle
WO2015099696A1 (en) * 2013-12-24 2015-07-02 Intel Corporation Road hazard communication
TW201605247A (zh) * 2014-07-30 2016-02-01 國立臺灣大學 影像處理系統及方法
US9757985B2 (en) * 2015-09-25 2017-09-12 Honda Motor Co., Ltd. System and method for providing a gear selection indication for a vehicle
JP6575445B2 (ja) * 2015-09-30 2019-09-18 アイシン精機株式会社 車両用画像処理装置
WO2017122294A1 (ja) * 2016-01-13 2017-07-20 株式会社ソシオネクスト 周囲監視装置、画像処理方法、及び画像処理プログラム
EP3229172A1 (de) * 2016-04-04 2017-10-11 Conti Temic microelectronic GmbH Fahrerassistenzsystem mit variabler bildauflösung
CN117058345A (zh) * 2016-09-23 2023-11-14 苹果公司 增强现实显示器
US10890915B2 (en) * 2016-12-06 2021-01-12 Nissan North America, Inc. Solution path overlay interfaces for autonomous vehicles
US10360709B2 (en) * 2017-04-05 2019-07-23 Microsoft Technology Licensing, Llc Rendering images on map using orientations
CN108225348B (zh) * 2017-12-29 2021-08-24 百度在线网络技术(北京)有限公司 地图创建以及运动实体定位的方法和装置
CN111587572A (zh) * 2018-01-19 2020-08-25 索尼公司 图像处理装置、图像处理方法和程序
US10694105B1 (en) * 2018-12-24 2020-06-23 Wipro Limited Method and system for handling occluded regions in image frame to generate a surround view
US11422265B2 (en) * 2019-03-04 2022-08-23 Ouster, Inc. Driver visualization and semantic monitoring of a vehicle using LiDAR data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1462762A1 (de) * 2003-03-25 2004-09-29 Aisin Seiki Kabushiki Kaisha Vorrichtung zur Umgebungserfassung eines Fahrzeugs
DE102008034594A1 (de) * 2008-07-25 2010-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Information eines Insassen eines Fahrzeuges
EP2511137A1 (de) * 2011-04-14 2012-10-17 Harman Becker Automotive Systems GmbH Fahrzeug-Surround-Blicksystem
DE102012018325A1 (de) * 2012-09-15 2014-03-20 DSP-Weuffen GmbH Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit adaptiver Umsichtdarstellung
US20140118341A1 (en) * 2012-10-25 2014-05-01 Fujitsu Limited Image processing apparatus and method
DE102014208310A1 (de) * 2014-05-05 2015-11-05 Bayerische Motoren Werke Aktiengesellschaft Fahrerassistenzsystem zur Darstellung einer erweiterten Realität

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021214840A1 (de) 2021-12-21 2023-06-22 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ausparken eines Fahrzeugs, Computerprogramm, Steuergerät, System und Fahrzeug
DE102021214952A1 (de) 2021-12-22 2023-06-22 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Anzeige einer virtuellen Ansicht einer Umgebung eines Fahrzeugs, Computerprogramm, Steuergerät und Fahrzeug
DE102022207197A1 (de) 2022-07-14 2024-01-25 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ermitteln einer Fahrbahnfreifläche und Vorrichtung

Also Published As

Publication number Publication date
WO2021110412A1 (de) 2021-06-10
CN114765972A (zh) 2022-07-19
US20230025209A1 (en) 2023-01-26

Similar Documents

Publication Publication Date Title
EP2769373B1 (de) Übernahme von daten aus bilddatenbasierenden kartendiensten in ein assistenzsystem
DE102010006828B4 (de) Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
WO2021110412A1 (de) Anzeigeverfahren zur darstellung eines umgebungsmodells eines fahrzeugs, computerprogramm, steuergerät und fahrzeug
DE69738209T2 (de) Verfahren und Vorrichtung zur Kartenanzeige
DE102009007395B4 (de) Verfahren zur kartenbasierten Umfelddarstellung eines Fahrzeugs
DE102019112002A1 (de) Systeme und verfahren zur automatischen detektion von anhängereigenschaften
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
EP3438901A1 (de) Testfahrtszenario-datenbanksystem für realitätsnahe virtuelle testfahrtszenarien
DE112008003424B4 (de) Navigationsgerät, das Videobilder einer Kamera verwendet
DE102016100416A1 (de) Prüfstand für virtuelle Sensoren
DE102014223363A1 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
DE112018004521T5 (de) Anzeigevorrichtung eines überlagerten Bildes und Computerprogramm
DE102015214338A1 (de) Bestimmung einer Anordnungsinformation für ein Fahrzeug
DE102016210254A9 (de) Fahrzeugortung an kreuzungen anhand von visuellen anhaltspunkte, stationären objekten und durch gps
DE112012006746T5 (de) Kartenanzeigevorrichtung
DE102015205133A1 (de) Verfahren und Vorrichtung zum Ermitteln einer Bewegungsplanung für ein zumindest teilweise automatisiertes Fahren eines Fahrzeugs
EP2805183A1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
DE69815940T2 (de) Verfahren und Anordnung zur Informationsdarstellung in Form einer Landkarte für Fahrzeugsnavigationsgeräte
DE112018004519T5 (de) Anzeigevorrichtung eines überlagerten Bildes und Computerprogramm
DE112020000590T5 (de) Karte und verfahren zum erstellen einer karte
DE102021204765A1 (de) Rendern von Augmented-Reality mit Verdeckung
DE112015007054T5 (de) Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm
DE102019106048A1 (de) Fahrzeuganzeige mit erweiterter realität
WO2017198429A1 (de) Ermittlung von fahrzeugumgebungsdaten
DE102017221839A1 (de) Verfahren zur Positionsbestimmung für ein Fahrzeug, Steuergerät und Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication