DE102015202863A1 - Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges - Google Patents

Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges Download PDF

Info

Publication number
DE102015202863A1
DE102015202863A1 DE102015202863.1A DE102015202863A DE102015202863A1 DE 102015202863 A1 DE102015202863 A1 DE 102015202863A1 DE 102015202863 A DE102015202863 A DE 102015202863A DE 102015202863 A1 DE102015202863 A1 DE 102015202863A1
Authority
DE
Germany
Prior art keywords
vehicle
camera
data
surround view
projection surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102015202863.1A
Other languages
English (en)
Inventor
Markus Friebe
Felix Löhr
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conti Temic Microelectronic GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH filed Critical Conti Temic Microelectronic GmbH
Priority to DE102015202863.1A priority Critical patent/DE102015202863A1/de
Priority to KR1020177022638A priority patent/KR20170118077A/ko
Priority to CN201680010084.4A priority patent/CN107249934B/zh
Priority to JP2017538401A priority patent/JP2018509799A/ja
Priority to EP16714224.9A priority patent/EP3259907A1/de
Priority to PCT/DE2016/200074 priority patent/WO2016131452A1/de
Priority to DE112016000188.6T priority patent/DE112016000188A5/de
Publication of DE102015202863A1 publication Critical patent/DE102015202863A1/de
Priority to US15/679,603 priority patent/US20170341582A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/101Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using cameras with adjustable capturing direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/306Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using a re-scaling of images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

Kamera-Surround-View-System für ein Fahrzeug mit mindestens einer Fahrzeugkamera, die Kamerabilder liefert, welche durch eine Datenverarbeitungseinheit zur Erzeugung eines Umgebungsbildes verarbeitet werden, das auf einer Anzeigeeinheit angezeigt wird, wobei die Datenverarbeitungseinheit Texturen, die von den Fahrzeugkameras erfasst werden, auf einer adaptiven der Fahrzeugumgebung ähnlichen Re-Projektionsfläche reprojiziert, die auf Basis von durch Fahrzeugsensoren bereitgestellten Sensordaten berechnet wird, wobei die Datenverarbeitungseinheit die Re-Projektionsfläche in Abhängigkeit von einer Position und Orientierung einer virtuellen Kamera anpasst.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges, insbesondere eines Straßenfahrzeuges, welches über ein Kamera-Surround-View-System verfügt.
  • Fahrzeuge werden zunehmend mit Fahrerassistenzsystemen ausgerüstet, welche den Fahrer bei der Durchführung von Fahrmanövern unterstützen. Diese Fahrerassistenzsysteme enthalten zum Teil Kamera-Surround-View-Systeme, die es erlauben, die Fahrzeugumgebung des Fahrzeuges dem Fahrer des Fahrzeuges anzuzeigen. Derartige Kamera-Surround-View-Systeme umfassen eine oder mehrere Fahrzeugkameras, welche Kamerabilder liefern, die durch eine Datenverarbeitungseinheit des Kamera-Surround-View-Systems zu einem Umgebungsbild der Fahrzeugumgebung zusammengefügt werden. Das Bild der Fahrzeugumgebung wird dabei auf einer Anzeigeeinheit angezeigt. Herkömmliche kamerabasierte Fahrerassistenzsysteme projizieren Texturinformationen des Kamerasystems auf einer statischen Projektionsfläche, beispielsweise auf einer statischen zweidimensionalen Grundfläche oder auf einer statischen dreidimensionalen Schalenfläche.
  • Derartige Systeme haben jedoch den gravierenden Nachteil, dass Objekte der Fahrzeugumgebung stark verzerrt angezeigt werden, da die Textur-Re-Projektionsfläche statisch ist und deshalb nicht der realen Umgebung des Kamerasystems entspricht bzw. dieser ähnlich ist. Dadurch können stark verzerrte Objekte angezeigt werden, die störende Artefakte bilden.
  • Es ist daher eine Aufgabe der vorliegenden Erfindung, eine Vorrichtung und ein Verfahren zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges zu schaffen, welches die Darstellung derartiger verzerrter Artefakte unterbindet, um Hindernisse in der Fahrzeugumgebung möglichst gut sichtbar und verzerrungsfrei darzustellen.
  • Diese Aufgabe wird erfindungsgemäß durch ein Kamera-Surround-View-System mit den in Patentanspruch 1 angegebenen Merkmalen gelöst.
  • Die Erfindung schafft demnach gemäß einem ersten Aspekt ein Kamera-Surround-View-System für ein Fahrzeug, wobei das Kamera-Surround-View-System mindestens eine Fahrzeugkamera aufweist, die Kamerabilder liefert, welche durch eine Datenverarbeitungseinheit zur Erzeugung eines Surround-View-Bildes bzw. eines Umgebungsbildes verarbeitet werden, das auf einer Anzeigeeinheit angezeigt wird, wobei die Datenverarbeitungseinheit Texturen, die von den Fahrzeugkameras erfasst werden, auf einer adaptiven der Fahrzeugumgebung ähnlichen Re-Projektionsfläche re-projiziert, die auf Basis von durch Fahrzeugsensoren des Fahrzeuges bereitgestellten Sensordaten, berechnet wird, wobei die Datenverarbeitungseinheit die Re-Projektionsfläche in Abhängigkeit einer Position und/oder Orientierung einer virtuellen Kamera anpasst.
  • Bei einer möglichen Ausführungsform des erfindungsgemäßen Kamera-Surround-View-Systems stellen die von den Fahrzeugsensoren bereitgestellten Sensordaten die Fahrzeugumgebung des Fahrzeuges genau dar.
  • Bei einer weiteren möglichen Ausführungsform des erfindungsgemäßen Kamera-Surround-View-Systems umfassen die Sensordaten Parkabstandsdaten, Radardaten, Lidardaten, Kameradaten, Laserscandaten und/oder Bewegungsdaten.
  • Bei einer weiteren möglichen Ausführungsform des erfindungsgemäßen Kamera-Surround-View-Systems weist die adaptive Re-Projektionsfläche ein dynamisch veränderbares Gitter auf.
  • Bei einer weiteren möglichen Ausführungsform des erfindungsgemäßen Kamera-Surround-View-Systems ist das Gitter der Re-Projektionsfläche in Abhängigkeit der bereitgestellten Sensordaten dynamisch veränderbar.
  • Bei einer weiteren möglichen Ausführungsform des erfindungsgemäßen Kamera-Surround-View-Systems ist das Gitter der Re-Projektionsfläche ein dreidimensionales Gitter.
  • Bei einer möglichen Ausführungsform des erfindungsgemäßen Kamera-Surround-View-Systems ist die Anzeigeeinheit ein Touchscreen und die Position und/oder Orientierung der virtuellen Kamera ist über das Touchscreen durch einen Nutzer einstellbar.
  • Die Erfindung schafft ferner ein Fahrerassistenzsystem mit den in Patentanspruch 7 angegebenen Merkmalen.
  • Die Erfindung schafft demnach gemäß einem zweiten Aspekt ein Fahrerassistenzsystem mit einem darin integrierten Kamera-Surround-View-System, wobei dieses mindestens eine Fahrzeugkamera aufweist, die Kamerabilder liefert, welche durch eine Datenverarbeitungseinheit zur Erzeugung eines Surround-View-Bildes verarbeitet werden, das auf einer Anzeigeeinheit angezeigt wird, wobei die Datenverarbeitungseinheit Texturen, die von den Fahrzeugkameras des Fahrzeuges erfasst werden, auf einer adaptiven der Fahrzeugumgebung ähnlichen Re-Projektionsfläche re-projiziert, die auf Basis von durch Fahrzeugsensoren bereitgestellten Sensordaten berechnet wird.
  • Die Erfindung schafft ferner ein Verfahren zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges mit den in Patentanspruch 8 angegebenen Merkmalen.
  • Die Erfindung schafft demnach ein Verfahren zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges mit den Schritten:
    Erzeugen von Kamerabildern der Fahrzeugumgebung durch Fahrzeugkameras des Fahrzeuges,
    Verarbeiten der erzeugten Kamerabilder zur Generierung eines Umgebungsbildes der Fahrzeugumgebung,
    Re-projizieren von Texturen, die von den Fahrzeugkameras erfasst werden, auf einer adaptiven der Fahrzeugumgebung ähnlichen Re-Projektionsfläche, die auf Basis von durch Fahrzeugsensoren bereitgestellten Sensordaten berechnet wird und Anpassen der Re-Projektionsfläche in Abhängigkeit einer Position und/oder Orientierung einer virtuellen Kamera, die ein Vogelperspektiven-Kamerabild des Fahrzeuges liefert.
  • Weitere mögliche Ausführungsformen des erfindungsgemäßen Verfahrens sind in den Unteransprüchen angegeben.
  • Im Weiteren werden mögliche Ausführungsformen der erfindungsgemäßen Vorrichtung und des erfindungsgemäßen Verfahrens zur verzerrungsfreien Anzeige einer Fahrzeugumgebung eines Fahrzeuges unter Bezugnahme auf die beigefügten Figuren näher erläutert.
  • Es zeigen:
  • 1 ein Blockschaltbild zur Darstellung eines Ausführungsbeispiels eines erfindungsgemäßen Kamera-Surround-View-Systems;
  • 2 ein Ablaufdiagramm zur Darstellung eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges;
  • 3 eine schematische Darstellung zur Erläuterung der Funktionsweise des erfindungsgemäßen Verfahrens und des erfindungsgemäßen Kamera-Surround-View-Systems.
  • Wie man in 1 erkennen kann, weist das Kamera-Surround-View-System 1 bei dem dargestellten Beispiel mehrere Komponenten auf. Das Kamera-Surround-View-System 1 weist bei dem dargestellten Ausführungsbeispiel mindestens eine Fahrzeugkamera 2 auf, die Kamerabilder liefert, welche durch eine Datenverarbeitungseinheit 3 des Kamera-Surround-View-Systems 1 zu einem Surround-View-Bild bzw. einem Umgebungsbild des Fahrzeuges verarbeitet werden. Die von der Datenverarbeitungseinheit 3 erzeugten Surround-View-Bilder bzw. Fahrzeugumgebungsbilder werden auf einer Anzeigeeinheit 4 angezeigt. Die Datenverarbeitungseinheit 3 berechnet auf Basis von Sensordaten, die von Fahrzeugsensoren 5 des Fahrzeuges bereitgestellt werden, eine adaptive Re-Projektionsfläche. Texturen, die von den Fahrzeugkameras 2 des Kamera-Surround-View-Systems 1 erfasst werden, werden auf dieser berechneten adaptiven der Fahrzeugumgebung ähnlichen Re-Projektionsfläche reprojiziert, wodurch Verzerrungen bzw. verzerrte Artefakte minimiert bzw. eliminiert werden.
  • Bei den in 1 dargestellten Sensoren 5 handelt es sich beispielsweise um Sensoren einer Parkabstandssteuerung bzw. Parkabstandsregelung. Weiterhin kann es sich bei den Sensoren des Fahrzeuges um Radarsensoren, Lidarsensoren handeln. Bei einer weiteren möglichen Ausführungsform werden die Sensordaten von weiteren Fahrzeugkameras 2, insbesondere einer Stereokamera oder einer Monokamera, zur Berechnung der adaptiven Re-Projektionsfläche geliefert. Bei einer weiteren möglichen Ausführungsform werden die Sensordaten durch ein Laserscansystem des Fahrzeuges bereitgestellt. Bei einer weiteren möglichen Ausführungsform werden auch Bewegungsdaten oder Strukturdaten zur Berechnung der Re-Projektionsfläche durch die Datenverarbeitungseinheit 3 herangezogen. Die von den Fahrzeugsensoren 5 bereitgestellten Sensordaten geben mit einer hohen Genauigkeit die Fahrzeugumgebung bzw. Objekte in der Fahrzeugumgebung wieder. Bei diesen Objekten handelt es sich beispielsweise um andere Fahrzeuge, die sich in der unmittelbaren Umgebung des Fahrzeuges, beispielsweise in einem Umkreis von bis zu fünf Metern, befinden. Weiterhin kann es sich bei diesen Objekten auch um Passanten handeln, die an dem Fahrzeug in unmittelbarer Nähe in einem Abstand von bis zu fünf Metern vorbeigehen. Bei den Objekten kann es sich auch um sonstige Hindernisse, wie beispielsweise Stangen zur Begrenzung einer Parkfläche handeln.
  • Die von der Datenverarbeitungseinheit 3 auf Basis der Sensordaten berechnete Re-Projektionsfläche weist vorzugsweise ein dynamisch veränderbares Gitter bzw. Mesh auf. Dieses Gitter der Re-Projektionsfläche wird bei einer möglichen Ausführungsform in Abhängigkeit der bereitgestellten Sensordaten dynamisch verändert. Das Gitter der Re-Projektionsfläche ist vorzugsweise ein dreidimensionales Gitter. Die durch die Datenverarbeitungseinheit 3 berechnete Re-Projektionsfläche ist nicht statisch, sondern dynamisch und adaptiv anpassbar an die momentanen Sensordaten, welche von den Fahrzeugsensoren 5 geliefert werden. Diese Fahrzeugsensoren 5 können bei einer möglichen Ausführungsform eine Monofrontkamera oder eine Stereokamera umfassen. Weiterhin können die Sensoreinheiten 5 ein Lidarsystem aufweisen, das Daten liefert oder ein Radarsystem, welches Radardaten der Umgebung an die Datenverarbeitungseinheit 3 überträgt. Die Datenverarbeitungseinheit 3 kann einen oder mehrere Mikroprozessoren enthalten, welche die Sensordaten verarbeitet und daraus eine Re-Projektionsfläche in Echtzeit berechnet. Texturen, die von den Fahrzeugkameras 2 erfasst werden, werden auf diese berechnete der Fahrzeugumgebung ähnliche Re-Projektionsfläche projiziert bzw. re-projiziert. Die Anzeige der Fahrzeugkameras 2 kann variieren. Bei einer möglichen Ausführungsform verfügt das Fahrzeug über vier Fahrzeugkameras 2 an vier unterschiedlichen Seiten des Fahrzeuges. Bei dem Fahrzeug handelt es sich vorzugsweise um ein Straßenfahrzeug, insbesondere einen Lkw oder einen Pkw. Mit dem erfindungsgemäßen Kamera-Surround-View-System 1 werden die durch die Kamera 2 des Kamerasystems erfassten Texturen der Umgebung durch die adaptive Re-Projektionsfläche re-projiziert, um die oben genannten Artefakte zu reduzieren bzw. zu beseitigen. Durch das erfindungsgemäße Kamera-Surround-View-System 1 wird somit die Qualität der dargestellten Fahrzeugumgebung stark verbessert. Objekte in der Fahrzeugumgebung, beispielsweise andere in der Nähe geparkten Fahrzeuge oder in der Nähe befindliche Personen, erscheinen weniger verzerrt als bei Systemen, die eine statische Re-Projektionsoberfläche verwenden.
  • Die Datenverarbeitungseinheit 3 steuert eine virtuelle Kamera 6 wie sie in 3 dargestellt ist. Wie man aus der 3 erkennen kann liefert die virtuelle Kamera 6, die durch die Datenverarbeitungseinheit 3 angesteuert wird, Kamerabilder auf das Fahrzeug F aus einer Vogelperspektive. Bei einer Grundeinstellung ist die virtuelle Kamera 6 senkrecht mit einem Winkel von 90° und einer Höhe H über der Karosserie des Fahrzeuges F virtuell angeordnet. Das Kamerabild der virtuellen Kamera 6 kann aus Kamerabildern von Surround-View-Kameras, die an dem Fahrzeug F vorgesehen sind, durch die Datenverarbeitungseinheit 3 berechnet werden. Die virtuelle Kamera 6 besitzt eine Kameraorientierung relativ zu dem Fahrzeug F sowie eine Relativposition zu dem Fahrzeug F. Die Datenverarbeitungseinheit 3 des Kamera-Surround-View-System 1 passt die Re-Projektionsfläche in Abhängigkeit zu einer Position und Orientierung der virtuellen Kamera 6 an. Die Position und Orientierung der virtuellen Kamera 6 ist vorzugsweise einstellbar. Wie in 3 dargestellt, kann beispielsweise die virtuelle Kamera 6 ausgehend von ihrer vertikalen Position mit einem Winkel von 90° über der Fahrzeugkarosserie geneigt werden, wobei sie einen Neigungswinkel α von beispielsweise 45° einnimmt. Der Abstand beziehungsweise die Höhe der Fahrzeugkamera 6 bezüglich des Fahrzeuges F bleibt in dem in 3 dargestellten Beispiel konstant. Neben der Relativposition ist es zusätzlich möglich auch die Orientierung der Fahrzeugkamera 6 anzupassen. Bei einer möglichen Ausführungsform liest die Datenverarbeitungseinheit 3 die derzeitige Position und Orientierung der virtuellen Kamera 6 relativ zu dem Fahrzeug F aus einem Parameterspeicher der virtuellen Kamera 6 aus. Abhängig von den ausgelesenen Parametern der virtuellen Kamera 6 wird dann die adaptive Re-Projektionsfläche durch die Datenverarbeitungseinheit 3 eingestellt beziehungsweise angepasst, so dass auf der Anzeigeeinheit 4 möglichst viel Textur bzw. Kamerainformationen verzerrungsfrei dargestellt sind und gleichzeitig Hindernisse in der unmittelbaren Umgebung des Fahrzeuges F für den Fahrer des Fahrzeuges F leicht erkennbar sind. Bei einer möglichen Ausführungsform handelt es sich bei der Anzeigeeinheit 4 um ein Touchscreen. Ein Fahrer bzw. Nutzer des Fahrzeuges F kann bei einer möglichen Ausführungsform das Touchscreen berühren und dabei die Position und/oder Orientierung der virtuellen Kamera 6 einstellen bzw. justieren, um Hindernisse in der unmittelbaren Fahrzeugumgebung, beispielsweise Stangen,die eine begrenzte Parkfläche markieren, möglichst deutlich zu erkennen. Bei einer weiteren möglichen Ausführungsform ist es auch möglich den Abstand bzw. die Höhe der virtuellen Kamera 6 über dem beobachteten Fahrzeug F seitens des Nutzers einzustellen, um ein in der Fahrzeugumgebung befindliches Hindernis möglichst deutlich und detailliert zu erkennen. Ein Hindernis kann ein beliebiges Objekt sein, welches das Fahrzeug F beim umherfahren auf der Fahrbahnoberfläche hindert, beispielsweise ein Schneehaufen oder eine Stange zur Begrenzung einer Parkfläche. 2 zeigt ein Ablaufdiagramm zur Darstellung einer Ausführungsform des erfindungsgemäßen Verfahrens zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges.
  • In einem ersten Schritt S1 werden Kamerabilder der Fahrzeugumgebung durch Fahrzeugkameras 2 des Fahrzeuges F erzeugt. Beispielsweise werden die Kamerabilder durch mehrere Fahrzeugkameras 2 erzeugt, die an verschiedenen Seiten des Fahrzeuges angebracht sind.
  • Die erzeugten Kamerabilder werden anschließend im Schritt S2 verarbeitet, um ein Umgebungsbild der Fahrzeugumgebung zu generieren. Bei einer möglichen Ausführungsform erfolgt die Verarbeitung der erzeugten Kamerabilder durch eine Datenverarbeitungseinheit 3, wie sie in 1 dargestellt ist. Die Kamerabilder werden vorzugsweise in Echtzeit verarbeitet, um ein entsprechendes Umgebungsbild zu generieren.
  • In einem weiteren Schritt S3 wird zunächst auf Basis von bereitgestellten Sensordaten eine Re-Projektionsfläche berechnet und anschließend Texturen, die von den Fahrzeugkameras erfasst werden, auf dieser adaptiven berechneten Re-Projektionsfläche re-projiziert. Die adaptive Re-Projektionsfläche weist ein dynamisch veränderbares Gitter auf, das in Abhängigkeit der bereitgestellten Sensordaten dynamisch verändert wird. Dieses Gitter ist vorzugsweise ein dreidimensionales Gitter.
  • In einem Schritt S4 wird die Re-Projektionsfläche durch die Datenverarbeitungseinheit 3 in Abhängigkeit einer Position und/oder Orientierung einer virtuellen Kamera 6, die ein Vogelperspektiven-Kamerabild des Fahrzeuges F von oben liefert, angepasst.
  • Das in 2 dargestellte Verfahren kann bei einer möglichen Ausführungsform durch ein Computerprogramm implementiert sein, welches Computerbefehle enthält, die durch einen Mikroprozessor ausgeführt werden können. Dieses Programm wird bei einer möglichen Ausführungsform auf einem Daten-Träger oder in einem Programmspeicher gespeichert.

Claims (15)

  1. Kamera-Surround-View-System (1) für ein Fahrzeug (F) mit mindestens einer Fahrzeugkamera (2), die Kamerabilder liefert, welche durch eine Datenverarbeitungseinheit (3) zur Erzeugung eines Umgebungsbildes verarbeitet werden, das auf einer Anzeigeeinheit (4) angezeigt wird, wobei die Datenverarbeitungseinheit (3) Texturen, die von den Fahrzeugkameras (2) erfasst werden, auf einer adaptiven der Fahrzeugumgebung ähnlichen Re-Projektionsfläche reprojiziert, die auf Basis von durch Fahrzeugsensoren (5) bereitgestellten Sensordaten berechnet wird, wobei die Datenverarbeitungseinheit (3) die Re-Projektionsfläche in Abhängigkeit von einer Position und Orientierung einer virtuellen Kamera (6) anpasst.
  2. Kamera-Surround-View-System nach Anspruch 1, wobei die von den Fahrzeugsensoren (5) bereitgestellten Sensordaten die Fahrzeugumgebung des Fahrzeuges (F) wiedergeben.
  3. Kamera-Surround-View-System nach Anspruch 2, wobei die Sensordaten Parkabstandsdaten, Radardaten, Lidardaten, Kameradaten, Laserscandaten und Bewegungsdaten aufweisen.
  4. Kamera-Surround-View-System nach einem der vorangehenden Ansprüche 1 bis 3, wobei die berechnete adaptive Re-Projektionsfläche ein dynamisch veränderbares Gitter aufweist.
  5. Kamera-Surround-View-System nach Anspruch 4, wobei das Gitter der Re-Projektionsfläche ein dreidimensionales Gitter ist, das in Abhängigkeit der bereitgestellten Sensordaten dynamisch veränderbar ist.
  6. Kamera-Surround-View-System nach einen der vorangegangenen Ansprüche 1 bis 5, wobei die Anzeigeeinheit (4) ein Touchscreen ist und die Position und Orientierung der virtuellen Kamera (6) durch einen Nutzer einstellbar ist.
  7. Fahrerassistenzsystem für ein Fahrzeug mit einem Kamera-Surround-View-System (1) nach einem der vorangehenden Ansprüche 1 bis 6.
  8. Verfahren zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges (F) mit den Schritten: (a) Erzeugen (S1) von Kamerabildern der Fahrzeugumgebung durch Fahrzeugkameras (2) des Fahrzeuges; (b) Verarbeiten (S2) der erzeugten Kamerabilder zur Generierung eines Umgebungsbildes der Fahrzeugumgebung; und (c) Re-projizieren (S3) von Texturen, die von den Fahrzeugkameras (2) erfasst werden, auf einer adaptiven der Fahrzeugumgebung ähnlichen Re-Projektionsfläche, die auf Basis von durch Fahrzeugsensoren (5) bereitgestellten Sensordaten berechnet wird, (d) Anpassen (S4) der Re-Projektionsfläche in Abhängigkeit einer Position und/oder Orientierung einer virtuellen Kamera (6), die ein Vogelperspektiven-Kamerabild des Fahrzeuges (F) liefert.
  9. Verfahren nach Anspruch 8, wobei die von den Fahrzeugsensoren (5) bereitgestellten Sensordaten die Fahrzeugumgebung des Fahrzeuges (F) darstellen.
  10. Verfahren nach Anspruch 9, wobei die Sensordaten Parkabstandsdaten, Radardaten, Lidardaten, Kameradaten, Laserscandaten und Bewegungsdaten umfassen.
  11. Verfahren nach einem der vorangehenden Ansprüche 8 bis 10, wobei die adaptive Re-Projektionsfläche ein dynamisch veränderbares Gitter aufweist.
  12. Verfahren nach Anspruch 11, wobei das Gitter der Re-Projektionsfläche ein dreidimensionales Gitter ist, das in Abhängigkeit der bereitgestellten Sensordaten dynamisch verändert wird.
  13. Verfahren nach Anspruch 12, wobei die Position und Orientierung der virtuellen Kamera (6) durch einen Nutzer über eine Nutzerschnittstelle eingestellt werden.
  14. Computerprogramm mit Befehlen, welche das Verfahren nach einem der vorangehenden Ansprüche 8 bis 13 ausführt.
  15. Fahrzeug, insbesondere Straßenfahrzeug, mit einem Fahrerassistenzsystem nach Anspruch 7.
DE102015202863.1A 2015-02-17 2015-02-17 Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges Withdrawn DE102015202863A1 (de)

Priority Applications (8)

Application Number Priority Date Filing Date Title
DE102015202863.1A DE102015202863A1 (de) 2015-02-17 2015-02-17 Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges
KR1020177022638A KR20170118077A (ko) 2015-02-17 2016-02-04 차량 주변을 왜곡 없이 보여주는 방법 및 장치
CN201680010084.4A CN107249934B (zh) 2015-02-17 2016-02-04 无失真显示车辆周边环境的方法和装置
JP2017538401A JP2018509799A (ja) 2015-02-17 2016-02-04 車両の車両周辺部の歪無い表示のための方法、並びに、装置
EP16714224.9A EP3259907A1 (de) 2015-02-17 2016-02-04 Verfahren und vorrichtung zum verzerrungsfreien anzeigen einer fahrzeugumgebung eines fahrzeuges
PCT/DE2016/200074 WO2016131452A1 (de) 2015-02-17 2016-02-04 Verfahren und vorrichtung zum verzerrungsfreien anzeigen einer fahrzeugumgebung eines fahrzeuges
DE112016000188.6T DE112016000188A5 (de) 2015-02-17 2016-02-04 Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges
US15/679,603 US20170341582A1 (en) 2015-02-17 2017-08-17 Method and device for the distortion-free display of an area surrounding a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015202863.1A DE102015202863A1 (de) 2015-02-17 2015-02-17 Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges

Publications (1)

Publication Number Publication Date
DE102015202863A1 true DE102015202863A1 (de) 2016-08-18

Family

ID=55661011

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102015202863.1A Withdrawn DE102015202863A1 (de) 2015-02-17 2015-02-17 Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges
DE112016000188.6T Pending DE112016000188A5 (de) 2015-02-17 2016-02-04 Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112016000188.6T Pending DE112016000188A5 (de) 2015-02-17 2016-02-04 Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges

Country Status (7)

Country Link
US (1) US20170341582A1 (de)
EP (1) EP3259907A1 (de)
JP (1) JP2018509799A (de)
KR (1) KR20170118077A (de)
CN (1) CN107249934B (de)
DE (2) DE102015202863A1 (de)
WO (1) WO2016131452A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017216822A1 (de) * 2017-09-22 2019-03-28 Continental Automotive Gmbh Vorrichtung und Verfahren zum Anpassen einer Bildverarbeitung basierend auf einer Form einer Anzeigeneinrichtung für ein Kraftfahrzeug

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015221340B4 (de) * 2015-10-30 2021-02-25 Conti Temic Microelectronic Gmbh Vorrichtung und Verfahren zur Bereitstellung einer Fahrzeugumgebungsansicht für ein Fahrzeug
CN107948501A (zh) * 2017-10-30 2018-04-20 深圳市易成自动驾驶技术有限公司 自动环视方法、装置及计算机可读存储介质
JP7163732B2 (ja) * 2018-11-13 2022-11-01 トヨタ自動車株式会社 運転支援装置、運転支援システム、運転支援方法およびプログラム
DE102019204656A1 (de) * 2019-04-02 2020-10-08 Conti Temic Microelectronic Gmbh Parkassistenzsystem
CN113353067A (zh) * 2021-07-14 2021-09-07 重庆大学 一种基于全景摄像头的多环境检测与多模态匹配的平行泊车路径规划系统
CN113607203B (zh) * 2021-07-30 2024-05-28 宁波路特斯机器人有限公司 一种车辆传感器的控制方法及系统、一种车辆

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010042063A1 (de) * 2010-10-06 2012-01-19 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs
EP2661073A2 (de) * 2012-05-03 2013-11-06 Harman International Industries, Incorporated System und Verfahren zur interaktiven Steuerung einer virtuellen Kamera
DE102012018326A1 (de) * 2012-09-15 2014-03-20 DSP-Weuffen GmbH Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit verdeckungsfreier Umsichtfunktion

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05638A (ja) * 1991-06-24 1993-01-08 Sony Corp 車載用監視装置
FR2853121B1 (fr) * 2003-03-25 2006-12-15 Imra Europe Sa Dispositif de surveillance des alentours d'un vehicule
JP2008217267A (ja) * 2007-03-01 2008-09-18 Denso Corp 道路形状認識装置
CN101442618A (zh) * 2008-12-31 2009-05-27 葛晨阳 用于车辆辅助驾驶的360度环形视频合成方法
JPWO2011158344A1 (ja) * 2010-06-16 2013-08-15 コニカミノルタ株式会社 画像処理方法、プログラム、画像処理装置及び撮像装置
CN102142138A (zh) * 2011-03-23 2011-08-03 深圳市汉华安道科技有限责任公司 一种车辆辅助系统中的图像处理方法以及子系统
KR101265711B1 (ko) * 2011-11-30 2013-05-20 주식회사 이미지넥스트 3d 차량 주변 영상 생성 방법 및 장치
JP5861871B2 (ja) * 2011-12-28 2016-02-16 スズキ株式会社 俯瞰画像提示装置
DE102012018325A1 (de) * 2012-09-15 2014-03-20 DSP-Weuffen GmbH Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit adaptiver Umsichtdarstellung
JP6014433B2 (ja) * 2012-09-19 2016-10-25 富士通テン株式会社 画像処理装置、画像処理方法、及び、画像処理システム
JP6148887B2 (ja) * 2013-03-29 2017-06-14 富士通テン株式会社 画像処理装置、画像処理方法、及び、画像処理システム
JP6310652B2 (ja) * 2013-07-03 2018-04-11 クラリオン株式会社 映像表示システム、映像合成装置及び映像合成方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010042063A1 (de) * 2010-10-06 2012-01-19 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs
EP2661073A2 (de) * 2012-05-03 2013-11-06 Harman International Industries, Incorporated System und Verfahren zur interaktiven Steuerung einer virtuellen Kamera
DE102012018326A1 (de) * 2012-09-15 2014-03-20 DSP-Weuffen GmbH Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit verdeckungsfreier Umsichtfunktion

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017216822A1 (de) * 2017-09-22 2019-03-28 Continental Automotive Gmbh Vorrichtung und Verfahren zum Anpassen einer Bildverarbeitung basierend auf einer Form einer Anzeigeneinrichtung für ein Kraftfahrzeug
US10832372B2 (en) 2017-09-22 2020-11-10 Conti Temic Microelectronic Gmbh Apparatus and method for adapting image processing based on a shape of a display device for a motor vehicle

Also Published As

Publication number Publication date
WO2016131452A1 (de) 2016-08-25
CN107249934A (zh) 2017-10-13
JP2018509799A (ja) 2018-04-05
CN107249934B (zh) 2021-01-12
KR20170118077A (ko) 2017-10-24
EP3259907A1 (de) 2017-12-27
US20170341582A1 (en) 2017-11-30
DE112016000188A5 (de) 2017-08-31

Similar Documents

Publication Publication Date Title
DE102014208664A1 (de) Verfahren und vorrichtung zum verzerrungsfreien anzeigen einer fahrzeugumgebung eines fahrzeuges
DE102015202863A1 (de) Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges
DE102014107158B4 (de) Verbesserte Top-Down-Bilderzeugung in einem Frontbordstein-Visualisierungssystem
DE102013209415B4 (de) Dynamische Hinweisüberlagerung mit Bildbeschneidung
DE102014107156B4 (de) System und Verfahren zum Bereitstellen einer verbesserten perspektivischen Bilderzeugung in einem Frontbordstein-Visualisierungssystem
DE102014107155A1 (de) Verbessertes Frontbordstein-Visualisierungssystem
DE102010042026B4 (de) Verfahren zum Erzeugen eines Abbildes mindestens eines Objekts in einer Umgebung eines Fahrzeugs
WO2014094941A1 (de) Kraftfahrzeug mit kamera-monitor-system
EP3308361B1 (de) Verfahren zur erzeugung eines virtuellen bildes einer fahrzeugumgebung
DE102011087901A1 (de) Verfahren zur Darstellung eines Fahrzeugumfeldes
DE102016203710B4 (de) Abstands- und Richtungsschätzung eines Zielpunkts von einem Fahrzeug unter Verwendung einer monokularen Videokamera
DE102009045233A1 (de) Verfahren und Vorrichtung zur kombinierten visuellen Anzeige von Video- und Abstandsdaten einer Verkehrssituation
DE102019106048A1 (de) Fahrzeuganzeige mit erweiterter realität
WO2017198429A1 (de) Ermittlung von fahrzeugumgebungsdaten
WO2013139661A1 (de) Verfahren und vorrichtung zur bildverarbeitung von bilddaten
EP3073446B1 (de) Verfahren zum darstellen einer fahrzeugumgebung eines fahrzeuges
EP3380357A1 (de) Fahrerassistenzsystem mit adaptiver umgebungsbilddatenverarbeitung
DE102016208370A1 (de) Verfahren zum Ermitteln von Daten, die eine Umgebung unterhalb eines Fahrzeugs repräsentieren
DE102017218090A1 (de) Verfahren zur Darstellung von Bildern eines Kamerasystems eines Fahrzeugs
DE102020107949A1 (de) Sichtfeldunterstützungsbild-Erzeugungsvorrichtung und Bildumwandlungsverfahren
DE112016005781B4 (de) Anzeigesteuerungsvorrichtung und Anzeigesteuerungsverfahren
EP3844947A1 (de) Verfahren und anordnung zum erzeugen einer umgebungsrepräsentation eines fahrzeugs und fahrzeug mit einer solchen anordnung
DE102019106297A1 (de) Fahrzeugumgebungsanzeigesystem und Anzeigesteuervorrichtung
WO2018188700A1 (de) Surround-view-system für ein fahrzeug
DE102020215696A1 (de) Verfahren zur Darstellung einer Umgebung eines Fahrzeugs, Computerprogrammprodukt, Speichermedium, Steuergerät und Fahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R118 Application deemed withdrawn due to claim for domestic priority