DE102013215408A1 - A vehicle display system and method for displaying a vehicle environment - Google Patents

A vehicle display system and method for displaying a vehicle environment Download PDF

Info

Publication number
DE102013215408A1
DE102013215408A1 DE102013215408.9A DE102013215408A DE102013215408A1 DE 102013215408 A1 DE102013215408 A1 DE 102013215408A1 DE 102013215408 A DE102013215408 A DE 102013215408A DE 102013215408 A1 DE102013215408 A1 DE 102013215408A1
Authority
DE
Germany
Prior art keywords
objects
display system
vehicle
complex
classes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102013215408.9A
Other languages
German (de)
Inventor
Guenter Bauer
Thomas Reicher
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102013215408.9A priority Critical patent/DE102013215408A1/en
Publication of DE102013215408A1 publication Critical patent/DE102013215408A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Anzeigesystem für ein Fahrzeug (5), umfassend: – mindestens eine Anzeige (51) zum Anzeigen mindestens einer Darstellung (60) einer Fahrzeugumgebung; – mindestens eine Erfassungseinrichtung (30), insbesondere eine Lidar-Erfassungseinrichtung und/oder eine Radar-Erfassungseinrichtung, zur Erfassung mindestens einer Objektgeometrie eines realen Objekts in der Fahrzeugumgebung; – eine Speichereinrichtung (43) zum Speichern einer Vielzahl von Objektklassen; – eine Auswahleinrichtung (45) zur Auswahl einer Objektklasse in Abhängigkeit von der Objektgeometrie; – eine Visualisierungseinrichtung (45) zur Erstellung mindestens eines Objektabbilds (61, 63) in Abhängigkeit von der ausgewählten Objektklasse und zur Anzeige des Objektabbilds (61, 63) auf der Anzeige (51).The invention relates to a display system for a vehicle (5), comprising: - at least one display (51) for displaying at least one representation (60) of a vehicle environment; - At least one detection device (30), in particular a lidar detection device and / or a radar detection device, for detecting at least one object geometry of a real object in the vehicle environment; A memory device (43) for storing a plurality of object classes; A selection device (45) for selecting an object class as a function of the object geometry; - A visualization device (45) for creating at least one object image (61, 63) in dependence on the selected object class and for displaying the object image (61, 63) on the display (51).

Description

Die vorliegende Erfindung betrifft ein Anzeigesystem für ein Fahrzeug und ein Verfahren für eine Anzeige einer Fahrzeugumgebung.The present invention relates to a display system for a vehicle and a method for displaying a vehicle environment.

Aus der DE 10 2011 082 881 A1 ist ein Anzeigesystem für ein Fahrzeug bekannt, das es ermöglicht, eine Draufsicht auf das eigene Fahrzeug in Verbindung mit Umgebungsansichten darzustellen. Das System der DE 10 2011 082 881 A1 transformiert von Seitenkameras aufgenommene Bilder derart, dass sich eine Draufsicht ergibt.From the DE 10 2011 082 881 A1 a display system for a vehicle is known, which makes it possible to present a top view of the own vehicle in conjunction with environmental views. The system of DE 10 2011 082 881 A1 transforms images taken by side cameras so as to give a top view.

Ein wesentliches Problem dieser Transformation besteht darin, dass sich die Bildebenen der Draufsicht und der Kameras im Wesentlichen um 90 Grad unterscheiden, so dass nur wenige Informationen für die Generierung einer Draufsicht bereitstehen. Dies führt dazu, dass die Draufsicht unvollständig ist. Beispielsweise kann das Anzeigesystem von einem benachbart geparkten Fahrzeug noch relativ viele Informationen bezüglich der dem eigenen Fahrzeug zugewandten Seite liefern. Konkrete Informationen bezüglich der Ausgestaltung des Dachs oder der abgewandten Seite stehen jedoch nicht zur Verfügung. Dies führt dazu, dass entsprechende Bereiche beim Anzeigen nicht ausgefüllt werden können.A major problem with this transformation is that the image planes of the top view and the cameras differ essentially by 90 degrees, so that only a small amount of information is available for the generation of a top view. This leads to the top view being incomplete. For example, the display system of a parked adjacent vehicle still provide relatively much information regarding the side facing the own vehicle. Concrete information regarding the design of the roof or the opposite side are not available. This means that corresponding areas can not be filled when displaying.

Für den Nutzer eines entsprechenden Anzeigesystems ergibt sich hieraus das Problem, dass er seine eigene Wahrnehmung bezüglich der realen Welt nicht ohne weiteres mit der in der Anzeige angezeigten virtuellen Welt in Deckung bringen kann. Insofern erweist es sich für den Nutzer als schwierig, die ihm angezeigte Information zu verarbeiten.For the user of a corresponding display system, this results in the problem that he can not easily bring his own perception of the real world into line with the virtual world displayed in the display. In this respect, it proves to be difficult for the user to process the information displayed to him.

Des Weiteren sind Radar-, Ultraschall- und Laser-Systeme bekannt, die es ermöglichen, die Umgebung eines Fahrzeugs abzutasten und dem Benutzer bzw. Fahrer die gewonnenen Informationen zu präsentieren. Beispielsweise kann eine Distanz zu einem sich am Heck des Fahrzeugs befindenden Objekts akustisch signalisiert werden. Auch gibt es Anzeigesysteme, die Objekte relativ zum eigenen Fahrzeug anzeigen. Da den Anzeigesystemen nur die Objektgeometrie des Hindernisses bekannt ist, werden die Objekte beispielsweise mit den Farben einer Ampel in Abhängigkeit von ihrer Distanz eingefärbt. Auch bei diesen Systemen erweist es sich für den Fahrer als schwierig, einzelne auf einer Anzeige angezeigte Objekte realen Objekten zuzuordnen. Beispielsweise ist es schwer, einen Pfosten von einer Laterne zu unterscheiden, so dass es ohne weiteres zu einer Fehlzuordnung kommen kann, die ggf. zu einem Unfall führt.Furthermore, radar, ultrasound and laser systems are known which make it possible to scan the surroundings of a vehicle and present the information gained to the user or driver. For example, a distance to an object located at the rear of the vehicle can be acoustically signaled. There are also display systems that display objects relative to their own vehicle. Since the display systems only the object geometry of the obstacle is known, the objects are colored, for example, with the colors of a traffic light depending on their distance. Even with these systems, it proves to be difficult for the driver to assign individual objects displayed on a display to real objects. For example, it is difficult to distinguish a post from a lantern, so that it can easily lead to a misallocation, which may lead to an accident.

Aus der DE 10 2010 012 954 A1 und der DE 10 2005 024 716 A1 sind Fahrerassistenzsysteme bekannt, die während der Fahrt eine Fahrzeugumgebung erfassen und versuchen, einzelne erfasste Objekte zu kategorisieren. Diese Kategorisierung der Objekte soll dazu dienen, das Verhalten der Objekte besser vorhersagen zu können. Eine entsprechende Klassifizierung von Objekten im Bereich der Fahrzeugumgebungs-Visualisierung ist nicht bekannt.From the DE 10 2010 012 954 A1 and the DE 10 2005 024 716 A1 Driver assistance systems are known, which detect a vehicle environment while driving and try to categorize individual detected objects. This categorization of the objects should serve to better predict the behavior of the objects. A corresponding classification of objects in the area of vehicle environment visualization is not known.

Die DE 10 2010 042 063 A1 beschreibt ein System, in dem mit mehreren Kameras ein Top View Bild (Vogelperspektive) des eigenen Fahrzeugs und der Umgebung erstellt wird. In der Umgebung erkannte Objekte, insbesondere Fahrzeuge, werden klassifiziert, vermessen und gegebenenfalls farblich mit dem erkannten Objekt übereinstimmende Norm-Symbole ersetzt. Der Einsatz des Systems für Einparkvorgänge wird hervorgehoben.The DE 10 2010 042 063 A1 describes a system in which multiple cameras are used to create a top view image (bird's eye view) of one's own vehicle and the surrounding area. Objects recognized in the environment, in particular vehicles, are classified, measured and, if necessary, replaced in color with the recognized object matching standard symbols. The use of the parking system is highlighted.

Aus der EP 2 107 503 A1 ist ein System zur Modellierung der Fahrzeugumgebung in Echtzeit bekannt.From the EP 2 107 503 A1 is a system for modeling the vehicle environment in real time known.

Ausgehend von der DE 10 2010 042 063 A1 stellt sich die vorliegende Erfindung daher die Aufgabe, ein verbessertes Anzeigesystem bereitzustellen. Insbesondere soll die Qualität der Bilddarstellung erhöht werden. Auch soll das intuitive Verständnis entsprechender Anzeigen verbessert werden.Starting from the DE 10 2010 042 063 A1 Therefore, the object of the present invention is to provide an improved display system. In particular, the quality of the image display should be increased. Also, the intuitive understanding of appropriate ads should be improved.

Diese Aufgabe wird durch ein Anzeigesystem gemäß Anspruch 1 sowie durch ein Verfahren gemäß dem Anspruch 13 gelöst.This object is achieved by a display system according to claim 1 and by a method according to claim 13.

Insbesondere wird die Aufgabe durch ein Anzeigesystem für ein Fahrzeug gelöst, das umfasst:

  • • mindestens eine Anzeige zum Anzeigen mindestens einer Darstellung einer Fahrzeugumgebung;
  • • mindestens eine Erfassungseinrichtung, insbesondere eine Lidar-Erfassungseinrichtung und/oder eine Radar-Erfassungseinrichtung und/oder eine Ultraschall-Erfassungseinrichtung, zur Erfassung mindestens einer Objektgeometrie eines realen Objekts in der Fahrzeugumgebung;
  • • eine Speichereinrichtung zum Speichern einer Vielzahl von komplexen Objektklassen für komplexe Objekte und Basisobjektklassen für Basisobjekte, wobei ein komplexes Objekt aus einer Vielzahl von Basisobjekten und/oder komplexen Objekten besteht;
  • • eine Auswahleinrichtung zur Auswahl mindestens einer Basisobjektklasse und mindestens einer komplexen Objektklasse in Abhängigkeit von der mindestens einen Objektgeometrie;
  • • eine Visualisierungseinrichtung zur Erstellung mindestens eines Objektabbilds in Abhängigkeit von den ausgewählten Objektklassen und zur Anzeige des Objektabbilds auf der Anzeige.
In particular, the object is achieved by a display system for a vehicle, which comprises:
  • • at least one display for displaying at least one representation of a vehicle environment;
  • At least one detection device, in particular a lidar detection device and / or a radar detection device and / or an ultrasound detection device, for detecting at least one object geometry of a real object in the vehicle environment;
  • Memory means for storing a plurality of complex object classes for complex objects and base object classes for base objects, wherein a complex object consists of a plurality of base objects and / or complex objects;
  • A selection device for selecting at least one base object class and at least one complex object class as a function of the at least one object geometry;
  • • A visualization device for creating at least one object image depending on the selected object classes and for displaying the object image on the display.

Ein Gedanke der vorliegenden Erfindung besteht also darin, durch die Sensorik wie Radar und/oder Lidar und/oder Stereokameras die Objekte rund um das eigene Fahrzeug zu erfassen und zu erkennen. Danach soll eine Klassifikation erfolgen, bei der zumindest die erfassten Objekt-Geometrien mit bekannten in einer Speichereinrichtung gespeicherten Objekt-Geometrien verglichen werden. Eine Organisation der bekannten Objekte in der Speichereinrichtung kann anhand von Objektklassen erfolgen. Sobald die Auswahleinrichtung ein oder mehrere Objektklassen in Abhängigkeit von den erfassten Objekt-Geometrien ausgewählt hat, kann die Visualisierungseinrichtung Objekt-Abbilder aus dem Speicher auslesen oder errechnen und auf der Anzeige anzeigen. Insofern ist es denkbar, ausgehend von dem eigenen Fahrzeug nicht erfassbare Bereiche eines Objekts darzustellen. Diese Darstellung ist möglich, da die erfassbaren Informationen von einzelnen realen Objekten ausreichen, um diese zu klassifizieren. Nach der Klassifikation kann gespeichertes Wissen über die Beschaffenheit des Objekts verwendet werden, um eine geeignete Darstellung der Umgebung zu erzeugen.One idea of the present invention is therefore to be replaced by sensors such as radar and / or or Lidar and / or stereo cameras to detect and recognize the objects around the own vehicle. Then, a classification is to take place in which at least the detected object geometries are compared with known object geometries stored in a memory device. An organization of the known objects in the storage device can take place on the basis of object classes. Once the selector has selected one or more object classes depending on the detected object geometries, the visualizer may read or compute object images from memory and display them on the display. In this respect, it is conceivable, starting from the own vehicle not detectable areas of an object. This representation is possible because the detectable information of individual real objects is sufficient to classify them. After the classification, stored knowledge about the nature of the object can be used to create an appropriate representation of the environment.

Bei der Klassifikation können durch die Sensorik bestimmte Elemente, beispielswiese Basisobjekte und/oder Teile eines komplexen oder eines Basis-Objekts, erkannt werden. Hierbei kann es sich um eine Heckkante, einen Kofferraum, ein Heckfenster, ein Dach, eine Frontscheibe, eine Motorhaube und/oder eine Frontpartie handeln. Basierend auf der Ausgestaltung der Elemente kann auf die Art bzw. ein konkretes Merkmal geschlossen werden (Steilheck, Stufenheck, ...). Z. B. kann über die Breite des Kofferraums projiziert auf die Silhouette auf die Art des Hecks geschlossen werden (Steilheck, Stufenheck, ...). Anhand der ermittelten Merkmale kann dann aus der Datenbank das geeignete Objekt ausgewählt und instanziiert werden. Vorzugsweise wird das virtuelle Fahrzeug aus mehreren Objekten, komplexen Objekten und/oder Basisobjekten, zusammengesetzt.In the classification, certain elements, for example base objects and / or parts of a complex or basic object, can be detected by the sensor system. This may be a tail edge, a trunk, a rear window, a roof, a windshield, a hood and / or a front end act. Based on the design of the elements can be closed on the type or a specific feature (hatchback, notchback, ...). For example, over the width of the trunk projected on the silhouette on the type of tail can be closed (hatchback, notchback, ...). On the basis of the determined features, the appropriate object can then be selected and instantiated from the database. Preferably, the virtual vehicle is composed of several objects, complex objects and / or base objects.

Beispielsweise kann eine 3D-Karte des Fahrzeugumfelds aufgebaut werden. In dieser Karte können neben dem eigenen Fahrzeug vor allem die Nachbarfahrzeuge, aber auch stehende Objekte eingezeichnet werden.For example, a 3D map of the vehicle environment can be set up. In this map, in addition to the own vehicle especially the neighboring vehicles, but also stationary objects are drawn.

In einer Ausführungsform instanziiert die Visualisierungseinrichtung zur Erstellung des Objekt-Abbilds ein virtuelles Objekt gemäß der Objektklasse. Im Endeffekt kann eine virtuelle Welt der Umgebung geschaffen werden. Diese virtuelle Welt/Szene kann aus verschiedenen Perspektiven mittels der Anzeige betrachtet werden.In one embodiment, the visualization device instantiates a virtual object according to the object class to create the object image. In the end, a virtual world of the environment can be created. This virtual world / scene can be viewed from different perspectives by means of the display.

Das Anzeigesystem kann über geeignete Eingabemittel verfügen, um eine bestimmte Perspektive auszuwählen oder einzustellen.The display system may have appropriate input means to select or set a particular perspective.

Die gespeicherten Objektklassen können mindestens ein Attribut haben, das beispielsweise die Farbe des virtuellen Objekts und/oder dessen Kontur und/oder dessen Größe angibt.The stored object classes may have at least one attribute that indicates, for example, the color of the virtual object and / or its contour and / or its size.

Die Visualisierungseinrichtung kann das mindestens eine Attribut in Abhängigkeit von mindestens einem von mindestens einer Erfassungseinrichtung gelieferten Signal setzen. Beispielsweise ist es denkbar, mittels eines Lidar-Systems die Objekt-Geometrie eines benachbarten Fahrzeugs zu erfassen. Nach der Klassifikation dieses Fahrzeugs in die Klasse der Fahrzeuge kann es gewünscht sein, das Fahrzeug in einer geeigneten Farbe einzufärben. Hierfür kann beispielsweise eine weitere Erfassungseinrichtung in Form einer Kamera vorgesehen werden, die einen Farbton zur Einfärbung des virtuellen Objekts liefert. Der gewählte Ansatz dient dazu, das angezeigte Bild leichter verständlich zu gestalten. Des Weiteren ermöglicht es dieser Ansatz, Objekte auf der Anzeige in der Realität leichter zu identifizieren. Umgekehrt können für den Fahrer sichtbare Objekte in einfacher Weise angezeigten Objekten zugeordnet werden.The visualization device can set the at least one attribute as a function of at least one signal supplied by at least one detection device. For example, it is conceivable to detect the object geometry of a neighboring vehicle by means of a lidar system. After classifying this vehicle in the class of vehicles, it may be desirable to color the vehicle in a suitable color. For this purpose, for example, a further detection device in the form of a camera can be provided, which supplies a color tone for coloring the virtual object. The chosen approach is to make the displayed image easier to understand. Furthermore, this approach makes it easier to identify objects on the display in reality. Conversely, objects visible to the driver can be easily associated with displayed objects.

Mindestens eine Erfassungseinrichtung kann dazu ausgebildet sein, mindestens eine Farbe und/oder Textur einer Oberfläche und/oder einer Teiloberfläche des Objekts zu erfassen. Vorzugsweise handelt es sich hierbei um eine Kamera. Wie bereits erläutert ist es möglich, ein bestimmtes virtuelles Objekt in einer bestimmten Farbe einzufärben. Vorzugsweise werden Texturen verwendet, um eine möglichst realitätsnahe Oberfläche der virtuellen Objekte zu gewährleisten. Beispielsweise werden einzelnen Objekte mit Texturanteilen aus dem Kamerabild oder einer Farbbestimmung über einen anderen Sensor eingefärbt, z. B. Farbe der Türen.At least one detection device can be designed to detect at least one color and / or texture of a surface and / or a partial surface of the object. This is preferably a camera. As already explained, it is possible to color a specific virtual object in a certain color. Preferably, textures are used to ensure the most realistic possible surface of the virtual objects. For example, individual objects are dyed with texture portions of the camera image or a color determination on another sensor, eg. B. Color of the doors.

Die Erfassungseinrichtung kann dazu ausgebildet sein, ein Videobild des realen Objekts zu erfassen und die Visualisierungseinrichtung kann zumindest einen Abschnitt/Ausschnitt des Videobilds auf die virtuellen Objekte projizieren. Beispielsweise können im Nahfeldbereich gefilmte Szenen der Kameras auf die entsprechenden Objekte der Umgebung projiziert werden. Die virtuellen Objekte können dabei die gefilmten Szenen überlagern. Theoretisch ist es denkbar, dass die virtuellen Objekte als eine Art Leinwand für gefilmte Szenen oder Ausschnitte der Videobilder dienen.The detection device may be configured to capture a video image of the real object, and the visualization device may project at least a portion of the video image onto the virtual objects. For example, scenes filmed in the near field area of the cameras can be projected onto the corresponding objects of the surroundings. The virtual objects can superimpose the filmed scenes. Theoretically, it is conceivable that the virtual objects serve as a kind of screen for filmed scenes or sections of the video images.

Die Speichereinrichtung kann dazu ausgebildet sein, Basisobjektklassen für Basisobjekte und/oder komplexe Objektklassen für komplexe Objekte zu speichern. Ein komplexes Objekt kann ein aus einer Vielzahl von Basisobjekten und/oder mindestens einem weiteren komplexen Objekt bestehen. Vorzugsweise wird eine entsprechende Relation in der Speichereinrichtung hinterlegt, so dass es dem Anzeigesystem möglich ist, entsprechende Informationen bei der Erfassung der realen Umgebung zu verarbeiten. Beispielsweise kann das Anzeigesystem dazu ausgebildet sein, bestimmte Basisobjekte, die sich an deren Objekt-Geometrie und/oder Position leicht erkennen lassen, zu erfassen und ausgehend von diesen Basisobjekten komplexe Objekte „zusammenzubauen”.The memory device can be designed to store base object classes for base objects and / or complex object classes for complex objects. A complex object may consist of a plurality of base objects and / or at least one further complex object. Preferably, a corresponding relation is stored in the memory device, so that it is the Display system is possible to process appropriate information in the detection of the real environment. For example, the display system can be designed to detect certain basic objects that can be easily recognized by their object geometry and / or position, and to "assemble" complex objects based on these base objects.

Beispielsweise kann das Anzeigesystem versuchen, von dem eigenen Fahrzeug aus erfassbare Reifen zu detektieren und dann nach der Detektion dieser Reifen festzustellen, um was für eine Art von Fahrzeug es sich handelt. Im Endeffekt wird also das erfasste Basisobjekt (z. B. = Reifen) verwendet, um auf das darüber liegende komplexe Objekt (z. B. = Fahrzeug) zu schließen. Diese Funktionalität kann beispielsweise in der bereits beschriebenen Auswahleinrichtung umgesetzt werden.For example, the display system may attempt to detect detectable tires from its own vehicle and then, upon detection of those tires, determine what kind of vehicle it is. In the end, therefore, the detected base object (eg = tire) is used to close on the overlying complex object (eg = vehicle). This functionality can be implemented, for example, in the selection device already described.

Theoretisch ist es denkbar, die Anzahl der Basisobjekte zu nutzen, um Rückschlüsse auf die Objektklasse der komplexen Objekte zu ziehen.Theoretically, it is conceivable to use the number of base objects in order to draw conclusions about the object class of the complex objects.

Die Modellbildung, d. h. die Auswahl der Objekte kann auf mehreren Bildern beruhen, die erfasst werden.Modeling, d. H. the selection of objects may be based on multiple images being captured.

Alternativ oder zusätzlich kann das Anzeigesystem versuchen, eine Distanz oder Position der Basisobjekte zueinander zu ermitteln, um auf eine bestimmte komplexe Objektklasse (z. B. LKW oder PKW) zu schließen. Zusätzlich können gewonnene Informationen von der Erfassungseinrichtung über das komplexe Objekt verarbeitet werden.Alternatively or additionally, the display system may attempt to determine a distance or position of the base objects relative to each other to infer a particular complex object class (eg, truck or car). In addition, extracted information can be processed by the detection device via the complex object.

Wie bereits erläutert, kann die Visualisierungseinrichtung dazu ausgebildet sein, unter Verwendung einer Vielzahl von virtuellen Objekten eine virtuelle Welt zu erstellen und eine Ansicht auf die virtuelle Welt auf der Anzeige anzuzeigen. Besondere Vorteile der vorliegenden Erfindung ergeben sich dann, wenn es sich bei dieser Ansicht im Wesentlichen um eine Vogelperspektive handelt, da in dieser Perspektive von den Erfassungseinrichtungen nicht erfassbare Bereiche durch die gespeicherten Objektinformationen ergänzt werden können und müssen.As already explained, the visualization device may be configured to create a virtual world using a plurality of virtual objects and to display a view of the virtual world on the display. Particular advantages of the present invention arise when this view is essentially a bird's-eye view, since in this perspective areas not detectable by the detection devices can and must be supplemented by the stored object information.

Im Zusammenhang mit den beschriebenen gespeicherten komplexen Objekten und Basisobjekten kann die Erfassungseinrichtung dazu ausgebildet sein, vorgegebene Bedingungen (der Radabstand eines PKWs beträgt mindestens 1,50 m) zu überprüfen. Beispielsweise können für die Auswahl einer komplexen Objektklasse ein oder mehrere Basisobjekte von der Erfassungseinrichtung detektiert werden und nach deren Detektion die vorgegebenen Bedingungen überprüft werden. Insofern ermöglicht es das Anzeigesystem, komplexe Objekte mit einer hohen Treffsicherheit zu bestimmen.In connection with the stored complex objects and basic objects described, the detection device can be designed to check predetermined conditions (the wheelbase of a passenger car is at least 1.50 m). For example, one or more base objects can be detected by the detection device for the selection of a complex object class, and the predetermined conditions can be checked after their detection. In this respect, the display system makes it possible to determine complex objects with a high accuracy.

Mindestens eine Erfassungseinrichtung kann dazu ausgebildet sein, Positionsdaten und/oder Ausrichtungsdaten des mindestens einen realen Objekts zu erfassen. Diese Positionsdaten und/oder Ausrichtungsdaten können dazu verwendet werden, die einzelnen Objekte beispielsweise in der virtuellen Welt sehr genau zu positionieren und daher sehr realistische virtuelle Abbildungen der Realität zu erzeugen.At least one detection device can be designed to detect position data and / or alignment data of the at least one real object. This position data and / or alignment data can be used to position the individual objects very accurately, for example in the virtual world, and therefore to produce very realistic virtual images of reality.

Mindestens eine Erfassungseinrichtung kann dazu ausgebildet sein, zur Erfassung der Position und/oder Ausrichtung eines komplexen Objekts zumindest die Position eines Basisobjekts zu detektieren. Beispielsweise geben die Positionen von Rädern die Ausrichtung eines Fahrzeugs relativ genau vor.At least one detection device can be designed to detect at least the position of a base object in order to detect the position and / or orientation of a complex object. For example, the positions of wheels indicate the orientation of a vehicle relatively accurately.

Die genannte Aufgabe wird des Weiteren durch ein Fahrzeug mit einem Anzeigesystem gelöst, wobei das Anzeigesystem so oder ähnlich ausgebildet ist, wie dies bereits beschrieben wurde.The stated object is further achieved by a vehicle having a display system, wherein the display system is designed in the same way as has already been described.

Des Weiteren wird die Aufgabe durch ein Verfahren für ein Anzeigen einer Fahrzeugumgebung gelöst, wobei das Verfahren die Schritte umfasst:

  • • Erfassen mindestens eines Objekts in der Fahrzeugumgebung, vorzugsweise mittels mindestens einer Kamera und/oder mindestens einer Lidar-Einrichtung und/oder einer Radar-Einrichtung;
  • • Vergleichen von Merkmalen des erfassen Objekts mit Merkmalen von gespeicherten Objektklassen;
  • • Auswahl einer Vielzahl von Objektklasse basierend auf dem Vergleich;
  • • Instanziierung der ausgewählten Objektklassen zur Erzeugung eines Objektabbilds, vorzugsweise aus einer Vogelperspektive;
  • • Anzeigen des Objektabbilds als Teil einer Darstellung der Fahrzeugumgebung.
Furthermore, the object is achieved by a method for displaying a vehicle environment, the method comprising the steps:
  • • detecting at least one object in the vehicle environment, preferably by means of at least one camera and / or at least one lidar device and / or a radar device;
  • • comparing characteristics of the detected object with features of stored object classes;
  • Selecting a plurality of object classes based on the comparison;
  • Instantiating the selected object classes to produce an object image, preferably from a bird's-eye view;
  • • Display the object image as part of a representation of the vehicle environment.

In einem Ausführungsbeispiel wird eines der bereits beschriebenen Anzeigesysteme verwendet, um das Verfahren auszuführen.In one embodiment, one of the display systems already described is used to perform the method.

Es ergeben sich ähnliche oder identische Vorteile, wie diese bereits in Verbindung mit dem Anzeigesystem erläutert wurden. Vorzugsweise werden bei dem Verfahren komplexe Objekte aus mehreren „einfacheren” Objekten zusammengesetzt.There are similar or identical advantages as have already been explained in connection with the display system. Preferably, in the method, complex objects are composed of a plurality of "simpler" objects.

Verfahrensgemäß können eine Vielzahl von Objekten erfasst werden, wobei für zumindest einige dieser Objekte eine Objektklasse ausgewählt und entsprechende Objekt-Abbilder erzeugt werden. Vorzugsweise kann eine Relativposition der Objekte zueinander erfasst und bei der Darstellung der Fahrzeugumgebung berücksichtigt werden.According to the method, a plurality of objects can be detected, wherein for at least some of these objects, an object class is selected and corresponding object images are generated. Preferably, a relative position of the objects to each other can be detected and taken into account in the representation of the vehicle environment.

Die Instanziierung der Objektklasse/Objektklassen kann ein Einfärben der virtuellen Objekte in einer erfassten Farbe und/oder ein Aufprojizieren mindestens eines Ausschnitts eines Videobilds umfassen. Insofern sind die generierten virtuellen Objekte den realen Objekten sehr ähnlich.The instantiation of the object class / object classes may involve coloring the virtual objects in a captured color and / or projecting them include at least a portion of a video image. In this respect, the generated virtual objects are very similar to real objects.

Die genannte Aufgabe kann des Weiteren durch ein computerlesbares Speichermedium gelöst werden, das ausführbare Maschinenbefehle speichert, welche einen Computer dazu veranlassen, eines der beschriebenen Verfahren zu implementieren, wenn die Maschinenbefehle ausgeführt werden.The stated object may be further solved by a computer-readable storage medium storing executable machine instructions which cause a computer to implement one of the described methods when the machine instructions are executed.

Weitere vorteilhafte Ausführungsformen ergeben sich anhand der Unteransprüche.Further advantageous embodiments will be apparent from the dependent claims.

Nachfolgend wird die Erfindung mittels mehrerer Ausführungsbeispiele beschrieben, die anhand von Abbildungen näher erläutert werden. Hierbei zeigen:The invention will be described by means of several embodiments, which are explained in more detail with reference to figures. Hereby show:

1 eine Draufsicht auf ein Fahrzeug mit mehreren Kameras; 1 a plan view of a vehicle with multiple cameras;

2 ein Anzeigesystem, bei dem eine Anzeigeeinrichtung kommunikativ mit einer Vielzahl von Erfassungseinrichtungen verbunden ist; 2 a display system in which a display device is communicatively connected to a plurality of detectors;

3 einzelne Komponenten der Anzeigeeinrichtung aus 2; 3 individual components of the display device 2 ;

4 ein Ablaufdiagramm eines Verfahrens zum Anzeigen einer Fahrzeugumgebung; 4 a flowchart of a method for displaying a vehicle environment;

5 eine schematische Darstellung eines von einer Seitenkamera erfassten Bildes; und 5 a schematic representation of an image captured by a side camera; and

6 eine virtuelle Darstellung einer Fahrzeugumgebung aus der Vogelperspektive. 6 a virtual representation of a vehicle environment from a bird's eye view.

In der nachfolgenden Beschreibung werden für gleiche und gleich wirkende Teile dieselben Bezugsziffern verwendet.In the following description, the same reference numerals are used for the same and like parts.

1 zeigt eine schematische Draufsicht auf ein Fahrzeug 10 mit einer Fahrzeugfront 12, einer Fahrgastzelle und einem Fahrzeugheck 16. Ebenfalls dargestellt ist ein Fahrer 5. Das Fahrzeug 10 ist im Wesentlichen derart mit Erfassungseinrichtungen 30 ausgerüstet, dass sich die gesamte Umgebung des Fahrzeugs in einem 360 Grad-Winkel erfassen lässt. 1 shows a schematic plan view of a vehicle 10 with a vehicle front 12 , a passenger compartment and a vehicle rear 16 , Also shown is a driver 5 , The vehicle 10 is essentially so with detection devices 30 equipped so that the entire environment of the vehicle can be detected at a 360 degree angle.

Im Einzelnen handelt es sich hierbei um eine an den Seiten des Fahrzeugs angebrachte linke Seitenkamera 31 und eine rechte Seitenkamera 33, die beispielsweise als Monokameras oder Stereokameras, insbesondere als Mono-Weitwinkelkameras, ausgebildet sein können. Des Weiteren ist am Fahrzeugheck 16 eine weitere Kamera, nämlich eine Heckkamera 35 angebracht, die den Heckbereich des Fahrzeugs erfasst. Auch diese Heckkamera 35 kann als Monokamera oder als Stereokamera ausgeführt sein. Des Weiteren ist an der Fahrzeugfront 12 eine Frontkamera 38 angeordnet.Specifically, this is a mounted on the sides of the vehicle left side camera 31 and a right side camera 33 , which can be configured, for example, as monocameras or stereo cameras, in particular as mono wide-angle cameras. Furthermore, at the rear of the vehicle 16 another camera, namely a rear camera 35 attached, which detects the rear of the vehicle. Also this rear camera 35 can be a monocamera or a stereo camera. Furthermore, at the front of the vehicle 12 a front camera 38 arranged.

Die Frontkamera 38 und die Heckkamera 35 erfassen jeweils ein Sichtfeld von ca. 90 Grad, wobei es sich hierbei um ein Frontkamera-Sichtfeld 38 bzw. ein Heckkamera-Sichtfeld 36 handelt. Alternativ kann die Frontkamera 38 und die Heckkamera 35 ein Sichtfeld von ca. 180 Grad horizontal und 145 Grad vertikal haben. Seitensichtfelder umfassen ein linkes Sichtfeld 32 der linken Seitenkamera 31 und ein rechtes Sichtfeld 34 der rechten Seitenkamera 33. Die Seitenkameras 31, 33 sind vorzugsweise an den Außenspiegeln 20 des Fahrzeugs 10 angeordnet und erfassen den gesamten Seitenbereich. Im Ausführungsbeispiel haben sie einen sehr großen Blickwinkel (größer 180 Grad), beispielsweise 195 Grad. Gemäß der 1 überschneiden sich das Heckkamera-Sichtfeld 36 sowohl mit dem linken Sichtfeld 32 als auch mit dem rechten Sichtfeld 34. Ebenso überschneidet sich das Frontkamera-Sichtfeld 38 mit dem linken Sichtfeld 32 und dem rechten Sichtfeld 34. Insgesamt ist es also bei dem in 1 gezeigten Fahrzeug 10 möglich, ein Videobild der gesamten Fahrzeugumgebung zu erhalten. Je nach Ausführung der Kameras kann es sich hierbei um ein Stereo- oder Monobild handeln. Die Kameras können Fischaugenlinsen haben.The front camera 38 and the rear camera 35 each capture a field of view of about 90 degrees, this being a front camera field of view 38 or a rear camera field of view 36 is. Alternatively, the front camera 38 and the rear camera 35 have a field of view of about 180 degrees horizontally and 145 degrees vertically. Lateral fields include a left field of view 32 the left side camera 31 and a right field of view 34 the right side camera 33 , The side cameras 31 . 33 are preferably on the outside mirrors 20 of the vehicle 10 arranged and capture the entire page area. In the exemplary embodiment, they have a very large viewing angle (greater than 180 degrees), for example 195 degrees. According to the 1 the rear camera field of view overlap 36 both with the left field of view 32 as well as with the right field of view 34 , Likewise, the front camera field of view overlaps 38 with the left field of view 32 and the right field of view 34 , Overall, it is at the in 1 shown vehicle 10 possible to obtain a video image of the entire vehicle environment. Depending on the version of the cameras, this may be a stereo or mono image. The cameras can have fish eye lenses.

Als weitere Erfassungseinrichtung 30 umfasst das Fahrzeug 10 der 1 eine Radareinrichtung 39, die mittels elektromagnetischer Wellen den rechten Seitenbereich des Fahrzeugs 10 abtastet und Distanzinformationen zu einzelnen sich dort befindenden Objekten liefert.As another detection device 30 includes the vehicle 10 of the 1 a radar device 39 , which by means of electromagnetic waves, the right side of the vehicle 10 scans and provides distance information to individual objects there.

Rein exemplarisch ist das Fahrzeug 10 der 1 lediglich mit einer Radareinrichtung 39 an der rechten Seite ausgestattet. Es ist jedoch ohne weiteres möglich, auch auf der linken Seite des Fahrzeugs 5 an der Fahrzeugfront 12 und/oder am Fahrzeugheck 16 entsprechende Radareinrichtungen 39 vorzusehen. Erfindungsgemäß können auch Lidar-Einrichtungen und/oder Ultraschall-Einrichtungen und/oder (vorhandene oder zusätzliche) Stereokameras die Funktion der beschriebenen Radar-Einrichtungen 39 übernehmen.Purely exemplary is the vehicle 10 of the 1 only with a radar device 39 equipped on the right side. However, it is easily possible, even on the left side of the vehicle 5 at the front of the vehicle 12 and / or at the rear of the vehicle 16 corresponding radar devices 39 provided. According to the invention, lidar devices and / or ultrasound devices and / or (existing or additional) stereo cameras can also function as described radar devices 39 take.

Das Fahrzeug 10 hat eine erfindungsgemäße Anzeigeeinrichtung 40, die in dem beschriebenen Ausführungsbeispiel im Cockpit des Fahrzeugs 10 angeordnet ist.The vehicle 10 has a display device according to the invention 40 in the described embodiment in the cockpit of the vehicle 10 is arranged.

Die Anzeigeeinrichtung 40 ist kommunikativ mit den Erfassungseinrichtungen 30 verbunden (vgl. 2). Insbesondere gibt es einen Systembus 50, der die Anzeigeeinrichtung 40, die linke Seitenkamera 31, die rechte Seitenkamera 33, die Heckkamera 35, die Frontkamera 37 und die Radar-Einrichtung 39 kommunikativ verbindet.The display device 40 is communicative with the recording devices 30 connected (cf. 2 ). In particular, there is a system bus 50 that the display device 40 , the left side camera 31 , the right side camera 33 , the rear camera 35 , the front camera 37 and the radar facility 39 connects communicatively.

Wie in der 3 gezeigt, umfasst eine Ausführungsform der Anzeigeeinrichtung 40 einen Bildschirm 41, eine Speichereinrichtung 43 zum Speichern einer Vielzahl von Objektklassen, eine Auswahleinrichtung 45 zur Auswahl einer Objektklasse und eine Visualisierungseinrichtung 47 zur Erstellung einer Darstellung der Fahrzeugumgebung und zur Anzeige dieser Darstellung auf dem Bildschirm 41. Like in the 3 shows an embodiment of the display device 40 a screen 41 , a storage device 43 for storing a plurality of object classes, a selector 45 for selecting an object class and a visualization device 47 for creating a representation of the vehicle environment and for displaying this representation on the screen 41 ,

Eine exemplarische Umgebungsdarstellung 60 für den Bildschirm 41 geht aus der 6 hervor.An exemplary environment representation 60 for the screen 41 goes out of the 6 out.

Ein erfindungsgemäßes Verfahren zur Erzeugung einer entsprechenden Umgebungsdarstellung 60 kann den Schritt 100 der Bilderfassung umfassen (4). Hierbei wird beispielsweise mittels der rechten Seitenkamera 33 ein Videobild 70 der rechten Seite des Fahrzeugs 10 erfasst. Ein entzerrtes Videobild 70 ist exemplarisch in der 5 gezeigt. Das Videobild 70 enthält Abbildungen eines ersten Objekts, nämlich eines Baumes (Abbild 71 eines Baumes) und eines zweiten Objekts, nämlich eines Fahrzeugs (Abbildung 73 eines Fahrzeugs). Das Abbild 73 des Fahrzeugs kann Abbildungen 75, 75' von Rädern umfassen.An inventive method for generating a corresponding environmental representation 60 can the step 100 of image capture include ( 4 ). This is done for example by means of the right side camera 33 a video picture 70 the right side of the vehicle 10 detected. An equalized video image 70 is exemplary in the 5 shown. The video image 70 contains illustrations of a first object, namely a tree (image 71 a tree) and a second object, namely a vehicle (Figure 73 of a vehicle). The image 73 of the vehicle can be pictures 75 . 75 ' of wheels.

Nach dem Schritt der Bilderfassung 100 kann der Schritt der Abstandserfassung 110 folgen, wobei beispielsweise mittels der Radar-Einrichtung 39 der rechte Seitenbereich des Fahrzeugs 10 abgetastet wird. Die Radareinrichtung 39 kann ein Distanzbild der Umgebung liefern. Dieses Distanzbild kann dazu verwendet werden, die Distanzen der Objekte (beispielsweise des Baums und des Fahrzeugs 5) zu erfassen. In dem Distanzbild lassen sich ähnlich wie in einem Videobild Objekte identifizieren. Des Weiteren können Geometrien eines Objekts abgeleitet werden.After the image capture step 100 may be the step of distance detection 110 follow, for example by means of the radar device 39 the right side area of the vehicle 10 is scanned. The radar device 39 can provide a distance image of the environment. This distance image can be used to measure the distances of the objects (for example, the tree and the vehicle 5 ) capture. In the distance image, similar to a video image, objects can be identified. Furthermore, geometries of an object can be derived.

In dem Schritt der Detektion (Schritt 120) werden entsprechende Objekte in dem Distanzbild der Radar-Einrichtung 39 detektiert. In einem Folgeschritt, einem Auswahlschritt 125, wird die erfasste Objekt-Geometrie durch die Auswahleinrichtung 45 mit gespeicherten Objekt-Geometrien einzelner Objektklassen verglichen. Insofern kann die Auswahleinrichtung 45 das Objekt Baum erkennen und die Klasse Baum aus der Speichereinrichtung 43 auslesen. Die generische Beschreibung der Klasse Baum in der Speichereinrichtung 43 kann dazu dienen, in einem Schritt der Instanziierung (Schritt 130) das Objekt Baum in einem virtuellen Raum zu instanziieren. Vorzugsweise wird dieser Schritt durch die Visualisierungseinrichtung 47 gewährleistet. Bei der Instanziierung des Objekts kann beispielsweise eine gemessene Höhe und/oder Stammbreite des Baums berücksichtigt werden.In the step of detection (step 120 ) become corresponding objects in the distance image of the radar device 39 detected. In a subsequent step, a selection step 125 , the detected object geometry is determined by the selector 45 compared with stored object geometries of individual object classes. In this respect, the selection device 45 recognize the object tree and the class tree from the storage device 43 read. The generic description of the class tree in the storage device 43 may serve in a step of instantiation (step 130 ) to instantiate the object tree in a virtual space. Preferably, this step is by the visualization device 47 guaranteed. During the instantiation of the object, for example, a measured height and / or trunk width of the tree can be taken into account.

In einem Schritt der Positionierung 140 wird das Objekt in der virtuellen Welt relativ zu dem Fahrzeug 10, das vorzugsweise ebenfalls als ein virtuelles Objekt existiert, positioniert. Hierzu kann es notwendig sein, dass die Radareinrichtung 39 relativ zu dem Fahrzeug 10 und/oder relativ zu der Seitenkamera 33 kalibriert ist. Vorzugsweise sind alle Erfassungseinrichtungen 30 relativ zu dem Fahrzeug 10 kalibriert. In dem beschriebenen Ausführungsbeispiel werden die Schritte 120, 125, 130 und 140 für alle detektierten Objekte, also auch für das erfasste Fahrzeug (vgl. Abbildung 73 aus 5), durchgeführt.In a step of positioning 140 becomes the object in the virtual world relative to the vehicle 10 , which preferably also exists as a virtual object, positioned. For this purpose, it may be necessary for the radar device 39 relative to the vehicle 10 and / or relative to the side camera 33 calibrated. Preferably, all detection devices 30 relative to the vehicle 10 calibrated. In the described embodiment, the steps become 120 . 125 . 130 and 140 for all detected objects, including the detected vehicle (see Fig 73 out 5 ), carried out.

Optional kann in einem Folgeschritt, nämlich in einem Schritt des Festlegens einer Ansicht 150, ein Benutzer eine Perspektive, in der er die virtuelle Welt betrachten möchte, vorgeben. Hierfür kann die Anzeigeeinrichtung 40 mit entsprechenden Ein- und Ausgabemitteln ausgestattet sein. Andererseits ist es ebenfalls denkbar, dass die Anzeigeeinrichtung 40 bestimmte Ansichten standardmäßig vorgibt.Optionally, in a subsequent step, namely in a step of specifying a view 150 A user can pretend a perspective in which he wants to view the virtual world. For this purpose, the display device 40 be equipped with appropriate input and output means. On the other hand, it is also conceivable that the display device 40 sets certain views by default.

Die Visualisierungseinrichtung 47 berechnet unter Berücksichtigung der vorgegebenen Perspektive in einem Schritt der Ausgabe einer Darstellung (Schritt 160) eine entsprechende Darstellung und zeigt diese auf dem Bildschirm 41 an. Die Umgebungsdarstellung 60 zeigt also ein Objekt-Abbild 61 des Baumes und ein Objekt-Abbild 63 des erfassten Fahrzeugs, wobei diese Objekt-Abbilder 61, 63 relativ zu einem Objekt-Abbild 65 des Fahrzeugs 10 positioniert sind.The visualization device 47 calculated taking into account the given perspective in a step of outputting a representation (step 160 ) and display it on the screen 41 at. The environment representation 60 thus shows an object image 61 of the tree and an object image 63 of the detected vehicle, these object images 61 . 63 relative to an object image 65 of the vehicle 10 are positioned.

In einem Ausführungsbeispiel der vorliegenden Erfindung sind die einzelnen virtuellen Objekte der Umgebungsdarstellung 60 entsprechend Sensorsignalen der Kameras, insbesondere der rechten Seitenkamera 33, eingefärbt. In einem anderen Ausführungsbeispiel werden Ausschnitte des Videobilds 70 auf die Objekte aufprojiziert, wobei nichterfassbare Bereiche der Objekte mit entsprechend angepassten Bildausschnitten aus erfassbaren Bereichen versehen sind.In one embodiment of the present invention, the individual virtual objects are the environment representation 60 according to sensor signals of the cameras, in particular the right side camera 33 , colored. In another embodiment, portions of the video image become 70 aufprojiziert onto the objects, with non-detectable areas of the objects are provided with correspondingly adapted image excerpts from detectable areas.

In den beschriebenen Ausführungsbeispielen wurde die Radar-Einrichtung 39 verwendet, um Objekt-Geometrien einzelner Objekte vorzugeben. Es ist möglich, dass die rechte Seitenkamera 33 – auch als Monokamera – zur Bestimmung entsprechender Objekt-Geometrien verwendet wird. Des Weiteren können andere Erfassungseinrichtungen 30 eingesetzt werden, um die Objekt-Geometrien zur Auswahl der Objektklassen aus der Speichereinrichtung 43 vorzugeben. In diesem Zusammenhang kann die Radar-Einrichtung 39 lediglich dazu verwendet werden, die Positionen der realen Objekte zu bestimmen und die zugehörigen virtuellen Objekte entsprechend zu positionieren. Theoretisch wäre es denkbar, auf die Radar-Einrichtung 39 gänzlich zu verzichten.In the described embodiments, the radar device was 39 used to specify object geometries of individual objects. It is possible that the right side camera 33 - Also used as a monocamera - to determine appropriate object geometries. Furthermore, other detection devices 30 are used to specify the object geometries for selecting the object classes from the storage device 43 pretend. In this context, the radar device 39 are only used to determine the positions of the real objects and to position the corresponding virtual objects accordingly. Theoretically, it would be conceivable on the radar device 39 completely renounce.

Andererseits ist es auch möglich, das erfindungsgemäße Verfahren ohne die Verwendung von Kameras umzusetzen. So kann die Radar-Einrichtung 39 ausreichen, um eine Objekt-Geometrie zur Auswahl der entsprechenden Objektklasse vorzugeben. Eine Instanziierung dieser Objektklasse kann dann ohne das Vorhandensein von jeglichen Farbinformationen erfolgen. Für das resultierende Anzeigesystem ergibt sich immer noch der Vorteil, dass nichterfassbare Oberflächen unter Berücksichtigung der Informationen aus der Speichereinrichtung 43 realitätsnahe dargestellt werden kann. So ist es eher unwahrscheinlich, dass das Dach eines erfassten Fahrzeugs beispielsweise von der Seite betrachtet bereits nach wenigen Zentimetern endet. Üblicherweise hat ein entsprechendes Fahrzeugdach eine Breite von mindestens einem Meter. Entsprechende Informationen können nach der Identifizierung der Objektklasse aus der Speichereinrichtung 43 abgeleitet werden. Erfindungsgemäß wird das virtuelle Objekt um Bildanteile ergänzt, die die Qualität der Darstellung weiter erhöhen.On the other hand, it is also possible to implement the method according to the invention without the use of cameras. So the radar Facility 39 sufficient to specify an object geometry for selecting the corresponding object class. An instantiation of this object class can then take place without the presence of any color information. For the resulting display system, there is still the advantage that non-detectable surfaces taking into account the information from the memory device 43 Realistic can be displayed. So it is unlikely that the roof of a detected vehicle, for example, from the side already ends after a few centimeters. Usually, a corresponding vehicle roof has a width of at least one meter. Corresponding information may be obtained after the identification of the object class from the storage device 43 be derived. According to the invention, the virtual object is supplemented by image components which further increase the quality of the representation.

Insgesamt ergibt sich eine deutlich bessere Umgebungsdarstellung, die dem Fahrer 5 dabei hilft, bei der Steuerung des Fahrzeugs 10 Fehler zu vermeiden.Overall, there is a much better environment representation, the driver 5 Helps in controlling the vehicle 10 To avoid mistakes.

In einem anderen oder verbesserten Auswahlverfahren (Schritt 120 und/oder 125) werden in dem Videobild 70 zunächst Basisobjekte, wie beispielsweise die Räder des erfassten Fahrzeugs, detektiert. Hierzu können übliche Bildverarbeitungs-Operatoren eingesetzt werden. Im Endeffekt ist es möglich, die Abbilder 75, 75' der Räder in dem Videobild 70 zu erfassen und entsprechenden Basisobjektklassen zuzuordnen. Zu diesen Basisobjektklassen kann in der Speichereinrichtung 43 hinterlegt sein, dass diese üblicherweise von komplexen Objektklassen – beispielsweise einem Fahrzeug – verwendet werden. Die Anzeigeeinrichtung 40 kann also versuchen, anhand der Basisobjekte Rückschlüsse auf das möglicherweise vorhandene komplexe Objekt Fahrzeug zu schließen. Hierbei kann beispielsweise die Bestimmung des Radabstands hilfreich sein. Ebenso eignen sich die Basisobjekte Räder besonders gut, um abhängig von deren Position die Ausrichtung des komplexen virtuellen Objekts Fahrzeug zu bestimmen. Wie bereits erläutert, können entsprechende Bedingungen bzw. Zusatzinformationen in der Speichereinrichtung 43 hinterlegt sein, um die Umgebungsdarstellung 60 weiter zu verbessern bzw. deren Erstellung zu beschleunigen.In another or improved selection process (step 120 and or 125 ) are in the video image 70 first detected base objects, such as the wheels of the detected vehicle. For this purpose, conventional image processing operators can be used. In the end, it is possible the images 75 . 75 ' the wheels in the video image 70 and assign corresponding base object classes. These base object classes may be stored in the memory device 43 be deposited, that these are usually used by complex object classes - for example, a vehicle. The display device 40 can therefore try to use the basis objects to infer conclusions about the potentially existing complex object vehicle. In this case, for example, determining the wheelbase can be helpful. Likewise, the basis objects wheels are particularly well suited to determine the orientation of the complex virtual object vehicle depending on their position. As already explained, corresponding conditions or additional information in the memory device 43 be deposited to the environment representation 60 continue to improve or accelerate its creation.

Die einzelnen beschriebenen Ausführungsbeispiele lassen sich in verschiedener Weise erfindungsgemäß kombinieren.The individual embodiments described can be combined in various ways according to the invention.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

55
Fahrerdriver
1010
Fahrzeugvehicle
1212
Fahrzeugfrontvehicle front
1616
Fahrzeugheckvehicle rear
3030
Erfassungseinrichtungendetection devices
3131
Linke SeitenkameraLeft side camera
3232
Linkes SichtfeldLeft field of view
3333
Rechte SeitenkameraRight side camera
3434
Rechtes SichtfeldRight field of view
3535
Heckkamerarear view camera
3636
Heckkamera-SichtfeldRear camera field of view
3737
Frontkamerafront camera
3838
Frontkamera-SichtfeldFront camera field of view
3939
Radar-EinrichtungRadar equipment
4040
Anzeigeeinrichtungdisplay
4141
Bildschirmscreen
4343
Speichereinrichtungmemory device
4545
Auswahleinrichtungselector
4747
Visualisierungseinrichtungvisualiser
5050
Systembussystem
6060
Umgebungsdarstellungenvironment representation
6161
Objekt-Abbild eines BaumesObject image of a tree
6363
Objekt-Abbild eines FahrzeugsObject image of a vehicle
6565
Objekt-Abbild des Fahrzeugs 10 Object image of the vehicle 10
7070
Videobildvideo image
7171
Abbild eines BaumesImage of a tree
7373
Abbild eines FahrzeugsImage of a vehicle
75, 75'75, 75 '
Abbild eines RadsImage of a wheel
100100
Schritt der BilderfassungStep of image capture
110110
Schritt der AbstandserfassungStep of distance detection
120120
Schritt der Detektion von ObjektenStep of detection of objects
125125
Schritt der Auswahl von ObjektklassenStep of selecting object classes
130130
Schritt der Instanziierung von ObjektenStep of instantiating objects
140140
Schritt der Positionierung von ObjektenStep of positioning objects
150150
Schritt des Festlegens einer AnsichtStep of specifying a view
160160
Schritt der Ausgabe einer UmgebungsdarstellungStep of outputting an environment representation

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102011082881 A1 [0002, 0002] DE 102011082881 A1 [0002, 0002]
  • DE 102010012954 A1 [0006] DE 102010012954 A1 [0006]
  • DE 102005024716 A1 [0006] DE 102005024716 A1 [0006]
  • DE 102010042063 A1 [0007, 0009] DE 102010042063 A1 [0007, 0009]
  • EP 2107503 A1 [0008] EP 2107503 A1 [0008]

Claims (15)

Anzeigesystem für ein Fahrzeug (5), umfassend: – mindestens eine Anzeige (51) zum Anzeigen mindestens einer Darstellung (60) einer Fahrzeugumgebung; – mindestens eine Erfassungseinrichtung (30), insbesondere eine Lidar-Erfassungseinrichtung und/oder eine Radar-Erfassungseinrichtung, zur Erfassung mindestens einer Objektgeometrie eines realen Objekts in der Fahrzeugumgebung; – eine Speichereinrichtung (43) zum Speichern einer Vielzahl von Basisobjektklassen für Basisobjekte und komplexen Objektklassen für komplexe Objekte, wobei ein komplexes Objekt aus einer Vielzahl von Basisobjekten und/oder komplexen Objekten besteht; – eine Auswahleinrichtung (45) zur Auswahl mindestens einer Basisobjektklasse und mindestens einer komplexen Objektklasse in Abhängigkeit von der mindestens einen Objektgeometrie; – eine Visualisierungseinrichtung (45) zur Erstellung mindestens eines Objektabbilds (61, 63) unter Verwendung der ausgewählten Objektklasse und zur Anzeige des Objektabbilds (61, 63) auf der Anzeige (51).Display system for a vehicle ( 5 ), comprising: - at least one advertisement ( 51 ) for displaying at least one representation ( 60 ) a vehicle environment; At least one detection device ( 30 ), in particular a lidar detection device and / or a radar detection device, for detecting at least one object geometry of a real object in the vehicle environment; A memory device ( 43 ) for storing a plurality of base object classes for base objects and complex object classes for complex objects, wherein a complex object consists of a plurality of base objects and / or complex objects; - a selection device ( 45 ) for selecting at least one base object class and at least one complex object class as a function of the at least one object geometry; A visualization device ( 45 ) for creating at least one object image ( 61 . 63 ) using the selected object class and displaying the object image ( 61 . 63 ) on the display ( 51 ). Anzeigesystem nach Anspruch 1, dadurch gekennzeichnet, dass die Visualisierungseinrichtung (45) zur Erstellung des Objektabbilds (61, 63) mindestens ein virtuelles Objekt gemäß den Objektklassen instanziiert.Display system according to claim 1, characterized in that the visualization device ( 45 ) for creating the object image ( 61 . 63 ) instances at least one virtual object according to the object classes. Anzeigesystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens eine Objektklasse mindestens ein Attribut, insbesondere ein Farbattribut, Konturattribut und/oder Größenattribut, hat und die Visualisierungseinrichtung (45) das mindestens eine Attribut in Abhängigkeit von mindestens einem von der Erfassungseinrichtung (30) empfangenen Signal setzt.Display system according to one of the preceding claims, characterized in that at least one object class has at least one attribute, in particular a color attribute, contour attribute and / or size attribute, and the visualization device ( 45 ) the at least one attribute in dependence on at least one of the detection device ( 30 ) signal is received. Anzeigesystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens eine Erfassungseinrichtung (30) dazu ausgebildet ist, mindestens eine Farbe und/oder Textur einer Oberfläche und/oder einer Teiloberfläche des Objekts zu erfassen.Display system according to one of the preceding claims, characterized in that at least one detection device ( 30 ) is adapted to detect at least one color and / or texture of a surface and / or a partial surface of the object. Anzeigesystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens eine Erfassungseinrichtung (30) dazu ausgebildet ist, ein Videobild des realen Objekts zu erfassen und die Visualisierungseinrichtung (45) zumindest einen Abschnitt des Videobilds auf das virtuelle Objekt projiziert.Display system according to one of the preceding claims, characterized in that at least one detection device ( 30 ) is adapted to capture a video image of the real object and the visualization device ( 45 ) projects at least a portion of the video image onto the virtual object. Anzeigesystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Speichereinrichtung (43) zu einer Vielzahl der Objektklassen Daten speichert, die den dreidimensionalen Körper des Objekts zumindest abschnittsweise beschreiben und die Visualisierungseinrichtung (47) die Objektklasse zur Erstellung des Objektabbilds (61, 63) instanziiert.Display system according to one of the preceding claims, characterized in that the memory device ( 43 ) stores data on a plurality of the object classes, which at least partially describe the three-dimensional body of the object and the visualization device ( 47 ) the object class for creating the object image ( 61 . 63 instantiated). Anzeigesystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Speichereinrichtung (43) Basisobjektklassen für Basisobjekte und komplexe Objektklassen für komplexe Objekte speichert.Display system according to one of the preceding claims, characterized in that the memory device ( 43 ) Stores base object classes for base objects and complex object classes for complex objects. Anzeigesystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Speichereinrichtung (43) zu den Basisobjekteklassen und/oder komplexen Objektklassen Bedingungen speichert, die vorzugsweise eine Relation zwischen den Basisobjekten und den komplexen Objekten angeben.Display system according to one of the preceding claims, characterized in that the memory device ( 43 ) stores conditions on the base object classes and / or complex object classes that preferably indicate a relation between the base objects and the complex objects. Anzeigesystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Visualisierungseinrichtung (47) dazu ausgebildet ist, unter Verwendung einer Vielzahl von virtuellen Objekten eine virtuelle Welt zu erstellen und eine Ansicht auf die virtuelle Welt, insbesondere aus einer Vogelperspektive, auf der Anzeige (51) anzuzeigen.Display system according to one of the preceding claims, characterized in that the visualization device ( 47 ) is adapted to create a virtual world using a plurality of virtual objects and a view on the virtual world, in particular from a bird's-eye view, on the display ( 51 ). Anzeigesystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für die Auswahl einer komplexen Objektklasse, beispielsweise einer komplexen Objektklasse, die ein Fahrzeug beschreibt, Basisobjekte von einer Erfassungseinrichtung detektiert und vorzugsweise für die komplexe Objektklasse vorgegebene Bedingungen überprüft werden.Display system according to one of the preceding claims, characterized in that for the selection of a complex object class, for example a complex object class that describes a vehicle, base objects detected by a detection device and preferably for the complex object class predetermined conditions are checked. Anzeigesystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens eine Erfassungseinrichtung (30) dazu ausgebildet ist, Positionsdaten und/oder Ausrichtungsdaten des mindestens einen realen Objekts zu erfassen.Display system according to one of the preceding claims, characterized in that at least one detection device ( 30 ) is adapted to capture position data and / or orientation data of the at least one real object. Anzeigesystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens eine Erfassungseinrichtung (30) dazu ausgebildet ist, zur Erfassung der Position und/oder der Ausrichtung eines komplexen Objekts, zumindest die Position eines Basisobjekts zu detektieren.Display system according to one of the preceding claims, characterized in that at least one detection device ( 30 ) is adapted, for detecting the position and / or the orientation of a complex object, to detect at least the position of a base object. Verfahren für ein Anzeigen einer Fahrzeugumgebung, insbesondere mittels eines Anzeigesystems (40) nach einem der Ansprüche 1 bis 12, umfassend die Schritte: – Erfassen mindestens eines Objekts in der Fahrzeugumgebung, vorzugsweise mittels mindestens einer Kamera (31, 33, 35, 37) und/oder mindestens einer Lidar-Einrichtung und/oder einer Radar-Einrichtung; – Vergleichen von Merkmalen des erfassten Objekts mit Merkmalen von gespeicherten Objektklassen; – Auswahl einer Vielzahl von Objektklassen basierend auf dem Vergleich; – Instanziieren der ausgewählten Objektklassen zur Erzeugung eines Objektabbilds (61, 63), vorzugsweise aus einer Vogelperspektive; – Anzeigen des Objektabbilds (61, 63) als Teil einer Darstellung (60) der Fahrzeugumgebung.Method for displaying a vehicle environment, in particular by means of a display system ( 40 ) according to one of claims 1 to 12, comprising the steps: - detecting at least one object in the vehicle environment, preferably by means of at least one camera ( 31 . 33 . 35 . 37 ) and / or at least one lidar device and / or one radar device; Comparing features of the detected object with features of stored object classes; Selection of a plurality of object classes based on the comparison; Instantiating the selected object classes to create an object image ( 61 . 63 ), preferably from a bird's-eye view; - Display the object image ( 61 . 63 ) as part of a representation ( 60 ) of the vehicle environment. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass eine Vielzahl von Objekten erfasst, eine Vielzahl von Objektklassen ausgewählt und eine Vielzahl von Objektabbildern (61, 63) erzeugt werden, wobei vorzugsweise zumindest eine relative Position der Objekte zueinander erfasst und bei der Darstellung (60) der Fahrzeugumgebung angezeigt wird.A method according to claim 13, characterized in that a plurality of objects detected, a plurality of object classes selected and a plurality of object images ( 61 . 63 ), wherein preferably at least one relative position of the objects is detected relative to one another and in the representation ( 60 ) of the vehicle environment is displayed. Verfahren nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass die Instanziierung der Objektklassen ein Einfärben der Objekte in einer erfassten Farbe und/oder ein Aufprojizieren mindestens eines Ausschnitts eines Videobilds (70) umfasst.Method according to claim 13 or 14, characterized in that the instantiation of the object classes comprises coloring the objects in a detected color and / or projecting at least one section of a video image ( 70 ).
DE102013215408.9A 2013-08-06 2013-08-06 A vehicle display system and method for displaying a vehicle environment Pending DE102013215408A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013215408.9A DE102013215408A1 (en) 2013-08-06 2013-08-06 A vehicle display system and method for displaying a vehicle environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013215408.9A DE102013215408A1 (en) 2013-08-06 2013-08-06 A vehicle display system and method for displaying a vehicle environment

Publications (1)

Publication Number Publication Date
DE102013215408A1 true DE102013215408A1 (en) 2015-03-05

Family

ID=52470243

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013215408.9A Pending DE102013215408A1 (en) 2013-08-06 2013-08-06 A vehicle display system and method for displaying a vehicle environment

Country Status (1)

Country Link
DE (1) DE102013215408A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016001019A1 (en) 2016-02-01 2017-08-03 Oguzhan Albayrak warning device
DE102018215006A1 (en) * 2018-09-04 2020-03-05 Conti Temic Microelectronic Gmbh DEVICE AND METHOD FOR PRESENTING A SURROUNDING VIEW FOR A VEHICLE
DE102018217267A1 (en) * 2018-10-10 2020-04-16 Zf Friedrichshafen Ag Device, method and system for detecting a tree in a field of view of a radar sensor
CN112970028A (en) * 2018-09-06 2021-06-15 罗伯特·博世有限公司 Method for selecting image segments of a sensor
DE102022207932A1 (en) 2022-08-01 2024-02-01 Volkswagen Aktiengesellschaft Security system for displaying the surroundings of a motor vehicle, method for displaying the surroundings of a motor vehicle and a motor vehicle

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10257484A1 (en) * 2002-12-10 2004-07-01 Volkswagen Ag Information system for road vehicles, provides display relating to objects near to vehicle on a display foil on the windscreen
DE102004034532A1 (en) * 2004-07-16 2006-02-09 Audi Ag Method for identifying image information in the representation of a night vision image taken with a vehicle-side image recording device and associated night vision system
DE102005024716A1 (en) 2005-05-30 2006-12-07 Robert Bosch Gmbh Method and device for recognizing and classifying objects
EP2107503A1 (en) 2008-03-31 2009-10-07 Harman Becker Automotive Systems GmbH Method and device for generating a real time environment model for vehicles
DE102009020328A1 (en) * 2009-05-07 2010-11-11 Bayerische Motoren Werke Aktiengesellschaft A method for displaying differently well visible objects from the environment of a vehicle on the display of a display device
DE102009020300A1 (en) * 2009-05-07 2010-11-11 Bayerische Motoren Werke Aktiengesellschaft Method for displaying partially automatically determined surrounding of vehicle for user of vehicle from outlook of passenger, involves detecting automatically surrounding of vehicle with one or multiple object recognition devices
DE102010012954A1 (en) 2010-03-25 2011-09-29 Daimler Ag Method for operating driver assistance device in passenger car on roadway, involves determining lateral minimum distance as function of movement patterns of obstructions based on type of obstructions and current and/or future roadway course
DE102010042063A1 (en) 2010-10-06 2012-01-19 Robert Bosch Gmbh Method for determining conditioned image data about environment of motor car, involves conditioning position-related image with symbol to determine conditioned image data, where symbol is assigned to classified object in image
DE102011082881A1 (en) 2011-09-16 2013-03-21 Bayerische Motoren Werke Aktiengesellschaft Method for representing surroundings of vehicle e.g. motor vehicle e.g. car, involves transforming primary image information into secondary image information corresponding to panoramic view using spatial information

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10257484A1 (en) * 2002-12-10 2004-07-01 Volkswagen Ag Information system for road vehicles, provides display relating to objects near to vehicle on a display foil on the windscreen
DE102004034532A1 (en) * 2004-07-16 2006-02-09 Audi Ag Method for identifying image information in the representation of a night vision image taken with a vehicle-side image recording device and associated night vision system
DE102005024716A1 (en) 2005-05-30 2006-12-07 Robert Bosch Gmbh Method and device for recognizing and classifying objects
EP2107503A1 (en) 2008-03-31 2009-10-07 Harman Becker Automotive Systems GmbH Method and device for generating a real time environment model for vehicles
DE102009020328A1 (en) * 2009-05-07 2010-11-11 Bayerische Motoren Werke Aktiengesellschaft A method for displaying differently well visible objects from the environment of a vehicle on the display of a display device
DE102009020300A1 (en) * 2009-05-07 2010-11-11 Bayerische Motoren Werke Aktiengesellschaft Method for displaying partially automatically determined surrounding of vehicle for user of vehicle from outlook of passenger, involves detecting automatically surrounding of vehicle with one or multiple object recognition devices
DE102010012954A1 (en) 2010-03-25 2011-09-29 Daimler Ag Method for operating driver assistance device in passenger car on roadway, involves determining lateral minimum distance as function of movement patterns of obstructions based on type of obstructions and current and/or future roadway course
DE102010042063A1 (en) 2010-10-06 2012-01-19 Robert Bosch Gmbh Method for determining conditioned image data about environment of motor car, involves conditioning position-related image with symbol to determine conditioned image data, where symbol is assigned to classified object in image
DE102011082881A1 (en) 2011-09-16 2013-03-21 Bayerische Motoren Werke Aktiengesellschaft Method for representing surroundings of vehicle e.g. motor vehicle e.g. car, involves transforming primary image information into secondary image information corresponding to panoramic view using spatial information

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016001019A1 (en) 2016-02-01 2017-08-03 Oguzhan Albayrak warning device
DE102016001019B4 (en) 2016-02-01 2019-01-17 Oguzhan Albayrak warning device
DE102018215006A1 (en) * 2018-09-04 2020-03-05 Conti Temic Microelectronic Gmbh DEVICE AND METHOD FOR PRESENTING A SURROUNDING VIEW FOR A VEHICLE
CN112970028A (en) * 2018-09-06 2021-06-15 罗伯特·博世有限公司 Method for selecting image segments of a sensor
US11989944B2 (en) 2018-09-06 2024-05-21 Robert Bosch Gmbh Method for selecting an image detail of a sensor
DE102018217267A1 (en) * 2018-10-10 2020-04-16 Zf Friedrichshafen Ag Device, method and system for detecting a tree in a field of view of a radar sensor
DE102022207932A1 (en) 2022-08-01 2024-02-01 Volkswagen Aktiengesellschaft Security system for displaying the surroundings of a motor vehicle, method for displaying the surroundings of a motor vehicle and a motor vehicle

Similar Documents

Publication Publication Date Title
DE102010052304A1 (en) Method and device for assisting a driver of a motor vehicle when parking out of a parking space and motor vehicle
DE102009020328A1 (en) A method for displaying differently well visible objects from the environment of a vehicle on the display of a display device
DE102010015079A1 (en) A method of displaying an image on a display device in a vehicle. Driver assistance system and vehicle
DE102012200731A1 (en) Method and device for visualizing the environment of a vehicle
DE112015001336T5 (en) VEHICLE ASSISTANCE APPARATUS ASSISTING A VEHICLE DRIVER RELATIVELY TO AN OBJECT WHILE MANUFACTURING THE VEHICLE
DE102011111440A1 (en) Method for representation of environment of vehicle, involves forming segments of same width from image points of equal distance in one of image planes, and modeling objects present outside free space in environment
WO2016005232A1 (en) Merging of partial images to form an image of surroundings of a mode of transport
DE102013215408A1 (en) A vehicle display system and method for displaying a vehicle environment
DE102014111012A1 (en) A method for assisting a driver of a motor vehicle when parking out, driver assistance system and motor vehicle
DE102011011048A1 (en) Monitoring the proximity around a commercial vehicle
DE102011010860A1 (en) Method and driver assistance system for displaying images in a motor vehicle and motor vehicle
DE102013019371A1 (en) Method for operating a driver assistance system for protecting a motor vehicle from damage during a maneuvering process and motor vehicle
DE102011082477A1 (en) Method and system for creating a digital image of a vehicle environment
EP3327698A1 (en) Method for assisting a driver of a motor vehicle when parking the motor vehicle in a parking lot, driver assistance system and motor vehicle
DE102006037600B4 (en) Method for the resolution-dependent representation of the environment of a motor vehicle
DE102011084588A1 (en) Method for supporting driver while parking vehicle in e.g. parking region surrounded by boundary, involves determining objective parking position as function of object, and initiating park process to park vehicle at objective position
EP2996327A2 (en) Surround view system for vehicles with attachments
DE102011121473A1 (en) A method for displaying images on a display device of a motor vehicle, driver assistance device, motor vehicle and computer program
DE102020004215A1 (en) Method for representing a traffic situation in a vehicle
DE102019208507A1 (en) Method for determining the degree of overlap between an object and a lane
DE102010034127A1 (en) Method for displaying images on a display device in a motor vehicle, driver assistance system and motor vehicle
DE112018002867T5 (en) CONNECTOR DEVICE AND CONNECTOR SYSTEM
DE102016119592A1 (en) Method for detecting objects in an environmental region of a motor vehicle taking into account sensor data in the infrared wavelength range, object recognition device, driver assistance system and motor vehicle
DE112017007812T5 (en) Vehicle peripheral image display device and vehicle peripheral image display method
DE102021129212A1 (en) Environment imaging device and display control method

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000