DE102017205194A1 - Method and device for providing 3D image information in a driver assistance system of a motor vehicle - Google Patents

Method and device for providing 3D image information in a driver assistance system of a motor vehicle Download PDF

Info

Publication number
DE102017205194A1
DE102017205194A1 DE102017205194.9A DE102017205194A DE102017205194A1 DE 102017205194 A1 DE102017205194 A1 DE 102017205194A1 DE 102017205194 A DE102017205194 A DE 102017205194A DE 102017205194 A1 DE102017205194 A1 DE 102017205194A1
Authority
DE
Germany
Prior art keywords
data
vehicle
data glasses
camera image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017205194.9A
Other languages
German (de)
Inventor
Guenter Bauer
Matthias Kaufmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102017205194.9A priority Critical patent/DE102017205194A1/en
Publication of DE102017205194A1 publication Critical patent/DE102017205194A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/28
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • B60K2360/176
    • B60K2360/21
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben eines Systems mit einer Datenbrille und einem Fahrerassistenzsystem in einem Kraftfahrzeug, mit folgenden Schritten:
- Erfassen eines Fahrzeugkamerabilds der Fahrzeugumgebung mithilfe mindestens einer Fahrzeugkamera;
- Erfassen eines Datenbrillenkamerabilds der Umgebung aus Sicht des Trägers der Datenbrille mithilfe einer Datenbrillenkamera;
- Bestimmen einer Pose der Datenbrille;
- Bestimmen eines gemeinsamen Überlappungsbereichs des Datenbrillenkamerabilds und des Fahrzeugkamerabilds;
- Bestimmen einer Tiefeninformation für den Überlappungsbereich abhängig von der Pose der Datenbrille; und
- Durchführen einer Anwendungsfunktion basierend auf der Tiefeninformation des Überlappungsbereichs.

Figure DE102017205194A1_0000
The invention relates to a method for operating a system with data glasses and a driver assistance system in a motor vehicle, comprising the following steps:
- Detecting a vehicle camera image of the vehicle environment using at least one vehicle camera;
- acquiring an environment data camera image from the perspective of the goggle wearer using a data camera;
- determining a pose of the data glasses;
Determining a common overlap area of the data camera image and the vehicle camera image;
Determining depth information for the overlap area depending on the pose of the data glasses; and
Performing an application function based on the depth information of the overlap area.
Figure DE102017205194A1_0000

Description

Technisches GebietTechnical area

Die Erfindung betrifft Fahrerassistenzsysteme mit Anzeigesystemen für Datenbrillen, insbesondere zum Einsatz in einem Kraftfahrzeug. Die Erfindung betrifft weiterhin Kamerasysteme in Kraftfahrzeugen und das Bereitstellen von 3D-Bildinformationen basierend auf Aufzeichnungen in Fahrzeugkameras des Kamerasystems.The invention relates to driver assistance systems with display systems for data glasses, in particular for use in a motor vehicle. The invention further relates to camera systems in motor vehicles and the provision of 3D image information based on recordings in vehicle cameras of the camera system.

Technischer HintergrundTechnical background

Fahrerassistenzsysteme sind elektronische Zusatzeinrichtungen in Kraftfahrzeugen zur Unterstützung des Fahrers in bestimmten Fahrsituationen. Hierbei stehen oft Sicherheitsaspekte und die Steigerung des Fahrkomforts im Vordergrund.Driver assistance systems are electronic auxiliary devices in motor vehicles to assist the driver in certain driving situations. Here, safety aspects and the enhancement of driving comfort are often in the foreground.

Fahrerassistenzsysteme können in Kommunikationsverbindung mit einer Datenbrille stehen, auch Head-mounted Displays (HMD) genannt. Derartige Datenbrillen können mithilfe einer Anzeigevorrichtung eine Abbildung auf einer oder zwei Anzeigeflächen im Blickfeld des Trägers der Datenbrille anzeigen. Die Anzeigeflächen entsprechen Reflexionsflächen, die Abbildungen in das Auge des Trägers der Datenbrille richten. Die Sichtöffnungen der Datenbrille sind transparent, so dass durch die Datenbrille die reale Umgebung in gewöhnlicher Weise wahrgenommen werden kann. Die Anzeigeflächen liegen in den Sichtöffnungen und können halbtransparent ausgebildet sein, so dass eine anzuzeigende Information, wie beispielsweise Text, Symbole, Graphiken, Videoanzeigen und dergleichen, die Wahrnehmung der Umgebung überlagernd angezeigt werden kann. Darüber hinaus sind auch Datenbrillen bekannt, die eine nicht-transparente Anzeige umfassen.Driver assistance systems can be in communication with data glasses, also known as head-mounted displays (HMD). Such data glasses can display a picture on one or two display surfaces in the field of vision of the wearer of the data glasses by means of a display device. The display surfaces correspond to reflection surfaces that direct images into the eye of the wearer of the data glasses. The viewing apertures of the data glasses are transparent, so that the data glasses can be used to perceive the real environment in the usual way. The display surfaces are located in the viewing apertures and may be semitransparent, so that information to be displayed, such as text, symbols, graphics, video displays and the like, can be superimposed on the perception of the environment. In addition, data glasses are also known which comprise a non-transparent display.

Die Informationen werden dem Träger der Datenbrille in der Regel kontaktanalog dargestellt, d.h. so dargestellt, dass die Information einem bestimmten Objekt in der Realumgebung überlagert ist bzw. an diesem orientiert ist oder dass die anzuzeigende Information in einer bestimmten Ausrichtung der Datenbrille bzw. deren Trägers angezeigt wird. Weiterhin ist es wünschenswert, die Information so darzustellen, dass sie in Bezug auf das Objekt in der Realumgebung perspektivisch korrekt erscheint, d.h. die Illusion entsteht, dass das Objekt der Realumgebung tatsächlich um das zusätzliche Merkmal der visuellen Information ergänzt wurde.The information is usually presented to the wearer of the data glasses contact-analogous, i. represented such that the information is superimposed on or oriented towards a specific object in the real environment or that the information to be displayed is displayed in a specific orientation of the data glasses or their wearer. Furthermore, it is desirable to display the information so that it appears perspectively correct with respect to the object in the real environment, i. the illusion arises that the object of the real environment has actually been supplemented by the additional feature of visual information.

Um die Information entsprechend kontaktanalog auf den Anzeigeflächen der Datenbrille anzuzeigen, ist es notwendig, die Position des Objektes in der Umgebung und die Pose der Datenbrille, d.h. die 3D-Position und die 3D-Ausrichtung der Datenbrille, zu kennen. Zur Bestimmung der Pose der Datenbrille kann in der Datenbrille eine Posenerkennungseinheit vorgesehen werden. Die Posenerkennungseinheit weist in der Regel eine Datenbrillenkamera und Recheneinrichtung, z.B. in Form eines Mikroprozessors, auf. Mithilfe der Kamera aufgezeichnete Abbildungen der Umgebung des Trägers der Datenbrille können basierend auf hinterlegten Abbildungen bzw. Strukturen des Fahrzeuginnenraums die Pose der Datenbrille im Fahrzeuginnenraum festgestellt werden. Diesen Vorgang nennt man auch Tracking.In order to display the information corresponding to the contact analog on the display surfaces of the data glasses, it is necessary to determine the position of the object in the environment and the pose of the data glasses, i. the 3D position and the 3D orientation of the data glasses, to know. To determine the pose of the data glasses, a pose detection unit can be provided in the data glasses. The pose detection unit typically includes a data camera and computing device, e.g. in the form of a microprocessor, on. Using the camera recorded images of the environment of the wearer of the data glasses can be determined based on deposited images or structures of the vehicle interior, the pose of the data glasses in the vehicle interior. This process is also called tracking.

So ist aus der Druckschrift DE 10 2014 206 623 A1 eine Vorrichtung zum Bestimmen der Pose einer Datenbrille bekannt, die eine Anzeige und eine Kamera umfasst. Die Vorrichtung ist ausgebildet, um Aufnahmen der Umgebung der Datenbrille mithilfe der Kamera zu erstellen, die Abbildung eines gespeicherten und vordefinierten Bereiches der Umgebung in den Aufnahmen der Kamera zu erkennen, ein Merkmal in der erkannten Abbildung des Bereiches zu erkennen und die Pose der Datenbrille unter Berücksichtigung des bestimmten Merkmals in den Aufnahmen zu bestimmen.This is from the publication DE 10 2014 206 623 A1 a device for determining the pose of data goggles is known, comprising a display and a camera. The device is designed to take pictures of the surroundings of the data glasses with the aid of the camera, to detect the image of a stored and predefined area of the surroundings in the recordings of the camera, to detect a feature in the recognized image of the area and to reflect the pose of the data glasses Consideration of the particular feature in the recordings.

Für bestimmte Fahrerassistenzfunktionen ist eine dreidimensionale Erfassung von Objekten in der Fahrzeugumgebung notwendig. Dazu gehören beispielsweise eine dreidimensionale räumliche Darstellung der Fahrzeugumgebung in der Datenbrille und andere auf der Position von Umgebungsobjekten basierende Funktionen. Eine Umfelderfassungseinrichtung, wie sie in Kraftfahrzeugen vorgesehen ist, weist dazu ein Kamerasystem mit mehreren Fahrzeugkameras auf, die die Umgebung des Fahrzeugs erfassen. Jedoch ist häufig nur eine zweidimensionale Erfassung der Fahrzeugumgebung vorgesehen, da die Ausstattung der Umgebungserfassungseinrichtung mit Stereokameras oder Ähnlichem aufwändig ist. Auch ist bei Kraftfahrzeugen, bei denen die Umgebungserfassungseinrichtung mit einem Kamerasystem zur räumlichen Erfassung ausgebildet ist, häufig die Anordnung der Fahrzeugkameras so, dass die Genauigkeit der dreidimensionalen Erfassung stark von deren Positionierung abhängt.For certain driver assistance functions, a three-dimensional detection of objects in the vehicle environment is necessary. These include, for example, a three-dimensional spatial representation of the vehicle environment in the data glasses and other functions based on the position of environment objects. An environment detection device, such as is provided in motor vehicles, has a camera system with a plurality of vehicle cameras, which detect the surroundings of the vehicle. However, often only a two-dimensional detection of the vehicle environment is provided because the equipment of the environment detection device with stereo cameras or the like is expensive. Also, in motor vehicles in which the environment detection device is formed with a camera system for spatial detection, often the arrangement of the vehicle cameras so that the accuracy of the three-dimensional detection depends strongly on their positioning.

Es ist Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren und Erfassungssystem zur dreidimensionalen optischen Erfassung von Umgebungsobjekten eines Kraftfahrzeugs zur Verfügung zu stellen.It is an object of the present invention to provide an improved method and detection system for the three-dimensional optical detection of environmental objects of a motor vehicle.

Offenbarung der ErfindungDisclosure of the invention

Diese Aufgabe wird durch das Verfahren zum Betreiben eines Fahrerassistenzsystems mit einer Datenbrille in einem Kraftfahrzeug gemäß Anspruch 1 sowie durch die Vorrichtung und das System gemäß den nebengeordneten Ansprüchen gelöst.This object is achieved by the method for operating a driver assistance system with data glasses in a motor vehicle according to claim 1 and by the device and the system according to the independent claims.

Weitere Ausgestaltungen sind in den abhängigen Ansprüchen angegeben. Further embodiments are specified in the dependent claims.

Gemäß einem ersten Aspekt ist ein Verfahren zum Betreiben eines Systems mit einer Datenbrille und einem Fahrerassistenzsystem in einem Kraftfahrzeug vorgesehen, mit folgenden Schritten:

  • - Erfassen eines Fahrzeugkamerabilds der Fahrzeugumgebung mithilfe mindestens einer Fahrzeugkamera;
  • - Erfassen eines Datenbrillenkamerabilds der Umgebung aus Sicht des Trägers der Datenbrille mithilfe einer Datenbrillenkamera;
  • - Bestimmen eines gemeinsamen Überlappungsbereichs des Datenbrillenkamerabilds und des Fahrzeugkamerabilds;
  • - Bestimmen einer Tiefeninformation für den Überlappungsbereich abhängig von einer Pose der Datenbrille; und
  • - Durchführen einer Anwendungsfunktion basierend auf der Tiefeninformation des Überlappungsbereichs.
According to a first aspect, a method is provided for operating a system with data goggles and a driver assistance system in a motor vehicle, comprising the following steps:
  • - Detecting a vehicle camera image of the vehicle environment using at least one vehicle camera;
  • - acquiring an environment data camera image from the perspective of the goggle wearer using a data camera;
  • Determining a common overlap area of the data camera image and the vehicle camera image;
  • Determining a depth information for the overlap area depending on a pose of the data glasses; and
  • Performing an application function based on the depth information of the overlap area.

Eine Idee des obigen Verfahrens besteht darin, durch die funktionale Kombination der mindestens einen Fahrzeugkamera und der beispielsweise für die Posenerkennung verwendeten Datenbrillenkamera eine stereoskopische räumliche Erfassung von Umgebungsobjekten zu ermöglichen. Durch den räumlichen Versatz der Fahrzeugkamera und der Datenbrillenkamera kann sich insbesondere in Blickrichtung des Trägers ein Überlappungsbereich ergeben, in dem ein Ausschnitt der Fahrzeugumgebung durch beide Kameras erfasst wird. In dem Überlappungsbereich werden dann Umgebungsobjekte aus verschiedenen Perspektiven erfasst, so dass sich daraus eine Tiefeninformation der Umgebungsobjekte ermitteln lässt.One idea of the above method is to enable stereoscopic spatial detection of environmental objects by the functional combination of the at least one vehicle camera and the data-reading camera used, for example, for pose detection. Due to the spatial offset of the vehicle camera and the data camera, an overlapping area can arise, in particular in the direction of view of the wearer, in which a section of the vehicle surroundings is detected by both cameras. In the overlap area, surrounding objects are then acquired from different perspectives, so that a depth information of the surrounding objects can be determined therefrom.

Auf diese Weise ist es möglich, nur mit wenigen im Kraftfahrzeug vorgesehenen Fahrzeugkameras in Verbindung mit einer Datenbrille mit einer Datenbrillenkamera in Blickrichtung der Datenbrille eine räumliche Darstellung der Fahrzeugumgebung zu erhalten.In this way, it is possible to obtain a spatial representation of the vehicle surroundings only with a few vehicle cameras provided in the motor vehicle in conjunction with data glasses with a data camera in the direction of the data glasses.

Weiterhin kann die Anwendungsfunktion in der Datenbrille oder in dem Fahrerassistenzsystem durchgeführt werden.Furthermore, the application function can be performed in the data glasses or in the driver assistance system.

Es kann vorgesehen sein, dass die Pose der Datenbrille mithilfe des Datenbrillenkamerabilds in der Datenbrille oder in dem Fahrerassistenzsystem ermittelt wird.It can be provided that the pose of the data glasses is determined by means of the data glasses camera image in the data glasses or in the driver assistance system.

Insbesondere kann die Pose der Datenbrille mithilfe eines Mustererkennungsverfahrens zur Erkennung von markanten Strukturen im Fahrzeuginnenraum in der Datenbrille ermittelt werden. Dies stellt eine Möglichkeit dar, die Pose der Datenbrille in der Datenbrille selbst zu ermitteln.In particular, the pose of the data glasses can be determined by means of a pattern recognition method for recognizing distinctive structures in the vehicle interior in the data glasses. This represents a possibility to determine the pose of the data glasses in the data glasses themselves.

Gemäß einer Ausführungsform kann das Bestimmen einer Tiefeninformation für den Überlappungsbereich abhängig von der Pose der Datenbrille umfassen:

  • - Ermitteln eines räumlichen Abstands zwischen der Position der Datenbrille und einer bekannten Position der Fahrzeugkamera;
  • - Bestimmen der Tiefeninformation basierend auf den korrespondierenden Überlappungsbereichen und dem räumlichen Abstand zwischen der Position der Datenbrille und der bekannten Position der Fahrzeugkamera.
According to one embodiment, determining depth information for the overlap region may include, depending on the pose of the data goggles:
  • Determining a spatial distance between the position of the data glasses and a known position of the vehicle camera;
  • Determining the depth information based on the corresponding overlap areas and the spatial distance between the position of the data glasses and the known position of the vehicle camera.

Die Position und Orientierung der mindestens einen Fahrzeugkamera des Kamerasystems sind im Fahrzeugkoordinatensystem konstant und bekannt. Die Datenbrillenkamera wird in der Regel zur Posenerkennung der Datenbrille verwendet und es liegt damit ebenfalls stets eine aktuelle Pose der Datenbrille bezüglich des Fahrzeugkoordinatensystems vor. Aus der Pose der Datenbrille ergibt sich damit ein räumlicher Abstand zu der mindestens einen Fahrzeugkamera. Somit kann durch Zusammenführen der Bildinformationen in Verbindung mit einer Angabe der Pose der Datenbrille eine dreidimensionale Tiefenkarte anhand der zeitgleich aufgenommenen Bilder der Fahrzeugkameras und der Datenbrillenkameras sowie der Pose der Datenbrillenkamera bestimmt werden.The position and orientation of the at least one vehicle camera of the camera system are constant and known in the vehicle coordinate system. The data camera is usually used for detecting the pose of the data glasses and it is therefore always a current pose of the data glasses with respect to the vehicle coordinate system before. From the pose of the data glasses, this results in a spatial distance to the at least one vehicle camera. Thus, by merging the image information in conjunction with an indication of the pose of the data glasses, a three-dimensional depth map can be determined on the basis of the simultaneously recorded images of the vehicle cameras and the data glasses cameras and the pose of the data camera.

Weiterhin kann das Bestimmen des gemeinsamen Überlappungsbereichs des Datenbrillenkamerabilds und des Fahrzeugkamerabilds das Identifizieren derjenigen Abbildungsbereiche aus der Fahrzeugumgebung umfassen, die sowohl von der Fahrzeugkamera als auch der Datenbrillenkamera aufgezeichnet werden. Dies kann durch ein Muster- oder Bilderkennungsverfahren durchgeführt werden, das einen identischen Bildbereich in dem Datenbrillenkamerabild und dem Fahrzeugkamerabild als den gemeinsamen Überlappungsbereich identifiziert. Alternativ kann durch die Pose der Datenbrille der durch das Datenbrillenkamerabild abgebildete Bereich der Umgebung identifiziert werden und bei bekannter Ausrichtung der Fahrzeugkamera der Überlappungsbereich der durch beide Kameras aufgezeichneten Bilder rechnerisch bestimmt werden.Further, determining the common overlap area of the data camera image and the vehicle camera image may include identifying those vehicle environment imaging areas recorded by both the vehicle camera and the data camera. This may be done by a pattern or image recognition method that identifies an identical image area in the data camera image and the vehicle camera image as the common overlap area. Alternatively, by the pose of the data glasses, the area of the environment imaged by the data camera image can be identified and, given a known orientation of the vehicle camera, the overlapping area of the images recorded by both cameras can be determined by calculation.

Das Durchführen der Anwendungsfunktion basierend auf der Tiefeninformation kann mindestens eine der folgenden Funktionen umfassen:

  • - eine Lokalisierung von Umgebungsobjekten für eine Gefährdungs- oder Kollisionserkennung, und
  • - eine Erkennung und Anzeige von Entfernungen einzelner Umgebungsobjekte.
Performing the application function based on the depth information may include at least one of the following functions:
  • - a localization of environment objects for hazard or collision detection, and
  • - Detection and display of distances of individual environment objects.

Insbesondere kann das Durchführen der Anwendungsfunktion basierend auf der Tiefeninformation eine Plausibilisierung einer mithilfe von Fahrzeugkameras ermittelten Tiefeninformation umfassen.In particular, performing the application function based on the depth information may include a plausibility check of a depth information determined by means of vehicle cameras.

Gemäß einem weiteren Aspekt ist ein Fahrerassistenzsystem für ein Anzeigesystem mit einer Datenbrille in einem Kraftfahrzeug vorgesehen, wobei das Fahrerassistenzsystem ausgebildet ist, um:

  • - ein Fahrzeugkamerabild der Fahrzeugumgebung mithilfe mindestens einer Fahrzeugkamera zu erfassen;
  • - ein Datenbrillenkamerabild der Umgebung aus Sicht des Trägers der Datenbrille von einer Datenbrillenkamera zu empfangen;
  • - eine Pose der Datenbrille zu erfassen oder zu empfangen;
  • - einen gemeinsamen Überlappungsbereich des Datenbrillenkamerabilds und des Fahrzeugkamerabilds zu bestimmen;
  • - eine Tiefeninformation für den Überlappungsbereich abhängig von der Pose der Datenbrille zu bestimmen; und
  • - eine Anwendungsfunktion basierend auf der Tiefeninformation des Überlappungsbereichs auszuführen.
According to a further aspect, a driver assistance system for a display system with data glasses in a motor vehicle is provided, wherein the driver assistance system is designed to:
  • to detect a vehicle camera image of the vehicle environment using at least one vehicle camera;
  • to receive a data-goggle camera image of the environment from the perspective of the wearer of the data goggles from a data-reading camera;
  • to capture or receive a pose of the data glasses;
  • to determine a common overlap area of the data camera image and the vehicle camera image;
  • - To determine a depth information for the overlap area depending on the pose of the data glasses; and
  • to execute an application function based on the depth information of the overlap area.

Gemäß einem weiteren Aspekt ist ein Anzeigesystem mit einer Datenbrille und dem obigen Fahrerassistenzsystem vorgesehen.According to a further aspect, a display system with data glasses and the above driver assistance system is provided.

Figurenlistelist of figures

Ausführungsformen werden nachfolgend anhand der beigefügten Zeichnungen näher erläutert. Es zeigen:

  • 1 eine schematische Darstellung eines Anzeigesystems mit einem Fahrerassistenzsystem und einer Datenbrille zum Einsatz in einem Kraftfahrzeug; und
  • 2 ein Flussdiagramm zur Veranschaulichung eines Verfahrens zum Erfassen einer Tiefeninformation für optisch zu erfassende Umgebungsobjekte.
Embodiments are explained below with reference to the accompanying drawings. Show it:
  • 1 a schematic representation of a display system with a driver assistance system and a data glasses for use in a motor vehicle; and
  • 2 a flowchart illustrating a method for detecting a depth information for optically detected environment objects.

Beschreibung von AusführungsformenDescription of embodiments

1 zeigt eine schematische Darstellung eines Anzeigesystems 1 insbesondere zum Einsatz in einem Kraftfahrzeug. Das Anzeigesystem 1 umfasst ein Fahrerassistenzsystem 2, das in Kommunikationsverbindung 4 mit einer Datenbrille 3 steht. Die Kommunikationsverbindung 4 ist als ein Datenübertragungskanal 4 ausgebildet, z.B. in Form einer drahtlosen Kommunikationsverbindung oder einer drahtgebundenen Kommunikationsverbindung. Die Kommunikationsverbindung 4 ist in der Lage, jegliche Art von Daten und Informationen zwischen dem Fahrerassistenzsystem 2 und der Datenbrille 3 zu übermitteln, beispielsweise basierend auf einer paketgebundenen Datenübertragung. 1 shows a schematic representation of a display system 1 in particular for use in a motor vehicle. The display system 1 includes a driver assistance system 2 that in communication connection 4 with a data glasses 3 stands. The communication connection 4 is designed as a data transmission channel 4, for example in the form of a wireless communication connection or a wired communication connection. The communication connection 4 is capable of any kind of data and information between the driver assistance system 2 and the data glasses 3, for example, based on a packet-bound data transmission.

Die Datenbrille 3 ist mit zwei transparenten Sichtscheiben 32, die in einem Rahmen 31 in an sich bekannter Weise eingefasst sind. Der Rahmen 31 ist mit Brillenbügeln 33 versehen, so dass die Datenbrille 3 am Kopf eines Benutzers in an sich bekannter Weise getragen werden kann.The data glasses 3 is with two transparent lenses 32 , which are enclosed in a frame 31 in a conventional manner. The frame 31 is provided with eyeglass temple 33, so that the data glasses 3 can be worn on the head of a user in a conventional manner.

Die Sichtscheiben 32 sind weiterhin jeweils mit einer transparenten Anzeigefläche 35 versehen, in die durch eine geeignete Einrichtung, wie zum Beispiel eine an dem Rahmen 31 angeordnete Anzeigeeinrichtung 36, ein Anzeigebild angezeigt werden kann. Die Anzeigeeinrichtung 36 kann einen Mikroprozessor oder eine vergleichbare Recheneinheit und eine Anzeigeeinheit, wie z.B. eine Projektionseinrichtung oder dergleichen, aufweisen. Die Anzeigeeinheit kann ausgebildet sein, ein elektronisch generiertes Anzeigebild auf die Anzeigefläche 35 einzublenden.The lenses 32 are each further provided with a transparent display surface 35, in which by a suitable device, such as one on the frame 31 arranged display device 36 , a display image can be displayed. The display device 36 may comprise a microprocessor or a comparable computing unit and a display unit, such as a projection device or the like. The display unit may be configured to display an electronically generated display image on the display surface 35 display.

Durch die transparente Ausbildung der Anzeigefläche 35 kann das elektronisch generierte Bild die durch die Anzeigefläche 35 wahrnehmbare Realumgebung überlagern. Mithilfe der Anzeigeeinrichtung 36 kann eine Information, wie beispielsweise einen Text, ein Symbol, eine Videoinformation, eine Graphik oder dergleichen, auf einer oder beiden Anzeigeflächen 35 dargestellt werden.Due to the transparent design of the display surface 35 The electronically generated image can pass through the display area 35 Superimposed perceptible real environment. Using the display device 36 may display information such as a text, a symbol, video information, graphics or the like on one or both display surfaces 35 being represented.

Die Datenbrille 3 kann wie eine typische Sehhilfe an dem Kopf des Benutzers getragen werden, wobei die Datenbrille 3 mit dem Rahmen 31 auf der Nase des Benutzers aufliegt und die Bügel 33 an dem Kopf des Benutzers seitlich anliegen. The data glasses 3 can be worn like a typical visual aid on the user's head, the data glasses 3 with the frame 31 rests on the nose of the user and the hanger 33 abut laterally on the user's head.

Die Blickrichtung des Benutzers in Geradeausrichtung erfolgt dann durch die Sichtscheiben 32 im Wesentlichen durch die transparenten Anzeigeflächen 35, so dass die Blickrichtung des Benutzers der Ausrichtung der Datenbrille 3 entspricht oder davon abgeleitet werden kann.The viewing direction of the user in the straight-ahead direction then takes place through the viewing windows 32 essentially through the transparent display surfaces 35 , so that the user's line of sight of the orientation of the data glasses 3 corresponds or can be derived from it.

Weiterhin kann die Datenbrille 3 mit einer Steuereinheit 37 versehen sein, die mit der Anzeigeeinrichtung 36 gekoppelt ist, um die Anzeige auf den Anzeigeflächen 35 zu bestimmen. Weiterhin dient die Steuereinheit 37 dazu, eine Pose der Datenbrille 3 in einem Fahrzeuginnenraum festzustellen. Die Pose einer Datenbrille 3 bezeichnet hierin die räumliche Position der Datenbrille 3 in einem fahrzeugfesten Koordinatensystem sowie deren dreidimensionale Ausrichtung. Die Steuereinheit 37 kann dazu mit einer Datenbrillenkamera 38 verbunden sein, die in Blickrichtung des Trägers der Datenbrille 3 ausgerichtet ist und zu dieser einen festen Bezug aufweist. Die Pose der Datenbrille 3 wird festgestellt, um mithilfe von Mustererkennungsverfahren markante Strukturen innerhalb des Cockpits zu detektieren und daraus die Pose der Datenbrille 3 in an sich bekannter Weise mithilfe eines an sich bekannten Lokalisierungsalgorithmus zu ermitteln.Furthermore, the data glasses 3 with a control unit 37 be provided with the display device 36 is coupled to the display on the display surfaces 35 to determine. Furthermore, the control unit is used 37 to detect a pose of the data glasses 3 in a vehicle interior. The Pose of data glasses 3 herein designates the spatial position of the data glasses 3 in a vehicle-fixed coordinate system and their three-dimensional orientation. The control unit 37 can do this with a data camera 38 connected in the direction of the wearer of the data glasses 3 is aligned and has a fixed relation to this. The pose of the data glasses 3 is determined to use pattern recognition techniques to detect distinctive structures within the cockpit and from this the pose of the data glasses 3 in a conventional manner using a known localization algorithm to determine.

Insbesondere erfasst der Lokalisierungsalgorithmus die Lage von mehreren markanten Strukturen im Fahrzeuginnenraum und kann über deren Positionen im durch die Datenbrillenkamera 38 aufgezeichneten Kamerabild die Ausrichtung der Datenbrille 3 erkennen und über deren Abständen im Kamerabild zueinander den Abstand der Datenbrille 3 von den markanten Strukturen bestimmt werden. Da die markanten Strukturen eine bekannte Position im Fahrzeugkoordinatensystem aufweisen, kann über deren Abständen im Kamerabild eine Position der Datenbrille 3 im Fahrzeugkoordinatensystem bestimmt werden.In particular, the localization algorithm detects the position of several distinctive structures in the vehicle interior and can via their positions in by the data camera 38 recorded camera image the orientation of the data glasses 3 recognize and their distances in the camera image to each other the distance of the data glasses 3 be determined by the distinctive structures. Since the distinctive structures have a known position in the vehicle coordinate system, a position of the data goggles can take their distances in the camera image 3 be determined in the vehicle coordinate system.

Das Fahrerassistenzsystem 2 ist mit einem Kamerasystem 21 verbunden, das Fahrzeugkameras 22 aufweist, um jeweils einen Ausschnitt der Fahrzeugumgebung aufzuzeichnen. Beispielsweise kann eine der Fahrzeugkameras 22 im Bereich des Rückspiegels mit einer Ausrichtung in Vorausrichtung des Kraftfahrzeugs und/oder eine weitere Fahrzeugkamera 22 im Bereich eines oder beider Seitenspiegel mit einer seitlichen Ausrichtung zum Kraftfahrzeug angeordnet sein.The driver assistance system 2 is with a camera system 21 connected to the vehicle cameras 22 to record a portion of the vehicle environment. For example, one of the vehicle cameras 22 in the region of the rearview mirror with an orientation in the advance direction of the motor vehicle and / or another vehicle camera 22 be arranged in the range of one or both side mirrors with a lateral orientation to the motor vehicle.

Das Fahrerassistenzsystem 2 benötigt für die visuelle Darstellung von realen mit dem Kamerasystem 21 aufgezeichneten Umgebungsobjekten eine Tiefeninformation, d.h. eine stereoskopische Erfassung dieser Umgebungsobjekte, insbesondere solcher Umgebungsobjekte, die sich in der unmittelbaren Nähe des Kraftfahrzeugs befinden. Dies ermöglicht eine Vielzahl von Anwendungsfunktionen, die insbesondere in Verbindung mit Anzeigen in der Datenbrille 3 realisiert werden können, wie beispielsweise eine Lokalisierung von Umgebungsobjekten für eine Gefährdungs- oder Kollisionserkennung, eine Erkennung und Anzeige von Entfernungen einzelner Umgebungsobjekte und dergleichen.The driver assistance system 2 needed for the visual representation of real with the camera system 21 recorded environmental objects, a depth information, ie a stereoscopic detection of these environmental objects, in particular those environment objects that are located in the immediate vicinity of the motor vehicle. This allows a variety of application functions, which can be realized in particular in connection with displays in the data glasses 3, such as a localization of environment objects for a hazard or collision detection, detection and display of distances of individual environment objects and the like.

Das Fahrerassistenzsystem 2 führt gemeinsam mit der Steuereinheit 37 der Datenbrille 3 ein Verfahren aus, durch das man eine Tiefeninformation über Umgebungsobjekte erhalten kann. Dieses Verfahren wird anhand des Flussdiagramms der Figur 2 näher erläutert.The driver assistance system 2 performs together with the control unit 37 of the data glasses 3, a method by which one can obtain depth information about surrounding objects. This method will be described with reference to the flowchart of FIG 2 explained in more detail.

Dazu wird in Schritt S1 zunächst mit Hilfe der mindestens einen Fahrzeugkamera 22 ein Fahrzeugkamerabild der Fahrzeugumgebung erfasst. Im Wesentlichen gleichzeitig wird in Schritt S2 durch die Datenbrillenkamera 38 ein Datenbrillenkamerabild der Umgebung aus Sicht des Trägers der Datenbrille 3 erfasst.For this purpose, in step S1, first with the help of the at least one vehicle camera 22 a vehicle camera image of the vehicle environment detected. Essentially at the same time in step S2 by the data camera 38 a data camera image of the environment from the perspective of the wearer of the data glasses 3 detected.

In Schritt S3 wird basierend auf dem Datenbrillenkamerabild eine Pose der Datenbrille 3 ermittelt, so dass deren räumliche Position im Fahrzeuginnenraum und Blickrichtung erkannt werden können.In step S3, a pose of the data glasses 3 is determined on the basis of the data glasses camera image, so that their spatial position in the vehicle interior and viewing direction can be detected.

In Schritt S4 werden das Datenbrillenkamerabild und die Pose, in der das aufgezeichnet worden ist, über die Kommunikationsverbindung 4 an das Fahrerassistenzsystem 2 übermittelt.In step S4, the data camera image and the pose in which it has been recorded are communicated via the communication link 4 transmitted to the driver assistance system 2.

In dem Fahrerassistenzsystem 2 werden in einem nachfolgenden Schritt S5 aus der vorbestimmten festgelegten Position der Fahrzeugkamera 22 sowie deren Ausrichtung und der Ausrichtung der Datenbrille 3 Überlappungen zwischen dem Fahrzeugkamerabild der Fahrzeugkamera 22 und dem Datenbrillenkamerabild der Datenbrille 3 ermittelt. Es ergeben sich so mindestens ein Überlappungsbereich des Datenbrillenkamerabilds und ein jeweils ein entsprechender Überlappungsbereich des Fahrzeugkamerabilds.In the driver assistance system 2 be in a subsequent step S5 from the predetermined fixed position of the vehicle camera 22 as well as their orientation and the orientation of the data glasses 3 Overlaps between the vehicle camera image of the vehicle camera 22 and the data glasses camera image of the data glasses 3 determined. This results in at least one overlapping region of the data camera image and a respective overlapping region of the vehicle camera image.

In Schritt S6 wird ein räumlicher Abstand zwischen der Position der Datenbrille 3 und der bekannten Position der jeweiligen Fahrzeugkamera 22 ermittelt.In step S6, a spatial distance between the position of the data glasses 3 and the known position of the respective vehicle camera 22 determined.

Für die korrespondierenden Überlappungsbereiche im Datenbrillenkamerabild und im Fahrzeugkamerabild wird in Schritt S7 eine Tiefeninformation der darauf befindlichen Objekte ermittelt. Dies kann durch eine an sich bekannte Auswertung von aus den unterschiedlichen Perspektiven aufgezeichneten Kamerabildern durchgeführt werdenFor the corresponding overlapping areas in the data-frame camera image and in the vehicle camera image, depth information of the objects located thereon is determined in step S7. This can be done by a known per se evaluation of recorded from different perspectives camera images

Die in Schritt S7 ermittelte Tiefeninformation kann nun in dem Fahrerassistenzsystem 2 zur Durchführung geeigneter Anwendungsfunktionen verwendet werden.The depth information determined in step S7 can now be used in the driver assistance system 2 for carrying out suitable application functions.

In einer alternativen Ausführungsform kann auch das Fahrzeugkamerabild an die Datenbrille 3 übermittelt werden, so dass das Erfassen der Tiefeninformation nicht in dem Fahrerassistenzsystem 2 sondern in der Steuereinheit 37 der Datenbrille 3 entsprechend dem oben beschriebenen Verfahren ausgeführt werden kann.In an alternative embodiment, the vehicle camera image can also be transmitted to the data glasses 3, so that the detection of the depth information is not in the driver assistance system 2 but in the control unit 37 the data glasses 3 can be performed according to the method described above.

Insgesamt ermöglicht es die oben beschriebene Vorgehensweise, auf das Vorsehen von stereoskopischen Fahrzeugkameras oder sich mit dem Erfassungsbereich überlappenden Fahrzeugkameras zu verzichten, um eine dreidimensionale Erfassung der Fahrzeugumgebung zu erhalten. Durch das Verwenden des Datenbrillenkamerabilds ist es möglich, zumindest in Blickrichtung des Trägers der Datenbrille 3 die entsprechende Tiefeninformation für Objekte im Sichtbereich des Trägers der Datenbrille 3 zu ermitteln.Overall, the procedure described above makes it possible to provide stereoscopic vehicle cameras or vehicle cameras overlapping with the detection area to give up to obtain a three-dimensional detection of the vehicle environment. By using the data glasses camera image, it is possible, at least in the direction of the wearer of the data glasses 3 the corresponding depth information for objects in the field of vision of the wearer of the data glasses 3 to investigate.

In Kamerasystemen mit Fahrzeugkameras, die eine dreidimensionale Erfassung der Umgebung des Kraftfahrzeugs zulassen, kann das Datenbrillenkamerabild auch dazu verwendet werden, eine bereits erhaltene Tiefeninformation durch Auswählen eines der Fahrzeugkamerabilder und mithilfe des Datenbrillenkamerabilds zu präzisieren.In camera systems with vehicle cameras, which permit a three-dimensional detection of the surroundings of the motor vehicle, the data camera image can also be used to specify already obtained depth information by selecting one of the vehicle camera images and using the data spectacle camera image.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Anzeigesystemsdisplay system
22
FahrerassistenzsystemDriver assistance system
2121
UmgebungserfassungseinrichtungEnvironment detection device
2222
Fahrzeugkamerasvehicle cameras
33
Datenbrilledata glasses
3131
Rahmenframe
3232
Sichtscheibenvisors
3333
BrillenbügelTemples
3535
transparente Anzeigeflächetransparent display area
3636
Anzeigeeinrichtungdisplay
3737
Steuereinheitcontrol unit
3838
DatenbrillenkameraData POV
44
DatenübertragungskanalData transmission channel

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102014206623 A1 [0006]DE 102014206623 A1 [0006]

Claims (10)

Verfahren zum Betreiben eines Systems (1) mit einer Datenbrille (3) und einem Fahrerassistenzsystem (3) in einem Kraftfahrzeug, mit folgenden Schritten: - Erfassen (S1) eines Fahrzeugkamerabilds der Fahrzeugumgebung mithilfe mindestens einer Fahrzeugkamera (22); - Erfassen (S2) eines Datenbrillenkamerabilds der Umgebung aus Sicht des Trägers der Datenbrille mithilfe einer Datenbrillenkamera (38); - Bestimmen (S3) einer Pose der Datenbrille; - Bestimmen (S5) eines gemeinsamen Überlappungsbereichs des Datenbrillenkamerabilds und des Fahrzeugkamerabilds; - Bestimmen (S7) einer Tiefeninformation für den Überlappungsbereich abhängig von der Pose der Datenbrille (3); und - Durchführen (S8) einer Anwendungsfunktion basierend auf der Tiefeninformation des Überlappungsbereichs.Method for operating a system (1) with data goggles (3) and a driver assistance system (3) in a motor vehicle, comprising the following steps: - detecting (S1) a vehicle camera image of the vehicle surroundings using at least one vehicle camera (22); - acquiring (S2) an environment's environmental camera image from the perspective of the goggle wearer using a data camera (38); Determining (S3) a pose of the data glasses; - determining (S5) a common overlap area of the data camera image and the vehicle camera image; - determining (S7) a depth information for the overlapping area depending on the pose of the data glasses (3); and - performing (S8) an application function based on the depth information of the overlapping area. Verfahren nach Anspruch 1, wobei die Anwendungsfunktion in der Datenbrille (3) oder in dem Fahrerassistenzsystem (2) durchgeführt wird.Method according to Claim 1 , wherein the application function in the data glasses (3) or in the driver assistance system (2) is performed. Verfahren nach Anspruch 1 oder 2, wobei die Pose der Datenbrille (3) mithilfe des Datenbrillenkamerabilds in der Datenbrille (3) oder in dem Fahrerassistenzsystem (2) ermittelt wird.Method according to Claim 1 or 2 in which the pose of the data goggles (3) is determined by means of the data glasses camera image in the data goggles (3) or in the driver assistance system (2). Verfahren nach Anspruch 3, wobei die Bestimmung der Pose der Datenbrille (3) mithilfe eines Mustererkennungsverfahrens zur Erkennung von markanten Strukturen im Fahrzeuginnenraum in der Datenbrille (3) durchgeführt wird.Method according to Claim 3 in which the determination of the pose of the data goggles (3) is carried out by means of a pattern recognition method for recognizing prominent structures in the vehicle interior in the data goggles (3). Verfahren nach einem der Ansprüche 1 bis 4, wobei das Bestimmen einer Tiefeninformation für den Überlappungsbereich abhängig von der Pose der Datenbrille (3) umfasst: - Ermitteln eines räumlichen Abstands zwischen der Position der Datenbrille (3) und einer bekannten Position der Fahrzeugkamera (22); - Bestimmen der Tiefeninformation basierend auf den korrespondierenden Überlappungsbereichen und dem räumlichen Abstand zwischen der Position der Datenbrille (3) und der bekannten Position der Fahrzeugkamera (22).Method according to one of Claims 1 to 4 wherein determining depth information for the overlap region depends on the pose of the data glasses (3): - determining a spatial distance between the position of the data glasses (3) and a known position of the vehicle camera (22); - Determining the depth information based on the corresponding overlap areas and the spatial distance between the position of the data glasses (3) and the known position of the vehicle camera (22). Verfahren nach einem der Ansprüche 1 bis 5, wobei das Bestimmen des gemeinsamen Überlappungsbereichs des Datenbrillenkamerabilds und des Fahrzeugkamerabilds das Identifizieren derjenigen Abbildungsbereiche aus der Fahrzeugumgebung, die sowohl von der Fahrzeugkamera (229 als auch der Datenbrillenkamera (38) aufgezeichnet werden, umfasst.Method according to one of Claims 1 to 5 wherein determining the common overlap area of the data camera image and the vehicle camera image comprises identifying those vehicle environment imaging areas recorded by both the vehicle camera (229 and the data camera (38)). Verfahren nach einem der Ansprüche 1 bis 6, wobei das Durchführen der Anwendungsfunktion basierend auf der Tiefeninformation mindestens eine der folgenden Funktionen umfasst: - eine Lokalisierung von Umgebungsobjekten für eine Gefährdungs- oder Kollisionserkennung, und - eine Erkennung und Anzeige von Entfernungen einzelner Umgebungsobjekte.Method according to one of Claims 1 to 6 wherein performing the application function based on the depth information comprises at least one of the following functions: - localization of environment objects for threat or collision detection, and - detection and display of distances of individual environment objects. Verfahren nach einem der Ansprüche 1 bis 7, wobei das Durchführen der Anwendungsfunktion basierend auf der Tiefeninformation eine Plausibilisierung einer mithilfe einer oder mehrerer Fahrzeugkameras (22) ermittelten Tiefeninformation umfasst.Method according to one of Claims 1 to 7 wherein performing the application function based on the depth information comprises plausibility checking a depth information determined using one or more vehicle cameras (22). Fahrerassistenzsystem für ein Anzeigesystem (1) mit einer Datenbrille (3) in einem Kraftfahrzeug, wobei das Fahrerassistenzsystem (2) ausgebildet ist, um: - ein Fahrzeugkamerabild der Fahrzeugumgebung mithilfe mindestens einer Fahrzeugkamera (22) zu erfassen; - ein Datenbrillenkamerabild der Umgebung aus Sicht des Trägers der Datenbrille (3) von einer Datenbrillenkamera zu empfangen; - eine Pose der Datenbrille (3) zu erfassen oder zu empfangen; - einen gemeinsamen Überlappungsbereich des Datenbrillenkamerabilds und des Fahrzeugkamerabilds zu bestimmen; - eine Tiefeninformation für den Überlappungsbereich abhängig von der Pose der Datenbrille (3) zu bestimmen; und - eine Anwendungsfunktion basierend auf der Tiefeninformation des Überlappungsbereichs auszuführen.Driver assistance system for a display system (1) with data goggles (3) in a motor vehicle, wherein the driver assistance system (2) is designed to: to detect a vehicle camera image of the vehicle environment using at least one vehicle camera (22); - To receive a data glasses camera image of the environment from the perspective of the wearer of the data glasses (3) from a data camera; - to capture or receive a pose of the data glasses (3); to determine a common overlap area of the data camera image and the vehicle camera image; - To determine a depth information for the overlap area depending on the pose of the data glasses (3); and to execute an application function based on the depth information of the overlap area. Anzeigesystem (1) mit einer Datenbrille (3) und einem Fahrerassistenzsystem (2) nach Anspruch 9.Display system (1) with a data glasses (3) and a driver assistance system (2) according to Claim 9 ,
DE102017205194.9A 2017-03-28 2017-03-28 Method and device for providing 3D image information in a driver assistance system of a motor vehicle Pending DE102017205194A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017205194.9A DE102017205194A1 (en) 2017-03-28 2017-03-28 Method and device for providing 3D image information in a driver assistance system of a motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017205194.9A DE102017205194A1 (en) 2017-03-28 2017-03-28 Method and device for providing 3D image information in a driver assistance system of a motor vehicle

Publications (1)

Publication Number Publication Date
DE102017205194A1 true DE102017205194A1 (en) 2018-10-04

Family

ID=63525417

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017205194.9A Pending DE102017205194A1 (en) 2017-03-28 2017-03-28 Method and device for providing 3D image information in a driver assistance system of a motor vehicle

Country Status (1)

Country Link
DE (1) DE102017205194A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012219735A1 (en) * 2012-10-29 2014-04-30 Bayerische Motoren Werke Aktiengesellschaft Method for image processing of data of images detected by cameras arranged at e.g. outer side of vehicle, involves adapting image data to be signaled such that hidden object is perceptible on image to be signaled
DE102014206623A1 (en) 2014-04-07 2015-10-08 Bayerische Motoren Werke Aktiengesellschaft Localization of a head-mounted display (HMD) in the vehicle
DE102014207398A1 (en) * 2014-04-17 2015-10-22 Bayerische Motoren Werke Aktiengesellschaft Object association for contact-analogue display on an HMD
DE102015006612A1 (en) * 2015-05-21 2016-11-24 Audi Ag Method for operating data glasses in a motor vehicle and system with data glasses

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012219735A1 (en) * 2012-10-29 2014-04-30 Bayerische Motoren Werke Aktiengesellschaft Method for image processing of data of images detected by cameras arranged at e.g. outer side of vehicle, involves adapting image data to be signaled such that hidden object is perceptible on image to be signaled
DE102014206623A1 (en) 2014-04-07 2015-10-08 Bayerische Motoren Werke Aktiengesellschaft Localization of a head-mounted display (HMD) in the vehicle
DE102014207398A1 (en) * 2014-04-17 2015-10-22 Bayerische Motoren Werke Aktiengesellschaft Object association for contact-analogue display on an HMD
DE102015006612A1 (en) * 2015-05-21 2016-11-24 Audi Ag Method for operating data glasses in a motor vehicle and system with data glasses

Similar Documents

Publication Publication Date Title
EP3298474B1 (en) Method for operating a head-mounted display in a motor vehicle, and system comprising a head-mounted display
DE102014226185B4 (en) Method and line of sight recognition system for determining a line of sight of a person, and use of the line of sight recognition system in a motor vehicle
DE112014004889T5 (en) Systems and methods for displaying three-dimensional images on a vehicle instrument panel
WO2015155029A1 (en) Locating a head-mounted display (hmd) in a vehicle
WO2014170278A1 (en) Method for determining whether a vehicle occupant has noticed relevant objects in the area surrounding the vehicle
DE102014214514A1 (en) Apparatus and method for exchanging data between vehicles for setting up a convoy
DE102016223908A1 (en) Projection display system and method for operating a projection display system
DE102016014712B4 (en) Vehicle and method for outputting information to a vehicle environment
DE102017220268A1 (en) Detection and visualization of system uncertainty when displaying augmented image content in head-up displays
DE102014207398A1 (en) Object association for contact-analogue display on an HMD
DE102017215163A1 (en) System of a motor vehicle and an augmented reality goggles and method for determining a pose of augmented reality goggles in the interior of a vehicle
DE102017221317A1 (en) Method and device for operating a data glasses in a motor vehicle
WO2018077520A1 (en) Method and device for operating a display system comprising a head-mounted display
DE102017209802A1 (en) Method and device for operating a display system with data glasses
DE102016218602A1 (en) A method for changing the perception of the outside world of a vehicle
DE102019103360A1 (en) Method and device for operating a display system with data glasses
DE102016215704A1 (en) Method and device for operating a display system with data glasses
DE102017205194A1 (en) Method and device for providing 3D image information in a driver assistance system of a motor vehicle
DE102017200337A1 (en) motor vehicle
DE102017212446A1 (en) Method for monitoring a display device
DE102013210587A1 (en) Display system with data glasses
DE102016225265A1 (en) Method and device for operating a display system with data glasses
DE102016225262A1 (en) Method and device for operating a display system with data glasses
DE102019112189A1 (en) Method and device for displaying an information object in augmented reality data glasses
DE102016225269A1 (en) Method and device for operating a display system with data glasses

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed