DE102017205194A1 - Method and device for providing 3D image information in a driver assistance system of a motor vehicle - Google Patents
Method and device for providing 3D image information in a driver assistance system of a motor vehicle Download PDFInfo
- Publication number
- DE102017205194A1 DE102017205194A1 DE102017205194.9A DE102017205194A DE102017205194A1 DE 102017205194 A1 DE102017205194 A1 DE 102017205194A1 DE 102017205194 A DE102017205194 A DE 102017205194A DE 102017205194 A1 DE102017205194 A1 DE 102017205194A1
- Authority
- DE
- Germany
- Prior art keywords
- data
- vehicle
- data glasses
- camera image
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 239000011521 glass Substances 0.000 claims abstract description 91
- 238000001514 detection method Methods 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 16
- 230000007613 environmental effect Effects 0.000 claims description 5
- 230000004807 localization Effects 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 claims description 2
- 238000012567 pattern recognition method Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Arrangement of adaptations of instruments
-
- B60K35/28—
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- B60K2360/176—
-
- B60K2360/21—
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Abstract
Die Erfindung betrifft ein Verfahren zum Betreiben eines Systems mit einer Datenbrille und einem Fahrerassistenzsystem in einem Kraftfahrzeug, mit folgenden Schritten:
- Erfassen eines Fahrzeugkamerabilds der Fahrzeugumgebung mithilfe mindestens einer Fahrzeugkamera;
- Erfassen eines Datenbrillenkamerabilds der Umgebung aus Sicht des Trägers der Datenbrille mithilfe einer Datenbrillenkamera;
- Bestimmen einer Pose der Datenbrille;
- Bestimmen eines gemeinsamen Überlappungsbereichs des Datenbrillenkamerabilds und des Fahrzeugkamerabilds;
- Bestimmen einer Tiefeninformation für den Überlappungsbereich abhängig von der Pose der Datenbrille; und
- Durchführen einer Anwendungsfunktion basierend auf der Tiefeninformation des Überlappungsbereichs.
The invention relates to a method for operating a system with data glasses and a driver assistance system in a motor vehicle, comprising the following steps:
- Detecting a vehicle camera image of the vehicle environment using at least one vehicle camera;
- acquiring an environment data camera image from the perspective of the goggle wearer using a data camera;
- determining a pose of the data glasses;
Determining a common overlap area of the data camera image and the vehicle camera image;
Determining depth information for the overlap area depending on the pose of the data glasses; and
Performing an application function based on the depth information of the overlap area.
Description
Technisches GebietTechnical area
Die Erfindung betrifft Fahrerassistenzsysteme mit Anzeigesystemen für Datenbrillen, insbesondere zum Einsatz in einem Kraftfahrzeug. Die Erfindung betrifft weiterhin Kamerasysteme in Kraftfahrzeugen und das Bereitstellen von 3D-Bildinformationen basierend auf Aufzeichnungen in Fahrzeugkameras des Kamerasystems.The invention relates to driver assistance systems with display systems for data glasses, in particular for use in a motor vehicle. The invention further relates to camera systems in motor vehicles and the provision of 3D image information based on recordings in vehicle cameras of the camera system.
Technischer HintergrundTechnical background
Fahrerassistenzsysteme sind elektronische Zusatzeinrichtungen in Kraftfahrzeugen zur Unterstützung des Fahrers in bestimmten Fahrsituationen. Hierbei stehen oft Sicherheitsaspekte und die Steigerung des Fahrkomforts im Vordergrund.Driver assistance systems are electronic auxiliary devices in motor vehicles to assist the driver in certain driving situations. Here, safety aspects and the enhancement of driving comfort are often in the foreground.
Fahrerassistenzsysteme können in Kommunikationsverbindung mit einer Datenbrille stehen, auch Head-mounted Displays (HMD) genannt. Derartige Datenbrillen können mithilfe einer Anzeigevorrichtung eine Abbildung auf einer oder zwei Anzeigeflächen im Blickfeld des Trägers der Datenbrille anzeigen. Die Anzeigeflächen entsprechen Reflexionsflächen, die Abbildungen in das Auge des Trägers der Datenbrille richten. Die Sichtöffnungen der Datenbrille sind transparent, so dass durch die Datenbrille die reale Umgebung in gewöhnlicher Weise wahrgenommen werden kann. Die Anzeigeflächen liegen in den Sichtöffnungen und können halbtransparent ausgebildet sein, so dass eine anzuzeigende Information, wie beispielsweise Text, Symbole, Graphiken, Videoanzeigen und dergleichen, die Wahrnehmung der Umgebung überlagernd angezeigt werden kann. Darüber hinaus sind auch Datenbrillen bekannt, die eine nicht-transparente Anzeige umfassen.Driver assistance systems can be in communication with data glasses, also known as head-mounted displays (HMD). Such data glasses can display a picture on one or two display surfaces in the field of vision of the wearer of the data glasses by means of a display device. The display surfaces correspond to reflection surfaces that direct images into the eye of the wearer of the data glasses. The viewing apertures of the data glasses are transparent, so that the data glasses can be used to perceive the real environment in the usual way. The display surfaces are located in the viewing apertures and may be semitransparent, so that information to be displayed, such as text, symbols, graphics, video displays and the like, can be superimposed on the perception of the environment. In addition, data glasses are also known which comprise a non-transparent display.
Die Informationen werden dem Träger der Datenbrille in der Regel kontaktanalog dargestellt, d.h. so dargestellt, dass die Information einem bestimmten Objekt in der Realumgebung überlagert ist bzw. an diesem orientiert ist oder dass die anzuzeigende Information in einer bestimmten Ausrichtung der Datenbrille bzw. deren Trägers angezeigt wird. Weiterhin ist es wünschenswert, die Information so darzustellen, dass sie in Bezug auf das Objekt in der Realumgebung perspektivisch korrekt erscheint, d.h. die Illusion entsteht, dass das Objekt der Realumgebung tatsächlich um das zusätzliche Merkmal der visuellen Information ergänzt wurde.The information is usually presented to the wearer of the data glasses contact-analogous, i. represented such that the information is superimposed on or oriented towards a specific object in the real environment or that the information to be displayed is displayed in a specific orientation of the data glasses or their wearer. Furthermore, it is desirable to display the information so that it appears perspectively correct with respect to the object in the real environment, i. the illusion arises that the object of the real environment has actually been supplemented by the additional feature of visual information.
Um die Information entsprechend kontaktanalog auf den Anzeigeflächen der Datenbrille anzuzeigen, ist es notwendig, die Position des Objektes in der Umgebung und die Pose der Datenbrille, d.h. die 3D-Position und die 3D-Ausrichtung der Datenbrille, zu kennen. Zur Bestimmung der Pose der Datenbrille kann in der Datenbrille eine Posenerkennungseinheit vorgesehen werden. Die Posenerkennungseinheit weist in der Regel eine Datenbrillenkamera und Recheneinrichtung, z.B. in Form eines Mikroprozessors, auf. Mithilfe der Kamera aufgezeichnete Abbildungen der Umgebung des Trägers der Datenbrille können basierend auf hinterlegten Abbildungen bzw. Strukturen des Fahrzeuginnenraums die Pose der Datenbrille im Fahrzeuginnenraum festgestellt werden. Diesen Vorgang nennt man auch Tracking.In order to display the information corresponding to the contact analog on the display surfaces of the data glasses, it is necessary to determine the position of the object in the environment and the pose of the data glasses, i. the 3D position and the 3D orientation of the data glasses, to know. To determine the pose of the data glasses, a pose detection unit can be provided in the data glasses. The pose detection unit typically includes a data camera and computing device, e.g. in the form of a microprocessor, on. Using the camera recorded images of the environment of the wearer of the data glasses can be determined based on deposited images or structures of the vehicle interior, the pose of the data glasses in the vehicle interior. This process is also called tracking.
So ist aus der Druckschrift
Für bestimmte Fahrerassistenzfunktionen ist eine dreidimensionale Erfassung von Objekten in der Fahrzeugumgebung notwendig. Dazu gehören beispielsweise eine dreidimensionale räumliche Darstellung der Fahrzeugumgebung in der Datenbrille und andere auf der Position von Umgebungsobjekten basierende Funktionen. Eine Umfelderfassungseinrichtung, wie sie in Kraftfahrzeugen vorgesehen ist, weist dazu ein Kamerasystem mit mehreren Fahrzeugkameras auf, die die Umgebung des Fahrzeugs erfassen. Jedoch ist häufig nur eine zweidimensionale Erfassung der Fahrzeugumgebung vorgesehen, da die Ausstattung der Umgebungserfassungseinrichtung mit Stereokameras oder Ähnlichem aufwändig ist. Auch ist bei Kraftfahrzeugen, bei denen die Umgebungserfassungseinrichtung mit einem Kamerasystem zur räumlichen Erfassung ausgebildet ist, häufig die Anordnung der Fahrzeugkameras so, dass die Genauigkeit der dreidimensionalen Erfassung stark von deren Positionierung abhängt.For certain driver assistance functions, a three-dimensional detection of objects in the vehicle environment is necessary. These include, for example, a three-dimensional spatial representation of the vehicle environment in the data glasses and other functions based on the position of environment objects. An environment detection device, such as is provided in motor vehicles, has a camera system with a plurality of vehicle cameras, which detect the surroundings of the vehicle. However, often only a two-dimensional detection of the vehicle environment is provided because the equipment of the environment detection device with stereo cameras or the like is expensive. Also, in motor vehicles in which the environment detection device is formed with a camera system for spatial detection, often the arrangement of the vehicle cameras so that the accuracy of the three-dimensional detection depends strongly on their positioning.
Es ist Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren und Erfassungssystem zur dreidimensionalen optischen Erfassung von Umgebungsobjekten eines Kraftfahrzeugs zur Verfügung zu stellen.It is an object of the present invention to provide an improved method and detection system for the three-dimensional optical detection of environmental objects of a motor vehicle.
Offenbarung der ErfindungDisclosure of the invention
Diese Aufgabe wird durch das Verfahren zum Betreiben eines Fahrerassistenzsystems mit einer Datenbrille in einem Kraftfahrzeug gemäß Anspruch 1 sowie durch die Vorrichtung und das System gemäß den nebengeordneten Ansprüchen gelöst.This object is achieved by the method for operating a driver assistance system with data glasses in a motor vehicle according to claim 1 and by the device and the system according to the independent claims.
Weitere Ausgestaltungen sind in den abhängigen Ansprüchen angegeben. Further embodiments are specified in the dependent claims.
Gemäß einem ersten Aspekt ist ein Verfahren zum Betreiben eines Systems mit einer Datenbrille und einem Fahrerassistenzsystem in einem Kraftfahrzeug vorgesehen, mit folgenden Schritten:
- - Erfassen eines Fahrzeugkamerabilds der Fahrzeugumgebung mithilfe mindestens einer Fahrzeugkamera;
- - Erfassen eines Datenbrillenkamerabilds der Umgebung aus Sicht des Trägers der Datenbrille mithilfe einer Datenbrillenkamera;
- - Bestimmen eines gemeinsamen Überlappungsbereichs des Datenbrillenkamerabilds und des Fahrzeugkamerabilds;
- - Bestimmen einer Tiefeninformation für den Überlappungsbereich abhängig von einer Pose der Datenbrille; und
- - Durchführen einer Anwendungsfunktion basierend auf der Tiefeninformation des Überlappungsbereichs.
- - Detecting a vehicle camera image of the vehicle environment using at least one vehicle camera;
- - acquiring an environment data camera image from the perspective of the goggle wearer using a data camera;
- Determining a common overlap area of the data camera image and the vehicle camera image;
- Determining a depth information for the overlap area depending on a pose of the data glasses; and
- Performing an application function based on the depth information of the overlap area.
Eine Idee des obigen Verfahrens besteht darin, durch die funktionale Kombination der mindestens einen Fahrzeugkamera und der beispielsweise für die Posenerkennung verwendeten Datenbrillenkamera eine stereoskopische räumliche Erfassung von Umgebungsobjekten zu ermöglichen. Durch den räumlichen Versatz der Fahrzeugkamera und der Datenbrillenkamera kann sich insbesondere in Blickrichtung des Trägers ein Überlappungsbereich ergeben, in dem ein Ausschnitt der Fahrzeugumgebung durch beide Kameras erfasst wird. In dem Überlappungsbereich werden dann Umgebungsobjekte aus verschiedenen Perspektiven erfasst, so dass sich daraus eine Tiefeninformation der Umgebungsobjekte ermitteln lässt.One idea of the above method is to enable stereoscopic spatial detection of environmental objects by the functional combination of the at least one vehicle camera and the data-reading camera used, for example, for pose detection. Due to the spatial offset of the vehicle camera and the data camera, an overlapping area can arise, in particular in the direction of view of the wearer, in which a section of the vehicle surroundings is detected by both cameras. In the overlap area, surrounding objects are then acquired from different perspectives, so that a depth information of the surrounding objects can be determined therefrom.
Auf diese Weise ist es möglich, nur mit wenigen im Kraftfahrzeug vorgesehenen Fahrzeugkameras in Verbindung mit einer Datenbrille mit einer Datenbrillenkamera in Blickrichtung der Datenbrille eine räumliche Darstellung der Fahrzeugumgebung zu erhalten.In this way, it is possible to obtain a spatial representation of the vehicle surroundings only with a few vehicle cameras provided in the motor vehicle in conjunction with data glasses with a data camera in the direction of the data glasses.
Weiterhin kann die Anwendungsfunktion in der Datenbrille oder in dem Fahrerassistenzsystem durchgeführt werden.Furthermore, the application function can be performed in the data glasses or in the driver assistance system.
Es kann vorgesehen sein, dass die Pose der Datenbrille mithilfe des Datenbrillenkamerabilds in der Datenbrille oder in dem Fahrerassistenzsystem ermittelt wird.It can be provided that the pose of the data glasses is determined by means of the data glasses camera image in the data glasses or in the driver assistance system.
Insbesondere kann die Pose der Datenbrille mithilfe eines Mustererkennungsverfahrens zur Erkennung von markanten Strukturen im Fahrzeuginnenraum in der Datenbrille ermittelt werden. Dies stellt eine Möglichkeit dar, die Pose der Datenbrille in der Datenbrille selbst zu ermitteln.In particular, the pose of the data glasses can be determined by means of a pattern recognition method for recognizing distinctive structures in the vehicle interior in the data glasses. This represents a possibility to determine the pose of the data glasses in the data glasses themselves.
Gemäß einer Ausführungsform kann das Bestimmen einer Tiefeninformation für den Überlappungsbereich abhängig von der Pose der Datenbrille umfassen:
- - Ermitteln eines räumlichen Abstands zwischen der Position der Datenbrille und einer bekannten Position der Fahrzeugkamera;
- - Bestimmen der Tiefeninformation basierend auf den korrespondierenden Überlappungsbereichen und dem räumlichen Abstand zwischen der Position der Datenbrille und der bekannten Position der Fahrzeugkamera.
- Determining a spatial distance between the position of the data glasses and a known position of the vehicle camera;
- Determining the depth information based on the corresponding overlap areas and the spatial distance between the position of the data glasses and the known position of the vehicle camera.
Die Position und Orientierung der mindestens einen Fahrzeugkamera des Kamerasystems sind im Fahrzeugkoordinatensystem konstant und bekannt. Die Datenbrillenkamera wird in der Regel zur Posenerkennung der Datenbrille verwendet und es liegt damit ebenfalls stets eine aktuelle Pose der Datenbrille bezüglich des Fahrzeugkoordinatensystems vor. Aus der Pose der Datenbrille ergibt sich damit ein räumlicher Abstand zu der mindestens einen Fahrzeugkamera. Somit kann durch Zusammenführen der Bildinformationen in Verbindung mit einer Angabe der Pose der Datenbrille eine dreidimensionale Tiefenkarte anhand der zeitgleich aufgenommenen Bilder der Fahrzeugkameras und der Datenbrillenkameras sowie der Pose der Datenbrillenkamera bestimmt werden.The position and orientation of the at least one vehicle camera of the camera system are constant and known in the vehicle coordinate system. The data camera is usually used for detecting the pose of the data glasses and it is therefore always a current pose of the data glasses with respect to the vehicle coordinate system before. From the pose of the data glasses, this results in a spatial distance to the at least one vehicle camera. Thus, by merging the image information in conjunction with an indication of the pose of the data glasses, a three-dimensional depth map can be determined on the basis of the simultaneously recorded images of the vehicle cameras and the data glasses cameras and the pose of the data camera.
Weiterhin kann das Bestimmen des gemeinsamen Überlappungsbereichs des Datenbrillenkamerabilds und des Fahrzeugkamerabilds das Identifizieren derjenigen Abbildungsbereiche aus der Fahrzeugumgebung umfassen, die sowohl von der Fahrzeugkamera als auch der Datenbrillenkamera aufgezeichnet werden. Dies kann durch ein Muster- oder Bilderkennungsverfahren durchgeführt werden, das einen identischen Bildbereich in dem Datenbrillenkamerabild und dem Fahrzeugkamerabild als den gemeinsamen Überlappungsbereich identifiziert. Alternativ kann durch die Pose der Datenbrille der durch das Datenbrillenkamerabild abgebildete Bereich der Umgebung identifiziert werden und bei bekannter Ausrichtung der Fahrzeugkamera der Überlappungsbereich der durch beide Kameras aufgezeichneten Bilder rechnerisch bestimmt werden.Further, determining the common overlap area of the data camera image and the vehicle camera image may include identifying those vehicle environment imaging areas recorded by both the vehicle camera and the data camera. This may be done by a pattern or image recognition method that identifies an identical image area in the data camera image and the vehicle camera image as the common overlap area. Alternatively, by the pose of the data glasses, the area of the environment imaged by the data camera image can be identified and, given a known orientation of the vehicle camera, the overlapping area of the images recorded by both cameras can be determined by calculation.
Das Durchführen der Anwendungsfunktion basierend auf der Tiefeninformation kann mindestens eine der folgenden Funktionen umfassen:
- - eine Lokalisierung von Umgebungsobjekten für eine Gefährdungs- oder Kollisionserkennung, und
- - eine Erkennung und Anzeige von Entfernungen einzelner Umgebungsobjekte.
- - a localization of environment objects for hazard or collision detection, and
- - Detection and display of distances of individual environment objects.
Insbesondere kann das Durchführen der Anwendungsfunktion basierend auf der Tiefeninformation eine Plausibilisierung einer mithilfe von Fahrzeugkameras ermittelten Tiefeninformation umfassen.In particular, performing the application function based on the depth information may include a plausibility check of a depth information determined by means of vehicle cameras.
Gemäß einem weiteren Aspekt ist ein Fahrerassistenzsystem für ein Anzeigesystem mit einer Datenbrille in einem Kraftfahrzeug vorgesehen, wobei das Fahrerassistenzsystem ausgebildet ist, um:
- - ein Fahrzeugkamerabild der Fahrzeugumgebung mithilfe mindestens einer Fahrzeugkamera zu erfassen;
- - ein Datenbrillenkamerabild der Umgebung aus Sicht des Trägers der Datenbrille von einer Datenbrillenkamera zu empfangen;
- - eine Pose der Datenbrille zu erfassen oder zu empfangen;
- - einen gemeinsamen Überlappungsbereich des Datenbrillenkamerabilds und des Fahrzeugkamerabilds zu bestimmen;
- - eine Tiefeninformation für den Überlappungsbereich abhängig von der Pose der Datenbrille zu bestimmen; und
- - eine Anwendungsfunktion basierend auf der Tiefeninformation des Überlappungsbereichs auszuführen.
- to detect a vehicle camera image of the vehicle environment using at least one vehicle camera;
- to receive a data-goggle camera image of the environment from the perspective of the wearer of the data goggles from a data-reading camera;
- to capture or receive a pose of the data glasses;
- to determine a common overlap area of the data camera image and the vehicle camera image;
- - To determine a depth information for the overlap area depending on the pose of the data glasses; and
- to execute an application function based on the depth information of the overlap area.
Gemäß einem weiteren Aspekt ist ein Anzeigesystem mit einer Datenbrille und dem obigen Fahrerassistenzsystem vorgesehen.According to a further aspect, a display system with data glasses and the above driver assistance system is provided.
Figurenlistelist of figures
Ausführungsformen werden nachfolgend anhand der beigefügten Zeichnungen näher erläutert. Es zeigen:
-
1 eine schematische Darstellung eines Anzeigesystems mit einem Fahrerassistenzsystem und einer Datenbrille zum Einsatz in einem Kraftfahrzeug; und -
2 ein Flussdiagramm zur Veranschaulichung eines Verfahrens zum Erfassen einer Tiefeninformation für optisch zu erfassende Umgebungsobjekte.
-
1 a schematic representation of a display system with a driver assistance system and a data glasses for use in a motor vehicle; and -
2 a flowchart illustrating a method for detecting a depth information for optically detected environment objects.
Beschreibung von AusführungsformenDescription of embodiments
Die Datenbrille
Die Sichtscheiben
Durch die transparente Ausbildung der Anzeigefläche
Die Datenbrille
Die Blickrichtung des Benutzers in Geradeausrichtung erfolgt dann durch die Sichtscheiben 32 im Wesentlichen durch die transparenten Anzeigeflächen
Weiterhin kann die Datenbrille
Insbesondere erfasst der Lokalisierungsalgorithmus die Lage von mehreren markanten Strukturen im Fahrzeuginnenraum und kann über deren Positionen im durch die Datenbrillenkamera
Das Fahrerassistenzsystem
Das Fahrerassistenzsystem
Das Fahrerassistenzsystem
Dazu wird in Schritt S1 zunächst mit Hilfe der mindestens einen Fahrzeugkamera
In Schritt S3 wird basierend auf dem Datenbrillenkamerabild eine Pose der Datenbrille 3 ermittelt, so dass deren räumliche Position im Fahrzeuginnenraum und Blickrichtung erkannt werden können.In step S3, a pose of the
In Schritt S4 werden das Datenbrillenkamerabild und die Pose, in der das aufgezeichnet worden ist, über die Kommunikationsverbindung
In dem Fahrerassistenzsystem
In Schritt S6 wird ein räumlicher Abstand zwischen der Position der Datenbrille
Für die korrespondierenden Überlappungsbereiche im Datenbrillenkamerabild und im Fahrzeugkamerabild wird in Schritt S7 eine Tiefeninformation der darauf befindlichen Objekte ermittelt. Dies kann durch eine an sich bekannte Auswertung von aus den unterschiedlichen Perspektiven aufgezeichneten Kamerabildern durchgeführt werdenFor the corresponding overlapping areas in the data-frame camera image and in the vehicle camera image, depth information of the objects located thereon is determined in step S7. This can be done by a known per se evaluation of recorded from different perspectives camera images
Die in Schritt S7 ermittelte Tiefeninformation kann nun in dem Fahrerassistenzsystem 2 zur Durchführung geeigneter Anwendungsfunktionen verwendet werden.The depth information determined in step S7 can now be used in the
In einer alternativen Ausführungsform kann auch das Fahrzeugkamerabild an die Datenbrille 3 übermittelt werden, so dass das Erfassen der Tiefeninformation nicht in dem Fahrerassistenzsystem
Insgesamt ermöglicht es die oben beschriebene Vorgehensweise, auf das Vorsehen von stereoskopischen Fahrzeugkameras oder sich mit dem Erfassungsbereich überlappenden Fahrzeugkameras zu verzichten, um eine dreidimensionale Erfassung der Fahrzeugumgebung zu erhalten. Durch das Verwenden des Datenbrillenkamerabilds ist es möglich, zumindest in Blickrichtung des Trägers der Datenbrille
In Kamerasystemen mit Fahrzeugkameras, die eine dreidimensionale Erfassung der Umgebung des Kraftfahrzeugs zulassen, kann das Datenbrillenkamerabild auch dazu verwendet werden, eine bereits erhaltene Tiefeninformation durch Auswählen eines der Fahrzeugkamerabilder und mithilfe des Datenbrillenkamerabilds zu präzisieren.In camera systems with vehicle cameras, which permit a three-dimensional detection of the surroundings of the motor vehicle, the data camera image can also be used to specify already obtained depth information by selecting one of the vehicle camera images and using the data spectacle camera image.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 11
- Anzeigesystemsdisplay system
- 22
- FahrerassistenzsystemDriver assistance system
- 2121
- UmgebungserfassungseinrichtungEnvironment detection device
- 2222
- Fahrzeugkamerasvehicle cameras
- 33
- Datenbrilledata glasses
- 3131
- Rahmenframe
- 3232
- Sichtscheibenvisors
- 3333
- BrillenbügelTemples
- 3535
- transparente Anzeigeflächetransparent display area
- 3636
- Anzeigeeinrichtungdisplay
- 3737
- Steuereinheitcontrol unit
- 3838
- DatenbrillenkameraData POV
- 44
- DatenübertragungskanalData transmission channel
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 102014206623 A1 [0006]DE 102014206623 A1 [0006]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017205194.9A DE102017205194A1 (en) | 2017-03-28 | 2017-03-28 | Method and device for providing 3D image information in a driver assistance system of a motor vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017205194.9A DE102017205194A1 (en) | 2017-03-28 | 2017-03-28 | Method and device for providing 3D image information in a driver assistance system of a motor vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102017205194A1 true DE102017205194A1 (en) | 2018-10-04 |
Family
ID=63525417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017205194.9A Pending DE102017205194A1 (en) | 2017-03-28 | 2017-03-28 | Method and device for providing 3D image information in a driver assistance system of a motor vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102017205194A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012219735A1 (en) * | 2012-10-29 | 2014-04-30 | Bayerische Motoren Werke Aktiengesellschaft | Method for image processing of data of images detected by cameras arranged at e.g. outer side of vehicle, involves adapting image data to be signaled such that hidden object is perceptible on image to be signaled |
DE102014206623A1 (en) | 2014-04-07 | 2015-10-08 | Bayerische Motoren Werke Aktiengesellschaft | Localization of a head-mounted display (HMD) in the vehicle |
DE102014207398A1 (en) * | 2014-04-17 | 2015-10-22 | Bayerische Motoren Werke Aktiengesellschaft | Object association for contact-analogue display on an HMD |
DE102015006612A1 (en) * | 2015-05-21 | 2016-11-24 | Audi Ag | Method for operating data glasses in a motor vehicle and system with data glasses |
-
2017
- 2017-03-28 DE DE102017205194.9A patent/DE102017205194A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012219735A1 (en) * | 2012-10-29 | 2014-04-30 | Bayerische Motoren Werke Aktiengesellschaft | Method for image processing of data of images detected by cameras arranged at e.g. outer side of vehicle, involves adapting image data to be signaled such that hidden object is perceptible on image to be signaled |
DE102014206623A1 (en) | 2014-04-07 | 2015-10-08 | Bayerische Motoren Werke Aktiengesellschaft | Localization of a head-mounted display (HMD) in the vehicle |
DE102014207398A1 (en) * | 2014-04-17 | 2015-10-22 | Bayerische Motoren Werke Aktiengesellschaft | Object association for contact-analogue display on an HMD |
DE102015006612A1 (en) * | 2015-05-21 | 2016-11-24 | Audi Ag | Method for operating data glasses in a motor vehicle and system with data glasses |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3298474B1 (en) | Method for operating a head-mounted display in a motor vehicle, and system comprising a head-mounted display | |
DE102014226185B4 (en) | Method and line of sight recognition system for determining a line of sight of a person, and use of the line of sight recognition system in a motor vehicle | |
DE112014004889T5 (en) | Systems and methods for displaying three-dimensional images on a vehicle instrument panel | |
WO2015155029A1 (en) | Locating a head-mounted display (hmd) in a vehicle | |
WO2014170278A1 (en) | Method for determining whether a vehicle occupant has noticed relevant objects in the area surrounding the vehicle | |
DE102014214514A1 (en) | Apparatus and method for exchanging data between vehicles for setting up a convoy | |
DE102016223908A1 (en) | Projection display system and method for operating a projection display system | |
DE102016014712B4 (en) | Vehicle and method for outputting information to a vehicle environment | |
DE102017220268A1 (en) | Detection and visualization of system uncertainty when displaying augmented image content in head-up displays | |
DE102014207398A1 (en) | Object association for contact-analogue display on an HMD | |
DE102017215163A1 (en) | System of a motor vehicle and an augmented reality goggles and method for determining a pose of augmented reality goggles in the interior of a vehicle | |
DE102017221317A1 (en) | Method and device for operating a data glasses in a motor vehicle | |
WO2018077520A1 (en) | Method and device for operating a display system comprising a head-mounted display | |
DE102017209802A1 (en) | Method and device for operating a display system with data glasses | |
DE102016218602A1 (en) | A method for changing the perception of the outside world of a vehicle | |
DE102019103360A1 (en) | Method and device for operating a display system with data glasses | |
DE102016215704A1 (en) | Method and device for operating a display system with data glasses | |
DE102017205194A1 (en) | Method and device for providing 3D image information in a driver assistance system of a motor vehicle | |
DE102017200337A1 (en) | motor vehicle | |
DE102017212446A1 (en) | Method for monitoring a display device | |
DE102013210587A1 (en) | Display system with data glasses | |
DE102016225265A1 (en) | Method and device for operating a display system with data glasses | |
DE102016225262A1 (en) | Method and device for operating a display system with data glasses | |
DE102019112189A1 (en) | Method and device for displaying an information object in augmented reality data glasses | |
DE102016225269A1 (en) | Method and device for operating a display system with data glasses |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed |