DE102017215163B4 - System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs - Google Patents

System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs Download PDF

Info

Publication number
DE102017215163B4
DE102017215163B4 DE102017215163.3A DE102017215163A DE102017215163B4 DE 102017215163 B4 DE102017215163 B4 DE 102017215163B4 DE 102017215163 A DE102017215163 A DE 102017215163A DE 102017215163 B4 DE102017215163 B4 DE 102017215163B4
Authority
DE
Germany
Prior art keywords
augmented reality
pose
polarization
detection device
optical detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017215163.3A
Other languages
English (en)
Other versions
DE102017215163A1 (de
Inventor
Adrian Haar
Johannes Tümler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102017215163.3A priority Critical patent/DE102017215163B4/de
Priority to US16/641,710 priority patent/US10969579B2/en
Priority to CN201880056379.4A priority patent/CN110998409A/zh
Priority to PCT/EP2018/072156 priority patent/WO2019042778A1/de
Publication of DE102017215163A1 publication Critical patent/DE102017215163A1/de
Application granted granted Critical
Publication of DE102017215163B4 publication Critical patent/DE102017215163B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

Eine Augmented-Reality-Brille, ein Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille sowie ein Kraftfahrzeug, das für die Nutzung der Augmented-Reality-Brille oder des Verfahrens geeignet ist. Die Augmented-Reality-Brille (1) weist eine optische Erfassungsvorrichtung (2) zum Erfassen (10) von Umgebungsdaten einer Umgebung der Augmented-Reality-Brille (1) sowie eine Schnittstelle (5) zu einer Posenbestimmungsvorrichtung (6) zum Bestimmen (11) einer Pose der Augmented-Reality-Brille (1) anhand der Umgebungsdaten auf. Die optische Erfassungsvorrichtung (2) ist eingerichtet, nur Licht einer definierten Polarisation zu erfassen.

Description

  • Die vorliegende Erfindung betrifft ein System bestehend aus einem Kraftfahrzeug und einer Augmented-Reality-Brille sowie ein Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille.
  • Mit der stetigen Weiterentwicklung von Virtual und Augmented Reality-Technologien und -Anwendungen finden diese auch Einzug in das Automobil. Bei Augmented Reality (AR), auf Deutsch „erweiterte Realität“, handelt es sich um die Anreicherung der realen Welt durch virtuelle Elemente, die im dreidimensionalen Raum ortskorrekt registriert sind und eine Echtzeitinteraktion erlauben. Da sich in der Fachwelt im deutschsprachigen Raum der Ausdruck „Augmented Reality“ gegenüber dem Ausdruck „erweiterte Realität“ durchgesetzt hat, wird im Folgenden ersterer benutzt.
  • Eine mögliche technische Realisierung, um den Fahrerarbeitsplatz entsprechend mit perspektivisch korrekten virtuellen Erweiterungen anzureichern, bieten Augmented-Reality-Brillen. Eine Augmented-Reality-Brille wird wie eine normale Brille getragen, weist aber eine oder mehrere Projektionseinheiten oder Anzeigen auf, mit deren Hilfe dem Träger der Brille Informationen vor die Augen oder direkt auf die Netzhaut projiziert werden können. Die Brille ist dabei so gestaltet, dass der Träger auch die Umgebung wahrnehmen kann. Vorzugsweise werden dem Träger Informationen oder Hinweise kontaktanalog angezeigt. Dabei erfolgt die Anzeige der Informationen oder Hinweise an einem Ort, der sich am Ort eines Objektes in der Umgebung orientiert, z.B. an das Objekt angrenzend oder dieses überlagernd. Durch die optische Überlagerung von Anzeige und Fahrszene sind weniger Kopf- und Augenbewegungen zum Ablesen der Informationen notwendig. Zudem verringert sich der Adaptationsaufwand für die Augen, da abhängig von der virtuellen Distanz der Anzeige weniger bis gar nicht akkommodiert werden muss. Durch Markieren von Objekten und Einblenden von Informationen an ihrem realen Bezugsort, d.h. durch die kontaktanaloge Darstellung, lassen sich umweltbezogene Informationen im Sichtfeld des Fahrers direkt darstellen. Da die Anzeigen als „Teil der Umwelt“ dargestellt werden können, sind äußerst schnelle und intuitive Interpretationen durch den Träger möglich. Diese direkte grafische Anreicherung der Umwelt in Form von Augmented Reality kann die kognitiven Transferanforderungen daher erheblich reduzieren.
  • Eine Registrierung der virtuellen Informationen im realen Sichtfeld des Fahrers im Sinne von Augmented Reality stellt sehr hohe Anforderungen an die technische Umsetzung. Um virtuelle Inhalte ortsgenau und perspektivisch korrekt in der Realität darstellen zu können ist sehr detailliertes Wissen über die Umgebung und Eigenbewegung des Fahrzeuges notwendig. Insbesondere muss auch die Pose der Augmented-Reality-Brille bekannt sein, d.h. ihre Position und Ausrichtung relativ zum Fahrzeug.
  • Zur Posenbestimmung von Augmented-Reality-Brillen können inertiale Messsysteme genutzt werden, die auf Masseträgheit basieren. Die Sensoren solcher Messsysteme werden direkt an der Brille befestigt und Messen die Bewegungen der Brille durch das Erfassen von Beschleunigungen. Ein Nachteil der inertialen Systeme liegt darin, dass nur relative Messungen stattfinden und durch zweifache Integration des Messergebnisses eine Drift entsteht, die in kurzer Zeit das Trackingergebnis unbrauchbar macht. Daher müssen inertiale Systeme zwingend mit einem nicht-driftenden Messsystem gekoppelt werden.
  • In der Regel werden zur Posenbestimmung von Augmented-Reality-Brillen deshalb optische Messsysteme eingesetzt. Hierbei findet üblicherweise eine Beobachtung der zu verfolgenden Objekte von außen statt, weshalb man bei solchen Systemen von Outside-In Tracking spricht. Dafür steht beispielsweise im Fahrzeug ein zusätzliches Sensorsystem zur Verfügung, z.B. eine Kamera, welches Bewegungen der Augmented-Reality-Brille erfasst.
  • Beispielsweise beschreibt die Arbeit von Guy Berg: „Das Vehicle in the Loop - Ein Werkzeug für die Entwicklung und Evaluation von sicherheitskritischen Fahrerassistenzsystemen“ [1] eine Test- und Simulationsumgebung für Fahrerassistenzsysteme. Dabei wird eine Test- und Simulationsumgebung samt integrierter Verkehrssimulation mit einem realen Testfahrzeug verknüpft. Der Fahrer wird dabei mit Hilfe eines Head Mounted Displays (HMD) in eine erweiterte oder virtuelle Realität versetzt, so dass er eine direkte visuelle Rückmeldung aus der Simulationsumgebung sowie haptische, vestibuläre, somatosensorische und akustische Rückmeldungen von der realen Fahrzeuginteraktion erhält. Im Betrieb werden Position und Lage des Fahrzeugs auf einer Teststrecke geortet. Durch Kenntnis dieser in der realen Welt sind auch die entsprechende Position und Lage des Fahrzeugs in der virtuellen Welt bekannt. Zusätzlich wird mit Hilfe eines im Fahrzeug verbauten Sensors die Blickrichtung des Fahrers bestimmt. Mit Hilfe von Position und Lage des Fahrzeugs sowie der Blickrichtung des Fahrers wird in der Simulationssoftware das zur Realität korrespondierende Bild der virtuellen Welt erzeugt und dem Fahrer über das HMD visualisiert. Dabei wird ein optisches Tracking des Kopfes genutzt, das optische Marker nutzt.
  • Ein Nachteil der Outside-In-Systeme ist, dass zusätzlich zur Brille ein zweites Messsystem erforderlich ist.
  • Als Alternative zum Outside-In Tracking kann das sogenannte Inside-Out Tracking genutzt werden, bei dem das Messsystem in das zu verfolgende Objekt integriert ist, d.h. es wird die Umgebung aus Sicht des Objekts erfasst. Dabei ist das messende System selbst bewegt.
  • Beispielsweise beschreibt die DE 10 2014 217 963 A1 eine Datenbrille zur Verwendung in einem Kraftfahrzeug. Die Datenbrille umfasst eine Anzeige, eine Infrarot-Kamera, in deren Aufnahmen im Wesentlichen Infrarotlicht abgebildet wird, sowie elektronische Verarbeitungsmittel. Mithilfe der Kamera wird die Umgebung der Datenbrille aufgenommen. In den Aufnahmen wird dann ein vordefiniertes Muster erkannt. Dazu wird vorab ein Infrarot-Muster mithilfe einer Beschichtung im Fahrzeuginnenraum angebracht. In Abhängigkeit vom erkannten Muster wird schließlich die Pose der Datenbrille bestimmt.
  • Ein Nachteil des beschriebenen Systems besteht darin, dass im Fahrzeug spezielle Marker angebracht werden müssen, was im Hinblick auf die Gestaltung und Anmutung des Innenraums unerwünscht sein kann.
  • Moderne Augmented-Reality-Brillen nutzen visuelle Systeme und maschinelles Lernen, um eine möglichst genaue Lage der Brille im Raum zu bestimmen. Hierbei wird die Pose und Bewegung der Brille abhängig von markanten Ecken und Kanten im umliegenden Raum durch Verfahren der optischen Messtechnik bestimmt. Bei der Anwendung im Fahrzeug kann diese Methodik jedoch fehlerbehaftet sein, da die optischen Messsysteme auch optische Signale des Fahrzeugaußenraums, d.h. von der Straße oder von Objekten auf oder an der Fahrbahn, in die Berechnung mit einbeziehen. Da sich das Fahrzeug bewegt, der Innenraum aber statisch ist, bekommt das messende System Fehlinformationen. Dadurch kann die Posenbestimmung fehlschlagen.
  • Vor diesem Hintergrund beschreibt die DE 19 38 480 U eine Vorrichtung zum Blendschutz von Kraftfahrzeugen. Um das Scheinwerferlicht eines dem eigenen Fahrzeug folgenden Fahrzeugs abzuschwächen sind sowohl das Rückfenster als auch der Innenrückspiegel mit einer polarisierenden Folie beklebt. Die Polarisationsrichtungen der beiden Folien sind um etwas weniger als 90° gekreuzt.
  • Weiterhin beschreibt die DE 10 2006 013 700 B3 eine Einrichtung an einem Fahrzeug zur Verhinderung einer Blendung durch Scheinwerfer entgegenkommender Fahrzeuge. Mindestens ein Scheinwerfer des Fahrzeugs ist zum Aussenden von polarisiertem Licht ausgebildet. An Lichteintrittsflächen des gleichen Fahrzeugs ist zudem mindestens eine Polarisationseinrichtung angeordnet. Das ausgesendete Licht ist in einem vorgegebenen Winkel gegenüber einer Vertikalen polarisiert. Die mindestens eine Polarisationseinrichtung ist für in gleicher Richtung polarisiertes Licht durchlässig. Der vorgegebene Winkel ist derart gewählt, dass die Blendung an den genannten Lichteintrittsflächen durch Scheinwerfer entgegenkommender Fahrzeuge im Wesentlichen unterbleibt, wenn ein mit einer gleichartigen Einrichtung ausgestattetes Fahrzeug entgegenkommt.
  • Es ist eine Aufgabe der Erfindung, alternative Lösungen zum Bestimmen einer Pose einer Augmented-Reality-Brille aufzuzeigen.
  • Diese Aufgabe wird durch eine System mit den Merkmalen des Anspruchs 1 und durch ein Verfahren mit den Merkmalen des Anspruchs 8gelöst. Bevorzugte Ausgestaltungen der Erfindung sind Gegenstand der abhängigen Ansprüche.
  • Gemäß einem ersten Aspekt der Erfindung besteht ein System aus einem Kraftfahrzeug mit einer Anzahl von Scheiben, wobei die Scheiben eingerichtet sind, Licht einer bestimmten Polarisation abzublocken, und einer Augmented-Reality-Brille mit:
    • - einer optische Erfassungsvorrichtung zum Erfassen von Umgebungsdaten einer Umgebung der Augmented-Reality-Brille, wobei die optische Erfassungsvorrichtung eingerichtet ist, nur Licht einer Polarisation zu erfassen, die komplementär zur Polarisation des Lichts ist, die aus dem Außenraum in den Innenraum des Kraftfahrzeugs gelangt; und
    • - einer Schnittstelle zu einer Posenbestimmungsvorrichtung zum Bestimmen einer Pose der Augmented-Reality-Brille anhand der Umgebungsdaten.
  • Gemäß einem weiteren Aspekt der Erfindung umfasst ein Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Kraftfahrzeugs mit einer Anzahl von Scheiben, wobei die Scheiben eingerichtet sind, Licht einer bestimmten Polarisation abzublocken, die Schritte:
    • - Erfassen von Umgebungsdaten einer Umgebung der Augmented-Reality-Brille mit einer optischen Erfassungsvorrichtung, wobei beim Erfassen der Umgebungsdaten nur Licht einer Polarisation durch die optische Erfassungsvorrichtung erfasst wird, die komplementär zu einer Polarisation des Lichts ist, die aus dem Außenraum in den Innenraum des Kraftfahrzeugs gelangt; und
    • - Bestimmen einer Pose der Augmented-Reality-Brille anhand der Umgebungsdaten.
  • Gemäß einem weiteren Aspekt der Erfindung weisen die Scheiben eine polarisationsfilternde Schicht auf.
  • Erfindungsgemäß erfolgt beim Inside-Out-Tracking einer Augmented-Reality-Brille eine Trennung von Objekten, die verfolgt werden sollen, und Objekten, die nicht verfolgt werden sollen, unter Ausnutzung von polarisiertem Licht. Zu diesem Zweck haben die Fahrzeugscheiben polarisationsfilternde Eigenschaften, beispielsweise durch eine auf die Scheiben aufgebrachte polarisationsfilternde Schicht. Aus dem Außenraum gelangt daher nur noch polarisiertes Licht in den Innenraum. Die Erfassungsvorrichtung der Augmented-Reality-Brille ist eingerichtet, nur Licht mit einer Polarisation zu detektieren, die komplementär zur Polarisation des Lichts ist, die aus dem Außenraum in den Innenraum gelangt ist. Dazu weist die optische Erfassungsvorrichtung vorzugsweise einen Polarisationsfilter auf. Dadurch ist es der optischen Erfassungsvorrichtung nicht mehr möglich, über die Grenzen des Fahrzeugs hinaus Teile des Außenraums zu erfassen. Für die Posenbestimmung der Augmented-Reality-Brille wird somit nur noch der erfasste Innenraum des Fahrzeugs genutzt. Gleichzeitig kann der Fahrer ohne wesentliche Einschränkungen durch die polarisierenden Scheiben sehen.
  • Gemäß einem Aspekt der Erfindung ist die optische Erfassungsvorrichtung eingerichtet, nur horizontal, vertikal oder zirkular polarisiertes Licht zu erfassen. Für diese Polarisationen sind geeignete Filter zu vertretbaren Preisen verfügbar, so dass sich die erforderliche Polarisationsfilterung kostengünstig realisieren lässt.
  • Gemäß einem Aspekt der Erfindung weist die optische Erfassungsvorrichtung mindestens eine Kamera zum Erfassen von Bilddaten der Umgebung der Augmented-Reality-Brille auf. Zum Bestimmen der Pose der Augmented-Reality-Brille können dann Kanten oder markante Punkte in den Bilddaten detektiert und ausgewertet werden. Dies erlaubt es, die polarisationsbasierte Trennung des Außenraums und des Innenraums des Fahrzeugs mit modernen Algorithmen zur Posenbestimmung zu kombinieren, die maschinelles Lernen nutzen.
  • Gemäß einem Aspekt der Erfindung weist die Augmented-Reality-Brille eine Lichtquelle zum Beleuchten der Umgebung auf. Auf diese Weise kann die Posenbestimmung auch dann noch zuverlässig durchgeführt werden, wenn kaum oder nur wenig natürliches Licht vorhanden ist.
  • Weitere Merkmale der vorliegenden Erfindung werden aus der nachfolgenden Beschreibung und den angehängten Ansprüchen in Verbindung mit den Figuren ersichtlich.
    • 1 zeigt schematisch das Konzept der erfindungsgemäßen Lösung zum Bestimmen einer Pose einer Augmented-Reality-Brille;
    • 2 zeigt schematisch eine erfindungsgemäße Augmented-Reality-Brille;
    • 3 zeigt schematisch ein Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille;
    • 4 zeigt eine erste Ausführungsform einer Posenbestimmungsvorrichtung;
    • 5 zeigt eine zweite Ausführungsform einer Posenbestimmungsvorrichtung;
    • 6 stellt schematisch ein Kraftfahrzeug dar, in dem eine erfindungsgemäße Lösung realisiert ist; und
    • 7 zeigt ein Beispiel einer Augmented-Reality-Darstellung einer Augmented-Reality-Brille.
  • Zum besseren Verständnis der Prinzipien der vorliegenden Erfindung werden nachfolgend Ausführungsformen der Erfindung anhand der Figuren detaillierter erläutert. Es versteht sich, dass sich die Erfindung nicht auf diese Ausführungsformen beschränkt und dass die beschriebenen Merkmale auch kombiniert oder modifiziert werden können, ohne den Schutzbereich der Erfindung zu verlassen, wie er in den angehängten Ansprüchen definiert ist.
  • 1 zeigt schematisch das Konzept der erfindungsgemäßen Lösung zum Bestimmen einer Pose einer Augmented-Reality-Brille. Ausgegangen wird von einem Inside-Out-Tracking einer Augmented-Reality-Brille. Dabei erfolgt eine Trennung von Objekten, die verfolgt werden sollen, und Objekten, die nicht verfolgt werden sollen, unter Ausnutzung von polarisiertem Licht. Zu diesem Zweck haben die Fahrzeugscheiben polarisationsfilternde Eigenschaften, beispielsweise durch eine auf die Scheiben aufgebrachte polarisationsfilternde Schicht. Polarisationsfilter lassen Lichtwellen nur in einer bestimmten Polarisation hindurch. Aus dem Außenraum gelangt daher nur noch polarisiertes Licht in den Innenraum. Wenn danach dieses Licht durch einen weiteren, komplementären Filter geleitet wird, kann dieses Licht nicht weiter durchdringen. Die Erfassungsvorrichtung der Augmented-Reality-Brille ist deshalb eingerichtet, nur Licht mit einer Polarisation zu detektieren, die komplementär zur Polarisation des Lichts ist, die aus dem Außenraum in den Innenraum gelangt ist. Dazu weist die optische Erfassungsvorrichtung vorzugsweise einen Polarisationsfilter auf. Diese Filter können in Form einer Folie auf die Fahrzeugscheiben und die optische Erfassungsvorrichtung aufgebracht werden. Zwischen den beiden Filtern kann das Licht ohne große Einschränkungen wahrgenommen werden. Dies ermöglicht, dass der Fahrer die Außenwelt und gleichzeitig ein visuelles Ortungssystem der Augmented-Reality-Brille nur den Innenraum registrieren können, d.h. es ist der optischen Erfassungsvorrichtung nicht mehr möglich, über die Grenzen des Fahrzeugs hinaus Teile des Außenraums zu erfassen. Für die Posenbestimmung der Augmented-Reality-Brille wird somit nur noch der erfasste Innenraum des Fahrzeugs genutzt.
  • 2 zeigt schematisch eine erfindungsgemäße Augmented-Reality-Brille 1. Die Augmented-Reality-Brille 1 hat eine optische Erfassungsvorrichtung 2, die beispielsweise eine Kamera 3 aufweist, zum Erfassen von Umgebungsdaten einer Umgebung der Augmented-Reality-Brille 1. Dabei ist die optische Erfassungsvorrichtung 2 eingerichtet, nur Licht einer definierten Polarisation zu erfassen, z.B. nur horizontal, vertikal oder zirkular polarisiertes Licht. Zu diesem Zweck weist die optische Erfassungsvorrichtung 2 einen Polarisationsfilter 4 auf. Mittels einer Schnittstelle 5 besteht eine Verbindung zu einer externen Posenbestimmungsvorrichtung 6 zum Bestimmen einer Pose der Augmented-Reality-Brille 1 anhand der Umgebungsdaten. Die Posenbestimmungsvorrichtung 6 kann dazu beispielsweise Kanten oder markante Punkte in den Bilddaten detektieren und auswerten. Die Posenbestimmungsvorrichtung 6 kann natürlich auch Bestandteil der Augmented-Reality-Brille 1 sein. Mittels einer Grafikeinheit 8 kann die Anzeige der Augmented-Reality-Brille 1 entsprechend der ermittelten Pose angepasst werden. Dazu können die Posenbestimmungsvorrichtung 6 und die Grafikeinheit 8 miteinander Daten austauschen. Die Grafikeinheit 8 kann wie im Beispiel dargestellt Bestandteil der Augmented-Reality-Brille 1 sein oder über eine Schnittstelle mit der Augmented-Reality-Brille 1 verbunden sein. Vorzugsweise weist die Augmented-Reality-Brille 1 eine Lichtquelle 7 zum Beleuchten der Umgebung auf, um so auch bei schlechten Lichtverhältnissen eine Posenbestimmung durchführen zu können. Die von der Grafikeinheit 8 generierte Anzeige wird durch eine Projektionseinheit 9 eingeblendet.
  • 3 zeigt schematisch ein Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille. In einem ersten Schritt werden Umgebungsdaten einer Umgebung der Augmented-Reality-Brille erfasst 10, wobei nur Licht einer bestimmten Polarisation durch die optische Erfassungsvorrichtung erfasst wird. Die optische Erfassungsvorrichtung kann beispielsweise eine Kamera sein, die Bilddaten der Umgebung aufnimmt. Anhand der Umgebungsdaten wird dann eine Pose der Augmented-Reality-Brille bestimmt 11. Dazu können z.B. Kanten oder markante Punkte in den Bilddaten detektiert und ausgewertet werden. Die Anzeige der Augmented-Reality-Brille wird schließlich entsprechend der ermittelten Pose angepasst 12, so dass beispielsweise sichtbare Objekte optisch korrekt mit dargestellten Objekten überlagert werden.
  • 4 zeigt eine vereinfachte schematische Darstellung einer ersten Ausführungsform einer Posenbestimmungsvorrichtung 6. Die Posenbestimmungsvorrichtung 6 hat einen Eingang 21, über den Bilddaten der Kamera 3 der Augmented-Reality-Brille empfangen werden können. Die Vorrichtung 20 hat zudem eine Bildverarbeitungseinheit 22 zum Detektieren von Kanten oder markanten Punkten in den Bilddaten. Eine Analyseeinheit 23 ermittelt aus den Kanten oder markanten Punkten die Pose der Augmented-Reality-Brille. Über einen Ausgang 26 der Posenbestimmungsvorrichtung 6 werden Informationen zur ermittelten Pose an eine Grafikeinheit 8 ausgegeben. Die Grafikeinheit 8 kann dann die Anzeige der Augmented-Reality-Brille entsprechend der ermittelten Pose anpassen. Die Anzeige der Augmented-Reality-Brille wird dabei derart angepasst, dass sichtbare Objekte optisch korrekt mit dargestellten Objekten überlagert werden. Die Grafikeinheit 8 kann Bestandteil der Augmented-Reality-Brille sein oder über eine Schnittstelle mit der Augmented-Reality-Brille verbunden sein.
  • Die Bildverarbeitungseinheit 22 und die Analyseeinheit 23 können von einer Kontrolleinheit 24 gesteuert werden. Über eine Benutzerschnittstelle 27 können gegebenenfalls Einstellungen der Bildverarbeitungseinheit 22, der Analyseeinheit 23 oder der Kontrolleinheit 24 geändert werden. Die in der Vorrichtung 20 anfallenden Daten können bei Bedarf in einem Speicher 25 der Vorrichtung 20 abgelegt werden, beispielsweise für eine spätere Auswertung oder für eine Nutzung durch die Komponenten der Vorrichtung 20. Die Bildverarbeitungseinheit 22, die Analyseeinheit 23 sowie die Kontrolleinheit 24 können als dedizierte Hardware realisiert sein, beispielsweise als integrierte Schaltungen. Natürlich können sie aber auch teilweise oder vollständig kombiniert oder als Software implementiert werden, die auf einem geeigneten Prozessor läuft, beispielsweise auf einer GPU. Der Eingang 21 und der Ausgang 26 können als getrennte Schnittstellen oder als eine kombinierte bidirektionale Schnittstelle implementiert sein. Die Posenbestimmungsvorrichtung 6 kann Bestandteil der Augmented-Reality-Brille sein oder über eine Schnittstelle mit der Augmented-Reality-Brille verbunden sein.
  • 5 zeigt eine vereinfachte schematische Darstellung einer zweiten Ausführungsform einer Posenbestimmungsvorrichtung 6. Die Posenbestimmungsvorrichtung 6 weist einen Prozessor 32 und einen Speicher 31 auf. Beispielsweise handelt es sich bei der Vorrichtung 30 um einen Computer oder ein Steuergerät. Die Posenbestimmungsvorrichtung 6 hat einen Eingang 33 zum Empfangen von Informationen, beispielsweise von Bilddaten der Kamera der Augmented-Reality-Brille. Im Speicher 31 sind Instruktionen abgelegt, die die Posenbestimmungsvorrichtung 6 bei Ausführung durch den Prozessor 32 veranlassen, Kanten oder markante Punkte in den Bilddaten zu detektieren und aus den Kanten oder markanten Punkten die Pose der Augmented-Reality-Brille zu ermitteln. Die im Speicher 31 abgelegten Instruktionen verkörpern somit ein durch den Prozessor 32 ausführbares Programm, welches das erfindungsgemäße Verfahren realisiert. Vom Prozessor 32 generierte Daten werden über einen Ausgang 34 bereitgestellt. Darüber hinaus können sie im Speicher 31 abgelegt werden. Der Eingang 33 und der Ausgang 34 können zu einer bidirektionalen Schnittstelle zusammengefasst sein.
  • Der Prozessor 32 kann eine oder mehrere Prozessoreinheiten umfassen, beispielsweise Mikroprozessoren, digitale Signalprozessoren oder Kombinationen daraus.
  • Die Speicher 25, 31 der beschriebenen Ausführungsformen können sowohl volatile als auch nichtvolatile Speicherbereiche aufweisen und unterschiedlichste Speichergeräte und Speichermedien umfassen, beispielsweise Festplatten, optische Speichermedien oder Halbleiterspeicher.
  • 6 stellt schematisch ein Kraftfahrzeug 40 dar, in dem eine erfindungsgemäße Lösung realisiert ist. In diesem Beispiel ist die Posenbestimmungsvorrichtung 6 im Kraftfahrzeug 40 realisiert und nicht Bestandteil der Augmented-Reality-Brille 1. Über eine Schnittstelle (nicht dargestellt) kann eine erfindungsgemäße Augmented-Reality-Brille 1 mit der Posenbestimmungsvorrichtung 6 drahtlos oder drahtgebunden verbunden werden. Die Frontscheibe 41 und die Seitenscheiben 42 sowie sonstige Scheiben sind mit einer polarisationsfilternden Schicht 43 versehen, so dass in Kombination mit der polarisationsselektiven optischen Erfassungsvorrichtung der Augmented-Reality-Brille 1 ausschließlich der Fahrzeuginnenraum für die Posenbestimmung erfasst wird. Der Einfachheit halber ist in der Figur nur die polarisationsfilternde Schicht 43 auf der Frontscheibe 41 dargestellt. Das Kraftfahrzeug 40 weist zudem eine Kamera 44, ein Navigationssystem 45, eine Datenübertragungseinheit 46 sowie eine Reihe von Assistenzsystemen 47 auf, von denen eines exemplarisch dargestellt ist. Mittels der Datenübertragungseinheit 46 kann eine Verbindung zu Dienstanbietern aufgebaut werden. Zur Speicherung von Daten ist ein Speicher 48 vorhanden. Der Datenaustausch zwischen den verschiedenen Komponenten des Kraftfahrzeugs 40 erfolgt über ein Netzwerk 49. Aus den Daten der verschiedenen Fahrzeugsysteme wird von einer Grafikeinheit 8 eine Anzeige für die Augmented-Reality-Brille 1 berechnet. In 6 ist die Grafikeinheit im Kraftfahrzeug 40 realisiert, sie kann aber auch Bestandteil der Augmented-Reality-Brille 1 sein.
  • 7 zeigt ein Beispiel einer Augmented-Reality-Darstellung einer Augmented-Reality-Brille. Der tatsächlichen Umgebung sind eine Reihe von Elementen überlagert, zum Teil in kontaktanaloger Darstellung. Im Beispiel in 7 sind dies eine aktuelle Geschwindigkeit und eine Markierung 50, die ein vorausfahrendes Fahrzeug 51 zur Visualisierung eines ACC-Systemstatus (ACC: Adaptive Cruise Control; Adaptive Geschwindigkeitsregelung) markiert. Daneben können Navigationsinformationen, Warnhinweise oder andere Elemente angezeigt werden. Für die konkrete Gestaltung der Darstellung stehen dem Fachmann vielfältige Gestaltungsmöglichkeiten zur Verfügung.
  • Bezugszeichenliste
  • 1
    Augmented-Reality-Brille
    2
    Optische Erfassungsvorrichtung
    3
    Kamera
    4
    Polarisationsfilter
    5
    Schnittstelle
    6
    Posenbestimmungsvorrichtung
    7
    Lichtquelle
    8
    Grafikeinheit
    9
    Projektionseinheit
    10
    Erfassen von Umgebungsdaten der Augmented-Reality-Brille
    11
    Bestimmen einer Pose der Augmented-Reality-Brille
    12
    Anpassen einer Anzeige der Augmented-Reality-Brille
    21
    Eingang
    22
    Bildverarbeitungseinheit
    23
    Analyseeinheit
    24
    Kontrolleinheit
    25
    Speicher
    26
    Ausgang
    27
    Benutzerschnittstelle
    31
    Speicher
    32
    Prozessor
    33
    Eingang
    34
    Ausgang
    40
    Kraftfahrzeug
    41
    Frontscheibe
    42
    Seitenscheiben
    43
    Polarisationsfilternde Schicht
    44
    Kamera
    45
    Navigationssystem
    46
    Datenübertragungseinheit
    47
    Assistenzsystem
    48
    Speicher
    49
    Netzwerk
    50
    Markierung
    51
    Vorausfahrendes Fahrzeug
  • Referenzen
    • [1] Guy Berg: „Das Vehicle in the Loop - Ein Werkzeug für die Entwicklung und Evaluation von sicherheitskritischen Fahrerassistenzsystemen“, Dissertation an der Fakultät für Luft- und Raumfahrttechnik der Universität der Bundeswehr München (2014), http://athene-forschung.unibw.de/node?id=97267

Claims (10)

  1. System bestehend aus: - einem Kraftfahrzeug (20) mit einer Anzahl von Scheiben (21, 22), wobei die Scheiben (21, 22) eingerichtet sind, Licht einer bestimmten Polarisation abzublocken, und - einer Augmented-Reality-Brille (1) mit: - einer optischen Erfassungsvorrichtung (2) zum Erfassen (10) von Umgebungsdaten einer Umgebung der Augmented-Reality-Brille (1); und - einer Schnittstelle (5) zu einer Posenbestimmungsvorrichtung (6) zum Bestimmen (11) einer Pose der Augmented-Reality-Brille (1) anhand der Umgebungsdaten; wobei die optische Erfassungsvorrichtung (2) eingerichtet ist, nur Licht einer Polarisation zu erfassen, die komplementär zur Polarisation des Lichts ist, die aus dem Außenraum in den Innenraum des Kraftfahrzeugs (20) gelangt.
  2. System gemäß Anspruch 1, wobei die optische Erfassungsvorrichtung (2) einen Polarisationsfilter (4) aufweist.
  3. System gemäß Anspruch 1 oder 2, wobei die optische Erfassungsvorrichtung (2) eingerichtet ist, nur horizontal, vertikal oder zirkular polarisiertes Licht zu erfassen.
  4. System gemäß einem der vorherigen Ansprüche, wobei die optische Erfassungsvorrichtung (2) mindestens eine Kamera (3) zum Erfassen von Bilddaten der Umgebung der Augmented-Reality-Brille (1) aufweist.
  5. System gemäß Anspruch 1, wobei die Posenbestimmungsvorrichtung (6) eingerichtet ist, zum Bestimmen (11) der Pose der Augmented-Reality-Brille (1) Kanten oder markante Punkte in den Bilddaten zu detektieren und auszuwerten.
  6. System gemäß einem der vorherigen Ansprüche, wobei die Augmented-Reality-Brille (1) eine Lichtquelle (7) zum Beleuchten der Umgebung aufweist.
  7. System gemäß einem der vorherigen Ansprüche, wobei die Scheiben (21, 22) eine polarisationsfilternde Schicht (23) aufweisen.
  8. Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille (1) im Innenraum eines Kraftfahrzeugs (20) mit einer Anzahl von Scheiben (21, 22), wobei die Scheiben (21, 22) eingerichtet sind, Licht einer bestimmten Polarisation abzublocken, mit den Schritten: - Erfassen (10) von Umgebungsdaten einer Umgebung der Augmented-Reality-Brille (1) mit einer optischen Erfassungsvorrichtung (2); und - Bestimmen (11) einer Pose der Augmented-Reality-Brille (1) anhand der Umgebungsdaten; wobei beim Erfassen der Umgebungsdaten nur Licht einer Polarisation durch die optische Erfassungsvorrichtung (2) erfasst wird, die komplementär zu einer Polarisation des Lichts ist, die aus dem Außenraum in den Innenraum des Kraftfahrzeugs (20) gelangt.
  9. Verfahren gemäß Anspruch 8, wobei die optische Erfassungsvorrichtung (2) mittels mindestens einer Kamera (3) Bilddaten der Umgebung der Augmented-Reality-Brille (1) erfasst (10).
  10. Verfahren gemäß Anspruch 9, wobei zum Bestimmen (11) der Pose der Augmented-Reality-Brille (1) Kanten oder markante Punkte in den Bilddaten detektiert und ausgewertet werden.
DE102017215163.3A 2017-08-30 2017-08-30 System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs Active DE102017215163B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102017215163.3A DE102017215163B4 (de) 2017-08-30 2017-08-30 System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs
US16/641,710 US10969579B2 (en) 2017-08-30 2018-08-15 Augmented reality glasses, method for determining a pose of augmented reality glasses, and transportation vehicle suitable for using the augmented reality glasses or the method
CN201880056379.4A CN110998409A (zh) 2017-08-30 2018-08-15 增强现实眼镜、确定增强现实眼镜的姿态的方法、适于使用该增强现实眼镜或方法的机动车
PCT/EP2018/072156 WO2019042778A1 (de) 2017-08-30 2018-08-15 Augmented-reality-brille, verfahren zum bestimmen einer pose einer augmented-reality-brille, zur nutzung der augmented-reality-brille oder des verfahrens geeignetes kraftfahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017215163.3A DE102017215163B4 (de) 2017-08-30 2017-08-30 System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs

Publications (2)

Publication Number Publication Date
DE102017215163A1 DE102017215163A1 (de) 2019-02-28
DE102017215163B4 true DE102017215163B4 (de) 2019-04-11

Family

ID=63254712

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017215163.3A Active DE102017215163B4 (de) 2017-08-30 2017-08-30 System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs

Country Status (4)

Country Link
US (1) US10969579B2 (de)
CN (1) CN110998409A (de)
DE (1) DE102017215163B4 (de)
WO (1) WO2019042778A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7384014B2 (ja) * 2019-12-06 2023-11-21 トヨタ自動車株式会社 表示システム
DE102020105196A1 (de) * 2020-02-27 2021-09-02 Audi Aktiengesellschaft Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug sowie System mit einem Kraftfahrzeug und einer Datenbrille
DE102020112300A1 (de) * 2020-05-06 2021-11-11 Audi Aktiengesellschaft 6 Degree of Freedom (6DOF) Tracking von mobilen Head Mounted Displays (HMD)
CN111881719B (zh) * 2020-06-09 2024-04-16 青岛奥美克生物信息科技有限公司 非接触式生物识别引导装置、方法以及生物特征识别系统
CN112631431B (zh) * 2021-01-04 2023-06-16 杭州光粒科技有限公司 Ar眼镜的位姿确定方法、装置及设备、存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE1938480U (de) 1966-01-15 1966-05-12 Peter Dr Ing Artelt Vorrichtung zum blendschutz vor kraftfahrzeugen.
DE102006013700B3 (de) 2006-03-24 2007-10-11 Robert Bosch Gmbh Einrichtung an einem Fahrzeug zur Verhinderung der Blendung
DE102014217963A1 (de) 2014-09-09 2016-03-10 Bayerische Motoren Werke Aktiengesellschaft Posenbestimmung einer Datenbrille mithilfe von passiven IR-Markern

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09219810A (ja) * 1996-02-09 1997-08-19 Toyota Motor Corp 移動体のキャビン内撮影装置
DE102005058240A1 (de) 2005-12-06 2007-06-14 Siemens Ag Trackingsystem und Verfahren zur Posenbestimmung
DE102006006001B3 (de) 2006-02-08 2007-10-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Anordnung zum Einblenden ortsbezogener Informationen in eine visuelle Darstellung oder Ansicht einer Szene
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
DE102014213021A1 (de) 2014-07-04 2016-01-07 Bayerische Motoren Werke Aktiengesellschaft Lokalisierung eines HMD im Fahrzeug
DE102014217961A1 (de) * 2014-09-09 2016-03-10 Bayerische Motoren Werke Aktiengesellschaft Bestimmung der Pose eines HMD
DE102014225222A1 (de) * 2014-12-09 2016-06-09 Bayerische Motoren Werke Aktiengesellschaft Bestimmung der Position eines HMD relativ zum Kopf des Trägers
US10394029B2 (en) * 2016-04-04 2019-08-27 Akonia Holographics, Llc Field of view enhancement
US10625580B1 (en) * 2016-08-26 2020-04-21 Apple Inc. Systems with adjustable windows
US20190018255A1 (en) * 2017-07-11 2019-01-17 Google Llc Compact near-eye optical system including a refractive beam-splitting convex lens
US10678056B2 (en) * 2018-02-26 2020-06-09 Google Llc Augmented reality light field head-mounted displays

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE1938480U (de) 1966-01-15 1966-05-12 Peter Dr Ing Artelt Vorrichtung zum blendschutz vor kraftfahrzeugen.
DE102006013700B3 (de) 2006-03-24 2007-10-11 Robert Bosch Gmbh Einrichtung an einem Fahrzeug zur Verhinderung der Blendung
DE102014217963A1 (de) 2014-09-09 2016-03-10 Bayerische Motoren Werke Aktiengesellschaft Posenbestimmung einer Datenbrille mithilfe von passiven IR-Markern

Also Published As

Publication number Publication date
CN110998409A (zh) 2020-04-10
WO2019042778A1 (de) 2019-03-07
US10969579B2 (en) 2021-04-06
US20200218065A1 (en) 2020-07-09
DE102017215163A1 (de) 2019-02-28

Similar Documents

Publication Publication Date Title
DE102017215163B4 (de) System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs
DE102014117854B4 (de) Vorrichtung und Verfahren zur Anzeige von Informationen eines Head-up-Displays (HUD)
EP3298474B1 (de) Verfahren zum betreiben einer datenbrille in einem kraftfahrzeug und system mit einer datenbrille
WO2019170387A1 (de) Einblendung von zusatzinformationen auf einer anzeigeeinheit
DE102018203927A1 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Display-Vorrichtung für ein Kraftfahrzeug
WO2015155029A1 (de) Lokalisierung eines head-mounted displays (hmd) im fahrzeug
DE102017216774A1 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-Up-Display-Vorrichtung für ein Kraftfahrzeug
DE102012218837A1 (de) Anzeigen von Darstellungen auf einem Head-Up Display und einem Head-mounted Display
DE102016225639A1 (de) Head-up-Display-Vorrichtung für ein Kraftfahrzeug, Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Head-up-Display-Vorrichtung
DE102018201509A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102007053305A1 (de) Verfahren und Vorrichtung zur Ausgabe von optischen Fahrempfehlungen in einem Fahrzeug
EP2888623B1 (de) Betreiben eines head-up-displays eines fahrzeugs und bildermittlungssystem für das head-up-display
DE102017216775A1 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-Up-Display-Vorrichtung für ein Kraftfahrzeug
DE102014207398A1 (de) Objektassoziation zur kontaktanalogen Anzeige auf einem HMD
EP3707547A1 (de) System und verfahren zum bestimmen einer pose einer augmented-reality-brille, system und verfahren zum einmessen einer augmented-reality-brille, verfahren zum unterstützen einer posenbestimmung einer augmented-reality-brille und für das verfahren geeignetes kraftfahrzeug
WO2019154673A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug
DE102018201768B4 (de) Verfahren zum Anzeigen von Informationen in einem Head-Up-Display eines Fahrzeugs, Anzeigesystem für ein Fahrzeug und Fahrzeug mit einem Anzeigesystem
DE102013016249A1 (de) Verfahren und Vorrichtung zur Darstellung von Navigationshinweisen
DE102012219316B4 (de) Verfahren zum Bereitstellen von Bildpunktwerten für eine optische Anzeigevorrichtung sowie Head-up-Display für ein Fahrzeug
EP2756490B1 (de) Verfahren und vorrichtung zur darstellung einer verkehrszeicheninformation
EP3361355A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung
DE102014012625A1 (de) Verfahren und Vorrichtung zur Darstellung von Umgebungsinformationen
DE102015007131B4 (de) Verfahren zum Betreiben eines Anzeigesystems und Anzeigesystem
DE102018218746B4 (de) Verfahren zur Vermeidung einer Sichtfeldstörung für eine Bedienperson eines Objektes, Vorrichtung zur Durchführung des Verfahrens sowie Fahrzeug und Computerprogramm
DE102019202984A1 (de) Vorrichtung zum Verringern der Sicht eines Insassen eines Fahrzeugs auf eine Unfallstelle, Fahrzeug und System

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final