DE102014206623A1 - Lokalisierung eines Head-mounted Displays (HMD) im Fahrzeug - Google Patents

Lokalisierung eines Head-mounted Displays (HMD) im Fahrzeug Download PDF

Info

Publication number
DE102014206623A1
DE102014206623A1 DE102014206623.9A DE102014206623A DE102014206623A1 DE 102014206623 A1 DE102014206623 A1 DE 102014206623A1 DE 102014206623 A DE102014206623 A DE 102014206623A DE 102014206623 A1 DE102014206623 A1 DE 102014206623A1
Authority
DE
Germany
Prior art keywords
data glasses
feature
pose
camera
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102014206623.9A
Other languages
English (en)
Inventor
Wolfgang Spießl
Michael Graef
Andreas Bonfert
Matthias Kaufmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102014206623.9A priority Critical patent/DE102014206623A1/de
Priority to EP15713864.5A priority patent/EP3129820A1/de
Priority to PCT/EP2015/056698 priority patent/WO2015155029A1/de
Publication of DE102014206623A1 publication Critical patent/DE102014206623A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B2027/0192Supplementary details
    • G02B2027/0198System for aligning or maintaining alignment of an image in a predetermined direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Offenbart wird eine Vorrichtung zum Bestimmen der Pose einer Datenbrille, umfassend: Eine Datenbrille, umfassend eine Anzeige und eine Kamera; Elektronische Rechenmittel; Wobei die Vorrichtung zu Folgendem eingerichtet ist: Erstellen von Aufnahmen der Umgebung der Datenbrille mithilfe der Kamera; Erkennen der Abbildung eines gespeicherten und vordefinierten Bereiches der Umgebung in den Aufnahmen der Kamera; wobei der gespeicherte und vordefinierte Bereich in einer Datei beschrieben ist; Bestimmen eines Merkmals in der erkannten Abbildung des Bereiches; Bestimmen der Pose der Datenbrille unter Berücksichtigung des bestimmten Merkmals in den Aufnahmen; wobei die Pose der Datenbrille die Position der Datenbrille und die Ausrichtung der Datenbrille angibt.

Description

  • Die Erfindung betrifft eine Vorrichtung zum kontaktanalogen Anzeigen von Informationen auf einem Head-mounted Display (HMD), hierin auch Datenbrille genannt.
  • Heutzutage sind Datenbrillen bekannt, mit deren Hilfe dem Träger der Datenbrille Informationen angezeigt werden können. Die Datenbrille wird dabei wie eine gewöhnliche Brille, die als Sehhilfe verwendet wird, auf dem Kopf getragen. Gegenüber einer gewöhnlichen Brille umfasst die Datenbrille jedoch eine Anzeige, die beim Tragen der Datenbrille nahe dem oder den Augen des Benutzers angeordnet ist. Die Anzeige kann dabei zwei Teilanzeigen umfassen, eine für jedes Auge. Auf der Anzeige können dem Benutzer Informationen in Form von Text, graphischen Darstellungen oder Mischungen davon angezeigt werden. Die Anzeige kann insbesondere teildurchlässig sein, also so ausgestaltet sein, dass der Träger auch die Umgebung hinter der Anzeige erkennen kann. Besonders bevorzugt werden dem Träger die Informationen kontaktanalog angezeigt, was manchmal auch als augmented reality bezeichnet wird. Dabei wird dem Träger der Datenbrille die Information an einem Ort angezeigt, der an dem Ort eines Objektes in der Umgebung orientiert ist, also beispielsweise an das Objekt angrenzend oder dieses überlagernd. Zur Realisierung der Kontaktanalogie, muss typischerweise die Position des Objektes in der Umgebung und die Pose der Datenbrille in Relation zum Objekt bekannt sein, also die Position der Datenbrille und die Ausrichtung der Datenbrille.
  • Es sind Datenbrillen bekannt geworden, die ebenfalls jeweils eine Kamera umfassen, die Aufnahmen in Blickrichtung des Trägers der Datenbrille macht, siehe beispielsweise WO 2013/012914 .
  • Datenbrillen können auch in Fahrzeugen genutzt werden, um kontaktanaloge Informationen anzuzeigen. Diese Informationen können andere Verkehrsteilnehmer oder Objekte im Fahrzeug betreffen. Um kontaktanaloge Informationen anzeigen zu können muss in den meisten Fällen auch hier die Pose der Datenbrille bekannt sein.
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren bereitzustellen, mit dem die Pose der Datenbrille bestimmt werden kann und darauf aufbauend auf kontaktanaloge Weise Informationen angezeigt werden können.
  • Die Aufgabe der Erfindung wird durch die Gegenstände der unabhängigen Ansprüche gelöst. Vorteilhafte Weiterbildungen sind in den abhängigen Ansprüchen definiert.
  • In einem ersten Aspekt umfasst eine Vorrichtung zum Bestimmen der Pose einer Datenbrille: Eine Datenbrille, umfassend eine Anzeige und eine Kamera; Elektronische Rechenmittel; Wobei die Vorrichtung zu Folgendem eingerichtet ist: Erstellen von Aufnahmen der Umgebung der Datenbrille mithilfe der Kamera; Erkennen der Abbildung eines gespeicherten und vordefinierten Bereiches der Umgebung in den Aufnahmen der Kamera; wobei der gespeicherte und vordefinierte Bereich in einer Datei abgelegt ist; Bestimmen eines Merkmals in der erkannten Abbildung des Bereiches; Bestimmen der Pose der Datenbrille unter Berücksichtigung des bestimmten Merkmals in den Aufnahmen; wobei die Pose der Datenbrille die Position der Datenbrille und die Ausrichtung der Datenbrille angibt. Insbesondere umfasst das Verfahren auch: kontaktanaloges Anzeigen von Informationen unter Verwendung der bestimmten Pose der Datenbrille. Zusätzlich kann das Verfahren das Bestimmen der Position des Merkmals in der Umgebung der Datenbrille umfassen. Die Pose der Datenbrille kann die Ausrichtung der Datenbrille in einem dreidimensionalen Raum und die Position der Datenbrille in einem dreidimensionalen Raum beschreiben. Der Bereich der Umgebung kann auch als „Area of Interest“ bezeichnet werden.
  • Gemäß der Erfindung wird vorgeschlagen die aufgenommene Umgebung nach vordefinierten Bereichen abzusuchen. Innerhalb der Bereiche werden dann ein oder mehrere Merkmale identifiziert, anhand derer die Pose der Datenbrille bestimmt werden kann. Dieses bzw. diese Merkmale sind typischerweise zunächst unbekannt und werden durch die Identifizierung erst „erlernt“. Ein Merkmal ist zunächst eine in der Aufnahme der Kamera erkannte Struktur bzw. Form, auf dessen bzw. deren Basis die Pose der Datenbrille ermittelt werden kann. Idealerweise kann mithilfe des Merkmals die Pose besonders gut ermittelt werden. Ein Merkmal entsteht typischerweise durch die Abbildung eines Gegenstand oder der Teil eines Gegenstands, der sich zur Ermittlung der Pose der Datenbrille eignet, beispielsweise ein Papierblatt oder klar gegenüber dem Hintergrund abgegrenzte Gegenstände. Das Merkmal ist idealerweise mit der Kamera gut erfassbar, also klar begrenzt und ausreichend kontrastiert.
  • Gerade in der Situation, dass die Datenbrille von dem Fahrer oder Beifahrer in einem Fahrzeug getragen wird, ergibt sich, dass die Aufnahmen der Kamera der Datenbrille sowohl den Innenraum des Fahrzeugs als auch das Umfeld des Fahrzeugs abbilden. Für die meisten Anwendungen wird jedoch die Pose der Datenbrille in Relation zum Fahrzeug benötigt. Deshalb kann für die Bestimmung der Pose der Datenbrille nicht auf die Aufnahmen der Umgebung außerhalb des Fahrzeugs zurückgegriffen werden, da sich diese typischerweise relativ zum Fahrzeug bewegt. Weiterhin sind Gegenstände im Umfeld des Fahrzeugs bei Fahrt des Fahrzeugs häufig nicht lange genug in der Aufnahme sichtbar, um sinnvoll für eine Posenermittlung verwendet werden zu können. Die vorliegende Erfindung schlägt für eine typische Implementierung vor, in der Aufnahme der Kamera diejenigen Bereiche des Umfeldes der Datenbrille zu erkennen, die den Innenraum des Fahrzeugs abbilden. Dafür werden vorgespeicherte Angaben zum Innenraum zur Verfügung gestellt, die die Erkennung des Innenraums ermöglichen. Im Innenraum erkannte Merkmale in der Aufnahme dienen dann zur Bestimmung der Pose der Datenbrille.
  • In einer typischen Implementierung wird das Bestimmen der Position des Merkmals und das Bestimmen der Pose der Datenbrille durch einen Algorithmus zum gleichzeitigen Positionieren und Kartenbilden ausgeführt, einem sogenannten SLAM (Simultaneous Localization and Mapping). Bei den Merkmalen handelt es sich typischerweise um ein Merkmal, dessen Position in der Umgebung der Datenbrille unbekannt ist. Beispielsweise ein Blatt Papier, das auf dem Armaturenbrett eines Fahrzeugs liegt. Die Position dieses Papiers ist veränderlich und wird durch den SLAM Algorithmus erst erlernt, woraufhin auch die Position der Datenbrille anhand des Merkmals ermittelt werden kann. Der SLAM Algorithmus wird dabei nicht auf die gesamte Kameraaufnahme angewandt, sondern nur auf den abgebildeten Bereich des Umfeldes, der der Vordefinition entspricht. Es wird also eine Vorprozessierung ausgeführt, die die Auswahl an Merkmalen für den SLAM Algorithmus einschränkt.
  • In einem typischen Szenario ist das Merkmal des Umfeldes zunächst unbekannt. Es ist beispielsweise nicht bekannt, ob und wo ein Blatt Papier auf dem Armaturenbrett eines Fahrzeugs liegt. Das Merkmal wird in einer Weiterbildung deshalb anhand einer vordefinierten Regel bestimmt. Diese Regel kann aus der Aufnahme der Kamera Merkmale bestimmen, die sich für die Bestimmung der Pose besonders gut eignen, natürlich nur innerhalb der erkannten vordefinierten Bereiche. Die Eignung kann sich aus der Form des Merkmals, dem Kontrast zum Hintergrund oder anhand einer Objektklassifizierung ergeben.
  • Die elektronischen Rechenmittel können einen Mikrocontroller, einen anwendungsspezifischen Schaltkreis oder eine typische CPU umfassen. Bevorzugt ist sogar die Datenbrille selbst mit den elektronischen Rechenmitteln ausgestattet. Zusätzlich umfasst die Datenbrille vorteilhafterweise einen Energiespeicher (Akkumulator oder Batterie) und Kommunikationsmittel, insbesondere zur drahtlosen Kommunikation mittels Protokollen wie Bluetooth oder Wi-Fi.
  • In einer vorteilhaften Weiterbildung umfasst das Erkennen der Abbildung des Bereiches: Bereitstellen mehrerer vordefinierter und gespeicherter Bereiche der Umgebung; wobei für die Bereiche eine Reihenfolge vorgegeben ist; In der vorgegebenen Reihenfolge: Prüfen, ob die Abbildung des jeweiligen Bereiches der mehreren Bereiche in den Aufnahmen der Kamera erkennbar ist; Bereitstellen des Bereiches, dessen Abbildung zuerst erkennbar war. Es wird also eine Priorisierung von Bereichen des Umfeldes eingeführt. Die Reihenfolge kann sich danach richten, inwiefern in einem Bereich geeignete Merkmale vermutet werden. Im Bereich der Anzeige des Geschwindigkeitsmessers mit einem Zeiger in einem Fahrzeug beispielsweise würden eher keine geeigneten Merkmale vermutet, da sich der Zeiger bei der Fahrt bewegt und seine Position verändert. In Bereichen des Armaturenbretts, in denen typischerweise nur Gegenstände abgelegt werden, ohne dass sich dort sich fortlaufend bewegende Teile befinden, können jedoch geeignete Merkmale vermutet werden. Die Annahme, in einem Bereich des Umfeldes geeignete Merkmale zu finden, und die Quantifizierung dieser Annahme spiegelt sich vorteilhafterweise in der vorgegebenen Reihenfolge aus. Die Reihenfolge kann durch eine Wahrscheinlichkeitszahl vorgegeben sein. Die Bestimmung der Pose wird dann mithilfe eines Merkmals in dem Bereich ausgeführt, dem die höchste Priorität (in Form einer Position in der Reihenfolge) zugewiesen ist. Zusätzlich können natürlich auch weitere Merkmale in demselben Bereich oder in weiteren Bereichen zur Bestimmung der Pose verwendet werden.
  • In einer besonders bevorzugten Ausführungsform ist die Vorrichtung ferner zu Folgendem eingerichtet: Erkennen eines Fixmerkmals in den Aufnahmen, nämlich eines Merkmals, das vordefiniert ist; Abrufen der gespeicherten Position des Fixmerkmals in der Umgebung der Datenbrille; wobei das Fixmerkmal und dessen Position in der Umgebung in einer Datei gespeichert sind; Bestimmen der Pose der Datenbrille unter Berücksichtigung des erkannten Fixmerkmals, und insbesondere auch unter Berücksichtigung des bestimmten Merkmals. Es wird somit vorgeschlagen, zusätzlich zur Bestimmung der Pose über zuerst unbekannte Merkmale, auch bereits bekannte Merkmale in der Umgebung zu verwenden. Dazu werden bekannte (und gespeicherte) Merkmale in der Aufnahme der Kamera erkannt und deren Position abgerufen bzw. bereitgestellt. Aufbauend auf diesen Informationen kann dann die Pose der Datenbrille bestimmt werden.
  • In einer besonders bevorzugten Ausführungsform, wird die Pose der Datenbrille zunächst nur unter Berücksichtigung der erkannten Fixmerkmale bestimmt. Diese erste Posenbestimmung kann beim ersten Aktivieren der Vorrichtung vorgenommen werden. Anschließend können dann die Schritte des Erkennens des Bereiches, des Bestimmens eines (bisher unbekannten) Merkmals und des Bestimmens der Pose der Datenbrille auf dem (bisher unbekannten) Merkmal und ausgeführt werden. Der Algorithmus zur Bestimmung der Pose kann dazu ausgelegt sein, eine bereits vorhandene Bestimmung der Pose bei der Bestimmung der Pose unter zusätzlicher Verwendung von neu erlernten Merkmalen vorteilhaft zu verwenden. Dadurch können die neu erlernten Merkmale mit weniger Rechenaufwand für die Posenbestimmung verwendet werden und/oder die Genauigkeit der Posenbestimmung unter Berücksichtigung der neu erlernten Merkmale verbessert werden.
  • Die Verwendung der neu erlernten (und zusätzlichen) Merkmale dient generell der Steigerung der Genauigkeit der Posenbestimmung. Zudem kann die Posenbestimmung durch die Verwendung von Fixmerkmalen und neu erlernten Merkmalen robuster werden. Beispielsweise könnte es aufgrund der Ausrichtung der Datenbrille dazu kommen, dass keine oder eine nur unzureichende Anzahl an Fixmerkmalen durch die Kamera der Datenbrille aufgenommen werden. Ebenso könnte es dazu kommen, dass Fixmerkmale von anderen temporär vorhandenen Gegenständen verdeckt werden. Gegebenenfalls werden in dieser Ausrichtung der Datenbrille aber immer noch neu erlernte Merkmale aufgenommen, mit deren Hilfe dann eine Posenbestimmung vorgenommen werden kann. Die Vergrößerung der Anzahl und/oder der Verteilung der Merkmale ermöglicht eine robustere und genauere Posenbestimmung.
  • Das Erkennen eines Fixmerkmals umfasst insbesondere: Bereitstellen mehrerer Fixmerkmale; wobei für die Fixmerkmale eine Reihenfolge vorgegeben ist, insbesondere durch einen Wahrscheinlichkeitswert für jedes Merkmal; In der vorgegebenen Reihenfolge: Prüfen, ob die Abbildung des jeweiligen Fixmerkmals in den Aufnahmen der Kamera erkennbar ist; Bereitstellen des Fixmerkmals, dessen Abbildung zuerst erkennbar war. Es kann ebenfalls vorgesehen sein, dass auch weitere erkannte Fixmerkmale bereitgestellt werden. Ein Fixmerkmal kann beispielsweise die Struktur des Rahmens der Windschutzscheibe sein, die in der Aufnahme der Kamera als klar begrenzte Form erkennbar ist. Weiterhin kann das Fixmerkmal eine erkennbare Kante im Armaturenbrett sein.
  • In einer Erweiterung umfasst die Datenbrille ferner einen Lagesensor umfasst, insbesondere ein Gyroskop und/oder einen Beschleunigungssensor; wobei die Vorrichtung ferner zu Folgendem eingerichtet ist: Empfangen von Sensormessungen; Bestimmen der Pose unter Berücksichtigung der empfangenen Sensormessungen basierend auf der mithilfe des Merkmals bestimmten Pose. Es wird also vorgeschlagen die Pose mithilfe des erkannten (des neu erlernten und ggf. des Fix-)Merkmals zu bestimmen. Aufbauend darauf können dann Sensormessungen von Lagesensoren verwendet werden, um die Pose weiterhin zu bestimmen. Hierin wird die Kamera nicht als ein Lagesensor verstanden.
  • In einer typischen Implementierung der Erweiterung wird das Bestimmen der Pose unter Berücksichtigung des bestimmten Merkmals wiederholt und mit einem ersten Zyklus ausgeführt; wobei das Bestimmen der Pose unter Berücksichtigung der empfangenen Sensormessungen wiederholt und mit einem zweiten Zyklus ausgeführt wird; wobei insbesondere der zweite Zyklus kürzer als der erste Zyklus ist und weiter insbesondere der erste Zyklus ein Vielfaches des zweiten Zyklus ist. Es wird somit vorgeschlagen die Pose mithilfe der Merkmale mit einem ersten Zyklus zu bestimmen und die Pose dann basierend auf den Sensormessungen und einem zweiten Zyklus fortzuschreiben. Die Bestimmung der Pose basierend auf Kameraaufnahmen und die dazugehörige Auswertung können im Vergleich zu einer Posenbestimmung basierend auf Messungen von Lagesensoren mehr Rechenzeit und mehr Energieverbrauch in Anspruch nehmen. Um die Pose möglichst häufig zu aktualisieren kann es sich deshalb anbieten zwischen den ersten Zyklen die Pose mithilfe der Sensormessungen fortzuschreiben. Typische Zykluszeiten für den ersten Zyklus sind beispielsweise 16 ms und Zykluszeiten für den zweiten Zyklus sind beispielsweise 1 ms. Die Pose wird also 15 mal zwischen zwei Bestimmungen über die Kameraaufnahme durch die Sensormessungen bestimmt. Typischerweise ist die Güte der Messungen von Lagesensoren und darauf aufbauend die Bestimmung der Pose aufgrund der Drift der Lagesensoren schlechter, als die Genauigkeit der Bestimmung der Pose basierend auf Kameraaufnahmen. Aus diesem Grund erscheint die Bestimmung der Pose basierend auf Kameraaufnahmen nötig, um eine ausreichende Genauigkeit der Posenbestimmung zu gewährleisten. Bei der Verwendung von hochgenauen Lagesensoren mit sehr geringer Drift kann in Betracht gezogen werden, die Zykluszeiten für die Posenbestimmung mithilfe der Kamera wesentlich zu erhöhen.
  • In einer Ausgestaltung kann die Posenbestimmung aufbauend auf Kameraaufnahmen mit der Posenbestimmung aufbauend auf Messungen der Lagesensoren verglichen werden und daraus die Messungenauigkeit (Drift) der Lagesensoren bestimmt und für zukünftige Bestimmungen der Pose aufbauend auf Lagesensormessungen berücksichtigt werden. Hierdurch wird die Genauigkeit der Posenbestimmung aufbauend auf Lagesensormessungen verbessert.
  • Es kann vorgesehen sein, dass ein Fahrzeug, insbesondere ein Personenkraftwagen, eine der obengenannten Vorrichtungen umfasst.
  • In einem anderen Aspekt umfasst ein Verfahren zum kontaktanalogen Anzeigen von Informationen auf einer Datenbrille, wobei die Datenbrille eine Anzeige und eine Kamera umfasst: Erstellen von Aufnahmen der Umgebung der Datenbrille mithilfe der Kamera; Erkennen der Abbildung eines gespeicherten und vordefinierten Bereiches der Umgebung in den Aufnahmen der Kamera; wobei der gespeicherte und vordefinierte Bereich in einer Datei abgelegt ist; Bestimmen eines Merkmals in der erkannten Abbildung des Bereiches; Bestimmen der Position des Merkmals in der Umgebung der Datenbrille; Bestimmen der Pose der Datenbrille unter Berücksichtigung des bestimmten Merkmals in den Aufnahmen; wobei die Pose der Datenbrille die Position der Datenbrille und die Ausrichtung der Datenbrille angibt; Kontaktanaloges Anzeigen der Informationen unter Verwendung der bestimmten Pose der Datenbrille. Das Verfahren wird bevorzugt von einer der vorhergehend aufgeführten Vorrichtungen ausgeführt.
  • In einer weiterführenden Ausprägung wird vorgeschlagen, das von einer in der Datenbrille eingebauten Kamera aufgenommene aktuelle Bild mit einem Referenzbild des Fahrzeuginnenraums abzugleichen und somit entsprechende Formen und Objekte erkennen zu können. Eine gleichzeitige Erlernung des Referenzbildes ist hier auch möglich. Zur Erkennung von Objekten werden in den Bildern gleiche Objekte gefunden und daraus Rückschlüsse gezogen. Ein Ansatz für die Lösung des Problems aus der Robotik ist z.B. der SLAM-Algorithmus, es gibt jedoch diverse andere verwendbare Algorithmen. Dabei wird eine interne Karte des Fahrzeuges auf Basis von eindeutigen und nicht veränderbaren Merkmalen des Interieurs erstellt. Da sich Teile dieses Interieurs aber bewegen oder verändern wie z.B. Lenkrad oder Schaltknauf, kann der Algorithmus durch Implementierung von „Areas of Interest“ optimiert werden.
  • Bei der Benutzung des Systems wird ein Abgleich mit dieser internen Karte durchgeführt und es ist somit möglich, die Datenbrille im Interieur zu lokalisieren. Nach jedem Durchlauf der Sensoren werden die Daten ausgewertet und die interne Karte des Innenraums erweitert und verbessert, um die Genauigkeit zu erhöhen. Dabei wird mit einer statischen Karte begonnen und diese während der Laufzeit dynamisch um neue erlernte Features, also Merkmale, erweitert. Der Grund für dynamische Karten sind Fremdobjekte im Sichtbereich, die gelernte Features in der statischen Karte überdecken, jedoch ihrerseits gute Features liefern können (beispielsweise Prospekt auf dem Armaturenbrett).
  • Durch das Verfahren wird nicht nur die Position in 3 Freiheitsgraden, sondern auch die rotatorische Ausrichtung in 3 Freiheitsgraden bestimmt. Dadurch kann die Kopfbewegung des Benutzers errechnet (6D-Pose), sein aktuelles Sichtfeld bestimmt und möglicherweise auf dieses reagiert werden.
  • Erweitert werden kann das Verfahren, indem nicht nur eine Kamera eingesetzt wird, sondern zusätzlich weitere Sensoren in der Brille verbaut werden, beispielsweise Inertialsensorik. Diese erlauben zwar alleine keine zuverlässige Bestimmung der Pose, bieten jedoch eine deutlich höhere Updaterate (z.B. 512 Hz anstelle von 30 Hz Kamera). Während mit der Kamera die Posen-Bestimmung präzise aber selten geschieht, kann in der Zwischenzeit mit Hilfe der Inertialsensorik eine ungenauere Zwischenpose ermittelt werden und somit eine hohe Updaterate der Pose erzielt werden. Zu jedem Zeitpunkt, an dem eine präzise Posen-Bestimmung durch die Kamera erfolgt, kann zudem der Drift der Inertialsensorik ausgeglichen werden und darüber hinaus sogar Drift und Fehler der Inertialsensorik geschätzt werden, sodass die zukünftige Ungenauigkeit bei der rein Inertialsensorik basierenden Zwischenposen-Bestimmung minimiert werden kann.
  • Weitere vorteilhafte Ausgestaltungen:
  • In einer ersten Ausgestaltung wird ein HUD (Head-Up Display) im gewohnten Funktionsumfang an der gewohnten, fahrzeugfesten Position simuliert, ohne dass jedoch im Fahrzeug ein echtes HUD verbaut sein muss. Hier können Bau Raum und Kosten gespart werden und später zusätzlich schneller und einfacher Aktualisierungen vorgenommen werden.
  • Eine zweiten Ausgestaltung wäre die kontaktanaloge, weltfeste Routenführung der Navigation, bei der die Routenanweisungen kontaktanalog auf der Straße platziert werden können (und somit nicht fahrzeugfest sondern weltfest).
  • In einer dritten Ausgestaltung könnten die bisher dargestellten Informationen durch weitere Funktionen wie z.B. einen komplett virtuellen Rückspiegel erweitert werden. Des Weiteren durch die Erkennung der Pose auch ein Rückschluss auf das Blickfeld des Benutzers möglich. Damit kann z.B. die Anzeige in einem Display bei Blickzuwendung entweder heller erscheinen oder die dargestellten Informationen könnten (aufgrund des offensichtlichen Interesses des Fahrers) vergrößert werden.
  • In einer vierten Ausgestaltung wird die Positionierung der Brille verwendet, um festzustellen, auf welchem Sitzplatz in einem Fahrzeug der aktuelle Benutzer sitzt. Denkbar ist hier der Fall, dass mehrere Insassen eine Datenbrille aufhaben und unterschiedliche Informationen sehen wollen. Die dargestellten Informationen lassen sich somit an den Träger anpassen, z.B. werden Warnungen nur der Person auf dem Fahrersitz dargestellt.
  • Durch das Verfahren können andere Baugruppen in Fahrzeugen wie ein Head-Up Display effizient ersetzt werden, was eine Energie- und Kostenersparnis mit sich bringt. Gleichzeitig ist das beschriebene System so flexibel, dass keine unerwünschte Überblendung realer Objekte erfolgt. Es wird erheblicher Bauraum im Fahrzeug eingespart.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt schematisch eine Vorrichtung gemäß einem Ausführungsbeispiel
  • 2 zeigt schematisch ein Ablaufdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel.
  • Gleiche Bezugszeichen beziehen sich auf sich entsprechende Elemente über die Figuren hinweg.
  • DETAILLIERTE BESCHREIBUNG DER AUSFÜHRUNGSBEISPIELE
  • 1 zeigt schematisch eine Vorrichtung gemäß einem Ausführungsbeispiel. Die Datenbrille 1 umfasst zwei Teilanzeigen 2, je eine für das linke und das rechte Auge. Des Weiteren umfasst die Datenbrille 1 eine Kamera 3 und eine Recheneinheit 4. Nicht in 1 dargestellt, aber von der Datenbrille 1 umfasst ist ein Akkumulator und ein Wi-Fi Modul zur drahtlosen Funkübertragung. Die Datenbrille wird wie eine typische Sehhilfe auf dem Kopf getragen, wobei die Datenbrille auf der Nase und den Ohren aufliegt. Die Kamera 3 ist in Blickrichtung des Trägers (nicht gezeigt) der Datenbrille 1 ausgerichtet und nimmt im Wesentlichen das Blickfeld des Trägers der Datenbrille 1 auf. Die Kamera 3 macht fortlaufend Aufnahmen, also beispielsweise alle 16 ms, im sichtbaren Bereich des Lichts. Zusätzlich nimmt die Kamera 3 auch im Infrarotlichtbereich auf. Bei einem Einsatz im Fahrzeug, bei dem der Fahrer und der Innenraum des Fahrzeugs bei Nacht mit Infrarotlicht beleuchtet werden, kann somit auch bei Nacht die Funktion des Systems gewährleistet werden.
  • 2 zeigt schematisch ein Ablaufdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel. Optionale Schritte sind in 2 gestrichelt dargestellt. Das Verfahren nach 2 wird von der Datenbrille 1 nach 1 ausgeführt. Im Schritt S1 werden Aufnahmen der Kamera 3 von der Umgebung der Datenbrille 1 bereitgestellt. Im Schritt S4 werden gespeicherte und vordefinierte Bereiche der Umgebung erkannt. Daraufhin werden bisher unbekannte Merkmale in den erkannten Abbildungen der Bereiche bestimmt, S5. Zusätzlich können in den Aufnahmen vordefinierte Fixmerkmale erkannt werden, deren Position im Fahrzeug bekannt ist, S2 und S3. Basierend auf den bestimmten Merkmalen und den erkannten Fixmerkmalen wird die Pose der Datenbrille bestimmt, S6. Es kann vorgesehen sein, dass die Aufnahmen der Umgebung sequentiell, also nacheinander bereitgestellt werden und die Schritte S2, S3, S4 und S5 für jede Aufnahme erneut ausgeführt werden. In einer Implementierung kann auch vorgesehen sein, zunächst anhand mehrerer Aufnahmen die Schritte S4 und S5 auszuführen. Anschließend werden die in Schritt S5 bestimmten Merkmale nur noch in den nachfolgend bereitgestellten Aufnahmen verfolgt. Es wird somit eine Sammlung (manchmal auch „dynamische Karte“ genannt) von neu erlernten Merkmalen aufgebaut, die dann getrackt werden. In vorgegebenen Intervallen können erneut die Schritte S4 und S5 ausgeführt werden, um die erlernten Merkmale zu aktualisieren.
  • Aufbauend auf der mithilfe der Kameraaufnahmen bestimmten Pose kann die Pose basierend auf Sensormessungen eines oder mehrerer Lagesensoren fortgeschrieben werden, Schritte S7 und S8. Dies kann fortlaufend in einem Zyklus B von z.B. 1 ms geschehen. Da allerdings die Genauigkeit der Lagesensoren typischerweise schlechter ist, als die Genauigkeit der Posenbestimmung mithilfe der Kameraaufnahmen, ist meist eine Posenbestimmung mithilfe der Kameraaufnahmen nach mehreren B-Zyklen nötig. Dies geschieht durch den Zyklus A, der beispielsweise 16 ms lang sein kann.
  • Die so fortlaufend bestimmten Posen können dazu verwendet werden, Informationen kontaktanalog anzuzeigen. Insbesondere lässt sich mit der so bestimmten Pose die Funktion eines „transparenten Teils“ eines Fahrzeugs realisieren. Dabei nimmt eine Kamera im Außenbereich des Fahrzeugs die Umgebung des Fahrzeugs auf. Diejenigen Teile dieser Aufnahmen (beispielsweise ein Videostream), die der Benutzer aufgrund von Verdeckungen durch die Karosserie des Fahrzeugs nicht sehen kann, werden dem Benutzer dann an den Stellen der Verdeckung über die Anzeigen der Datenbrille angezeigt. Ein typischer Anwendungsfall hierfür entsteht beim Einparken. Mithilfe der Bestimmten Pose der Datenbrille können einem Fahrer so zum Beispiel Videoaufnahmen im direkten Umfeld des Fahrzeugs angezeigt werden. Der Fahrer kann Bordsteine oder Stoßstangen der nächsten Fahrzeuge „durch die Karosserie hindurch“ erkennen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2013/012914 [0003]

Claims (10)

  1. Vorrichtung zum Bestimmen der Pose einer Datenbrille, umfassend: Eine Datenbrille, umfassend eine Anzeige und eine Kamera; Elektronische Rechenmittel; Wobei die Vorrichtung zu Folgendem eingerichtet ist: Erstellen von Aufnahmen der Umgebung der Datenbrille mithilfe der Kamera; Erkennen der Abbildung eines gespeicherten und vordefinierten Bereiches der Umgebung in den Aufnahmen der Kamera; wobei der gespeicherte und vordefinierte Bereich in einer Datei beschrieben ist; Bestimmen eines Merkmals in der erkannten Abbildung des Bereiches; Bestimmen der Pose der Datenbrille unter Berücksichtigung des bestimmten Merkmals in den Aufnahmen; wobei die Pose der Datenbrille die Position der Datenbrille und die Ausrichtung der Datenbrille angibt.
  2. Vorrichtung nach Anspruch 1, wobei das Bestimmen der Position des Merkmals und das Bestimmen der Pose der Datenbrille durch einen Algorithmus zum gleichzeitigen Positionieren und Kartenbilden ausgeführt werden.
  3. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei das Merkmal anhand einer vordefinierten Regel bestimmt wird.
  4. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei das Erkennen der Abbildung des Bereiches umfasst: Bereitstellen mehrerer vordefinierter und gespeicherter Bereiche der Umgebung; wobei für die Bereiche eine Reihenfolge vorgegeben ist; In der vorgegebenen Reihenfolge: Prüfen, ob die Abbildung des jeweiligen Bereiches der mehreren Bereiche in den Aufnahmen der Kamera erkennbar ist; Bereitstellen des Bereiches, dessen Abbildung zuerst erkennbar war.
  5. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Vorrichtung ferner zu Folgendem eingerichtet ist: Erkennen eines Fixmerkmals in den Aufnahmen, nämlich eines Merkmals, das vordefiniert ist; Abrufen der gespeicherten Position des Fixmerkmals in der Umgebung der Datenbrille; wobei das Fixmerkmal und dessen Position in der Umgebung in einer Datei gespeichert sind; Bestimmen der Pose der Datenbrille unter Berücksichtigung des erkannten Fixmerkmals, und insbesondere auch unter Berücksichtigung des bestimmten Merkmals.
  6. Vorrichtung nach Anspruch 5, wobei das Erkennen eines Fixmerkmals umfasst: Bereitstellen mehrerer Fixmerkmale; wobei für die Fixmerkmale eine Reihenfolge vorgegeben ist, insbesondere durch einen Wahrscheinlichkeitswert für jedes Merkmal; In der vorgegebenen Reihenfolge: Prüfen, ob die Abbildung des jeweiligen Fixmerkmals in den Aufnahmen der Kamera erkennbar ist; Bereitstellen des Fixmerkmals, dessen Abbildung zuerst erkennbar war.
  7. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Datenbrille ferner einen Lagesensor umfasst, insbesondere ein Gyroskop und/oder einen Beschleunigungssensor; wobei die Vorrichtung ferner zu Folgendem eingerichtet ist: Empfangen von Sensormessungen; Bestimmen der Pose unter Berücksichtigung der empfangenen Sensormessungen basierend auf der mithilfe des Merkmals bestimmten Pose.
  8. Vorrichtung nach Anspruch 7, wobei das Bestimmen der Pose unter Berücksichtigung des bestimmten Merkmals wiederholt und mit einem ersten Zyklus ausgeführt wird; und wobei das Bestimmen der Pose unter Berücksichtigung der empfangenen Sensormessungen wiederholt und mit einem zweiten Zyklus ausgeführt wird; wobei insbesondere der zweite Zyklus kürzer als der erste Zyklus ist und weiter insbesondere der erste Zyklus ein Vielfaches des zweiten Zyklus ist.
  9. Fahrzeug, insbesondere Personenkraftwagen, umfassend eine Vorrichtung nach einem der vorhergehenden Ansprüche.
  10. Verfahren zum kontaktanalogen Anzeigen von Informationen auf einer Datenbrille, wobei die Datenbrille eine Anzeige und eine Kamera umfasst; wobei das Verfahren umfasst: Erstellen von Aufnahmen der Umgebung der Datenbrille mithilfe der Kamera; Erkennen der Abbildung eines gespeicherten und vordefinierten Bereiches der Umgebung in den Aufnahmen der Kamera; wobei der gespeicherte und vordefinierte Bereich in einer Datei abgelegt ist; Bestimmen eines Merkmals in der erkannten Abbildung des Bereiches; Bestimmen der Position des Merkmals in der Umgebung der Datenbrille; Bestimmen der Pose der Datenbrille unter Berücksichtigung des bestimmten Merkmals in den Aufnahmen; wobei die Pose der Datenbrille die Position der Datenbrille und die Ausrichtung der Datenbrille angibt; Kontaktanaloges Anzeigen der Informationen unter Verwendung der bestimmten Pose der Datenbrille.
DE102014206623.9A 2014-04-07 2014-04-07 Lokalisierung eines Head-mounted Displays (HMD) im Fahrzeug Withdrawn DE102014206623A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102014206623.9A DE102014206623A1 (de) 2014-04-07 2014-04-07 Lokalisierung eines Head-mounted Displays (HMD) im Fahrzeug
EP15713864.5A EP3129820A1 (de) 2014-04-07 2015-03-27 Lokalisierung eines head-mounted displays (hmd) im fahrzeug
PCT/EP2015/056698 WO2015155029A1 (de) 2014-04-07 2015-03-27 Lokalisierung eines head-mounted displays (hmd) im fahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014206623.9A DE102014206623A1 (de) 2014-04-07 2014-04-07 Lokalisierung eines Head-mounted Displays (HMD) im Fahrzeug

Publications (1)

Publication Number Publication Date
DE102014206623A1 true DE102014206623A1 (de) 2015-10-08

Family

ID=52807797

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014206623.9A Withdrawn DE102014206623A1 (de) 2014-04-07 2014-04-07 Lokalisierung eines Head-mounted Displays (HMD) im Fahrzeug

Country Status (3)

Country Link
EP (1) EP3129820A1 (de)
DE (1) DE102014206623A1 (de)
WO (1) WO2015155029A1 (de)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016221123A1 (de) 2016-10-26 2018-04-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102016225269A1 (de) 2016-12-16 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102016225262A1 (de) 2016-12-16 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102016225265A1 (de) 2016-12-16 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102016225263A1 (de) 2016-12-16 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille in einem Kraftfahrzeug
DE102016225082A1 (de) 2016-12-15 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben einer Datenbrille
DE102016225266A1 (de) 2016-12-16 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben einer Datenbrille
DE102016225261A1 (de) 2016-12-16 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102017205194A1 (de) 2017-03-28 2018-10-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen von 3D-Bild-Informationen in einem Fahrerassistenzsystem eines Kraftfahrzeugs
DE102017209798A1 (de) 2017-06-09 2018-12-13 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems in einem Kraftfahrzeug
DE102017209797A1 (de) 2017-06-09 2018-12-13 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einem Fahrerassistenzsystem und einer Datenbrille
DE102017217027A1 (de) * 2017-09-26 2019-03-28 Audi Ag Verfahren zum Betreiben einer am Kopf tragbaren elektronischen Anzeigeeinrichtung und Anzeigesystem zum Anzeigen eines virtuellen Inhalts
DE102017221317A1 (de) 2017-11-28 2019-05-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben einer Datenbrille in einem Kraftfahrzeug
DE102018201509A1 (de) 2018-02-01 2019-08-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
WO2020048647A1 (de) 2018-09-07 2020-03-12 Audi Ag Verfahren und steuereinrichtung zum betreiben einer am kopf tragbaren anzeigeeinrichtung in einem kraftfahrzeug
US11270463B2 (en) 2019-05-29 2022-03-08 Infineon Technologies Ag Dynamic three-dimensional imaging distance safeguard
US11340461B2 (en) 2018-02-09 2022-05-24 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11393251B2 (en) 2018-02-09 2022-07-19 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11556741B2 (en) 2018-02-09 2023-01-17 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters using a neural network
US11676422B2 (en) 2019-06-05 2023-06-13 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
DE102022104091A1 (de) 2022-02-22 2023-08-24 Holoride Gmbh Verfahren und Prozessorschaltung zum Betreiben einer Datenbrille mit Driftkorrektur eines Beschleunigungssensors sowie entsprechend betreibbare Datenbrille und computerlesbares elektronisches Speichermedium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10469769B1 (en) 2018-07-30 2019-11-05 International Business Machines Corporation Augmented reality based driver assistance
EP3663941B1 (de) * 2018-12-07 2022-07-13 Volvo Car Corporation Beurteilung einer simulierten fahrzeugbezogenen funktion
US10767997B1 (en) 2019-02-25 2020-09-08 Qualcomm Incorporated Systems and methods for providing immersive extended reality experiences on moving platforms

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005058240A1 (de) * 2005-12-06 2007-06-14 Siemens Ag Trackingsystem und Verfahren zur Posenbestimmung
WO2013012914A2 (en) 2011-07-20 2013-01-24 Google Inc. Dynamic control of an active input region of a user interface

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005051396A1 (de) * 2005-10-25 2007-05-03 Siemens Ag System und Verfahren für ein kamerabasiertes Tracking
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
JP5728159B2 (ja) * 2010-02-02 2015-06-03 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US9342610B2 (en) * 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
US9177360B2 (en) * 2012-09-11 2015-11-03 Apple Inc. Automatic image orientation and straightening through image analysis

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005058240A1 (de) * 2005-12-06 2007-06-14 Siemens Ag Trackingsystem und Verfahren zur Posenbestimmung
WO2013012914A2 (en) 2011-07-20 2013-01-24 Google Inc. Dynamic control of an active input region of a user interface

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BROLL, Wolfgang. Augmentierte Realität. In: Virtual und Augmented Reality (VR/AR). Springer Berlin Heidelberg, 2013. S. 252-264. *

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018077520A1 (de) 2016-10-26 2018-05-03 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zum betreiben eines anzeigesystems mit einer datenbrille
CN109791294B (zh) * 2016-10-26 2021-09-28 宝马股份公司 用于运行具有数据眼镜的显示系统的方法和设备
DE102016221123A1 (de) 2016-10-26 2018-04-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
CN109791294A (zh) * 2016-10-26 2019-05-21 宝马股份公司 用于运行具有数据眼镜的显示系统的方法和设备
US10866423B2 (en) 2016-10-26 2020-12-15 Bayerische Motoren Werke Aktiengesellschaft Method and device for operating a display system comprising a head-mounted display
DE102016225082A1 (de) 2016-12-15 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben einer Datenbrille
DE102016225261A1 (de) 2016-12-16 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102016225266A1 (de) 2016-12-16 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben einer Datenbrille
DE102016225263A1 (de) 2016-12-16 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille in einem Kraftfahrzeug
DE102016225265A1 (de) 2016-12-16 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102016225262A1 (de) 2016-12-16 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102016225266B4 (de) 2016-12-16 2024-06-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben einer Datenbrille, Datenbrille und zugehöriges Anzeigesystem
DE102016225269A1 (de) 2016-12-16 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102017205194A1 (de) 2017-03-28 2018-10-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen von 3D-Bild-Informationen in einem Fahrerassistenzsystem eines Kraftfahrzeugs
DE102017209798A1 (de) 2017-06-09 2018-12-13 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems in einem Kraftfahrzeug
DE102017209797A1 (de) 2017-06-09 2018-12-13 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einem Fahrerassistenzsystem und einer Datenbrille
DE102017217027A1 (de) * 2017-09-26 2019-03-28 Audi Ag Verfahren zum Betreiben einer am Kopf tragbaren elektronischen Anzeigeeinrichtung und Anzeigesystem zum Anzeigen eines virtuellen Inhalts
US11366326B2 (en) 2017-09-26 2022-06-21 Audi Ag Method for operating a head-mounted electronic display device, and display system for displaying a virtual content
DE102017221317A1 (de) 2017-11-28 2019-05-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben einer Datenbrille in einem Kraftfahrzeug
WO2019149874A1 (de) 2018-02-01 2019-08-08 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zum betreiben eines anzeigesystems mit einer datenbrille
DE102018201509A1 (de) 2018-02-01 2019-08-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
US11340461B2 (en) 2018-02-09 2022-05-24 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11393251B2 (en) 2018-02-09 2022-07-19 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11556741B2 (en) 2018-02-09 2023-01-17 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters using a neural network
WO2020048647A1 (de) 2018-09-07 2020-03-12 Audi Ag Verfahren und steuereinrichtung zum betreiben einer am kopf tragbaren anzeigeeinrichtung in einem kraftfahrzeug
US11645820B2 (en) 2018-09-07 2023-05-09 Audi Ag Method and control device for operating a display device which can be worn on the head in a motor vehicle
US11270463B2 (en) 2019-05-29 2022-03-08 Infineon Technologies Ag Dynamic three-dimensional imaging distance safeguard
US11676422B2 (en) 2019-06-05 2023-06-13 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
DE102022104091A1 (de) 2022-02-22 2023-08-24 Holoride Gmbh Verfahren und Prozessorschaltung zum Betreiben einer Datenbrille mit Driftkorrektur eines Beschleunigungssensors sowie entsprechend betreibbare Datenbrille und computerlesbares elektronisches Speichermedium
WO2023160991A1 (de) 2022-02-22 2023-08-31 Holoride Gmbh Verfahren und prozessorschaltung zum betreiben einer datenbrille mit driftkorrektur eines beschleunigungssensors sowie entsprechend betreibbare datenbrille und computerlesbares elektronisches speichermedium

Also Published As

Publication number Publication date
EP3129820A1 (de) 2017-02-15
WO2015155029A1 (de) 2015-10-15

Similar Documents

Publication Publication Date Title
DE102014206623A1 (de) Lokalisierung eines Head-mounted Displays (HMD) im Fahrzeug
EP3164756B1 (de) Lokalisierung eines hmd im fahrzeug
DE102017107396A1 (de) Testverfahren und Testvorrichtung für Fahrerassistenzsysteme
DE102018201509A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
EP3765324A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-display-vorrichtung für ein kraftfahrzeug
DE102017221871A1 (de) Verfahren zur Berechnung der Bewegungsdaten des Kopfes eines Fahrers eines Fahrzeuges, Datenbrille sowie Fahrzeug zur Verwendung bei dem Verfahren und Computerprogramm
DE102010060225A1 (de) Fahrzeuginformationsanbietevorrichtung
DE102019109505A1 (de) Datenverarbeitungsvorrichtung, überwachungssystem, wecksystem, datenverarbeitungsverfahren und datenverarbeitungsprogramm
DE102014008152A1 (de) Verfahren und Vorrichtung zur augmentierten Darstellung mindstens einer Zusatzinformation in mindestens einem Bild einer Umgebung
DE102017216774A1 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-Up-Display-Vorrichtung für ein Kraftfahrzeug
DE102017215163B4 (de) System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs
DE102017215161A1 (de) Verfahren und Vorrichtung zur Anwahl von einem Umgebungsobjekt im Umfeld eines Fahrzeugs
DE102013210729A1 (de) Verfahren und Vorrichtung zum Signalisieren eines visuell zumindest teilweise verdeckten Verkehrsobjekts für einen Fahrer eines Fahrzeugs
DE102017111468A1 (de) Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat
DE102017220268A1 (de) Erkennung und Visualisierung von Systemunsicherheit bei der Darstellung augmentierter Bildinhalte in Head-Up-Displays
DE102010003851A1 (de) Verfahren und Informationssystem zum Markieren eines Zielorts für ein Fahrzeug
DE102017216775A1 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-Up-Display-Vorrichtung für ein Kraftfahrzeug
DE102019208788A1 (de) Kraftfahrzeug
DE102017217923A1 (de) Verfahren zum Betrieb einer Anzeigeeinrichtung in einem Kraftfahrzeug
DE102014207398A1 (de) Objektassoziation zur kontaktanalogen Anzeige auf einem HMD
DE102016014712A1 (de) Fahrzeug und Verfahren zur Ausgabe von Informationen an eine Fahrzeugumgebung
DE102017122543A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Überholen eines Objektes sowie Fahrerassistenzsystem
DE102016225261A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102019109491A1 (de) Datenverarbeitungsvorrichtung, überwachungssystem, wecksystem, datenverarbeitungsverfahren und datenverarbeitungsprogramm
DE102020123976A1 (de) Verfahren, System und Computerprogrammprodukt zur Bestimmung von sicherheitskritischen Verkehrsszenarien für Fahrerassistenzsysteme (FAS) und hochautomatisierte Fahrfunktionen (HAF)

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee