DE102016225266B4 - Verfahren zum Betreiben einer Datenbrille, Datenbrille und zugehöriges Anzeigesystem - Google Patents

Verfahren zum Betreiben einer Datenbrille, Datenbrille und zugehöriges Anzeigesystem Download PDF

Info

Publication number
DE102016225266B4
DE102016225266B4 DE102016225266.6A DE102016225266A DE102016225266B4 DE 102016225266 B4 DE102016225266 B4 DE 102016225266B4 DE 102016225266 A DE102016225266 A DE 102016225266A DE 102016225266 B4 DE102016225266 B4 DE 102016225266B4
Authority
DE
Germany
Prior art keywords
display
data glasses
pose
processes
frame duration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016225266.6A
Other languages
English (en)
Other versions
DE102016225266A1 (de
Inventor
Matthias Roland Kaufmann
Jörg Preißinger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102016225266.6A priority Critical patent/DE102016225266B4/de
Publication of DE102016225266A1 publication Critical patent/DE102016225266A1/de
Application granted granted Critical
Publication of DE102016225266B4 publication Critical patent/DE102016225266B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Verfahren zum Betreiben einer Datenbrille (3) in einem Kraftfahrzeug, mit folgenden Schritten:- Durchführen (S3) eines Tracking-Prozesses, um eine aktuelle Pose der Datenbrille (3) zu bestimmen;- Durchführen (S4) eines Rendering-Prozesses, um basierend auf bereitgestellten Anzeigeinformationen, die eine Position und Form eines oder mehrerer anzuzeigender virtuellen Objekte angeben, abhängig von der Pose der Datenbrille (3) ein Anzeigebild zu erzeugen;- Durchführen (S5) eines Anzeige-Prozesses zum Anzeigen des Anzeigebilds auf einer oder mehrerer Anzeigeflächen (35) der Datenbrille (3), wobei der Tracking-Prozess, der Rendering-Prozess und der Anzeige-Prozess so synchronisiert ausgeführt werden, dass jedem der Prozesse die gleiche Frame-Dauer zugewiesen wird.

Description

  • Technisches Gebiet
  • Die Erfindung betrifft Verfahren zum Betreiben von Datenbrillen, insbesondere zum Einsatz in einem Kraftfahrzeug.
  • Technischer Hintergrund
  • Es sind Datenbrillen, auch Head-mounted Displays genannt, bekannt, die mithilfe einer Anzeigevorrichtung eine Abbildung auf einer oder zwei Anzeigeflächen im Blickfeld des Trägers der Datenbrille anzeigen können. Die Anzeigeflächen entsprechen Reflexionsflächen, die Abbildungen in das Auge des Trägers der Datenbrille richten. Die Sichtöffnungen der Datenbrille sind transparent, so dass durch die Datenbrille die reale Umgebung in gewöhnlicher Weise wahrgenommen werden kann. Die Anzeigeflächen liegen in den Sichtöffnungen und können halbtransparent ausgebildet sein, so dass eine anzuzeigende Information, wie beispielsweise Text, Symbole, Graphiken, Videoanzeigen und dergleichen, die Wahrnehmung der Umgebung überlagernd angezeigt werden kann. Darüber hinaus sind auch Datenbrillen bekannt, die eine nicht-transparente Anzeige umfassen.
  • Die Informationen werden dem Träger der Datenbrille in der Regel kontaktanalog dargestellt, d.h. so dargestellt, dass die Information einem bestimmten Objekt in der Realumgebung überlagert ist bzw. an diesem orientiert ist oder dass die anzuzeigende Information in einer bestimmten Ausrichtung der Datenbrille bzw. deren Trägers angezeigt wird. Weiterhin ist es wünschenswert, die Information so darzustellen, dass sie in Bezug auf das Objekt in der Realumgebung perspektivisch korrekt erscheint, d.h. die Illusion entsteht, dass das Objekt der Realumgebung tatsächlich um das zusätzliche Merkmal der visuellen Information ergänzt wurde.
  • Um die Information entsprechend kontaktanalog auf den Anzeigeflächen der Datenbrille anzuzeigen, ist es notwendig, die Position des Objektes in der Umgebung und die Pose der Datenbrille, d.h. die 3D-Position als auch die 3D-Ausrichtung der Datenbrille, in Bezug zum Objekt zu kennen. Zur Bestimmung der Pose der Datenbrille kann in der Datenbrille eine Posenerkennungseinheit vorgesehen werden. Die Posenerkennungseinheit weist in der Regel eine Kamera und Recheneinrichtung, z.B. in Form eines Mikroprozessors auf. Mithilfe der Kamera aufgezeichnete Abbildungen der Umgebung des Trägers der Datenbrille können basierend auf hinterlegten Abbildungen bzw. Strukturen des Fahrzeuginnenraums die Pose der Datenbrille im Fahrzeuginnenraum festgestellt werden. Diesen Vorgang nennt man auch Tracking.
  • So ist aus der Druckschrift DE 10 2014 206 623 A1 eine Vorrichtung zum Bestimmen der Pose einer Datenbrille bekannt, die eine Anzeige und eine Kamera umfasst. Die Vorrichtung ist ausgebildet, um Aufnahmen der Umgebung der Datenbrille mithilfe der Kamera zu erstellen, die Abbildung eines gespeicherten und vordefinierten Bereiches der Umgebung in den Aufnahmen der Kamera zu erkennen, ein Merkmal in der erkannten Abbildung des Bereiches zu erkennen und die Pose der Datenbrille unter Berücksichtigung des bestimmten Merkmals in den Aufnahmen zu bestimmen.
  • Eine Anzeige eines Anzeigebildes auf der Anzeigefläche der Datenbrille erfordert also die aufeinanderfolgende Ausführung eines Tracking-Prozesses, eines Rendering-Prozesses zum Aufbau der auf der Anzeigefläche anzuzeigenden Abbildung und eines Anzeige-Prozesses des Anzeigebilds. Die Zeitdauern, während der jeweils ein Tracking-Prozess, ein Rendering- Prozess und ein Anzeige- Prozess durchgeführt werden, werden Frames genannt, die hierfür benötigten Zeitdauern Frame-Dauern.
  • Die Frame-Dauern für die Berechnungen des Tracking-Prozesses und des Rendering-Prozesses können je nach Situation variieren, so dass sich die Frames zueinander verschieben. Die Auslastungen des Tracking-Prozesses und des Rendering-Prozesses hängen beispielsweise von der Pose der Datenbrille und Komplexität des anzuzeigenden Anzeigebilds ab.
  • Durch die unterschiedlichen Frame-Dauern des Tracking-Prozesses, des Rendering-Prozesses und des Anzeige-Prozesses erfolgt die Bearbeitung unsynchronisiert und die Latenz zwischen der Erfassung der Pose der Datenbrille im Tracking-Prozess und einer Anzeige des zugehörigen, die Pose berücksichtigenden Anzeigebilds kann sich aufgrund der aufeinanderfolgenden Ausführung der Prozesse verschlechtern.
  • Da die Anzeige des Anzeigebilds auf der Anzeigefläche bei einer konstanten Frame-Rate, d.h. bei konstanten Anzeigedauern, stets mit dem aktuellsten Anzeigebild erfolgt, kann dies dazu führen, dass dasselbe Anzeigebild in zwei aufeinanderfolgenden Frames angezeigt wird, wenn der zuvor durchgeführte Rendering-Prozess, der das nächste Anzeigebild erzeugen soll, zu spät beendet wird. Daher wird ein entsprechend aktualisiertes Anzeigebild erst mit dem nächsten Anzeige-Frame dargestellt.
  • Auch kann eine Aktualisierung des Anzeigebilds vor dem Beenden des Rendering-Prozesses abgeschlossen ist, jedoch zu Tearing-Lines führen, d.h. Bruchlinien innerhalb des Anzeigebilds, die für den Träger der Datenbrille störend sind.
  • Weiterhin führt die permanente Belastung durch die sich kontinuierlich aneinanderreihenden Ausführungen des Tracking-Prozesses, des Rendering-Prozesses und des Anzeigeprozesses zu einer hohen Belastung für die Datenverarbeitungseinrichtung, was zu einem erhöhten Energieverbrauch und Wärmeentwicklung innerhalb der Datenbrille führt.
  • Es ist daher Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren zum Bereitstellen eines Anzeigebildes in der Datenbrille zur Verfügung zu stellen, bei der keine verschlechterte Latenz durch übersprungene Anzeige-Frames auftritt und die Belastung der Datenverarbeitung in der Datenbrille begrenzt werden kann.
  • Offenbarung der Erfindung
  • Diese Aufgabe wird durch das Verfahren zum Betreiben einer Datenbrille gemäß Anspruch 1 sowie durch die Datenbrille gemäß dem nebengeordneten Anspruch gelöst.
  • Weitere Ausgestaltungen sind in den abhängigen Ansprüchen angegeben.
  • Gemäß einem ersten Aspekt ist ein Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug vorgesehen, mit folgenden Schritten:
    • - Durchführen eines Tracking-Prozesses, um eine aktuelle Pose der Datenbrille zu bestimmen;
    • - Durchführen eines Rendering-Prozesses, um basierend auf bereitgestellten Anzeigeinformationen, die eine Position und Form eines oder mehrerer anzuzeigender virtuellen Objekte angeben, abhängig von der Pose der Datenbrille ein Anzeigebild zu erzeugen;
    • - Durchführen eines Anzeige-Prozesses zum Anzeigen des Anzeigebilds auf einer oder mehrerer Anzeigeflächen der Datenbrille, wobei der Tracking-Prozess, der Rendering-Prozess und der Anzeigeprozess so synchronisiert ausgeführt werden, dass jedem der Prozesse die gleiche Frame-Dauer zugewiesen wird.
  • Eine Idee des obigen Verfahrens besteht darin, die Frame-Raten bzw. Frame-Dauern des Tracking-Prozesses, des Rendering-Prozesses und der Anzeige in einer Datenbrille zu synchronisieren, so dass für jeden der Prozesse eine identische Frame-Dauer festgelegt wird. Die Synchronisation der Frame-Dauer für die einzelnen Prozesse bestimmt sich durch die geringste Maximalfrequenz, die sich aus der Auslastung, insbesondere durch den Tracking- und den Rendering-Prozess, ergibt. Die Maximalfrequenz des Tracking-Prozesses ist abhängig von den Lichtverhältnissen und der tatsächlichen Pose der Datenbrille, während die Maximalfrequenz des Rendering-Prozesses von der Anzahl der darzustellenden, insbesondere kontaktanalog darzustellenden, virtuellen Objekte und deren Komplexitäten abhängen kann.
  • Durch Synchronisieren der Frame-Dauern des Tracking-Prozesses, des Rendering-Prozesses und des Anzeigeprozesses können zudem der Energieverbrauch und die Wärmeentwicklung in der Datenbrille bedarfsweise eingestellt werden. Die Synchronisierung ermöglicht es, eine doppelte Anzeige von Anzeigebildern oder ein Überspringen von Anzeigebildern und eine dadurch bewirkte Latenz zwischen der Generierung des Anzeigebildes und der Anzeige des entsprechenden Anzeigebilds zu vermeiden.
  • Weiterhin kann die synchronisierte Frame-Dauer gleich oder größer als diejenige Frame-Dauer gewählt werden, die der längsten Frame-Dauer entspricht, die von den Prozessen benötigt wird.
  • Ferner kann die Abfolge des Tracking-Prozesses, des Rendering-Prozesses und des Anzeigeprozesses für jeweils mehrere Anzeigebilder parallel durchgeführt werden, so dass gleichzeitig mindestens zwei der Prozesse, nämlich des Tracking-Prozesses, des Rendering-Prozesses und des Anzeigeprozesses gestartet werden.
  • Insbesondere kann die synchronisierte Frame-Dauer abhängig von einem Energieverbrauch des Durchführens der Prozesse eingestellt werden. Somit ist es möglich, durch bedarfsgerechte Anpassung der Frame-Dauer den Energieverbrauch in der Datenbrille einzuschränken.
  • Weiterhin kann der Tracking-Prozess in der Datenbrille ausgeführt werden, indem ein Kamerabild einer Datenbrillenkamera ausgewertet wird. Dies kann beispielsweise ein Erfassen eines oder mehrerer markanten Strukturen und das Bestimmen der relativen Position durch Mustererkennungsverfahren bezüglich der Ausrichtung und Position der Datenbrille umfassen.
  • Gemäß einer Ausführungsform kann die Anzeigeinformation von einem Fahrerassistenzsystem empfangen werden.
  • Gemäß einem weiteren Aspekt ist eine Datenbrille für ein Anzeigesystem in einem Kraftfahrzeug vorgesehen, wobei die Datenbrille ausgebildet ist, um:
    • - einen Tracking-Prozess durchzuführen, um eine aktuelle Pose der Datenbrille zu bestimmen;
    • - einen Rendering-Prozess durchzuführen, um basierend auf bereitgestellten Anzeigeinformationen, die eine Position und Form eines oder mehrerer anzuzeigender virtuellen Objekte angeben, abhängig von der Pose der Datenbrille ein Anzeigebild zu erzeugen;
    • - einen Anzeige-Prozess zum Anzeigen des Anzeigebilds auf einer oder mehrerer Anzeigeflächen der Datenbrille durchzuführen,
    wobei der Tracking-Prozess, der Rendering-Prozess und der Anzeige-Prozess so synchronisiert ausgeführt werden, dass jedem der Prozesse die gleiche Frame-Dauer zugewiesen wird.
  • Gemäß einem weiteren Aspekt ist ein Anzeigesystem in einem Kraftfahrzeug mit der obigen Datenbrille und einem Fahrerassistenzsystem vorgesehen, das ausgebildet ist, um zyklisch eine Anzeigeinformation zu empfangen.
  • Kurzbeschreibung der Zeichnungen
  • Ausführungsformen werden nachfolgend anhand der beigefügten Zeichnungen näher erläutert. Es zeigen:
    • 1 eine schematische Darstellung eines Anzeigesystems mit einer Datenbrille zum Einsatz in einem Kraftfahrzeug;
    • 2 ein Flussdiagramm zur Veranschaulichung eines Verfahrens zum Betreiben der Datenbrille; und
    • 3 eine Darstellung zur Veranschaulichung der Synchronisation von Frames für die Durchführung der einzelnen Prozesse.
  • Beschreibung von Ausführungsformen
  • 1 zeigt eine schematische Darstellung eines Anzeigesystems 1 insbesondere zum Einsatz in einem Kraftfahrzeug. Das Anzeigesystem 1 umfasst ein Fahrerassistenzsystem 2, das in Kommunikationsverbindung 4 mit einer Datenbrille 3 steht. Die Kommunikationsverbindung 4 ist als ein Datenübertragungskanal ausgebildet, über den bidirektional Daten übertragen werden können. Die Kommunikationsverbindung 4 ist in der Lage, jegliche Art von Daten und Informationen zwischen dem Fahrerassistenzsystem 4 und der Datenbrille 3 zu übermitteln, beispielsweise basierend auf einer paketgebundenen Datenübertragung.
  • Die Datenbrille 3 ist mit zwei transparenten Sichtscheiben 32, die in einem Rahmen 31 in an sich bekannter Weise eingefasst sind. Der Rahmen 31 ist mit Brillenbügeln 33 versehen, so dass die Datenbrille 3 am Kopf eines Benutzers in an sich bekannter Weise getragen werden kann.
  • Die Sichtscheiben 32 sind weiterhin jeweils mit einer transparenten Anzeigefläche 35 versehen, auf der durch eine geeignete Einrichtung, wie zum Beispiel eine an dem Rahmen 31 angeordnete Anzeigeeinrichtung 36, ein Anzeigebild angezeigt werden kann. Die Anzeigeeinrichtung 36 kann einen Mikroprozessor oder eine vergleichbare Recheneinheit und eine Anzeigeeinheit, wie z.B. eine Projektionseinrichtung oder dergleichen, aufweisen. Die Anzeigeeinheit kann ausgebildet sein, ein elektronisch generiertes Anzeigebild auf die Anzeigefläche 35 einzublenden.
  • Durch die transparente Ausbildung der Anzeigefläche 35 kann das elektronisch generierte Bild die durch die Anzeigefläche 35 wahrnehmbare Realumgebung überlagern. Mithilfe der Anzeigeeinrichtung 36 kann eine Information, wie beispielsweise einen Text, ein Symbol, eine Videoinformation, eine Graphik oder dergleichen, auf einer oder beiden Anzeigeflächen 35 dargestellt werden.
  • Die Datenbrille 3 kann wie eine typische Sehhilfe an dem Kopf des Benutzers getragen werden, wobei die Datenbrille 3 mit dem Rahmen 31 auf der Nase des Benutzers aufliegt und die Bügel 33 an dem Kopf des Benutzers seitlich anliegen. Die Blickrichtung des Benutzers in Geradeausrichtung erfolgt dann durch die Sichtscheiben 32 im Wesentlichen durch die transparenten Anzeigeflächen 35, so dass die Blickrichtung des Benutzers der Ausrichtung der Datenbrille 3 entspricht oder davon abgeleitet werden kann.
  • Weiterhin kann die Datenbrille 3 mit einer Steuereinheit 37 versehen sein. Die Steuereinheit 37 kann in geeigneter Weise ausgebildet sein und Datenbrillenfunktionen und Funktionen des Anzeigesystems 2 auszuführen. Dazu kann das Fahrerassistenzsystem 2 mit der Datenbrille 3 in Verbindung stehen, um Anzeigeinformationen betreffend kontaktanalog oder nicht-kontaktanalog anzuzeigenden virtuellen Objekten an die Datenbrille 3 zu übermitteln. Die Anzeigeinformationen definieren die Position und Darstellung der virtuellen Objekte in Bezug auf das Fahrzeug, d.h. in einem Fahrzeugkoordinatensystem (Bezugsystem des Kraftfahrzeugs).
  • Beispielsweise kann die Steuereinheit 37 eine Posenerkennungsfunktion in Form eines Tracking-Prozesses ausführen, um eine Pose des Kopfes bzw. der Datenbrille in einem Fahrzeuginnenraum festzustellen. Die Pose einer Datenbrille 3 bezeichnet hierin die räumliche Position der Datenbrille 3 in einem fahrzeugfesten Koordinatensystem sowie deren dreidimensionale Ausrichtung. Die Steuereinheit 37 kann dazu mit einer geeigneten Datenbrillenkamera 38 verbunden sein, die etwa in Blickrichtung des Trägers der Datenbrille 3 gerichtet ist. Die Datenbrillenkamera 38 erfasst regelmäßig Kamerabilder und übermittelt diese an die Steuereinheit 37. Die Steuereinheit 37 wertet die Kamerabilder aus und versucht markante Strukturen des Fahrzeuginnenraums in dem Kamerabild aufzufinden, deren Positionen bekannt sind, und daraus die Pose der Datenbrille 3 zu ermitteln.
  • Das Fahrerassistenzsystem 2 kann diverse Einrichtungen, wie z.B. Umfelderfassungseinrichtungen 21 und dergleichen, aufweisen, und insbesondere Anzeigeinformationen generieren, durch die darzustellende virtuelle Objekte generiert werden. Eines oder mehrere der virtuellen Objekte können als kontaktanalog oder nicht-kontaktanalog darzustellend gekennzeichnet sein.
  • Weiterhin kann die Steuereinheit 37 in einem Rendering-Prozess aus den von dem Fahrerassistenzsystem 2 empfangenen Anzeigeinformationen und abhängig von der aktuellen Pose der Datenbrille 3 ein Anzeigebild zur Darstellung auf den Anzeigeflächen 35 generieren. Dazu kann die Steuereinheit 37 abhängig von der Pose der Datenbrille 3 die kontaktanalog anzuzeigenden virtuellen Objekte vom Fahrzeugkoordinatensystem in ein Bezugsystem der Datenbrille 3, insbesondere deren Anzeige, transformieren.
  • Anschließend wird die Anzeigeeinrichtung 36 angesteuert, um für eine vorbestimmte Zeitdauer das während des Rendering-Prozesses erstellte Anzeigebild anzuzeigen.
  • Das Verfahren, das in der Steuereinheit ausgeführt wird, wird nachfolgend anhand des Flussdiagramms der 2 näher erläutert.
  • In Schritt S1 werden über die Kommunikationsverbindung 4 Anzeigeinformationen von dem Fahrerassistenzsystem 2 empfangen oder durch Funktionen der Datenbrille 3 selbst bereitgestellt. Die Anzeigeinformationen definieren die Raumposition und die Form der kontaktanalog anzuzeigenden virtuellen Objekte oder die Anzeigeposition von auf der Anzeigefläche der Datenbrille 3 nicht-kontaktanalog anzuzeigenden Objekte, wie Nachrichten, Bahnmeldungen, Fahrzeugzustandsinformationen oder dergleichen.
  • Anschließend wird in Schritt S2 ein von der Datenbrillenkamera 3 erfasstes Kamerabild einem Tracking-Prozess zugeführt.
  • In Schritt S3 wird der Tracking-Prozess basierend auf dem Kamerabild der Datenbrillenkamera 38 gestartet. Der Tracking-Prozess ermittelt anhand von Mustererkennungsverfahren markante Strukturen im Fahrzeuginnenraum, deren Position bekannt ist, und ermittelt entsprechend eine Pose der Datenbrille 3 basierend auf dem erfassten Kamerabild.
  • In Schritt S4 wird nun ein Rendering-Prozess gestartet, der basierend auf den bereitgestellten Anzeigeinformationen und der ermittelten Pose der Datenbrille 3 die Anordnung von kontaktanalog anzuzeigenden virtuellen Objekten in dem anzuzeigenden Anzeigebild vornimmt. Dies erfolgt in an sich bekannter Weise, da eine kontaktanaloge Darstellung der kontaktanalog anzuzeigenden virtuellen Objekte und eine positionierte Darstellung der nicht-kontaktanalog anzuzeigenden virtuellen Objekte auf dem Anzeigebild erfolgt.
  • Anschließend wird in Schritt S5 in einem Anzeigeprozess die Anzeigeeinrichtung 36 angewiesen, das anzuzeigende Anzeigebild über die Anzeigeflächen 35 auszugeben. Dieses Verfahren wird zyklisch ausgeführt.
  • Das mit 2 veranschaulichte Verfahren wird synchronisiert so ausgeführt, dass die einzelnen Prozesse, nämlich der Tracking-Prozess T, der Rendering-Prozess R und der Anzeigeprozess A jeweils zueinander versetzt mit gleichen Frame-Dauern ausgeführt werden, wie es in 3 schematisch dargestellt ist. Das heißt, es können jeweils gleichzeitig ein Tracking-, ein Rendering- und ein Anzeigeprozess von aufeinanderfolgenden Anzeigebildern stattfinden. Dadurch, dass die Frame-Dauern identisch gewählt sind, finden die Prozesse zyklisch und zeitgleich statt.
  • Die Frame-Dauern sind zueinander so synchronisiert, dass diese der längsten geschätzten Frame-Dauer aller drei aufeinanderfolgender Prozesse entsprechen. Die Frame-Dauer kann abhängig von der jeweiligen Auslastung geschätzt werden. Die Auslastung hängt beim Tracking-Prozess insbesondere von den Lichtverhältnissen und der Pose der Datenbrille 3 ab. Beim Rendering-Prozess hängt die Auslastung von der Anzahl der darzustellenden virtuellen Objekte, insbesondere der kontaktanalog darzustellenden virtuellen Objekte, ab.
  • Für die optimale Leistungsfähigkeit wird die Frame-Dauer kleinstmöglich gewählt, d.h. entsprechend der Frame-Dauer desjenigen Prozesses, der zur Durchführung der entsprechenden Funktionen die längste Zeitdauer benötigt. Jedoch kann die Energieeinsparung, die synchronisierte Frame-Dauer entsprechend reduziert werden. Die Frame-Dauer wird von den jeweiligen Prozessen an die übrigen Prozesse kommuniziert, so dass die maximalen Frame-Dauern in jedem der Prozesse über jeden der Prozesse bekannt sind.
  • Die Frame-Dauern können kontinuierlich angepasst werden, um den Ablauf an sich verändernden Auslastungen der einzelnen Prozesse anzupassen. Diese Anpassung erfolgt so, dass kein Auslassen einer Anzeige eines durch den Rendering-Prozess generierten Anzeigebilds auftritt.
  • Durch die Synchronisation der Frame-Dauer können verdoppelte oder übersprungene Anzeigebilder vermieden werden, und es entsteht keine Latenz zwischen der erfassten Pose der Datenbrille und der Anzeige der daran angepassten virtuellen Objekte.
  • Bezugszeichenliste
  • 1
    Anzeigesystems
    2
    Fahrerassistenzsystem
    21
    Umfelderfassungseinrichtung
    3
    Datenbrille
    31
    Rahmen
    32
    Sichtscheiben
    33
    Brillenbügel
    35
    transparente Anzeigefläche
    36
    Anzeigeeinrichtung
    37
    Steuereinheit
    38
    Datenbrillenkamera
    4
    Datenübertragungskanal

Claims (8)

  1. Verfahren zum Betreiben einer Datenbrille (3) in einem Kraftfahrzeug, mit folgenden Schritten: - Durchführen (S3) eines Tracking-Prozesses, um eine aktuelle Pose der Datenbrille (3) zu bestimmen; - Durchführen (S4) eines Rendering-Prozesses, um basierend auf bereitgestellten Anzeigeinformationen, die eine Position und Form eines oder mehrerer anzuzeigender virtuellen Objekte angeben, abhängig von der Pose der Datenbrille (3) ein Anzeigebild zu erzeugen; - Durchführen (S5) eines Anzeige-Prozesses zum Anzeigen des Anzeigebilds auf einer oder mehrerer Anzeigeflächen (35) der Datenbrille (3), wobei der Tracking-Prozess, der Rendering-Prozess und der Anzeige-Prozess so synchronisiert ausgeführt werden, dass jedem der Prozesse die gleiche Frame-Dauer zugewiesen wird.
  2. Verfahren nach Anspruch 1, wobei die synchronisierte Frame-Dauer gleich oder größer als diejenige Frame-Dauer gewählt wird, die der längsten Frame-Dauer entspricht, die von den Prozessen benötigt wird.
  3. Verfahren nach Anspruch 1 oder 2, wobei die Abfolge des Tracking-Prozesses, des Rendering-Prozesses und des Anzeige-Prozesses für jeweils mehrere Anzeigebilder parallel durchgeführt wird, so dass mindestens zwei der Prozesse, nämlich des Tracking-Prozesses, des Rendering-Prozesses und des Anzeige-Prozesses gleichzeitig gestartet werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei die synchronisierte Frame-Dauer abhängig von einem Energieverbrauch des Durchführens der Prozesse eingestellt wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei der Tracking-Prozess in der Datenbrille (3) ausgeführt wird, indem ein Kamerabild einer Datenbrillenkamera (38) ausgewertet wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, wobei die Anzeigeinformation von einem Fahrerassistenzsystem (2) empfangen wird.
  7. Datenbrille (3) für ein Anzeigesystem (1) in einem Kraftfahrzeug, wobei die Datenbrille (3) ausgebildet ist, um: - einen Tracking-Prozess durchzuführen, um eine aktuelle Pose der Datenbrille (3) zu bestimmen; - einen Rendering-Prozess durchzuführen, um basierend auf bereitgestellten Anzeigeinformationen, die eine Position und Form eines oder mehrerer anzuzeigender virtuellen Objekte angeben, abhängig von der Pose der Datenbrille (3) ein Anzeigebild zu erzeugen; - einen Anzeige-Prozess zum Anzeigen des Anzeigebilds auf einer oder mehrerer Anzeigeflächen der Datenbrille (3) durchzuführen, wobei der Tracking-Prozess, der Rendering-Prozess und der Anzeige-Prozess so synchronisiert ausführbar sind, dass jedem der Prozesse die gleiche Frame-Dauer zugewiesen wird.
  8. Anzeigesystem (1) in einem Kraftfahrzeug mit einer Datenbrille (3) nach Anspruch 7 und einem Fahrerassistenzsystem (2), das ausgebildet ist, um zyklisch eine Anzeigeinformation zu empfangen.
DE102016225266.6A 2016-12-16 2016-12-16 Verfahren zum Betreiben einer Datenbrille, Datenbrille und zugehöriges Anzeigesystem Active DE102016225266B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016225266.6A DE102016225266B4 (de) 2016-12-16 2016-12-16 Verfahren zum Betreiben einer Datenbrille, Datenbrille und zugehöriges Anzeigesystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016225266.6A DE102016225266B4 (de) 2016-12-16 2016-12-16 Verfahren zum Betreiben einer Datenbrille, Datenbrille und zugehöriges Anzeigesystem

Publications (2)

Publication Number Publication Date
DE102016225266A1 DE102016225266A1 (de) 2018-06-21
DE102016225266B4 true DE102016225266B4 (de) 2024-06-27

Family

ID=62251785

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016225266.6A Active DE102016225266B4 (de) 2016-12-16 2016-12-16 Verfahren zum Betreiben einer Datenbrille, Datenbrille und zugehöriges Anzeigesystem

Country Status (1)

Country Link
DE (1) DE102016225266B4 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140354515A1 (en) 2013-05-30 2014-12-04 Oculus Vr, Llc Perception based predictive tracking for head mounted displays
DE102014206623A1 (de) 2014-04-07 2015-10-08 Bayerische Motoren Werke Aktiengesellschaft Lokalisierung eines Head-mounted Displays (HMD) im Fahrzeug
WO2016073557A1 (en) 2014-11-04 2016-05-12 The University Of North Carolina At Chapel Hill Minimal-latency tracking and display for matching real and virtual worlds

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140354515A1 (en) 2013-05-30 2014-12-04 Oculus Vr, Llc Perception based predictive tracking for head mounted displays
DE102014206623A1 (de) 2014-04-07 2015-10-08 Bayerische Motoren Werke Aktiengesellschaft Lokalisierung eines Head-mounted Displays (HMD) im Fahrzeug
WO2016073557A1 (en) 2014-11-04 2016-05-12 The University Of North Carolina At Chapel Hill Minimal-latency tracking and display for matching real and virtual worlds

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JACOBS, M. C. [et al.]: Managing latency in complex augmented reality systems. In: Proceedings of the 1997 symposium on Interactive 3D graphics. ACM, 1997, S. 49-54. - ISBN 978-0-89791-884-8
OLANO, M. [et al.]: Combatting rendering latency. In: Proceedings of the 1995 symposium on Interactive 3D graphics. ACM, 1995, S. 19-ff. - ISBN 978-0-89791-736-0

Also Published As

Publication number Publication date
DE102016225266A1 (de) 2018-06-21

Similar Documents

Publication Publication Date Title
DE112014004889T5 (de) Systeme und Verfahren zum Anzeigen von dreidimensionalen Bildern auf einer Fahrzeug-Instrumentenkonsole
DE102014214514A1 (de) Vorrichtung und Verfahren zum Austausch von Daten zwischen Fahrzeugen zum Einrichten einer Kolonnenfahrt
DE112014005487T5 (de) Graphische Anzeigeinstrument-Vorrichtung
DE102013206435A1 (de) Visualisierungssystem und Vorrichtung zur Generierung und Anzeige eines virtuellen Abbilds einer Fahrzeugumgebung
DE102014012723A1 (de) Anzeigesystem
DE102017106098A1 (de) Dynamisch farbangepasste visuelle überlagerungen für augmented-reality-systeme
DE102015004749A1 (de) Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
DE102019103360A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
EP3296795B1 (de) Verfahren zur darstellung eines bildobjekts in einem fahrzeug auf einer fahrzeugintern und einer fahrzeugextern wahrgenommenen anzeige
WO2019174862A1 (de) Verfahren und vorrichtung zum bereitstellen von informationen durch ein augmented-reality-gerät, verfahren und vorrichtung zum bereitstellen von informationen zur steuerung einer anzeige eines augmented-reality-gerätes, verfahren und vorrichtung zur steuerung einer anzeige eines augmented-reality-gerätes, computerlesbares speichermedium mit instruktionen zur durchführung der verfahren
DE102016225266B4 (de) Verfahren zum Betreiben einer Datenbrille, Datenbrille und zugehöriges Anzeigesystem
DE102017221317A1 (de) Verfahren und Vorrichtung zum Betreiben einer Datenbrille in einem Kraftfahrzeug
DE102014018056A1 (de) Verfahren zum Betreiben einer Virtual-Reality-Brille und Virtual-Reality-Brille
EP3568737B1 (de) Verfahren zum betreiben eines anzeigesystems mit einer datenbrille in einem kraftfahrzeug
DE102023002197A1 (de) Verfahren und Einrichtung zur Bildanzeige für ein Fahrzeug
AT518667B1 (de) Fahrsicherheits-Trainingsanordnung
DE102018216613A1 (de) Datenbrillen mit automatischer Ausblendung von angezeigten Inhalten für Fahrzeuge
EP3271774B1 (de) Vorrichtung und verfahren zur wiedergabe von daten in einer erweiterten realität
DE102017209802A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102017219067A1 (de) Vorrichtung und verfahren zur visuellen unterstützung eines benutzers in einem arbeitsumfeld
DE102013210587A1 (de) Anzeigensystem mit Datenbrille
DE102016225263A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille in einem Kraftfahrzeug
DE102016225265A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102019112189A1 (de) Verfahren und Vorrichtung zur Anzeige eines Informationsobjektes in einer Augmented-Reality-Datenbrille
DE102019111759A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille in einem Kraftfahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R018 Grant decision by examination section/examining division