DE102014202712A1 - Bildanpassung für kontaktanaloge Darstellungen auf Datenbrillen - Google Patents

Bildanpassung für kontaktanaloge Darstellungen auf Datenbrillen Download PDF

Info

Publication number
DE102014202712A1
DE102014202712A1 DE102014202712.8A DE102014202712A DE102014202712A1 DE 102014202712 A1 DE102014202712 A1 DE 102014202712A1 DE 102014202712 A DE102014202712 A DE 102014202712A DE 102014202712 A1 DE102014202712 A1 DE 102014202712A1
Authority
DE
Germany
Prior art keywords
image
data glasses
camera
basic
basic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102014202712.8A
Other languages
English (en)
Inventor
Michael Graef
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102014202712.8A priority Critical patent/DE102014202712A1/de
Publication of DE102014202712A1 publication Critical patent/DE102014202712A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Abstract

Offenbart wird ein Verfahren zur Anpassung des von einer Datenbrille anzuzeigenden Bildes, wobei die Datenbrille eine Anzeige umfasst, die zur Anzeige von Bildern mit einer ersten Bildgröße eingerichtet ist, wobei die Datenbrille eine Kamera umfasst, wobei das Verfahren umfasst: Empfangen einer ersten Aufnahme der Kamera zu einem ersten Zeitpunkt; Empfangen eines Grundbildes, wobei das Grundbild eine zweite Bildgröße aufweist, die zumindest in einer Richtung größer ist, als die erste Bildgröße, wobei das Grundbild insbesondere von einer von der Datenbrille separaten Recheneinheit empfangen wird; Empfangen einer Angabe zu einem Bereich in Aufnahmen der Kamera insbesondere von einer von der Datenbrille separaten Recheneinheit; Empfangen einer zweiten Aufnahme der Kamera zu einem zweiten Zeitpunkt; Bestimmen eines Ausschnitts des Grundbildes, der auf der Datenbrille anzuzeigen ist, wobei der Ausschnitt maximal die erste Bildgröße aufweist, wobei der Ausschnitt abhängig von einem Unterschied des Bereiches der ersten Aufnahme zum Bereich der zweiten Aufnahme bestimmt wird; Wobei der Unterschied insbesondere Unterschiede in den Bildinhalten in dem jeweiligen Bereich der Aufnahmen betrifft; Anzeigen des Ausschnitts auf der Datenbrille.

Description

  • Die Erfindung betrifft ein Verfahren zur Anpassung des von einer Datenbrille angezeigten Bildes sowie eine Datenbrille und ein Computerprogramm zu demselben Zweck.
  • Heutzutage sind Datenbrillen, manchmal auch Head-mounted Displays genannt, bekannt, die eine Anzeige umfassen. Eine Datenbrille wird durch einen Benutzer ähnlich einer gewöhnlichen Brille, die als Sehhilfe verwendet wird, auf dem Kopf getragen. Die Anzeige der Datenbrille befindet sich dabei im Sichtfeld des Trägers. Manche Datenbrillen umfassen eine Anzeige nur für ein Auge, andere Datenbrillen umfassen zwei Teilanzeigen, wobei jedem Auge eine Teilanzeige zugeordnet ist.
  • Weiterhin ist es bekannt, dass Datenbrillen eine halbtransparente Anzeige umfassen können. Eine solche Anzeige ermöglicht es dem Träger sowohl angezeigte Informationen, also Bilder, als auch das Umfeld hinter der Anzeige zu erkennen. Diese Art an Anzeige ist besonders gut zur kontaktanalogen Darstellung von Informationen geeignet. Bei der kontaktanalogen Darstellung ist der anzuzeigenden Information ein Ort im Umfeld des Trägers zugeordnet und die Information wird diesem Ort zugeordnet angezeigt, was manchmal auch als ortsrichtige bzw. kontaktanaloge Anzeige bezeichnet wird. Dies kann durch eine für den Träger scheinbare Überlagerung der Information über den zugeordneten Ort geschehen oder eine Darstellung der Information in räumlicher Nähe zu dem zugeordneten Ort, ggf. mit einem Symbol wie einer Linie, um auf den zugeordneten Ort zu deuten. Die Information selbst kann ebenfalls ein Symbol, ein Bild, Text oder ähnliches sein. Die kontaktanaloge Darstellung wird manchmal auch augmented reality genannt.
  • Darüber hinaus sind auch Datenbrillen bekannt, die eine nicht-transparente Anzeige umfassen. Auch bei diesen ist eine kontaktanaloge Darstellung möglich, wofür ein Videobild oder zumindest ein Kamerabild der Umgebung gemacht wird, in das dann die kontaktanaloge Darstellung eingearbeitet wird, also meist dem aufgenommenen Bild überlagert wird.
  • Die Darstellung eines Bildes auf einer Datenbrille erfolgt typischerweise wie mit Bezug auf 1 und 2 dargestellt. Der Benutzer trägt eine Datenbrille 1, die eine halbtransparente Anzeige 2 umfasst mit zwei Teilanzeigen, eine für das rechte Auge und eine für das linke Auge (in 1 gestrichelt dargestellt). In der Datenbrille 1 mit umfasst sind zwei Rahmenpuffer (auch Frame Buffer genannt), wiederum einen für die rechte (Rahmenpuffer 3) und einen für die linke (in 1 gestrichelt dargestellt) Teilanzeige. Die Rahmenpuffer speichern das Bild, das auf der Anzeige 2 anzuzeigen ist, wobei das Bild für die rechte Teilanzeige im ersten Rahmenpuffer 3 und das Bild für die linke Teilanzeige im zweiten Rahmenpuffer (in 2 gestrichelt dargestellt) gespeichert ist. Der Träger der Datenbrille 1 wird von einem Kopfverfolgungssystem 5 (auch Head Tracking Unit genannt) aufgenommen und aus der Aufnahme die Kopfpose des Trägers der Datenbrille 1 extrahiert. Das Kopfverfolgungssystem 5 ist typischerweise eine separate Vorrichtung, die den Benutzer aufnimmt. Die Kopfpose umfasst die Position des Kopfes (meist in drei linearen Koordinaten angegeben) und die Ausrichtung des Kopfes (meist in drei rotatorischen Koordinaten angegeben) zu einem definierten Bezugssystem. Manchmal wird die Ausrichtung des Kopfes über die Blickrichtung beschrieben, in die der Benutzer blickt, wenn seine Augen in der Zentralstellung sind. Systeme zum Bestimmen der Kopfpose sind im Stand der Technik bekannt. Die ermittelte Kopfpose wird einem Computer 6 mitgeteilt. Der Computer 6 empfängt ebenso von einer Umfelderkennung (nicht dargestellt) die Position und Gestalt von Objekten, die im Umfeld erkannt wurden, also eine 3D Szene. Mithilfe dieser Informationen errechnet der Computer 6 eine kontaktanaloge Darstellung. Wenn diese dem Benutzer auf der Datenbrille 1 angezeigt wird, sieht der Benutzer durch die halbtransparenten Anzeige 2 weiterhin das Umfeld und eine an der Position von Objekten im Umfeld orientierte Darstellung auf der Anzeige 2. Insbesondere kann die Darstellung auf der Anzeige 2 für den Träger in räumlicher Nähe zu Objekten im Umfeld oder Objekte überlagernd angezeigt werden. 2 zeigt beispielhaft das Prinzip von derartigen augmented reality Darstellungen. 2 zeigt schematisch die Sicht, wie sie sich dem Träger der Datenbrille 1 bietet, wobei mit dem Bezugszeichen 2 die halbtransparente Anzeige und deren Begrenzung angegeben ist. Der Träger schaut durch die halbtransparente Anzeige 2 auf einen Baum 7 in seinem Umfeld. Durch die Umfelderkennung wird die Position und Gestalt des Baumes 7 erkannt. Unter Berücksichtigung der Kopfpose des Trägers der Datenbrille 1 wird die Position und Ausrichtung eines Sterns errechnet, der dem Träger der Datenbrille an der Spitze des Baumes 7 erscheinen soll. Das anzuzeigende Bild 8 wird den Rahmenpuffern mitgeteilt (wobei das anzuzeigende Bild für die linke und rechte Teilanzeige leicht abweichen kann). In dem Bild 8 ist der Stern (eine augmented reality Darstellung) derart positioniert, dass er dem Betrachter wie in der Gesamtansicht 9 gezeigt, erscheint.
  • Der Computer 6 ist typischerweise entfernt von der Datenbrille angeordnet und in Kommunikation mit dieser. Auch die Umfelderfassung und Klassifizierung von Objekten ist typischerweise entfernt von der Datenbrille angeordnet und erfolgt unabhängig von der Verarbeitung in der Datenbrille.
  • Typischerweise wird dem Benutzer eine augmented reality Darstellung (beispielsweise ein Symbol) über einen Zeitraum hinweg angezeigt. Gleichzeitig kann der Benutzer in diesem Zeitraum allerdings seine Kopfpose ändern. Eine einmal errechnete Darstellung muss also fortwährend an die Kopfpose des Benutzers angepasst werden. Wie für Anzeigen allgemein üblich, wird auch zu einer Datenbrille in vielen Fällen ein Strom an Bildern, z.B. 60 Bilder pro Sekunde, in Form von Videobildern (bzw. Videoframes) übertragen. Für jedes dieser Videobilder muss die augmented reality Darstellung vom Computer gegebenenfalls angepasst werden. Dazu kann zum Beispiel eine Darstellung lateral in zwei Dimensionen verschoben werden, um die Sichtachse des Benutzers gedreht werden, in der Größe verändert werden oder um ihre eigene Achse gedreht werden müssen.
  • Die Anpassung der augmented reality Darstellung unterliegt dabei einer Latenzzeit, die sich aus den Verarbeitungs- und Übertragungszeiten der einzelnen Elemente des Systems ergibt. So braucht die Ermittlung der Kopfpose durch das Kopfverfolgungssystem, die Übertragung der ermittelten Kopfpose, die Errechnung des anzuzeigenden Bildes basierend auf der Kopfpose und der 3D Szene, die Übertragung der Bildinformation an die Rahmenpuffer und schließlich die tatsächliche Darstellung auf der Anzeige der Datenbrille jeweils eine gewisse Zeit. Dies bedeutet, dass die Anpassung der Darstellung auf der Anzeige der Änderung der Kopfpose „hinterherhinkt“. Ändert der Benutzer seine Kopfpose, kann es so dazu kommen, dass die Kontaktanalogie der augmented reality Darstellung durchbrochen wird, und die räumliche Beziehung zwischen der Darstellung und dem Objekt des Umfeldes aufgehoben wird. Dies gilt insbesondere für Kopfdrehungen und damit verbundene Neuausrichtungen des Kopfes. Ein Beispiel hierfür wird in 3 gezeigt. 3 zeigt die Ansicht 9, wie sie sich einem Benutzer bietet, der seine Kopfausrichtung nach links oben gedreht hat, bevor alle Verarbeitungsschritte zur Anpassung der Darstellung vollzogen sind, mithin also innerhalb der Latenzzeit. Die Anzeige 2 hat sich mit der Kopfausrichtung mit bewegt, nicht jedoch der Baum 7, so dass der Stern jetzt nicht mehr auf der Spitze des Baumes erscheint. Der Pfeil deutet die Änderung der Position des Baumes 7 im Sichtfeld des Benutzers schematisch an.
  • Ändert der Benutzer seine Kopfpose fortlaufend, so kann die augmented reality Darstellung fortlaufend fehlerhaft sein. Selbst bei einer nur einmaligen Änderung der Kopfpose kann die Zeit, bis die augmented reality Darstellung angepasst wird, beträchtlich sein, wie mit Bezug auf 4 nun erläutert wird. Angenommen der Benutzer ändert seine Kopfpose zum Zeitpunkt tA kurz nach dem Zeitpunkt t1, zu dem die Kopfpose vom Kopfverfolgungssystem 5 erfasst wird, und dann nicht mehr. Die Kopfpose wird jeweils zu den Zeitpunkten tn erfasst. Dann ist die augmented reality Darstellung für den Benutzer für die Zeitdauer tError fehlerhaft, weil die fehlerhafte Darstellung vom Zeitpunkt tA bis zum Zeitpunkt t2 + Latenz sichtbar ist. Die minimale Fehlerzeit tError ist bei einer einmaligen Kopfposenänderung die Latenzzeit und die maximale Fehlerzeit ist t2 – t1 + Latenz.
  • Insgesamt ist die Korrektheit der augmented reality Darstellung von der Latenzzeit, der Frequenz der Videobilder (Wiederholfrequenz), der Geschwindigkeit, mit der die Kopfpose geändert wird, und die zeitliche Variabilität der Änderung der Kopfpose abhängig.
  • Die Aufgabe, die der Erfindung zugrunde liegt, ist es, die Änderung der Kopfpose des Trägers einer Datenbrille mit möglichst geringer Latenz bei der Anzeige von augmented reality Darstellungen zu berücksichtigen.
  • Die Aufgabe wird durch ein Verfahren, eine Vorrichtung und ein Computerprogramm gemäß den unabhängigen Ansprüchen gelöst. Vorteilhafte Weiterbildungen sind in den abhängigen Ansprüchen definiert.
  • Ein erster Aspekt betrifft ein Verfahren zur Anpassung des von einer Datenbrille anzuzeigenden Bildes. Die Datenbrille umfasst eine Anzeige, die zur Anzeige von Bildern mit einer ersten Bildgröße eingerichtet ist, wobei die Datenbrille eine Kamera umfasst, wobei das Verfahren umfasst: Empfangen einer ersten Aufnahme der Kamera zu einem ersten Zeitpunkt; Empfangen eines Grundbildes, wobei das Grundbild eine zweite Bildgröße aufweist, die zumindest in einer Richtung größer ist, als die erste Bildgröße, wobei das Grundbild insbesondere von einer von der Datenbrille separaten Recheneinheit empfangen wird; Empfangen einer Angabe zu einem Bereich in Aufnahmen der Kamera insbesondere von einer von der Datenbrille separaten Recheneinheit; Empfangen einer zweiten Aufnahme der Kamera zu einem zweiten Zeitpunkt; Bestimmen eines Ausschnitts des Grundbildes, der auf der Datenbrille anzuzeigen ist, wobei der Ausschnitt maximal die erste Bildgröße aufweist, wobei der Ausschnitt abhängig von einem Unterschied des Bereiches der ersten Aufnahme zum Bereich der zweiten Aufnahme bestimmt wird; Wobei der Unterschied insbesondere Unterschiede in den Bildinhalten in dem jeweiligen Bereich der Aufnahmen betrifft; Anzeigen des Ausschnitts auf der Datenbrille.Es wird also vorgeschlagen einen Ausschnitt eines Grundbildes zur Anzeige zu wählen, abhängig von dem Inhalt eines vorgegebenen Bereiches zweier zeitversetzter Aufnahmen. Der Ausschnitt wird dabei abhängig von einem Unterschied in zwei Kameraaufnahmen gewählt. Der Bereich in den Kameraaufnahmen kann zum Beispiel ein Rechteck oder Kreis in den Kameraaufnahmen sein. Die Position des Bereiches in den Kameraaufnahmen ist dabei gleich. So kann durch einen Bereich beispielsweise durch die Angabe: „die linke Hälfte der Kameraaufnahme“ oder ein Kreis mit Radius 50 Pixel mit dem Mittelpunkt an der Position (110, 120) Pixel spezifiziert sein. Darüber hinaus ist auch die Spezifikation eines beliebig geformten Bereiches denkbar.
  • Bei der Verwendung einer Datenbrille in Fahrzeugen stellt sich das Problem, dass sowohl Elemente aus dem Innenraum des Fahrzeugs als auch Elemente aus dem Außenraum des Fahrzeugs mit kontaktanalogen Markierungen versehen sein können. Je nach markiertem Objekt müssen die Markierungen auch unterschiedlich nachgeführt werden: Bei einer Markierung im Innenraum ist im Wesentlichen die Änderung der Kopfpose zu berücksichtigen, bei einer Markierung im Außenraum des Fahrzeugs (also in dessen Umwelt) ist auch die Bewegung des Fahrzeugs relativ zum Außenraum mit zu berücksichtigen.
  • Wenn nun eine „low-level“ Analyse (oben auch Unterschiede genannt) der Kameraaufnahme gemacht wird, um Linien oder Kanten zu finden, oder Kameraaufnahmen zweidimensional miteinander korreliert werden, kann es dazu kommen, dass diese Analyse nicht die Verschiebung widerspiegelt, die eigentlich zur korrekten Nachführung erforderlich wäre. Wenn beispielsweise der Innenraum einen relativ großen Bildbereich der Kameraaufnahme einnimmt, wird eine kontaktanaloge Markierung im Außenraum nicht bestmöglich nachgeführt. Dies deshalb, da eine Korrelation in diesem Fall im Wesentlichen durch die Verschiebung des Innenraums bestimmt würde.
  • Die vorliegende Erfindung schlägt nun vor, für die Analyse der Kameraaufnahmen auch Bereiche festzulegen. So könnte für die kontaktanaloge Markeirung eines Objekt im Außenraum des Fahrzeugs ein Bereich um dieses Objekt herum als Bereich festgelegt werden, für den eine Korrelation auszuführen ist. Dieser Bereich bezieht sich auf einen Ausschnitt der Kameraaufnahme. Da nun der Bereich um das Objekt herum hauptsächlich den Außenraum des Fahrzeugs abbilden wird, wird die Nachführung der kontaktanalogen Markierung verbessert.
  • Betreffend den Innenraum des Fahrzeugs kann der Unterschied der zwei Kameraaufnahmen der Änderung der Pose der Datenbrille (und damit der Änderung der Kopfpose) entsprechen. Die Pose betrifft dabei die Position (drei lineare Koordinaten) und Ausrichtung (drei rotatorische Koordinaten) der Datenbrille. Der Ausschnitt kann auch abhängig nur von Teilen der vollständigen Pose bestimmt werden, zum Beispiel unter Beachtung von nur zwei rotatorischen Koordinaten. In diesem Fall werden als Unterschied nur die relevanten Teile der Pose extrahiert oder sogar nur Näherungen der Änderungen der Teile der Pose bestimmt.
  • Die Bestimmung des Unterschiedes in den zwei Aufnahmen bzw. in Bereichen davon kann mithilfe von recheneffizienten Algorithmen durchgeführt werden. Die Latenz zur Berücksichtigung der Änderung der Kopfpose durch die Wahl des Ausschnitts kann so geringer sein, als die Latenz zur Bestimmung eines neuen Bildes über das nach dem Stand der Technik bekannte Verfahren (Ermittlung der Kopfpose durch das Kopfverfolgungssystem, die Übertragung der ermittelten Kopfpose, die Errechnung des anzuzeigenden Bildes basierend auf der Kopfpose und der 3D Szene, die Übertragung der Bildinformation an die Rahmenpuffer und schließlich die tatsächliche Darstellung auf der Anzeige der Datenbrille).
  • Die Latenz zur Bestimmung des Ausschnitts kann ferner dadurch gesenkt werden, dass die Recheneinheit zur Bestimmung des Unterschiedes ebenfalls von der Datenbrille umfasst ist, und insbesondere in diese integriert ist. Auf diese Weise können kurze verdrahtete Kommunikationsverbindungen genutzt werden, deren Verzögerung gering ist. Die Gesamtlatenz für die Ausschnittsbestimmung wird somit verringert.
  • Im Gegensatz zum Stand der Technik wird somit die augmented reality Darstellung lediglich in einer Ebene des Grundbildes geändert. Dabei wird typischerweise keine Änderung des Umfeldes (ein erkanntes und mithilfe der augmented reality Darstellung markiertes Objekt könnte sich bewegen), wie sie durch die Umfelderkennung erkannt wird, berücksichtigt, noch eine Änderung der augmented reality Darstellung selbst, also beispielsweise eine Drehung um eine Achse der Darstellung oder eine Größenänderung. Zu beachten ist jedoch, dass gemäß dem erfindungsgemäßen Verfahren, gegenüber einer reinen Verschiebung der augmented reality Darstellung auch neue, bisher nicht angezeigte augmented reality Darstellungen in den Ausschnitt rücken können, die bisher nur in einem Teil des Grundbildes vorhanden waren, das zuvor nicht angezeigt wurde.
  • Die Kamera kann eine Kamera sein, die Aufnahmen im Bereich des sichtbaren Lichts macht und/oder im Bereich des Infrarotlichts. Des Weiteren kann die Kamera ein Beleuchtungssystem umfassen, im Fall einer Infrarotkamera insbesondere Infrarotlichtquellen. Eine Bildgröße wird als Menge von Pixeln, also Bildelementen, und deren Anordnung, also einem Format, angegeben, insbesondere im Rechteckformat, also beispielsweise 400×600 Pixel oder 1200×1600 Pixel. Das Grundbild mit der zweiten Bildgröße weist typischerweise eine Pixelmenge und ein Format auf, so dass der Ausschnitt mit der ersten Bildgröße vollständig in dem Grundbild umfasst ist. Die erste Bildgröße ist also ein Teil der zweiten Bildgröße, beispielsweise ist die erste Bildgröße 200×300 Pixel und die zweite Bildgröße 400×600 Pixel. Aufgrund der größeren Bildgröße umfasst das Grundbild Bereiche, die bei einer kontaktanalogen Darstellung nicht auf der Anzeige darzustellen sind. Ansonsten würde die Kontaktanalogie durchbrochen.
  • In einer vorteilhaften Weiterbildung wurde die Angabe zu dem Bereich basierend auf einer Erkennung von Objekten durch die separate Recheneinheit bestimmt, insbesondere durch die Erkennung von Objekten in dem Grundbild (oder der Kameraaufnahme, die zuvor zur separaten Recheneinheit übertragen wurde) und/oder basierend auf den Messungen von Radarsensoren. die separate Recheneinheit Auf diese Weise wird der Bereich derart gewählt, dass er möglichst das Objekt selbst umfasst. Es kann auch vorgesehen sein, dass der Bereich das Objekt umfasst und Orte, an denen das Objekt in den zukünftigen Aufnahmen der Kamera vermutet wird. Diese Vermutung kann auf einer angenommenen (maximalen) Bewegung des Objektes und einer angenommenen (maximalen) Änderung der Kopfpose basieren. Gegebenenfalls können die Kanten des so bestimmten Bereiches geglättet werden, oder durch Geraden approximiert werden. Es kann vorgesehen sein, den Bereich sogar als einfache geometrische Form (Rechteck, Kreis) anzugeben, die dem ursprünglich bestimmten Bereich möglichst nahe kommt. Der Bereich kann ebenfalls nicht zusammenhängend sein und auch durch die Angabe mehrerer geometrischer Formen definiert sein. Dies wird insbesondere dann der Fall sein, wenn der Bereich in den Aufnahmen die Belegung der Aufnahmen durch den Innenraum des Fahrzeugs beschreiben soll.
  • In einer vorteilhaften Weiterbildung ist das Grundbild ein erstes Grundbild; wobei das Verfahren ferner umfasst: Empfangen eines zweiten Grundbildes, wobei das zweite Grundbild eine dritte Bildgröße aufweist, die zumindest in einer Richtung größer ist, als die erste Bildgröße, wobei das zweite Grundbild insbesondere von einer von der Datenbrille separaten Recheneinheit empfangen wird, wobei die dritte Bildgröße insbesondere gleich der zweiten Bildgröße ist; Empfangen einer Angabe zu einem zweiten Bereich in Aufnahmen der Kamera insbesondere von einer von der Datenbrille separaten Recheneinheit; Bestimmen eines Ausschnitts des zweiten Grundbildes, der auf der Datenbrille anzuzeigen ist, wobei der Ausschnitt maximal die erste Bildgröße aufweist, wobei der Ausschnitt abhängig von einem Unterschied des zweiten Bereiches der ersten Aufnahme zum zweiten Bereich der zweiten Aufnahme bestimmt wird; Anzeigen des Ausschnitts des zweiten Grundbildes auf der Datenbrille gemeinsam mit dem Ausschnitt des ersten Grundbildes.
  • Es wird also ein zweites Grundbild vorgesehen. Das zweite Grundbild kann kontaktanaloge Markierungen für andere Objekte umfassen, als das erste Grundbild. Beispielsweise kann das erste Grundbild Markierungen für den Innenraum des Fahrzeugs umfassen und das zweite Grundbild Markierungen für einen Teil des Außenraums des Fahrzeugs. Die Markierungen für den Innenraum und die Markierungen für den Außenraum müssen unterschiedlich nachgeführt werden (durch die Auswahl eines anderen Ausschnittes des ersten Grundbildes), um die Kontaktanalogie möglichst gut zu erhalten. So bewegt sich beispielsweise in Baum im Umfeld des Fahrzeugs aufgrund der Eigenbewegung des Fahrzeugs aus der Sicht des Fahrers anders als der Innenraum. Zur Nachführung der Markierungen werden unterschiedliche Bereiche in den Aufnahmen der Kamera definiert. So kann zur Nachführung der Markierung des Innenraums ein Bereich in den Kameraaufnahmen bestimmt werden, der typischerweise den Innenraum abbildet (und ggf. zukünftig abbilden wird unter Beachtung der möglichen zukünftigen Änderung der Kopfpose). Für die Nachführung der Markierung des Teils des Außenraums kann ein Bereich in den Kameraaufnahmen festgelegt werden, der eben diesen Teil des Außenraums abbildet (und ggf. zukünftig abbilden wird unter Beachtung der Fahrzeugbewegung und der Änderung der Kopfpose). Auf diese Weise wird eine verbesserte Genauigkeit der Kontaktanalogie von Markierungen erreicht.
  • In einer Implementierung werden somit zwei Framebuffer geschaffen und für jeden Framebuffer ein eigener Ausschnitt ausgewählt. Typischerweise wird von einem Ausschnitt in der Mitte des Grundbildes ausgegangen und dieser Ausschnitt anschließend verschoben. Für jeden Framebuffer wird ein Verschiebe- und/oder Rotationsvektor bestimmt. Dadurch kann die Darstellung des in der Brille angezeigten Bildes stabilisiert werden.
  • In einem Beispiel wird zwischen einer Ortsfeste Darstellung und einer Darstellung für Objekte relativ zur Welt und zum Fahrzeug unterschieden. Ortsfeste Darstellung:
    Der Interieur-Bereich des Fahrzeuges wird ausmaskiert, nachdem mehrere Aufnahmen davon erstellt wurden. Dies wird über einen Algorithmus bzw. Filter erreicht, indem gleiche Bildinhalte erkannt und dem hier uninteressanten Innenraum zugeordnet werden, da dieser sich nicht so stark ändert wie der Außenraum des Fahrzeuges. Über eine Berechnung der Differenz der aufgezeichneten Bilder der Außenwelt ist es somit möglich, Rückschlüsse auf Verschiebe- und Rotationsvektor zu errechnen. Objekte relativ zur Welt und zum Fahrzeug: Im Außenraum des Fahrzeuges befinden sich nun andere Verkehrsteilnehmer. Mittels desselben, bereits beschriebenen Verfahren, wird erneut eine Differenz, jedoch diesmal nicht zum Innenraum, sondern zu den ortsfesten Bildanteilen, errechnet. Wichtig ist dabei die Beziehung zum Rendering System, da im Außenraum mehrere unterschiedlich schnelle Objekte unterwegs sein können, die Bewegungen aber innerhalb dieses weltfesten Bildes stattfinden.
  • Im Falle eines Active-Cruise-Control-Systems (ACC) wäre ein Use-Case, dass auf Basis der Kopfstellung des Benutzers zuerst erkannt wird, welchem Fahrzeug gefolgt werden soll. Ist das Fahrzeug ausgewählt, erkennt das System den benötigten Framebuffer und passt die Vektoren der Anzeige so an, dass die Markierung des Objektes für den Benutzer immer flüssig und korrekt dem Objekt folgt.
  • In einer positiven Ausprägung muss dieser spezifische Fall auch nicht zwingend fahrzeugbezogen sein, sondern kann sich auch auf andere Objekte im Straßenverkehr beziehen.
  • Der zweite Zeitpunkt liegt später als der erste Zeitpunkt, insbesondere liegt der zweite Zeitpunkt kurz nach oder im Wesentlichen zum Zeitpunkt des Empfangs des Grundbildes. Weiterhin liegt der erste Zeitpunkt typischerweise zur Zeit einer Messung der Kopfpose des Trägers der Datenbrille durch ein Kopfverfolgungssystem, auf dessen Grundlage das Grundbild erzeugt wird. Diese Messung wird also von dem aus dem Stand der Technik bekannten System durchgeführt und verwendet um das Grundbild auch basierend auf der 3D Szene zu errechnen. Dieses Kopfverfolgungssystem ist nicht in der Datenbrille umfasst. Auf diese Weise wird die Änderung der Kopfpose (oder zumindest von Komponenten davon oder näherungsweise) während der Latenzzeit, die ab der Messung der Kopfpose durch das Kopfverfolgungssystem, die Errechnung des Bildes durch den Computer unter Berücksichtigung der 3D Szene und die Übertragung zum Rahmenpuffer der Datenbrille sowie möglicherweise weiteren Übertragungen entsteht, durch eine entsprechende Bestimmung eines Ausschnitts des Grundbildes ausgeglichen.
  • In einer vorteilhaften Implementierung werden für das empfangene Grundbild zwei oder mehr Ausschnitte nacheinander bestimmt und angezeigt (jeweils bezeichnet mit der Laufvariablen n). Es werden also Zwischenbilder während einer Zeitspanne angezeigt, in der ansonsten nur das empfangene Bild angezeigt würde.
  • In einer Implementierung umfasst das Verfahren ferner: Empfangen weiterer Aufnahmen der Kamera zu weiteren Zeitpunkten; Für jede weitere Aufnahme: Bestimmen eines weiteren Ausschnitts des Grundbildes, der auf der Datenbrille anzuzeigen ist, wobei der Ausschnitt die erste Bildgröße aufweist, wobei der weitere Ausschnitt abhängig von einem Unterschied der jeweiligen weiteren zur ersten Aufnahme oder einer der vorhergehenden Aufnahmen bestimmt wird; Anzeigen des weiteren Ausschnitts auf der Datenbrille. Durch die mehrfache Bestimmung von Ausschnitten wird die Zeitspanne, für die ein nicht an die Kopfpose angepasster Ausschnitt angezeigt wird, verringert. Werden für jedes empfangene Grundbild beispielsweise vier Ausschnitte zeitlich nacheinander bestimmt, so viertelt sich die Zeit, bis zur Berücksichtigung einer neuen Kopfpose. Die Darstellung von augmented reality Inhalten verbessert sich somit.
  • In einer weiterbildenden Implementierung wird die Gesamtheit der Schritte des Verfahrens wiederholt ausgeführt, wobei dabei für jedes empfangene Grundbild zwei oder mehr Ausschnitte nacheinander bestimmt und angezeigt werden (jeweils bezeichnet mit der Laufvariablen n).
  • In einer Weiterbildung umfasst die Bestimmung des Ausschnitts eine zur Veränderung der Position und/oder Rotation proportionale Veränderung der Position und/oder Rotation eines vorbestimmten Ausschnitts des Grundbildes, wobei der vorbestimmte Ausschnitt ebenfalls die erste Bildgröße aufweist.
  • In einer Weiterbildung sind die Aufnahmen der Kamera Aufnahmen der Umgebung der Datenbrille; wobei der Unterschied anhand der Veränderung der Position und/oder Rotation um die Sichtachse der Kamera einer in dem jeweiligen Bereich der ersten und zweiten Aufnahme erkannten Struktur und/oder eines in der ersten und zweiten Aufnahme erkannten Objektes bestimmt wird; oder Wobei der Unterschied anhand einer Korrelation, insbesondere basierend auf den Pixeln in dem jeweiligen Bereich der ersten und zweiten Aufnahme, bezüglich einer Veränderung der Position und/oder Rotation um die Sichtachse der Kamera bestimmt wird.
  • Dazu wird typischerweise eine Muster- oder Objekterkennung eingesetzt, die Muster bzw. Objekte in der ersten und der zweiten Aufnahme erkennt. Dann kann durch die Bestimmung der Veränderung desselben Musters/Objektes in dem jeweiligen Bereich der ersten Aufnahme zu dem entsprechenden Bereich der zweiten Aufnahme der Unterschied zwischen den Bereichen in der ersten Aufnahme und der zweiten Aufnahme bestimmt werden. Zur Bestimmung des Unterschiedes können auch die Veränderungen der Position (also einer Verschiebung) und/oder Rotation mehrerer Muster/Objekte von berücksichtigt werden, beispielsweise durch einen Mittelwert der Veränderungen der Muster/Objekte. Ebenfalls ist es denkbar, dass die Datenbrille Angaben zu erkannten Mustern/Objekten in dem empfangenen Grundbild empfängt. Mit diesen Zusatzinformationen können die Strukturen bzw. Objekte in der ersten Aufnahme leichter erkannt werden und in der zweiten Aufnahme leichter nachverfolgt bzw. wiedererkannt werden.
  • In einer Weiterbildung umfasst die Bestimmung des Ausschnitts eine zur (zuvor in den Kameraaufnahmen bestimmten) Veränderung der Position und/oder Rotation proportionale Veränderung der Position und/oder Rotation eines vorbestimmten Ausschnitts des Grundbildes, wobei der vorbestimmte Ausschnitt ebenfalls maximal die erste Bildgröße aufweist. Wird also als Unterschied die Veränderung der Position und/oder Rotation von Mustern/Objekten bzw. die Korrelation verwendet, so kann der Ausschnitt die zur Veränderung proportionale Veränderung eines vorbestimmten (beispielsweise zentrierten) Ausschnittes im Grundbild darstellen. Diese lineare Abhängigkeit ermöglicht eine Bestimmung des Ausschnitts mit geringer Latenz. Die proportionale Veränderung bedeutet somit eine Änderung der Position und/oder Rotation des vorbestimmten Ausschnitts. Die Rotation findet um die Sichtachse der Kamera (und damit im Wesentlichen auch der Sichtachse des Benutzers) jeweils in der Grundbildebene statt, also in der x-/y-Ebene.
  • Als Alternative zur Muster-/Objekterkennung kann auch eine Korrelation der ersten und zweiten Aufnahme verwendet werden, um die Veränderung der Position und/oder Rotation herauszufinden. Dabei können die Pixel des (ersten oder zweiten) Bereiches der ersten Aufnahme mit den Pixeln des (ersten oder zweiten) Bereiches der zweiten Aufnahme oder eine Untermenge der jeweiligen Pixel verglichen, also korreliert, werden. Typischerweise ist diese Korrelation zweidimensional in der x- und y-Ebene des Grundbildes (erfasst also nur Verschiebungen), kann aber auch für eine Rotation vorgenommen werden. Ebenso wie bei der Objekterkennung kann die erkannte Verschiebung und/oder Rotation proportional in eine Verschiebung und/oder Rotation des vorbestimmten Ausschnittes zur Bestimmung des Ausschnittes umgesetzt werden.
  • In einer Weiterbildung wird bei der Bestimmung des Grundbildes die absolute Ausrichtung der Datenbrille oder des Kopfes des Trägers der Datenbrille im Raum berücksichtigt, insbesondere durch eine Beschreibung der Ausrichtung anhand von drei linearen und drei rotatorischen Koordinaten. Somit ist eine Anpassung der augmented reality Darstellung bezüglich aller anzupassenden Parameter möglich, insbesondere auch die Rotation der augmented reality Darstellung um die eigene Achse und Größenveränderungen der augmented reality Darstellung.
  • Es entstehen somit zwei Anpassungsschleifen für die augmented reality Darstellung. Einmal eine Schleife über das Kameraverfolgungssystem und den Computer, der ebenfalls das Umfeldmodell (also eine 3D Szene) empfängt, und zum Anderen eine Schleife über die Kamera der Datenbrille und entsprechende Bildverarbeitung. In der erstgenannten (großen) Schleife ist eine vollständige Anpassung der augmented reality Darstellung möglich, in der letztgenannten (kleineren) Schleife sind dagegen Veränderungen und Rotationen in der Bildebene vorgesehen, also keine vollständige Anpassung der augmented reality Darstellung, aber eine mit geringerer Latenz als die Schleife zur vollständigen Anpassung.
  • In einer vorteilhaften Weiterbildung wird bei der Bestimmung des Grundbildes ferner die Position eines Objektes im Umfeld der Datenbrille derart berücksichtigt, dass dem Träger der Datenbrille eine Informationsdarstellung in vorbestimmter räumlicher Beziehung zum Objekt erscheint, insbesondere eine kontaktanaloge Darstellung der Informationsdarstellung erreicht wird.
  • In einer bevorzugten Weiterbildung ist der (für das erste bzw. zweite Grundbild jeweils) vorbestimmte Ausschnitt derart im (jeweiligen) Grundbild angeordnet, dass kein Rand des (jeweiligen) vorbestimmten Ausschnitts einen Rand des (jewiligen) Grundbilds berührt, und weiter insbesondere derart angeordnet, dass der (jeweilige) vorbestimmte Ausschnitt zentriert im (jeweiligen) Grundbild angeordnet ist. Es kann also vorgesehen sein, dass das erste bzw. zweite Grundbild bereits derart bereitgestellt wird, dass der jeweils vorbestimmte Ausschnitt in einer vordefinierten Anordnung (Position und Ausrichtung/Rotation) im ersten bzw. zweiten Grundbild liegt. Von dieser Anordnung ausgehend wird dann die Anordnung des Ausschnitts bestimmt. Das Grundbild und die Anordnung des vorbestimmten Ausschnitts werden vorteilhafterweise derart gewählt, dass zu allen Seiten des vorbestimmten Ausschnitts gleichviel Platz ist, der vorbestimmte Ausschnitt also zentriert angeordnet wird, insbesondere bei einem rechteckigen Ausschnitt und rechteckigen Grundbild. Auf diese Weise kann der Ausschnitt, der aus einer Veränderung der Position und Rotation des vorbestimmten Ausschnitts hervorgehen kann, Änderungen der Kopfpose in möglichst jeder Rotationsrichtung oder jeder Positionsänderung der Kopfpose zumindest näherungsweise berücksichtigen. Zumindest können so Verschiebungen und Rotationen von erkannten Mustern/Objekten in den Aufnahmen der Kamera in jeder Richtung proportional durch Veränderungen des Ausschnittes im Grundbild ausgehend vom vorbestimmten Ausschnitt (bis zu Schwellwerten) nachvollzogen werden. Dies ist insbesondere deshalb vorteilhaft, da zum Zeitpunkt der Bestimmung des Grundbildes noch nicht bekannt ist, wie sich die Kopfpose ändern wird.
  • In einem andern Aspekt umfasst eine Datenbrille: eine Anzeige, die zur Darstellung von Bildern mit der ersten Bildgröße eingerichtet ist; Eine Kamera; Elektronische Rechenmittel; Wobei die Datenbrille zur Ausführung eines der oben dargestellten Verfahren eingerichtet ist. Die Rechenmittel können ein programmierbarer Computer oder Schaltkreise mit dedizierter Logik beispielsweise FPGAs oder ASICs sein. Die Rechenmittel können speziell zur Bestimmung des Unterschiedes zwischen der ersten und der zweiten Aufnahme, insbesondere zur Korrelation, eingerichtet sein, sowie zur Funktion des Bestimmens des Ausschnittes.
  • In wieder einem anderen Aspekt umfasst ein Computerprogramm Anweisungen zum Ausführen eines der oben dargestellten Verfahren.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt schematisch ein System zur Anzeige von augmented reality Darstellungen auf einer Datenbrille gemäß dem Stand der Technik.
  • 2 zeigt schematisch die Sicht, wie sie sich dem Träger der Datenbrille bietet gemäß dem Stand der Technik.
  • 3 zeigt schematisch die Sicht, wie sie sich dem Träger der Datenbrille kurzzeitig bei einer Änderung der Kopfpose bietet gemäß dem Stand der Technik.
  • 4 verdeutlicht die bei einer kontaktanalogen Darstellung auftretenden Latenzzeiten gemäß dem Stand der Technik.
  • 5a zeigt schematisch ein System zur Anzeige von augmented reality Darstellungen auf einer Datenbrille gemäß einem Ausführungsbeispiel.
  • 5b illustriert schematisch die Angabe eines Bereiches einer Kameraaufnahme gemäß einem Ausführungsbeispiel.
  • 6a und 6b zeigen schematisch die Verhältnisse von Grundbild und Ausschnitt sowie die sich dem Benutzer bietenden Ansichten vor einer Änderung der Kopfpose (6a) und nach einer Änderung der Kopfpose (6b) gemäß einem Ausführungsbeispiel.
  • 7 und 8 zeigt in einem schematischen Ablaufdiagramm (7) und dazugehörigen Zeitdiagram (8) die Verarbeitung von Bilddaten gemäß einem Ausführungsbeispiel.
  • 9 zeigt schematisch eine Datenbrille zum Verarbeiten von zwei Grundbildern gemäß einem Ausführungsbeispiel.
  • 10a und 10b zeigen jeweils Aufnahmen einer Kamera der Datenbrille zu unterschiedlichen Zeitpunkten.
  • 11 zeigt schematisch die Bestimmung von Ausschnitten in zwei verschiedenen Grundbildern gemäß einem Ausführungsbeispiel.
  • Gleiche Bezugszeichen beziehen sich auf sich entsprechende Elemente über die Figuren hinweg.
  • DETAILLIERTE BESCHREIBUNG DES AUSFÜHRUNGSBEISPIELS
  • 5a zeigt schematisch ein System zur Anzeige von augmented reality Darstellungen auf einer Datenbrille 1 gemäß einem Ausführungsbeispiel. Das System umfasst einen Computer 6 und ein Kopfverfolgungssystem 5. Der Träger der Datenbrille 1 wird von dem Kopfverfolgungssystem 5 (auch Head Tracking Unit genannt) aufgenommen und aus der Aufnahme wird die Kopfpose des Trägers der Datenbrille 1 extrahiert. Das Kopfverfolgungssystem 5 ist typischerweise eine separate Vorrichtung, die den Benutzer aufnimmt. Die Kopfpose umfasst die Position des Kopfes (meist in drei linearen Koordinaten angegeben) und die Ausrichtung des Kopfes (meist in drei rotatorischen Koordinaten angegeben) zu einem definierten Bezugssystem. Manchmal wird die Ausrichtung des Kopfes über die Blickrichtung beschrieben, in die der Benutzer blickt, wenn seine Augen in der Zentralstellung sind. Systeme zum Bestimmen der Kopfpose sind im Stand der Technik bekannt. Die ermittelte Kopfpose wird einem Computer 6 (einer zentralen Recheneinheit beispielsweise in einem Fahrzeug) mitgeteilt. Der Computer 6 empfängt ebenso von einer Umfelderkennung (nicht dargestellt) die Position und Gestalt von Objekten, die im Umfeld erkannt wurden, also eine 3D Szene. Mithilfe dieser Informationen errechnet der Computer 6 das Grundbild 13 (siehe 6a und 6b), das augmented reality Darstellungen umfasst und eine zweite Bildgröße, beispielsweise 1200×1600 Pixel aufweist. Gegenüber dem vordefinierten Ausschnitt (beispielswiese von der Bildgröße 300×400 Pixel) überlappt das Grundbild 13 an allen vier Seiten den vordefinierten Ausschnitt des Grundbildes. Es versteht sich, dass bei einer Datenbrille 1 mit zwei Teilanzeigen für jede Teilanzeige ein Grundbild empfangen wird und im jeweiligen Rahmenpuffer abgelegt wird.
  • Der Benutzer (nicht dargestellt) trägt die Datenbrille 1, die eine halbtransparente Anzeige 2 umfasst mit zwei Teilanzeigen, eine für das rechte Auge und eine für das linke Auge (in 1 gestrichelt dargestellt). In der Datenbrille 1 mit umfasst sind zwei Rahmenpuffer (auch Frame Buffer genannt), von denen nur der Rahmenpuffer 3 für die Teilanzeige für das rechte Auge in 3 dargestellt ist. Der Rahmenpuffer 3 empfängt und speichert das Grundbild 13 für die Teilanzeige des rechten Auges, das auf der Teilanzeige anzuzeigen ist. Das Grundbild 13 kann jedoch ebensogut von der Recheneinheit 11 empfangen werden und in dem Rahmenpuffer 3 gespeichert werden. Der Empfang des Grundbildes 13 ist vorzugsweise drahtlos, z.B. nach einem WiFi oder Bluetooth-Standard, kann aber auch drahtgebunden ausgestaltet sein.
  • Die Datenbrille 1 umfasst ferner eine Ausschnittsfunktion 12. Diese kann in Hardware ausgeführt sein aber auch rein in Software ausgeführt sein und einen Programmabschnitt darstellen sowie eine Mischform darstellen. Die Ausschnittsfunktion 12 wählt aus dem Grundbild 13 einen Ausschnitt aus, der an die Anzeige 2 zur Anzeige weitergeleitet wird und dort angezeigt wird. Anweisungen, welcher Ausschnitt des Grundbildes 13 weitergeleitet werden soll, erhält die Ausschnittsfunktion 12 von der Recheneinheit 11, die ebenfalls von der Datenbrille 1 umfasst ist.
  • Das Grundbild 13 (6a) wird für den Zeitpunkt der Messung der Kopfpose durch das Kopfverfolgungssystem erstellt. Dabei wird die augmented reality Darstellung derart erzeugt, dass die Anzeige eines vordefinierten zentrierten Ausschnittes 14a (6a) auf der Datenbrille beim Benutzer den Eindruck einer korrekten Kontaktanalogie erzeugen würde. Dem Benutzer würde sich beispielsweise die Gesamtansicht 9a nach 6a darstellen. Die augmented reality Darstellung des Sterns erscheint dem Baum 7 räumlich zugeordnet, nämlich an der Spitze des Baumes 7.
  • Der Computer 6 berechnet ebenfalls den Bereich 21 für die Kameraaufnahme 20 der Kamera 10 der Datenbrille, wie in 5b gezeigt. Eine Angabe zu diesem Bereich wird an die Datenbrille 1 weitergeleitet. Der Bereich 21 wird anhand des erkannten Baumes 7 bestimmt und dessen möglichen Positionen in der Kameraaufnahme in der Zukunft (bis zur Erstellung des nächsten Grundbildes). Die zukünftigen möglichen Positionen ergeben sich aus einer Änderung der Kopfpose des Benutzers der Datenbrille. Schließlich wird für die möglichen Positionen ein diese umfassendes Rechteck gewählt, dass schließlich den Bereich 21 darstellt.
  • Die Datenbrille 1 umfasst ferner eine Kamera 10, die ortsfest auf der Datenbrille 1 montiert ist. In diesem Beispiel ist die Sichtachse der Kamera 10 parallel zur Blickrichtung des Trägers der Datenbrille ausgerichtet. Die Kamera 10 macht Aufnahmen der Umgebung. Die Aufnahmen der Umgebung werden an die Recheneinheit 11 weitergeleitet.
  • Eine erste Aufnahme wird zu einem Zeitpunkt der Messung der Kopfpose durch das Kopfverfolgungssystem empfangen, auf dessen Basis das Grundbild 13 in dem Rahmenpuffer 3 empfangen wird (erster Zeitpunkt). Weiterhin empfängt die Recheneinheit 11 eine zweite Aufnahme von der Kamera 10 zum im Wesentlichen selben Zeitpunkt wie das Grundbild von der Datenbrille im Rahmenpuffer 3 empfangen wird.
  • Für das Beispiel der 6b soll angenommen werden, dass der Benutzer seine Kopfpose in der Zeit zwischen der Messung durch das Kopfverfolgungssystem und dem Empfang des Grundbildes bzw. der zweiten Aufnahme geändert hat.
  • Die Recheneinheit 11 führt im vorgegebenen Bereich 21 der Kameraaufnahmen eine pixelweise Korrelation zwischen der ersten und der zweiten Aufnahme durch, vergleicht also die Verschiebung zwischen den beiden Bereichen in x- und y-Richtung. Das Ergebnis der Korrelation ist ein Versatzvektor, der den Versatz des Inhalts der Bereiche der ersten und zweiten Aufnahme angibt, insbesondere in Pixeln in x- und y-Richtung. Dieser Versatz wird proportional umgerechnet in einen Verschiebungsvektor 15b (siehe 6b), der an der ersten Bildgröße orientiert ist. Der Verschiebungsvektor 15b ist ein Vielfaches/ein Bruchteil des Versatzvektors und hat die umgekehrte Richtung (abhängig von der ersten Bildgröße und der Bildgröße der ersten und zweiten Aufnahmen). Da die Kamera 10 Aufnahmen in Richtung der Blickrichtung macht, nimmt sie auch den Baum 7 auf, den der Benutzer durch die halbtransparente Anzeige 2 wahrnimmt. Der Verschiebungsvektor 15a ist die Umkehrung des Verschiebungsvektor 15b und ist zur Illustration in 6b eingezeichnet.
  • Die Recheneinheit 11 berechnet mithilfe des Verschiebungsvektors 15b den anzuzeigenden Ausschnitt 14b des Grundbildes 13. Die Angabe des Ausschnitts 14b wird an die Ausschnittsfunktion 12 weitergeleitet, die den entsprechenden Ausschnitt an die Anzeige 2 weiterleitet. Die Anzeige 2 zeigt den Ausschnitt an, so dass sich dem Träger der Datenbrille die Gesamtansicht 9b wie in 6b gezeigt bietet. Aufgrund der Verschiebung des Ausschnitts (in einer „kleinen Schleife“) konnte die Kontaktanalogie besser erhalten werden als über die „große Schleife“ des Systems außerhalb der Datenbrille. Allerdings ist auch im erfindungsgemäßen System eine Latenz bis zur geänderten Anzeige vorhanden, die durch die Übertragung von und zur Recheneinheit 11 und die Verarbeitungszeit der Ausschnittsfunktion 12, sowie weitere Übertragungs- und Auslesezeiten bedingt ist.
  • Die Errechnung der Korrelation kann recheneffektiv ausgeführt werden und benötigt weniger Rechenzeit als die Erstellung des Grundbildes. Gleichzeitig ist die Recheneinheit 11 in der Datenbrille umfasst und über kurze Verbindungsleitungen mit hoher Übertragungskapazität mit der Ausschnittsfunktion 12 und der Kamera 10 verbunden. Auf diese Weise weist die Anpassung des angezeigten Bildes an eine Änderung der Kopfpose (zumindest für einige Freiheitsgrade oder in Annäherung) eine geringere Latenz auf (kleiner Kreis in 5a) als die Anpassung des angezeigten Bildes gemäß dem Stand der Technik (großer Kreis in 5a).
  • In dem System ist ferner vorgesehen, auch das Grundbild über das Kopfverfolgungssystem 5 und den Computer 6 unter Berücksichtigung der 3D Szene regelmäßig mit einem Verfahren gemäß dem Stand der Technik anzupassen wie oben dargelegt. Zwischen diesen Anpassungen (Updates des Grundbildes) finden eine oder mehrere Anpassungen des Ausschnitts statt (Update des Ausschnittes).
  • 7 und 8 zeigt in einem schematischen Ablaufdiagramm (7) und dazugehörigen Zeitdiagram (8) die Verarbeitung von Bilddaten gemäß einem Ausführungsbeispiel. In diesem Beispiel werden für den Zeitraum zwischen zwei Grundbildern insgesamt vier Ausschnitte angezeigt, also noch drei Zwischenbilder dargestellt. Zum Zeitpunkt t1 die Kopfpose durch das Kopfverfolgungssystem gemessen. Aufbauend darauf errechnet der Computer unter Beachtung der 3D-Szene ein Grundbild, das wie gezeigt zum Zeitpunkt t1 + L empfangen wird, wobei L die Latenz für die „große Schleife“ angibt, wie oben erläutert. In diesem Beispiel soll angenommen werden, dass gleichzeitig mit dem Empfang des Grundbildes eine Aufnahme der Kamera der Datenbrille gemacht wird. Die Kamera der Datenbrille liefert in regelmäßigen Zeitabständen T Aufnahmen. Basierend auf dem Unterschied des vorgegebenen Bereichs der Aufnahme zum Zeitpunkt der letzten Messung der Kopfpose und dem Bereich der Aufnahme zu einem späteren Zeitpunkt wird, wie oben erläutert, ein Ausschnitt aus dem Grundbild zur Anzeige auf der Datenbrille bestimmt. Dabei wird, wie oben dargelegt und in 7 durch die Verwendungspfeile angedeutet, die Korrelation zwischen den Bereichen der Aufnahmen zum Zeitpunkt der letzten Messung der Kopfpose und der Aufnahme zum späteren Zeitpunkt gebildet. Basierend auf dieser wird ein Versatzvektor und ein Verschiebungsvektor bestimmt und ein vorbestimmter Ausschnitt verschoben und der resultierende Ausschnitt des Grundbildes zur Anzeige gebracht. Die Verarbeitung der Bereiche der beiden Aufnahmen, die Bestimmung des Ausschnittes und die Übertragungszeigen sowie weitere Verzögerungen bedingen eine Latenz L2, so dass der Ausschnitt um eine Latenzzeit L2 nach der Aufnahme der Kamera zur Anzeige gebracht wird. Wie bereits ausgeführt ist das erfindungsgemäße System derart gestaltet, dass eine Latenzzeit L2 ermöglicht wird, die geringer ist als die Latenzzeit L1.
  • Eine Änderung der Kopfpose zum Zeitpunkt tA, in Analogie zum Beispiel in Bezug auf 4, führt gemäß dem erfindungsgemäßen System zu einer Fehlerzeit tError, die geringer ist als die Fehlerzeit in einem System gemäß dem Stand der Technik.
  • 9 zeigt eine modifizierte Datenbrille 1b, die dazu eingerichtet ist zwei Grundbilder 23a und 23b (siehe 11) zu empfangen und zu verarbeiten. Diese Datenbrille eignet sich besonders für den Einsatz in einem Fahrzeug, da sie Objekte im Innen- und Außenraum des Fahrzeugs getrennt nachführen kann. Dazu umfasst die Datenbrille 1b gegenüber der Datenbrille 1 zwei Rahmenpuffer 3a und 3b. Rahmenpuffer 3a speichert das Grundbild 23a und Rahmenpuffer 3b speichert das Grundbild 23b. Darüber hinaus umfasst die Datenbrille 1b auch zwei Ausschnittsfunktionen 12a und 12b. Zur Anzeige gelangt schließlich die Übereinanderlagerung der Ausschnitte, die in 11 mit den Bezugszeichen 24a und 24b bezeichnet sind. Hier haben die Ausschnitte 24a und 24b jeweils die erste Bildgröße. Der Computer 6 errechnet einen ersten Bereich 21 und einen zweiten Bereich 22. Angaben zu diesen Bereichen werden an die Datenbrille 1b übertragen. Die Berechnung der Bereiche 21 und 22 findet basierend auf der erfassten Blickrichtung des Benutzers und der 3D-Szene bzw. dem Wissen um die Gestaltung des Innenraums des Fahrzeugs statt. Die Bereiche werden so gewählt, dass sie das zu markierende Objekt (ggf. inklusive dessen Umfeldes) und die erwarteten mögliche zukünftige Positionen umfassen. Wenn auch das Umfeld des Objektes zu bestimmen ist, werden diejenigen Bereiche der Kameraaufnahme bestimmt, die Objekte zeigen, deren Verschiebung der des zu markierenden Objektes entspricht. Alternativ oder zusätzlich kann auch vorgesehen sein, dass eine Kameraaufnahme der Kamera 10 an den Computer 6 übertragen wird. Der Computer 6 bestimmt dann anhand dieser Aufnahme die Bereiche.
  • In der 10a und 10b zeigt die Sicht durch die Frontscheibe und Teile der Seitenscheiben durch die Kamera 10. Die Kameraaufnahme 20 zeigt nimmt sowohl Bereiche im Innenraum des Fahrzeugs, als auch Teile des Außenraums des Fahrzeugs. Es soll eine kontaktanaloge Darstellung eines Geschwindigkeitsmessers (in runder Form) dem Armaturenbrett überlagert werden und der Baum durch einen Stern markiert werden. Der Bereich 22 wird anhand des Wissens um die Ausdehnung des Armaturenbrettes im Fahrzeug und einer Annahme zur möglichen Änderung der Kopfpose gewählt. Der Bereich 21 wird anhand des Wissens um die Position des Baumes in der Aufnahme 20 gewählt (die anhand der 3D Szene und der Erfassung der Blickrichtung des Benutzers durch das Kopfverfolgungssystem 5 ermittelt wird). Der Bereich 21 wird unter Berücksichtigung der Eigenbewegung des Fahrzeugs etwas nach rechts erweitert (der Baum befindet sich am rechten Fahrbahnrand und das Fahrzeug fährt vorwärts) und berücksichtigt auch mögliche Änderungen der Kopfpose.
  • 10a zeigt die Kameraaufnahme zu einem ersten Zeitpunkt und 10b zeigt die Kameraaufnahme zu einem zweiten Zeitpunkt. Die Bereiche 21 und 22 verschieben sich nicht relativ zur den Kameraaufnahmen. Hierin wird angenommen dass sich das Fahrzeug vom ersten zum zweiten Zeitpunkt vorwärts bewegt hat und dass der Benutzer den Kopf leicht nach links oben bewegt hat (erkennbar beispielsweise an der rechten oberen Ecke des Bereiches 21, die in 10b die A-Säule schneidet).
  • Das Grundbild 23a (11) dient dazu den Baum 7 mit einer kontaktanalogen Markierung (dem Stern) zu versehen. Das Grundbild 23b dient dazu einem Teil des Armaturenbretts im Innenraum eine Geschwindigkeits-Rundanzeige zu überlagern.
  • Anhand der ersten und zweiten Aufnahme der Kamera 10 werden die Ausschnitte in den jeweiligen Grundbildern verschoben, ausgehend von der Ausgangsposition, die in 11 jeweils gestrichelt dargestellt ist. Zur Verschiebung des Ausschnittes im ersten Grundbild wird der Bereich 21 in der ersten und zweiten Aufnahme der Kamera betrachtet. Es wird eine Korrelation zwischen den Bildinhalten erstellt und damit ein erster Verschiebungsvektor. Zur Verschiebung des Ausschnittes im zweiten Grundbild wird der Bereich 22 in der ersten und zweiten Aufnahme der Kamera betrachtet. Es wird eine Korrelation zwischen den Bildinhalten erstellt und damit ein zweiter Verschiebungsvektor. Die errechneten Verschiebungsvektoren und neu bestimmten Ausschnitte 24a und 24b sind in 11 schematisch dargestellt.
  • Zur Darstellung auf der der Anzeige 2 der Datenbrille werden die Ausschnitte 24a und 24b überlagert und angezeigt. Generell ist es auch denkbar, dass sich die Ausschnitte zu einem Gesamtbild der ersten Bildgröße ergänzen, also die Nebeneinanderlegung (oder anderweitige Ergänzung) der Ausschnitte ein Bild der ersten Bildgröße ergibt.
  • Gemäß diesem Schema der Verarbeitung können auch mehr als zwei Grundbilder und mehr als zwei Bereiche definiert und empfangen werden. Auf diese Weise können mehr als zwei kontaktanaloge Darstellungen unabhängig nachgeführt werden.

Claims (15)

  1. Verfahren zur Anpassung des von einer Datenbrille anzuzeigenden Bildes, wobei die Datenbrille eine Anzeige umfasst, die zur Anzeige von Bildern mit einer ersten Bildgröße eingerichtet ist, wobei die Datenbrille eine Kamera umfasst, wobei das Verfahren umfasst: Empfangen einer ersten Aufnahme der Kamera zu einem ersten Zeitpunkt; Empfangen eines Grundbildes, wobei das Grundbild eine zweite Bildgröße aufweist, die zumindest in einer Richtung größer ist, als die erste Bildgröße, wobei das Grundbild insbesondere von einer von der Datenbrille separaten Recheneinheit empfangen wird; Empfangen einer Angabe zu einem Bereich in Aufnahmen der Kamera insbesondere von einer von der Datenbrille separaten Recheneinheit; Empfangen einer zweiten Aufnahme der Kamera zu einem zweiten Zeitpunkt; Bestimmen eines Ausschnitts des Grundbildes, der auf der Datenbrille anzuzeigen ist, wobei der Ausschnitt maximal die erste Bildgröße aufweist, wobei der Ausschnitt abhängig von einem Unterschied des Bereiches der ersten Aufnahme zum Bereich der zweiten Aufnahme bestimmt wird; Wobei der Unterschied insbesondere Unterschiede in den Bildinhalten in dem jeweiligen Bereich der Aufnahmen betrifft; Anzeigen des Ausschnitts auf der Datenbrille.
  2. Verfahren nach Anspruch 1, wobei die Angabe zu dem Bereich basierend auf einer Erkennung von Objekten durch die separate Recheneinheit bestimmt wurde, insbesondere durch die Erkennung von Objekten in dem Grundbild und/oder basierend auf den Messungen von Radarsensoren.
  3. Verfahren nach Anspruch 2, wobei der Bereich basierend auf der Erkennung des Innenraums eines Fahrzeugs bestimmt wird.
  4. Verfahren nach Anspruch 2 oder 3, wobei das Grundbild nach Anspruch 1 ein erstes Grundbild ist; wobei der Bereich nach Anspruch 1 ein erster Bereich ist; wobei das Verfahren ferner umfasst: Empfangen eines zweiten Grundbildes, wobei das zweite Grundbild eine dritte Bildgröße aufweist, die zumindest in einer Richtung größer ist, als die erste Bildgröße, wobei das zweite Grundbild insbesondere von einer von der Datenbrille separaten Recheneinheit empfangen wird, wobei die dritte Bildgröße insbesondere gleich der zweiten Bildgröße ist; Empfangen einer Angabe zu einem zweiten Bereich in Aufnahmen der Kamera insbesondere von einer von der Datenbrille separaten Recheneinheit; Bestimmen eines Ausschnitts des zweiten Grundbildes, der auf der Datenbrille anzuzeigen ist, wobei der Ausschnitt maximal die erste Bildgröße aufweist, wobei der Ausschnitt abhängig von einem Unterschied des zweiten Bereiches der ersten Aufnahme zum zweiten Bereich der zweiten Aufnahme bestimmt wird; Anzeigen des Ausschnitts des zweiten Grundbildes auf der Datenbrille gemeinsam mit dem Ausschnitt des ersten Grundbildes.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei der zweite Zeitpunkt später liegt als der erste Zeitpunkt, wobei der erste Zeitpunkt insbesondere ungefähr zum Zeitpunkt einer Messung der Kopfpose des Trägers der Datenbrille durch ein Kopfverfolgungssystem liegt, auf dessen Grundlage das Grundbild erzeugt wird; wobei der zweite Zeitpunkt insbesondere ungefähr dem Zeitpunkt des Empfangs des Grundbildes entspricht.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Gesamtheit der Schritte des Verfahrens wiederholt ausgeführt wird, wobei dabei für jedes empfangene Grundbild zwei oder mehr Ausschnitte nacheinander bestimmt und angezeigt werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, ferner umfassend: Empfangen weiterer Aufnahmen der Kamera je zu weiteren Zeitpunkten; Für jede weitere Aufnahme: – Bestimmen eines weiteren Ausschnitts des Grundbildes, der auf der Datenbrille anzuzeigen ist, wobei der Ausschnitt die erste Bildgröße aufweist, wobei der weitere Ausschnitt abhängig von einem Unterschied im Bereich der jeweiligen weiteren zur ersten Aufnahme oder einer der vorhergehenden Aufnahmen bestimmt wird; – Anzeigen des weiteren Ausschnitts auf der Datenbrille.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Aufnahmen der Kamera Aufnahmen der Umgebung der Datenbrille sind; wobei der Unterschied anhand der Veränderung, nämlich Verschiebung, der Position und/oder Rotation um die Sichtachse der Kamera einer in den Bereichen der ersten und zweiten Aufnahme erkannten Struktur, insbesondere Linien oder Kontrasten, und/oder eines in den Bereichen der ersten und zweiten Aufnahme erkannten Objektes in der ersten zur zweiten Aufnahme bestimmt wird; oder Wobei der Unterschied anhand einer Korrelation, insbesondere basierend auf den Pixeln der ersten und zweiten Aufnahmen, bezüglich einer Veränderung der Position und/oder Rotation um die Sichtachse der Kamera bestimmt wird.
  9. Verfahren nach Anspruch 8, wobei die Bestimmung des Ausschnitts eine zur Veränderung der Position und/oder Rotation proportionale Veränderung der Position und/oder Rotation eines vorbestimmten Ausschnitts des Grundbildes umfasst, wobei der vorbestimmte Ausschnitt ebenfalls die erste Bildgröße aufweist.
  10. Verfahren nach einem der vorhergehenden Ansprüche, wobei bei der Bestimmung des Grundbildes die absolute Ausrichtung der Datenbrille oder des Kopfes des Trägers der Datenbrille im Raum berücksichtigt, insbesondere durch eine Beschreibung der Ausrichtung anhand von drei linearen und drei rotatorischen Koordinaten.
  11. Verfahren nach Anspruch 10, wobei bei der Bestimmung des Grundbildes ferner die Position eines Objektes im Umfeld der Datenbrille derart berücksichtigt wird, dass dem Träger der Datenbrille eine Informationsdarstellung in vorbestimmter räumlicher Beziehung zum Objekt erscheint, insbesondere eine kontaktanaloge Darstellung der Informationsdarstellung erreicht wird.
  12. Verfahren nach einem der vorhergehenden Ansprüche, wobei der vorbestimmte Ausschnitt derart im Grundbild angeordnet ist, dass kein Rand des vorbestimmten Ausschnitts einen Rand des Grundbilds berührt, und weiter insbesondere derart angeordnet ist, dass der vorbestimmte Ausschnitt zentriert im Grundbild angeordnet ist.
  13. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Datenbrille ferner eine Recheneinheit umfasst, die dazu eingerichtet ist, den Unterschied der ersten zur zweiten Aufnahme zu bestimmen.
  14. Vorrichtung, insbesondere Datenbrille, umfassend: eine Anzeige, die zur Darstellung von Bildern mit der ersten Bildgröße eingerichtet ist; Eine Kamera; Elektronische Rechenmittel; Wobei die Vorrichtung zur Ausführung eines Verfahrens nach einem der vorhergehenden Ansprüche eingerichtet ist.
  15. Computerprogramm, umfassend Anweisungen zum Ausführen eines Verfahrens nach einem der Ansprüche 1 bis 13.
DE102014202712.8A 2014-02-14 2014-02-14 Bildanpassung für kontaktanaloge Darstellungen auf Datenbrillen Withdrawn DE102014202712A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014202712.8A DE102014202712A1 (de) 2014-02-14 2014-02-14 Bildanpassung für kontaktanaloge Darstellungen auf Datenbrillen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014202712.8A DE102014202712A1 (de) 2014-02-14 2014-02-14 Bildanpassung für kontaktanaloge Darstellungen auf Datenbrillen

Publications (1)

Publication Number Publication Date
DE102014202712A1 true DE102014202712A1 (de) 2015-08-20

Family

ID=53758813

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014202712.8A Withdrawn DE102014202712A1 (de) 2014-02-14 2014-02-14 Bildanpassung für kontaktanaloge Darstellungen auf Datenbrillen

Country Status (1)

Country Link
DE (1) DE102014202712A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10775634B2 (en) 2017-12-05 2020-09-15 Volkswagen Aktiengesellschaft Method for calculating the movement data of the head of a driver of a transportation vehicle, data glasses and transportation vehicle for use in the method, and computer program
WO2024068367A1 (de) * 2022-09-26 2024-04-04 Bayerische Motoren Werke Aktiengesellschaft Fahren eines kraftfahrzeugs in einer virtuellen umgebung

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040119662A1 (en) * 2002-12-19 2004-06-24 Accenture Global Services Gmbh Arbitrary object tracking in augmented reality applications
US20100091096A1 (en) * 2008-10-10 2010-04-15 Canon Kabushiki Kaisha Image processing apparatus and image processing method
WO2013138846A1 (en) * 2012-03-22 2013-09-26 Silverbrook Research Pty Ltd Method and system of interacting with content disposed on substrates

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040119662A1 (en) * 2002-12-19 2004-06-24 Accenture Global Services Gmbh Arbitrary object tracking in augmented reality applications
US20100091096A1 (en) * 2008-10-10 2010-04-15 Canon Kabushiki Kaisha Image processing apparatus and image processing method
WO2013138846A1 (en) * 2012-03-22 2013-09-26 Silverbrook Research Pty Ltd Method and system of interacting with content disposed on substrates

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10775634B2 (en) 2017-12-05 2020-09-15 Volkswagen Aktiengesellschaft Method for calculating the movement data of the head of a driver of a transportation vehicle, data glasses and transportation vehicle for use in the method, and computer program
WO2024068367A1 (de) * 2022-09-26 2024-04-04 Bayerische Motoren Werke Aktiengesellschaft Fahren eines kraftfahrzeugs in einer virtuellen umgebung

Similar Documents

Publication Publication Date Title
DE102013209415B4 (de) Dynamische Hinweisüberlagerung mit Bildbeschneidung
DE60133386T2 (de) Vorrichtung und verfahren zur anzeige eines ziels mittels bildverarbeitung ohne drei dimensionales modellieren
DE112012001022T5 (de) Ausrichtungssteuerung in einem am Kopf zu tragenden Gerät mit erweiterter Realität
DE102007023506A1 (de) Verfahren zum Darstellen von Bildobjekten in einem virtuellen dreidimensionalen Bildraum
DE202017007675U1 (de) Computerprogrammprodukt mit einem Computerprogramm zur Verarbeitung von visuellen Daten einer Straßenoberfläche
DE102012212577A1 (de) System und verfahren für ein video mit verbesserter tiefenwahrnehmung
DE112017001545T5 (de) Virtuelles überlagerungssystem und verfahren für verdeckte objekte
WO2009062492A2 (de) Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum
DE102009035422B4 (de) Verfahren zur geometrischen Bildtransformation
DE112016000689T5 (de) Kameraparametereinstellvorrichtung
DE102015202863A1 (de) Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges
DE112018007360T5 (de) Bildverarbeitungsvorrichtung, Bildanzeigesystem und Bildverarbeitungsverfahren
DE102013213492A1 (de) Bildanpassung für kontaktanaloge Darstellungen auf Datenbrillen
DE102006006001B3 (de) Verfahren und Anordnung zum Einblenden ortsbezogener Informationen in eine visuelle Darstellung oder Ansicht einer Szene
DE102013100569A1 (de) Verfahren und Vorrichtung zur Anzeige einer Fahrzeugumgebung
EP2350977B1 (de) Verfahren zur bildfusion von zumindest zwei bildern zu einem panoramabild
DE112020002727T5 (de) Videoverteilsystem, videoverteilverfahren und display-terminal
DE102017112190A1 (de) Anzeigesystem und Verfahren zum Erzeugen eines scheinbar dreidimensionalen Bilds eines Objekts
DE102015007491A1 (de) Verfahren zum Betrieb eines Fahrerinformationssystems eines Kraftfahrzeugs und Kraftfahrzeug
DE102014202712A1 (de) Bildanpassung für kontaktanaloge Darstellungen auf Datenbrillen
DE112020006467T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und computerlesbares aufzeichnungsmedium
DE112017001556T5 (de) Navigationssystem und Navigationsprogramm
EP3106349B1 (de) Sichtsystem für ein nutzfahrzeug zur darstellung von gesetzlich vorgeschriebenen sichtfeldern eines hauptspiegels und eines weitwinkelspiegels
DE112018001867T5 (de) Elektronische Vorrichtung und deren Steuerverfahren
EP2898666A1 (de) Client-einrichtung zur darstellung von kamerabildern einer steuerbaren kamera, verfahren, computerprogramm sowie überwachungssystem mit der client-einrichtung

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G09G0003000000

Ipc: G06T0011000000

R163 Identified publications notified
R005 Application deemed withdrawn due to failure to request examination