DE102014115471A1 - Kopfbefestigbare Anzeigevorrichtung - Google Patents

Kopfbefestigbare Anzeigevorrichtung Download PDF

Info

Publication number
DE102014115471A1
DE102014115471A1 DE102014115471.1A DE102014115471A DE102014115471A1 DE 102014115471 A1 DE102014115471 A1 DE 102014115471A1 DE 102014115471 A DE102014115471 A DE 102014115471A DE 102014115471 A1 DE102014115471 A1 DE 102014115471A1
Authority
DE
Germany
Prior art keywords
display device
head
user
mounted display
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102014115471.1A
Other languages
English (en)
Other versions
DE102014115471B4 (de
Inventor
Manuel Pabst
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Krauss Maffei Wegmann GmbH and Co KG
Original Assignee
Krauss Maffei Wegmann GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Krauss Maffei Wegmann GmbH and Co KG filed Critical Krauss Maffei Wegmann GmbH and Co KG
Priority to DE102014115471.1A priority Critical patent/DE102014115471B4/de
Priority to PCT/DE2015/100433 priority patent/WO2016062302A1/de
Publication of DE102014115471A1 publication Critical patent/DE102014115471A1/de
Application granted granted Critical
Publication of DE102014115471B4 publication Critical patent/DE102014115471B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)

Abstract

Die vorliegende Erfindung betrifft eine kopfbefestigbare Anzeigevorrichtung (1) mit einem auf der Sichtachse (2) des Benutzers (3) angeordneten, zumindest teildurchsichtigen Anzeigeelement (4) und einer Tracking-Kamera (5) zur Positionierung von computergenerierten Augmented-Reality-Inhalten in der Anzeige des Anzeigeelements (4), wobei der Lichtweg (6) der Tracking-Kamera (5) koaxial zur Sichtachse (2) des Benutzers (3) verläuft.

Description

  • Die vorliegende Erfindung betrifft eine kopfbefestigbare Anzeigevorrichtung mit einem auf der Sichtachse des Benutzers angeordneten Anzeigeelement und einer Tracking-Kamera zur Positionierung von computergenerierten Augmented-Reality-Inhalten in der Anzeige des Anzeigeelements. Einen weiteren Gegenstand der Erfindung bildet ein Verfahren zur Darstellung realer und virtueller Inhalte mit einer kopfbefestigbaren Anzeigevorrichtung, die ein Anzeigeelement in der Sichtachse des Benutzers und eine Tracking-Kamera zur Positionierung von computergenerierten Augmented-Reality-Inhalten in der Anzeige des Anzeigeelements aufweist.
  • Kopfbefestigbare Anzeigevorrichtungen wie beispielsweise Head Mounted Displays (HMDs) sind aus vielen Bereichen des Stands der Technik bekannt. So werden kopfbefestigbare Anzeigevorrichtungen beispielsweise zum Betrachten von Video- oder Fernsehinhalten, als Helme für Piloten oder in künstlich erzeugten Umgebungen verwendet. Auch im militärischen Bereich ist der Einsatz solcher Systeme bekannt.
  • Hierbei wird häufig auf Anwendungen der erweiterten Realität (Augmented-Reality) zurückgegriffen. Im Gegensatz zur virtuellen Realität, bei welcher der Benutzer komplett in eine virtuelle Welt eintaucht, ist es dem Benutzer bei der Verwendung von Augmented-Reality Vorrichtungen möglich, die Realität wahrzunehmen, sich aber gleichzeitig auch computergenerierte Augmented-Reality-Inhalte in das Sichtfeld einblenden zu lassen. Solche Augmented-Reality-Inhalte können beispielsweise Schriftzüge, Grafiken, virtuelle Gegner oder sonstige Informationen sein, die der Realität überlagert werden.
  • Eine solche Augmented-Reality-Vorrichtung ist beispielsweise aus der DE 10 2010 016 113 A1 zu Trainingszwecken bekannt. Dort trägt der Benutzer eine kopfbefestigbare Anzeigevorrichtung in Form einer opaken Datenbrille, wobei auf der Vorderseite Tracking-Kameras angeordnet sind, welche die Umgebung des Benutzers filmen. Die von der Kamera aufgenommenen Bilddaten werden auf einem als Bildschirm ausgebildeten Anzeigeelement, welches auf der Sichtachse des Benutzers hinter den Tracking-Kameras angeordnet ist, dargestellt. Der Benutzer sieht somit mittels der Kamera und der Anzeigevorrichtung die reale Welt. Je nach Blickrichtung des Benutzers ist es gewünscht, dass zusätzlich zu dem Kamerabild der realen Welt computergenerierte Augmented-Reality-Inhalte in der Anzeige des Anzeigeelements dargestellt werden. Hierzu können über die Tracking-Kameras optische Markierungen detektiert werden, wobei diese Aufschluss über die Art und die Position der einzublenden Inhalte liefern. An der Stelle der optischen Markierungen können dann die Augmented-Reality-Inhalte dem Kamerabild überlagert werden.
  • Solche kopfbefestigbaren Anzeigevorrichtungen haben sich in der Praxis durchaus bewährt, allerdings ist der zu erreichende Immersionsgrad verbesserungsfähig, da es dem Benutzer nicht möglich ist, die reale Welt direkt wahrzunehmen. Durch die Anordnung der Tracking-Kameras und des Bildschirm vor dem Auge des Benutzers, kann die reale Welt zwar als Kamerabild in der Anzeige des Anzeigeelements dargestellt werden, jedoch ist der entstehende Eindruck nicht vergleichbar mit dem, welcher bei der Sicht auf die reale Welt entstehen würde.
  • Aufgabe der vorliegenden Erfindung ist es daher, eine Anzeigevorrichtung sowie ein entsprechendes Verfahren anzugeben, mit welchem es möglich ist, die Darstellung für den Benutzer in einer Augmented-Reality-Umgebung zu verbessern.
  • Diese Aufgabe wird bei einer Vorrichtung der eingangs genannten Art dadurch gelöst, dass das Anzeigeelement zumindest teildurchsichtig ist und dass der Lichtweg der Tracking-Kamera koaxial zur Sichtachse des Benutzers verläuft.
  • Da das Anzeigeelement zumindest teildurchsichtig ausgebildet ist, ist es dem Benutzer möglich, direkt auf die reale Welt zu blicken. Er kann daher die reale Welt ohne Beeinträchtigungen wahrnehmen, wodurch der Immersionsgrad erhöht wird. Des Weiteren kann bei einer solchen Anordnung der Lichtweg der Tracking-Kamera in der gleichen Achse wie die Sichtachse des Benutzers verlaufen. Die Sichtachse des Benutzers stellt dabei die Achse dar, entlang welcher der Benutzer durch das Anzeigeelement hindurch auf die reale Welt blickt. Der Lichtweg der Tracking-Kamera ist der Weg des Kamerastrahls zwischen dem Objektiv und dem aufzunehmenden Objekt. Aufgrund der koaxialen Anordnung der Tracking-Kamera ist es nicht mehr erforderlich, die Tracking-Kamera vor dem Auge des Benutzers anzuordnen. Die Tracking-Kamera kann daher an anderer Stelle positioniert werden, so dass die Sicht des Benutzers nicht durch die Tracking-Kamera beeinflusst wird.
  • Bei bekannten Vorrichtungen hat sich gezeigt, dass häufig Fehldarstellungen, wie beispielsweise die Entstehung eines Parallaxenfehlers, auftreten. Diese Vorrichtungen generieren zur Vermeidung solcher Fehldarstellungen Tiefeninformationen. Dies bedeutet, dass der Objektabstand für jeden Bildpunkt relativ zur Kamera ermittelt wird. Derartige Tiefeninformationen werden beispielsweise über weitere Kameras generiert, was jedoch mit großem Aufwand und erheblichem Gewicht verbunden ist.
  • Durch den koaxialen Verlauf des Lichtwegs der Tracking-Kamera zur Sichtachse des Benutzers können auf einfache Art und Weise Fehldarstellungen, wie die Entstehung eines Parallaxenfehlers, eingeschränkt werden, wodurch eine Vielzahl von Augmented-Reality-Anwendungen ermöglicht wird. Es ist nicht erforderlich andere Informationen, wie Tiefeninformationen mit der kopfbefestigbaren Anzeigevorrichtung zu generieren. In der Anzeige einzublendende Objekte, die deckungsgleich in ein reales Bild eingeblendet werden sollen, können, insbesondere im Nahbereich, wo der Effekt des Parallaxenfehlers am größten ist, ohne entfernungsabhängigen Versatz dargestellt werden.
  • Eine vorteilhafte Ausgestaltung der Vorrichtung sieht vor, dass die Tracking-Kamera in einem Winkel, insbesondere in einem Winkel von 90°, zur Sichtachse des Benutzers angeordnet ist. Bevorzugt ist ein Winkel zwischen 60° und 120°, besonders bevorzugt zwischen 80° und 100°, besonders bevorzugt jedoch von 90°. Die Tracking-Kamera kann auf einer zur Sichtachse senkrechten Achse liegen, wobei zumindest ein Teil des Lichtwegs der Tracking-Kamera in dieser Achse verlaufen kann. Vorteilhafterweise ist die Tracking-Kamera oberhalb oder unterhalb des Auges des Benutzers angeordnet und ist als IR-Kamera ausgebildet. Besonders bevorzugt ist die Tracking-Kamera jedoch außerhalb des Blickfeldes des Benutzers angeordnet, so dass die Sicht des Benutzers durch die Tracking-Kamera nicht beeinträchtigt wird. Alternativ kann die Tracking-Kamera auch an einer beliebigen anderen Position angeordnet sein, wobei es dann notwendig sein kann, dass der Lichtweg der Tracking-Kamera über weitere Spiegel umgelenkt wird.
  • Vorteilhafterweise wird der Lichtweg der Tracking-Kamera an einem ersten teildurchlässigen Spiegel umgelenkt. Durch eine Umlenkung des Lichtwegs der Tracking-Kamera kann auf einfache Art und Weise ein zumindest teilweiser koaxialer Verlauf des Lichtwegs zur Sichtachse des Benutzers erreicht werden. Der Lichtweg der Tracking-Kamera und die Sichtachse des Benutzers weisen dabei eine gemeinsame Achse, insbesondere eine gemeinsame Rotationsachse auf. An dem Spiegel kann der Lichtweg der Tracking-Kamera umgelenkt werden, dass dieser nach dem Umlenken am Spiegel koaxial zur Sichtachse des Benutzers verläuft. Dabei kann der Winkel des Spiegels in Abhängigkeit der Position der Kamera relativ zum Auge des Benutzers angeordnet werden. Durch die Umlenkung des Strahlengangs kann die Bauform einer kopfbefestigbaren Anzeigevorrichtung kompakt gehalten werden. Bevorzugt kann der Lichtweg der Tracking-Kamera, insbesondere aus konstruktiven Gründen, auch an weiteren Spiegeln umgelenkt werden.
  • Der teildurchlässige Spiegel kann in der Sichtachse des Benutzers angeordnet sein. Vorteilhafterweise kann der Spiegel in einem Winkel gegenüber der Sichtachse des Benutzers angeordnet sein. Bevorzugt ist ein Winkel zwischen 0° und 90°, bevorzugt zwischen 25° und 75°, besonders bevorzugt jedoch von 45°. Durch eine solchermaßen ausgestaltete Anordnung kann erreicht werden, dass der Lichtweg der Tracking-Kamera derart umgelenkt wird, dass dieser nach dem Umlenken am Spiegel koaxial zur Sichtachse des Benutzers verläuft. Insbesondere ist es von Vorteil, wenn der Einfallswinkel gleich dem Ausfallswinkel ist. Da der Spiegel teildurchlässig ist, ist es dem Benutzer trotz der Anordnung in seiner Sichtachse möglich, auf die reale Umgebung zu blicken.
  • Der teildurchlässige Spiegel kann beispielsweise ein Filter oder dergleichen aufweisen, so dass dieser beispielsweise für Licht im nicht-sichtbaren Bereich (IR), beispielsweise für den Lichtweg der Tracking-Kamera, undurchlässig ist. Solche Spiegel werden im Allgemeinen auch als Kaltlicht-Spiegel bezeichnet. Der Spiegel kann derart ausgestaltet sein, dass Licht anderer Wellenlänge hindurchtreten kann, wie beispielsweise Licht im sichtbaren Bereich.
  • Um computergenerierte Augmented-Reality-Inhalte auf dem Anzeigeelement anzuzeigen bzw. zu positionieren ist es erforderlich, diese mittels eines Computers zu erzeugen und dann in geeigneter Weise auch optisch abzubilden. Die anwendungsspezifischen Augmented-Reality-Inhalte können dabei je nach Bedarf mittels eines Computers generiert werden. So kann es beispielsweise erwünscht sein, zur Durchführung von Simulationstrainings oder dergleichen, realistische Abbilder der realen Welt oder von Objekten in einer solchen zu erzeugen.
  • Da die Augmented-Reality-Inhalte beispielsweise zu Simulationszwecken sehr genau mit der realen Welt überlagert werden müssen, um so ein gutes Ergebnis zu erzielen, sieht daher eine weitere vorteilhafte Ausgestaltung ein Projektionselement zur Darstellung der computergenerierten Augmented-Reality-Inhalte vor. Die vom Computer generierten Augmented-Reality-Inhalte werden zur Wiedergabe auf eine Projektionsfläche übertragen. Eine solche Projektionsfläche kann Teil des Projektionselements sein.
  • Bei den anzuzeigenden Augmented-Reality-Inhalten kann es sich um hochkomplexe Abbildungen handeln, welche auf dem Anzeigeelement angezeigt werden sollen. Derartige Augmented-Reality-Inhalte sollten daher auf einem dafür geeigneten Projektionselement wiedergegeben werden. Das Projektionselement kann als Wiedergabeelement für die Augmented-Reality-Inhalte dienen. Hierzu kann das Projektionselement beispielsweise als Projektor, als Bildschirm, als Anzeige, als OLED oder dergleichen ausgebildet sein. Besonders bevorzugt ist eine Ausgestaltung, bei der das Projektionselement als Mikrodisplay ausgebildet ist. Durch die Verwendung des Mikrodisplays kann eine verzerrungsfreie und hochauflösende Darstellung erreicht werden.
  • In diesem Zusammenhang ist es ferner von Vorteil, wenn das Projektionselement oberhalb oder unterhalb der Sichtachse des Benutzers angeordnet ist. Es ergibt sich bei einfacher Bauweise eine kompaktere Bauform, wodurch kleinere Anzeigevorrichtungen realisiert werden können. Die Anzeigevorrichtung ist dann nach oben bzw. unten bauend und nicht nach vorne, wodurch die Anzeigevorrichtung leichter zu tragen ist. Auch kann hierdurch das Gewicht weiter reduziert werden. Durch die Anordnung des Projektionselements oberhalb oder unterhalb des Auges des Betrachters liegt dieses nicht im Blickfeld, so dass Beeinträchtigungen im Blickfeld des Benutzers vermindert werden können.
  • Vorteilhafterweise wird der Projektionsweg des Projektionselements zur Darstellung der Augmented-Reality-Inhalte auf dem Anzeigeelement an einem ersten teildurchlässigen Spiegel umgelenkt. Durch die Umlenkung des vom Auge des Benutzer hin zum Projektionselement weisenden Projektionswegs kann erreicht werden, dass die Augmented-Reality-Inhalte durch den Benutzer ohne Beeinträchtigungen wahrgenommen werden können, ohne dass das Projektionselement im Blickfeld des Benutzers angeordnet sein muss. Es ist daher möglich, zum einen die Realität und zum anderen auch die computergenerierten Augmented-Reality-Inhalte zu betrachten. Vorteilhafterweise verläuft der Projektionsweg des Projektionselements durch die Umlenkung an dem ersten, zumindest teildurchlässigen Spiegel ebenfalls koaxial zur Sichtachse des Benutzers.
  • Eine weitere Ausgestaltung sieht vor, dass der Projektionsweg des Projektionselements an dem Anzeigeelement zumindest teilweise reflektiert wird. Die Projektion des Projektionselements ist dann für den Benutzer im Anzeigeelement sichtbar. Aufgrund der Anordnung des ersten teildurchlässigen Spiegels in der Sichtachse des Benutzers muss, damit der Benutzer die computergenerierten Augmented-Reality-Inhalte wahrnehmen kann, der Projektionsweg geeignet umgelenkt werden.
  • Eine weitere in konstruktiver Hinsicht vorteilhafte Ausgestaltung sieht einen zweiten teildurchlässigen Spiegel zur Umlenkung des Projektionswegs des Projektionselements vor. Die auf dem Projektionselement dargestellten Augmented-Reality-Inhalte werden über den Projektionsweg auf der Anzeige des Anzeigeelements dargestellt, wobei der zweite teildurchlässige Spiegel den Projektionsweg zusätzlich zu dem ersten teildurchlässigen Spiegel umlenkt. Durch einen solchen Aufbau kann das Projektionselement oberhalb oder unterhalb des Auges des Benutzers angeordnet werden, ohne dabei beispielsweise mit weiteren Bauteilen der kopfbefestigbaren Anzeigevorrichtung zu kollidieren. Durch das Verschachteln der einzelnen Bauteile kann die Baugröße weiter verringert werden.
  • In diesem Zusammenhang ist es von Vorteil, wenn der zweite teildurchlässige Spiegel in einem Winkel, insbesondere in einem Winkel von 45°, zur Sichtachse des Benutzers angeordnet ist. Bevorzugt ist ein Winkel zwischen 0° und 90°, bevorzugt zwischen 25° und 75°, besonders bevorzugt jedoch von 45°. Durch eine Anordnung des Spiegels in einem Winkel von 45° kann erreicht werden, dass der Einfallswinkel gleich dem Ausfallswinkel ist und der Projektionsweg geeignet umgelenkt werden kann. Bevorzugt ist der Spiegel in einer zur Sichtachse des Benutzers senkrechten Achse und besonders bevorzugt auf einer Achse mit dem ersten teildurchlässigen Spiegel angeordnet. Auf diese Weise können sowohl der Lichtweg der Tracking-Kamera als auch der Projektionsweg des Projektionselements ohne eine gegenseitige Beeinflussung geeignet umgelenkt werden, so dass sowohl der Lichtweg als auch der Projektionsweg koaxial zur Sichtachse des Benutzers verlaufen.
  • Der Projektionsweg des Projektionselements kann zunächst in einer zur Sichtachse parallelen Ebene verlaufen, bevor er an dem zweiten teildurchlässigen Spiegel umgelenkt wird. Nach der Umlenkung an dem zweiten teildurchlässigen Spiegel kann der Projektionsweg koaxial mit dem Lichtweg der Tracking-Kamera verlaufen. Nach einer erneuten Umlenkung an dem ersten teildurchlässigen Spiegel, können die Sichtachse des Benutzers, der Lichtweg der Tracking-Kamera und der Projektionsweg des Projektionselements koaxial verlaufen.
  • Bevorzugt ist ferner, wenn der erste teildurchlässige Spiegel und der zweite teildurchlässige Spiegel in der gleichen Richtung ausgerichtet sind, d. h. dass ihre Spiegelflächen zueinander parallel verlaufen. Alterativ sind jedoch auch Ausgestaltungen denkbar, bei denen die Spiegelflächen um 90° gegeneinander verdreht sind. Die Spiegel können des Weiteren reflektierende Oberflächen aufweisen, welche auf einem sehr dünnen und leichten Trägermaterial angeordnet sind. Hierdurch kann das Gewicht des Gesamtaufbaus deutlich verringert werden. Auch können die Spiegel teilweise gewölbt ausgebildet sein.
  • Eine weitere bevorzugte Ausgestaltung sieht mindestens eine Linse zur Abbildung des projizierten Bildes des Projektionselementes vor. Besonders bevorzugt ist jedoch ein optisches Linsensystem, welches mehrere einzelne Linsen beinhalten kann. Hierdurch kann erreicht werden, dass die computergenerierten Augmented-Reality-Inhalte im Auge des Betrachters verzerrungsfrei und hochauflösend dargestellt werden. Die computergenerierten Augmented-Reality-Inhalte werden scharf im Auge des Benutzers abgebildet. In diesem Zusammenhang ist es von Vorteil, wenn es sich bei dem optischen Linsensystem um ein berechnetes Linsen-System, ähnlich einem Objektiv, handelt. Alternativ oder zusätzlich kann die Linse als diffraktives Element ausgebildet sein. Die diffraktiven Elemente können aus anderen Materialien als übliche Linsen bestehen, wodurch eine weitere deutliche Gewichtsreduzierung bzw. Baugrößenreduzierung der kopfbefestigbaren Anzeigevorrichtung möglich ist. Die diffraktiven Elemente können aus einem sehr leichten, dünnen Material hergestellt sein.
  • Vorteilhafterweise ist die Linse zwischen einem zweiten teildurchlässigen Spiegel und einem Projektionselement angeordnet. Der Projektionsweg des Projektionselements verläuft dann zunächst über die Linse bzw. über das Linsensystem und kann dann an dem zweiten Spiegel gebrochen werden. Der Projektionsweg des Projektionselements wird durch die Linse geformt, so dass eine scharfe Abbildung der darzustellenden Augmented-Reality-Inhalte im Auge des Betrachters realisiert werden kann. Der durch die Linse geformte Projektionsweg bleibt auch nach der Brechung an dem zweiten Spiegel erhalten. Bevorzugt verläuft der Projektionsweg auch über den ersten teildurchlässigen Spiegel, wobei auch bei der Brechung am zweiten Spiegel die Eigenschaften des Projektionswegs aufrecht erhalten bleiben.
  • Um eine gute und verzerrungsfreie Sicht des Benutzers auf die Realität sowie auf die angezeigten Augmented-Reality-Inhalte gewährleisten zu können, ist es erforderlich, die Anzeigevorrichtung auf die Augenposition des Benutzers einzustellen. Hierzu ist es bekannt, diese Kalibrierung in einem manuellen Schritt vor jeder Benutzung durchzuführen. Problematisch ist jedoch, dass die Anzeigevorrichtung während der Benutzung immer wieder verrutscht und sich daher die Position relativ zum Auge des Benutzers ständig verändert. Da sich dies als nachteilig erwiesen hat, sollen im Nachfolgenden Ausgestaltungen vorgeschlagen werden, welche eine automatische Kalibrierung der Augenposition des Benutzers ermöglichen.
  • Von besonderem Vorteil ist eine Ausgestaltung, bei der durch eine Augenerfassungskamera die Augenposition des Benutzers erfasst wird. Da es für eine Benutzung ohne Beeinträchtigungen erforderlich ist, die kopfbefestigbare Anzeigevorrichtung einzustellen bzw. zu kalibrieren, kann dies durch eine Augenerfassungskamera (Eye-Tracking-Kamera) auf einfache Art und Weise realisiert werden. Die Augenposition des Benutzers kann über die Augenerfassungskamera kontinuierlich erfasst und verarbeitet werden, wobei es nicht mehr erforderlich ist, eine manuelle Kalibrierung vorzunehmen. Vielmehr ist eine automatische Kalibrierung möglich, um Beeinträchtigungen, wie den Versatz zwischen realer und virtueller Umgebung zu eliminieren.
  • Da es erforderlich ist, die computergenerierten Augmented-Reality-Inhalte positionsgenau dem realen Bild zu überlagern, ist eine genaue und kontinuierliche Kalibrierung der kopfbefestigbaren Anzeigevorrichtung von hoher Bedeutung. Denn würden die Augmented-Reality-Inhalte nicht sehr genau der Realität überlagert, würde der Nutzen einer Anzeigevorrichtung vermindert werden.
  • In diesem Zusammenhang ist es bevorzugt, wenn der Lichtweg der Augenerfassungskamera zumindest teilweise koaxial zur Sichtachse des Benutzers verläuft. Die Sichtachse des Benutzers verläuft dann in einer Achse mit dem Lichtweg der Tracking-Kamera, dem Projektionsweg des Projektionselements und dem Lichtweg der Augenerfassungskamera. Die Sichtachsen der realen Welt stimmen daher mit der virtuellen Welt überein, wodurch Beeinträchtigungen, wie beispielsweise Parallaxenfehler verringert werden können. Bevorzugt ist die Augenerfassungskamera eine im Infrarotbereich arbeitende Kamera, da im Infrarotbereich eine besonders hohe Empfindlichkeit realisiert werden kann und insbesondere das Auge des Benutzers nicht geblendet wird, wodurch dann der Kontrast der Anzeigevorrichtung vermindert würde. Die durch die Augenerfassungskamera aufgenommen Daten können mittels einer Datenverarbeitungseinheit verarbeitet und zur Kalibrierung herangezogen werden.
  • Vorteilhafterweise wird der Lichtweg der Augenerfassungskamera an einen ersten teildurchlässigen Spiegel umgelenkt. Der Lichtweg der Augenerfassungskamera wird über den halbdurchlässigen Spiegel auf das Auge des Benutzers gerichtet, wobei der Lichtweg der Augenerfassungskamera koaxial mit der Sichtachse des Benutzers verläuft. Insoweit ist es von besonderem Vorteil, wenn der erste teildurchlässige Spiegel für die Umlenkung mehrerer Strahlengänge bzw. Lichtwege verwendet werden kann.
  • Gemäß einer bevorzugten Ausgestaltung ist die Augenerfassungskamera zumindest teilweise in einer zur Sichtachse des Benutzers senkrechten Achse angeordnet. Dadurch, dass die Augenerfassungskamera bevorzugt unter einem Winkel von 90° zum Auge des Benutzers angeordnet ist, liegt diese nicht Blickfeld des Benutzers. Vorteilhafterweise weist der erste Spiegel einen Winkel von 45° gegenüber der Sichtachse des Benutzers auf, so dass der Einfallswinkel des Lichtwegs der Augenerfassungskamera gleich dem Ausfallswinkel ist. Denn dann trifft der Lichtweg der Augenerfassungskamera geeignet auf das Auge des Benutzers, koaxial zur Sichtachse.
  • In diesem Zusammenhang ist ebenfalls von Vorteil, wenn die Augenerfassungskamera und die Tracking-Kamera auf einer gemeinsamen Achse, besonders bevorzugt auf einer zur Sichtachse senkrechten Achse angeordnet sind. Vorteilhafterweise sind die Tracking-Kamera und die Augenerfassungskamera einander zugewandt, so dass sich die Objektivöffnungen gegenüberliegen. Durch die gegenüberliegende Anordnung der beiden Kameras auf einer Achse kann beispielsweise der erste teildurchlässige Spiegel für beide Kameras genutzt werden. Hierdurch entfallen weitere Bauteile, wodurch das Gewicht des Gesamtaufbaus weiter verringert werden kann.
  • Eine weitere vorteilhafte Ausgestaltung sieht vor, dass das Anzeigeelement als teildurchlässiger Hohlspiegel ausgebildet ist. Über einen Hohlspiegel wird das Blickfeld des Benutzers aufgeweitet, so dass auch Gegenstände, welche üblicherweise außerhalb des Blickfeldes des Benutzers liegen, erfasst werden können. Bevorzugt handelt es sich um einen großen Hohlspiegel, wodurch die Sicht des Betrachters nicht beeinflusst wird. Auch kann der Hohlspiegel aus einem sehr leichten und dünnen Material ausgebildet sein. Ferner ist es von Vorteil, wenn der Hohlspiegel ebenfalls teildurchlässig ausgebildet ist, so dass zum einen die Realität sichtbar ist, aber auch computergenerierte Augmented-Reality-Inhalte dargestellt werden können. Über einen Hohlspiegel kann auf einfache Art und Weise ein großer Blickwinkel erreicht werden. Alternativ oder zusätzlich kann jedoch auch der erste teildurchlässige Spiegel als Anzeigeelement ausgebildet sein.
  • Nachfolgend soll nun auf Ausgestaltungen eingegangen werden, welche sich mit einer Abdunkelung des Anzeigeelements befassen. Eine Abdunkelung des Anzeigeelements ist beispielsweise dann von Vorteil, wenn das Umgebungslicht besonders hell ist bzw. wenn nicht nur Augmented-Reality-Anwendungen, sondern auch rein virtuelle Anwendungen realisiert werden sollen. Dann kann es erforderlich sein, zwischen einer Augmented-Reality-Umgebung und einer rein virtuellen Umgebung umzuschalten, so dass die Realität vom Benutzer nicht mehr wahrgenommen werden kann.
  • Eine weitere vorteilhafte Ausgestaltung sieht daher vor, dass das Anzeigeelement abdunkelbar ist. Durch das Abdunkeln des Anzeigeelements kann die Sicht auf die reale Welt vermindert bzw. ausgeschlossen werden. Hierzu ist es von Vorteil, wenn eine elektronische Abdunkelung erfolgen kann. Es ist daher möglich, nur Teile der realen Welt bzw. nur noch die rein virtuelle Welt sehen zu können. Bevorzugt ist eine Lichtundurchlässigkeit in der Augmented-Reality von 0% bis 10%, besonders bevorzugt jedoch von 5%. Die Lichtundurchlässigkeit in der virtuellen Realität sollte besonders bevorzugt bei 90% bis 100%, besonders bevorzugt jedoch bei 95% liegen.
  • Vorteilhafterweise sind einzelne Bereiche des Anzeigeelements selektiv abdunkelbar. Durch eine selektive Abdunkelung einzelner Bereiche ist es möglich, die Bereiche abzudunkeln, welche für die Darstellung der Augmented-Reality-Inhalte von Interesse sind. Hierdurch kann gewährleistet werden, dass die Sicht des Benutzers auf die reale Welt nur dort eingeschränkt wird, wo es erforderlich ist. Dies kann insbesondere bei hellen Bereichen in der betrachteten realen Umgebung von Vorteil sein, beispielsweise bei hellen Wänden, Schneeflächen etc., da durch die selektive Abdunkelung der Kontrast an dieser Stelle erhöht werden kann.
  • Eine in diesem Zusammenhang bevorzugte Ausgestaltung sieht vor, dass das Anzeigeelement als LCD-Shutter ausgebildet ist. Bei einem LCD-Shutter wird die Transparenz über ein elektrisches Signal gesteuert. Hierzu kann das Anzeigeelement, beispielsweise als elektrochromes Display ausgestaltet sein. Alternativ kann zur Abdunkelung ein DLP-Element (digital light processing) verwendet werden, was jedoch mit einem erhöhten Gewicht einhergehen würde. Bevorzugt kann die Tracking-Kamera alternativ oder zusätzlich auch für die Abdunkelung des Anzeigeelements der kopfbefestigbaren Anzeigevorrichtung verwendet werden. Über einen LCD-Shutter ist eine abgestufte Gesamtabdunkelung des Anzeigeelements möglich. So können insbesondere bei einer als Matrix ansteuerbaren Ausführungsform eines LCD-Shutters einzelne Bereiche selektiv abgedunkelt werden.
  • Eine weitere konstruktive Ausgestaltung sieht ein Abdunkelungselement zur Abdunkelung des Anzeigeelements vor.
  • Vorteilhafterweise weist das Abdunkelungselement mindestens zwei teiltransparente Flächen auf, welche gegeneinander verschoben werden können. Bei den zwei teiltransparenten Flächen kann es sich beispielsweise um Flächen mit parallel angeordneten Linien handeln, welche zur Abdunkelung gegeneinander verschoben werden können. Eine Verschiebung kann beispielsweise über einen Aktuator, wie einen Stellmotor realisiert werden. Abhängig von dem Grad der Verschiebung der Flächen gegeneinander ist die Abdunkelungsintensität einstellbar.
  • Alternativ oder zusätzlich kann das Abdunkelungselement auch als flächige Abdeckung ausgebildet sein. Die Abdeckung kann von außen über den Hohlspiegel geschoben werden, so dass auf mechanisch einfache Weise eine Abdunkelung des Sichtfeldes des Benutzers realisiert werden kann. Ein solches Abdunkelungselement kann beispielsweise bei dem Wechsel zwischen erweiterter und virtueller Realität von Vorteil sein. Vorteilhafterweise ist das Abdunkelungselement der Form des Hohlspiegels angepasst und weist eine schalenförmige Geometrie auf.
  • Darüber hinaus wird zur Lösung der vorstehend genannten Aufgabe bei einem Verfahren der eingangs genannten Art vorgeschlagen, dass die computergenerierten Augmented-Reality-Inhalte, die über eine Tracking-Kamera positioniert werden, auf dem zumindest teildurchsichtigen Anzeigeelement angezeigt werden.
  • Auch hier ergeben sich die bereits im Zusammenhang mit der Anzeigevorrichtung erläuterten Vorteile.
  • In diesem Zusammenhang ist es ferner von Vorteil, wenn zur Durchführung des Verfahrens eine Vorrichtung mit den zuvor beschriebenen Merkmalen verwendet wird, wobei die Merkmale der Vorrichtung einzeln oder in Kombination verwendet werden können.
  • Eine vorteilhafte Ausgestaltung des Verfahrens sieht vor, dass die Augenposition des Benutzers mittels einer Augenerfassungskamera zur Kalibrierung der kopfbefestigbaren Anzeigevorrichtung aufgenommen wird. Über die Augenerfassungskamera kann die Augenposition kontinuierlich erfasst werden und somit eine kontinuierliche Kalibrierung erfolgen.
  • Vorteilhafterweise wird bei einer weiteren Ausgestaltung des Verfahrens die Augenposition des Benutzers mit Positionsinformationen der kopfbefestigbaren Anzeigevorrichtung, insbesondere mit der Position des Anzeigeelements verglichen. Durch Bewegungen des Benutzers kann sich die Position der Anzeigevorrichtung verschieben, weshalb es erforderlich ist, die Augenposition kontinuierlich zu erfassen und die Anzeige der Augmented-Reality-Inhalte darauf abzustimmen.
  • Weitere Vorteile und Einzelheiten einer erfindungsgemäßen Anordnung, wie auch eines erfindungsgemäßen Verfahrens, werden nachfolgend unter Zuhilfenahme der beigefügten, stark schematisierten Zeichnungen von Ausführungsbeispielen erläutert werden. Darin zeigen:
  • 1 in schematischer Darstellung eine erste Ausführung einer erfindungsgemäßen kopfbefestigbaren Anzeigevorrichtung,
  • 2 in schematischer Darstellung eine zweite Ausführung einer erfindungsgemäßen kopfbefestigbaren Anzeigevorrichtung.
  • Kopfbefestigbare Anzeigevorrichtungen 1 sind aus vielen Bereichen des täglichen Lebens bekannt. Mögliche bekannte Ausgestaltungen solcher kopfbefestigbaren Anzeigevorrichtungen 1 sind beispielsweise HMDs (Head Mounted Displays), welche als Helme, Datenbrillen oder dergleichen ausgebildet sein können. Kopfbefestigbare Anzeigevorrichtungen 1 wie HMDs werden häufig dazu verwendet, Video- und Fernsehinhalte zu betrachten, Simulationstrainings durchzuführen, beispielsweise in der Pilotenausbildung oder aber auch zur Darstellung von virtuellen Umgebungen. Auch in weiten Teilen des Militärs finden solche kopfbefestigbaren Anzeigevorrichtungen 1 bereits Einsatz.
  • Bei den aus dem Stand der Technik bekannten Anzeigevorrichtungen 1 hat es sich jedoch gezeigt, dass der zu erreichende Immersionsgrad verbesserungsfähig ist, da dem Benutzer 3 die reale Welt nur als Kamerabild angezeigt wird.
  • Mit einer erfindungsgemäßen kopfbefestigbaren Anzeigevorrichtung 1 sollen die Darstellung für den Benutzer 3 in einer Augmented-Reality-Umgebung verbessert und der Immersionsgrad erhöht werden. Hierzu soll nachfolgend anhand von zwei Ausführungsbeispielen, welche in den 1 und 2 dargestellt sind, eingegangen werden.
  • In der 1 ist ein erstes Ausführungsbeispiel einer erfindungsgemäßen kopfbefestigbaren Anzeigevorrichtung 1 in einer schematisierten Darstellung gezeigt. Die kopfbefestigbare Anzeigevorrichtung 1 setzt sich aus mehreren einzelnen Bestandteilen zusammen, welche jeweils verschiedene Funktionen aufweisen. Im vorliegenden Ausführungsbeispiel weist die Anzeigevorrichtung 1 ein Anzeigeelement 4, eine Tracking-Kamera 5 zur Positionierung der computergenerierten Augmented-Reality-Inhalte in der Anzeige des Anzeigeelements 4, einen ersten teildurchlässigen Spiegel 10, einen zweiten teildurchlässigen Spiegel 11, eine Linse 9, ein Projektionselement 7 sowie eine Augenerfassungskamera 12 auf.
  • Die erfindungsgemäße Anzeigevorrichtung 1 kann beispielsweise in Form einer Brille, eines Helms oder dergleichen ausgebildet sein und auf den Kopf des Benutzers 3 aufgesetzt werden. Um die kopfbefestigbare Anzeigevorrichtung 1 zu verwenden, wird diese so vor dem Auge des Benutzers 3 angeordnet, so dass die Sichtachse 2 des Benutzers 3 durch das Anzeigeelement 4 hindurch verläuft. Die Sichtachse 2 des Benutzers 3 ist dabei die Achse, entlang welcher der Benutzer 3 in die reale Welt blickt.
  • Bei bekannten Anzeigevorrichtungen 1 wurde die Sicht des Benutzers 3 häufig durch die Anzeigevorrichtung 1 und insbesondere durch das Anzeigeelement 4 und die Tracking-Kamera 5 eingeschränkt. Diese Vorrichtungen 1 weisen zumeist nur ein sehr kleines Sichtfeld auf, wobei es jedoch nicht möglich ist, das gesamte Sehfeld des Benutzers 3 abzudecken. Um dieses Problem zu lösen, ist das Anzeigeelement 4 als ein zumindest teildurchsichtiges Anzeigeelement 4 ausgebildet, durch welches der Benutzer 3 hindurch blicken kann und auf welchem die Augmented-Reality-Inhalte angezeigt werden können.
  • Das Anzeigeelement 4 ist als ein Hohlspiegel 4 ausgebildet, über welchen das Sichtfeld („Field Of View”) des Benutzers 3 aufgeweitet werden kann. Je größer der Hohlspiegel 4 dabei ausgebildet ist, desto größer kann das Sichtfeld des Benutzers 3 sein. Wird ein großer Hohlspiegel 4 verwendet, ist es möglich, eine möglichst weite Abdeckung des menschlichen Sehfeldes zu erreichen.
  • Große und schwere Linsen und besonders lange optische Wege werden daher nicht benötigt.
  • In dem zumindest teildurchsichtigen Anzeigeelement 4 können mittels einer Tracking-Kamera 5 computergenerierte Augmented-Reality-Inhalte positioniert und angezeigt werden. Diese Augmented-Reality-Inhalte können dabei beispielsweise Objektdaten, Informationen oder sonstige Einblendungen sein, welche dem Benutzer 3 zur Verfügung gestellt werden sollen.
  • Hierfür ist die Tracking-Kamera 5 oberhalb des Auges des Benutzers 3 vorgesehen, mit welcher beispielsweise optische Markierungen in der realen Welt aufgenommen werden können. Um der Realität an bestimmten Stellen computergenerierte Augmented-Reality-Inhalte zu überlagen, werden in der Realität Marker platziert. Diese werden mittels der Tracking-Kamera 5 aufgenommen und mittels eines in den Figuren nicht gezeigten Computers ausgewertet. So kann beispielsweise, wie dies in der DE 10 2010 016 113 A1 beschrieben ist, an die Stelle eines Ausblicks im Fahrzeug ein Augmented-Reality-Inhalt dem echten Ausblick überlagert werden.
  • Hierzu kann die Tracking-Kamera 5 beispielsweise als Infrarot-Kamera ausgebildet und oberhalb des Auges des Benutzers 3 angeordnet sein. Anhand der aufgenommen Daten lassen sich dann Informationen über die Positionierung der Augmented-Reality-Inhalte in der Anzeige des Anzeigeelements 4 ableiten. Die Tracking-Kamera 5 an einer beliebigen Position, wie beispielsweise oberhalb oder unterhalb des Auges des Benutzers 3 angeordnet sein. Es ist jedoch von Vorteil, wenn die Tracking-Kamera 5 derart angeordnet ist, dass sie nicht im Sichtfeld des Benutzers 3 liegt.
  • Die Tracking-Kamera 5 erfasst die Lage und Ausrichtung eines Objektes, beispielsweise anhand von optischen Markierungen, in der realen Wett und wertet diese Daten aus. Zur Datenauswertung und Datenverarbeitung ist eine nicht dargestellte Bildverarbeitungseinheit vorgesehen, welche die empfangenen Daten auswertet und daraus eine möglichst realistisch wirkende Überlagerung der realen mit der virtuellen Welt erzeugt.
  • Wie dies der Darstellung in der 1 zu entnehmen ist, ist die Tracking-Kamera 5 in einem Winkel und im vorliegenden Fall, insbesondere in einem Winkel von 90° auf einer senkrechten Achse A, gegenüber der Sichtachse 2 des Benutzers 3 angeordnet.
  • Um Parallaxenfehler minimieren zu können, ist es erforderlich, dass der Lichtweg 6 der Tracking-Kamera 5 koaxial zur Sichtachse 2 des Benutzers 3 verläuft. Da die Tracking-Kamera 5 jedoch auf einer zur Sichtachse 2 senkrechten Achse A angeordnet und der Lichtweg 6 gegenüber der Sichtachse 2 um 90° gedreht ist, ist es erforderlich, den Lichtweg 6 umzulenken.
  • Hierzu ist ein zumindest teildurchlässiger Spiegel 10 vorgesehen, welcher beispielsweise als Kaltlicht-Spiegel oder aber auch als Filter ausgebildet sein kann. Der teildurchlässige Spiegel 10 liegt in der Sichtachse 2 des Benutzers 3, wobei der Spiegel 10 durchlässig ist für Wellenlängen im Bereich des sichtbaren Lichtes. Hierdurch wird es dem Benutzer 3 ermöglicht, durch den Spiegel 10 hindurch auf die reale Welt zu blicken, ohne dass seine Sicht beeinträchtigt wird. Der Spiegel 10 ist hingegen reflektierend ausgebildet für Strahlung im nicht-sichtbaren Bereich. Da die Tracking-Kamera 5 im vorliegenden Ausführungsbeispiel als Infrarotkamera ausgebildet ist, kann der Lichtweg 6 der Tracking-Kamera 5 an dem Spiegel 10 umgelenkt werden.
  • Die Oberfläche des Spiegels 10 ist gegenüber der Sichtachse 2 um einen Winkel von 45° gedreht. Da bei einem Spiegel 10 gemäß dem Reflexionsgesetz der Einfallswinkel gleich dem Ausfallswinkel ist, kann auf diese Weise erreicht werden, dass der Lichtweg 6 der Tracking-Kamera 5 derart umgelenkt wird, dass dieser nach der Reflexion an dem Spiegel 10 koaxial zur Sichtachse 2 verläuft. Ist der Spiegel 10 in einem Winkel von 45° angeordnet, wird der um 90° gegenüber Sichtachse 2 des Benutzers 3 verlaufende Lichtweg 6 durch die Reflexion um 90° gedreht.
  • Da der Lichtweg 6 der Tracking-Kamera 5 nach der Umlenkung an dem Spiegel 10 koaxial zur Sichtachse 2 verläuft, kann das Entstehen von Verschiebungsfehlern vermindert werden, weshalb auch im Nahbereich eine realistische Darstellung von Augmented-Reality-Inhalten in der Anzeige des Anzeigeelements 4 ohne Parallaxenfehler möglich ist.
  • Wie dies ebenfalls der Darstellung der 1 zu entnehmen ist, ist oberhalb des ersten teildurchlässigen Spiegels 10 ein weiterer zweiter teildurchlässiger Spiegel 11 angeordnet. Dieser kann ähnlich wie der erste teildurchlässige Spiegel 10 als kalter Spiegel oder als Filter ausgebildet sein, wobei es von Vorteil ist, wenn an dem Spiegel 11 nur Licht im sichtbaren Bereich umgelenkt wird. Im Gegensatz zu dem Spiegel 10 ist der Spiegel 11 jedoch durchlässig für Licht im nicht sichtbaren Bereich, also beispielsweise für die von der Tracking-Kamera 5 emittierte IR-Strahlung.
  • Der erste teildurchlässige Spiegel 10 und der zwei teildurchlässige Spiegel 11 liegen beide in der zur Sichtachse 2 senkrechten Achse A und sind jeweils um 45° gegenüber der Sichtachse 2 gedreht angeordnet. Auch liegen die Oberflächen der beiden Spiegel 10, 11 in zueinander parallelen Ebenen.
  • Der Spiegel 11 ist insbesondere dafür vorgesehen, um den Projektionsweg 8 eines Projektionselements 7 umzulenken, um so die computergenerierten Augmented-Reality-Inhalte in der Anzeige des Anzeigeelements 4 sichtbar machen zu können. Die computergenerierten Augmented-Reality-Inhalte werden von einem Computer erzeugt und auf dem Projektionselement 7 dargestellt. Bei dem Projektionselement 7 handelt es sich um ein Mikrodisplay. Das Projektionselement 7 ist im Ausführungsbeispiel oberhalb des Auges des Benutzers 3 angeordnet, jedoch sind auch andere Anordnungsmöglichkeiten denkbar.
  • Durch die Anordnungen des Projektionselementes 7 als auch des zweiten teildurchlässigen Spiegels 11 oberhalb oder unterhalb des Auges ergibt sich eine kompakte Bauform der kopfbefestigbaren Anzeigevorrichtung 1. Je nach Ausrichtung der beiden Spiegel 10, 11 kann die Bauform auch weiter variiert werden. Die Licht- bzw. Projektionswege 6, 8 werden dann entsprechend anders gebrochen, wobei jedoch zu berücksichtigen ist, dass diese allerdings in jedem Fall vor dem Auftreffen auf das Anzeigeelement 4 koaxial mit der Sichtachse 2 des Benutzers 3 verlaufen sollten.
  • Der Projektionsweg 8 des Projektionselements 7 verläuft über den ersten teildurchlässigen Spiegel 10 als auch über den zweiten teildurchlässigen Spiegel 11 und wird an diesen jeweils umgelenkt. Auf diese Weise kann erreicht werden, dass auch der Projektionsweg 8 nach der Umlenkung an dem ersten Spiegel 10 koaxial zur Sichtachse 2 des Benutzers 3 verläuft. Hierbei ist es von Vorteil, wenn das Projektionselement 7 und der zweite teildurchlässige Spiegel 11 auf gleicher Höhe und insbesondere auf einer gemeinsamen Achse angeordnet sind. Die auf dem Projektionselement 7 angezeigten Augmented-Reality-Inhalte können so ohne die Entstehung eines Parallaxenfehlers in der Anzeige des Anzeigeelements 4 angezeigt werden. Auch wird der Projektionsweg 8 des Projektionselements 7 an dem Anzeigeelement 4 zumindest teilweise reflektiert.
  • Zwischen dem Projektionselement 7 und dem zweiten teildurchlässigen Spiegel 11 ist des Weiteren mindestens eine Linse 9 angeordnet. Anstelle einer Linse 9 können jedoch auch mehrere Linsen 9 zu einem optischen Linsensystem 14 zusammengefasst werden. Das optische Linsensystem 14 ist dabei mit einem Objektiv einer Fotokamera vergleichbar. Über die Linsen 9 bzw. das Linsensystem 14 kann der Projektionsweg 8 des Projektionselements 7 geformt werden. Dies ist erforderlich, da es dem Benutzer 3 bei dem nur sehr kleinen Abstand zwischen dem Auge und dem Projektionselement 7 nicht möglich wäre Inhalte zu erkennen. Der Projektionsweg 8 des Projektionselements 7 muss daher mittels der Linse 9 bzw. des Linsensystems 14 auf das Auge des Benutzers 3 fokussiert werden. Hier ist es von Vorteil, wenn es sich bei den Linsen 9 bzw. dem Linsensystem 14 um berechnete Linsen 9, 14 handelt, so dass vor Montage bereits festgelegt werden kann, in welcher Art und Weise der Projektionsweg 8 des Projektionselement 7 geformt werden soll.
  • Üblicherweise handelt es sich bei den Linsen 9 um Glaslinsen. Diese sind jedoch häufig vergleichsweise schwer, was wiederum das Gewicht des Gesamtaufbaus deutlich erhöhen würde. Es ist daher vorteilhaft, wenn anstelle von Glaslinsen diffraktive Elemente verwendet werden, welche aus einem leichten und kostengünstigen Material hergestellt werden können. Diffraktive Elemente weisen ein Beugungsmuster auf, wobei ein auf die Elemente 9 auftreffender Strahl, wie etwa der Projektionsweg 8 des Projektionselements 7, entsprechend dem Beugungsmuster geformt wird.
  • Um sicherstellen zu können, dass die computergenerierten Augmented-Reality-Inhalte ohne Versatz oder sonstige Beeinträchtigungen vor dem Auge des Benutzers 3 angezeigt werden, ist es erforderlich, festzustellen, wo sich das Anzeigeelement 4 in Relation zur Sichtachse 2 des Benutzers 3 befindet.
  • Üblicherweise wird hierzu bei einer kopfbefestigbaren Anzeigevorrichtung 1 vor jedem Betrieb eine manuelle Einstellung bzw. Kalibrierung vorgenommen. Man spricht in diesem Zusammenhang auch von einem „Registrieren” des virtuellen Bildes mit dem realen Bild. Denn dadurch, dass der Benutzer 3 sich bewegt bzw. die kopfbefestigbare Anzeigevorrichtung 1 abnimmt und wieder aufsetzt, verändert sich die Position des Auges des Benutzers 3 gegenüber der Anzeigevorrichtung 1. Da eine manuelle Kalibrierung zeit- und arbeitsaufwändig ist, soll bei der erfindungsgemäßen Anzeigevorrichtung 1 eine kontinuierliche Kalibrierung durchgeführt werden.
  • Bei der erfindungsgemäßen Anordnung 1 ist daher eine Augenerfassungskamera 12 vorgesehen, welche ähnlich wie die Tracking-Kamera 5 auf der zur Sichtachse 2 senkrechten Achse A angeordnet ist. Über die Augenerfassungskamera 12 wird die Augenposition des Benutzers 3 kontinuierlich erfasst. Der Lichtweg 13 der Augenerfassungskamera 12 verläuft dabei ebenfalls über den ersten teildurchlässigen Spiegel 10, an welchem er umgelenkt wird. Der Lichtweg 13 der Augenerfassungskamera 12 verläuft daher nach der Umlenkung ebenfalls koaxial zur Sichtachse 2 des Benutzers 3.
  • Die Augenerfassungskamera 12 erfasst kontinuierlich und insbesondere in Echtzeit die Augenposition des Benutzers 3 und verarbeitet diese in einer nicht dargestellten Verarbeitungseinheit. Die Position der Anzeigevorrichtung 1 und die Position des Auges des Benutzers 3 können in Relation zueinander gesetzt werden. Die ermittelten Abweichungen können dann rechnerisch aus dem System heraus gerechnet werden. So ist auf einfache Art und Weise eine automatische Kalibrierung der Anzeigevorrichtung 1 bzw. der Augenposition des Benutzers 3 möglich. Es ist kein manueller Schritt mehr erforderlich, um den Versatz zwischen der realen und der virtuellen Welt zu eliminieren. Das Vorsehen der Augenerfassungskamera 12 ist jedoch optional. Alternativ kann auch immer noch eine manuelle Kalibrierung durchgeführt werden.
  • In diesem Zusammenhang ist es von Vorteil, wenn die Augenerfassungskamera 12 und die Tracking-Kamera 5 auf einer gemeinsamen und insbesondere zur Sichtachse 2 des Benutzers 3 senkrechten Achse A angeordnet sind.
  • Des Weiteren kann bei einer erfindungsgemäßen Anzeigevorrichtung 1 das Anzeigeelement 4 abdunkelbar sein. Durch die Abdunkelung des Anzeigeelements 4 kann zwischen einer Augmented-Reality-Umgebung und einer vollständig virtuellen Umgebung gewechselt werden. In diesem Zusammenhang ist es von Vorteil, wenn das Anzeigeelement 4 in der Augmented-Reality-Umgebung eine Lichtundurchlässigkeit von 0%–10%, besonders bevorzugt jedoch von 5%, aufweist und in der virtuellen Realität eine Lichtundurchlässigkeit von 90%–100%, besonders bevorzugt jedoch von 95%. Die Sicht auf die reale Welt kann daher bei einer Anzeigevorrichtung 1 elektronisch deaktiviert werden. Bei vollständiger Abdunkelung ist es dann beispielsweise möglich, sich zu Simulationszwecken andere, von der realen Welt verschiedene Umgebungen auf dem Anzeigeelement 4 anzeigen zu lassen.
  • Bei der Anzeige von Augmented-Reality-Inhalten kann es jedoch durchaus erwünscht sein, wenn nur einzelne Bereiche des Anzeigeelements 4 selektiv abdunkelbar sind. Durch die selektive Abdunkelung einzelner Bereiche ist es möglich, nur die Bereiche abzudunkeln, welche für die Darstellung der computergenerierten Augmented-Reality-Inhalte von Relevanz sind. Die Beeinflussung des Blickfeldes des Benutzers 3 kann somit auf ein Minimum reduziert werden.
  • Um eine vollflächige oder selektive Abdunkelung realisieren zu können, kann das Anzeigeelement 4 beispielsweise als LCD-Shutter ausgebildet sein. Von Vorteil ist hier insbesondere die Verwendung eines elektrochromen Displays. Das Anzeigeelement 4 kann über ein Steuersignal angesteuert werden, wobei entsprechend der Spannung die Ausrichtung der in dem Display angeordneten Kristalle verändert wird, was dann zu einer Abdunkelung des Anzeigeelements 4 führt. Alternativ können auch sogenannte „Digital Light Processing Elements” (DLP-Elemente) verwendet werden. Hierbei handelt es sich um Einzelspiegel, welche ebenfalls über ein Steuersignal angesteuert werden können, wobei das Steuersignal die Stellung der Spiegel und somit die Reflexionseigenschaften beeinflussen kann.
  • Alternativ oder zusätzlich kann ein Abdunkelungselement 15 zur Abdunkelung des Anzeigeelementes 4 vorgesehen sein. Bei dem Abdunkelungselement 15 kann es sich beispielsweise um zwei teiltransparente Flächen handeln, welche gegeneinander verschoben werden können. Auf den teiltransparenten Flächen können parallele Linien angeordnet sein, so dass je nach Verschiebungsgrad eine teilweise oder eine vollständige Abdunkelung erfolgen kann. Auch kann sich bei dem Abdunkelungselement 15 um eine flächige Abdeckung handeln. Diese Abdeckung kann dann bei Bedarf über das Anzeigeelement 4 geschoben werden.
  • Anhand der Darstellung in 2 soll nachfolgend auf ein weiteres Ausführungsbeispiel der erfindungsgemäßen Anzeigevorrichtung 1 eingegangen werden, wobei die Funktionalität grundsätzlich die gleiche ist. Der wesentliche Unterschied liegt lediglich im Aufbau und der Anordnung der einzelnen Elemente.
  • Denn im vorliegenden Beispiel ist der zweite teildurchlässige Spiegel 11 nicht in einer parallelen Ebene mit dem Spiegel 10 angeordnet, sondern gegenüber dem Spiegel 10 um 90° um die senkrechte Achse A gedreht. Durch die Drehung des Spiegels 11 ist es möglich, die Linse 9 bzw. das optische System 14 sowie das Projektionselement 7 zur Seite zu drehen. Der Spiegel 11, die Linse 9 und das Projektionselement 7 erstrecken sich dann nicht mehr in die Tiefe, sondern zur Seite hin. Es ist daher möglich, eine Anordnung zu realisieren, welche beispielsweise oberhalb der Augen des Benutzers 3 angeordnet ist. Hierdurch kann ein deutlich kompakterer Aufbau realisiert werden, ohne dass das Sichtfeld des Benutzers 3 beeinträchtigt wird. Der Platz zur Seite hin kann daher besser genutzt werden und die kopfbefestigbare Anzeigevorrichtung 1 weist nicht mehr eine so große Tiefe auf, wie dies beispielsweise bei dem Ausführungsbeispiel gemäß 1 der Fall wäre.
  • Mit der erfindungsgemäßen Anordnung 1 können, dadurch, dass sämtliche Licht- und Projektionswege 6, 8, 13 koaxial zur Sichtachse 2 des Benutzers 3 verlaufen, Beeinträchtigungen des Sichtfelds des Benutzers 3 vermindert werden. Die computergenerierten Augmented-Reality-Inhalte weisen daher bei der Anzeige im Anzeigeelement 4 keinen für den Benutzer 3 sichtbaren Versatz auf. Die virtuelle Welt kann daher deckungsgleich mit der realen Welt überlagert werden.
  • Bezugszeichenliste
  • 1
    Anzeigevorrichtung
    2
    Sichtachse
    3
    Benutzer
    4
    Anzeigeelement
    5
    Tracking-Kamera
    6
    Lichtweg
    7
    Projektionselement
    8
    Projektionsweg
    9
    Linse
    10
    Spiegel
    11
    Spiegel
    12
    Augenerfassungskamera
    13
    Lichtweg
    14
    Linsensystem
    15
    Abdunkelungselement
    A
    Achse
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102010016113 A1 [0004, 0059]

Claims (26)

  1. Kopfbefestigbare Anzeigevorrichtung mit einem auf der Sichtachse (2) des Benutzers (3) angeordneten Anzeigeelement (4) und einer Tracking-Kamera (5) zur Positionierung von computergenerierten Augmented-Reality-Inhalten in der Anzeige des Anzeigeelements (4), dadurch gekennzeichnet, dass das Anzeigeelement (4) zumindest teildurchsichtig ist und dass der Lichtweg (6) der Tracking-Kamera (5) koaxial zur Sichtachse (2) des Benutzers (3) verläuft.
  2. Kopfbefestigbare Anzeigevorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Tracking-Kamera (5) in einem Winkel, insbesondere in einem Winkel von 90°, zur Sichtachse (2) des Benutzers (3) angeordnet ist.
  3. Kopfbefestigbare Anzeigevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Lichtweg (6) der Tracking-Kamera (5) an einem ersten teildurchlässigen Spiegel (10) umgelenkt wird.
  4. Kopfbefestigbare Anzeigevorrichtung nach Anspruch 3, dadurch gekennzeichnet, dass der teildurchlässige Spiegel (10) in der Sichtachse (2) des Benutzers (3) angeordnet ist.
  5. Kopfbefestigbare Anzeigevorrichtung nach einem der vorhergehenden Ansprüche, gekennzeichnet durch ein Projektionselement (7) zur Darstellung der computergenerierten Augmented-Reality-Inhalte.
  6. Kopfbefestigbare Anzeigevorrichtung nach Anspruch 5, dadurch gekennzeichnet, dass das Projektionselement (7) oberhalb oder unterhalb der Sichtachse (2) des Benutzers (3) angeordnet ist.
  7. Kopfbefestigbare Anzeigevorrichtung nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass der Projektionsweg (8) des Projektionselements (7) zur Darstellung der Augmented-Reality-Inhalte auf dem Anzeigeelement (4) an einem ersten teildurchlässigen Spiegel (10) umgelenkt wird.
  8. Kopfbefestigbare Anzeigevorrichtung nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass der Projektionsweg (8) des Projektionselements (7) an dem Anzeigeelement (4) zumindest teilweise reflektiert wird.
  9. Kopfbefestigbare Anzeigevorrichtung nach einem der Ansprüche 5 bis 8, gekennzeichnet durch einen zweiten teildurchlässigen Spiegel (11) zur Umlenkung des Projektionswegs (8) des Projektionselements (7).
  10. Kopfbefestigbare Anzeigevorrichtung nach Anspruch 9, dadurch gekennzeichnet, dass der zweite teildurchlässige Spiegel (11) in einem Winkel, insbesondere in einem Winkel von 45°, zur Sichtachse (2) des Benutzers (3) angeordnet ist.
  11. Kopfbefestigbare Anzeigevorrichtung nach einem der vorhergehenden Ansprüche, gekennzeichnet durch mindestens eine Linse (9) zur Abbildung des projizierten Bildes des Projektionselements (7).
  12. Kopfbefestigbare Anzeigevorrichtung nach Anspruch 11, dadurch gekennzeichnet, dass die Linse (9) zwischen einem zweiten teildurchlässigen Spiegel (11) und einem Projektionselement (7) angeordnet ist.
  13. Kopfbefestigbare Anzeigevorrichtung nach einem der vorhergehenden Ansprüche, gekennzeichnet durch eine Augenerfassungskamera (12) zur Erfassung der Augenposition des Benutzers (3).
  14. Kopfbefestigbare Anzeigevorrichtung nach Anspruch 13, dadurch gekennzeichnet, dass der Lichtweg (13) der Augenerfassungskamera (12) zumindest teilweise koaxial zur Sichtachse (2) des Benutzers (3) verläuft.
  15. Kopfbefestigbare Anzeigevorrichtung nach einem der Anspruch 13 oder 14, dadurch gekennzeichnet, dass der Lichtweg (13) der Augenerfassungskamera (12) an einem ersten teildurchlässigen Spiegel (10) umgelenkt wird.
  16. Kopfbefestigbare Anzeigevorrichtung nach einem der Ansprüche 13 bis 15, dadurch gekennzeichnet, dass die Augenerfassungskamera (12) zumindest teilweise in einer zur Sichtachse (2) des Benutzers (3) senkrechten Achse (A) angeordnet ist.
  17. Kopfbefestigbare Anzeigevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Anzeigeelement (4) als teildurchlässiger Hohlspiegel ausgebildet ist.
  18. Kopfbefestigbare Anzeigevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Anzeigeelement (4) abdunkelbar ist.
  19. Kopfbefestigbare Anzeigevorrichtung nach Anspruch 18, dadurch gekennzeichnet, dass einzelne Bereiche des Anzeigeelements (4) selektiv abdunkelbar sind.
  20. Kopfbefestigbare Anzeigevorrichtung nach einem der Ansprüche 18 oder 19, dadurch gekennzeichnet, dass das Anzeigeelement (4) als LCD-Shutter ausgebildet ist.
  21. Kopfbefestigbare Anzeigevorrichtung nach einem der vorhergehenden Ansprüche, gekennzeichnet durch ein Abdunkelungselement (15) zur Abdunkelung des Anzeigeelements (4).
  22. Kopfbefestigbare Anzeigevorrichtung nach Anspruch 21, dadurch gekennzeichnet, dass das Abdunkelungselement (15) mindestens zwei teiltransparente Flächen aufweist, welche gegeneinander verschoben werden können.
  23. Kopfbefestigbare Anzeigevorrichtung nach Anspruch 21, dadurch gekennzeichnet, dass das Abdunkelungselement (15) als flächige Abdeckung ausgebildet ist.
  24. Verfahren zur Darstellung realer und virtueller Inhalte mit einer kopfbefestigbaren Anzeigevorrichtung (1), die ein Anzeigeelement (4) in der Sichtachse (2) des Benutzers (3) und eine Tracking-Kamera (5) zur Positionierung von computergenerierten Augmented-Reality-Inhalten in der Anzeige des Anzeigeelements (4) aufweist, dadurch gekennzeichnet, dass computergenerierte Augmented-Reality-Inhalte, die über eine Tracking-Kamera (5) positioniert werden, auf dem zumindest teildurchsichtigen Anzeigeelement (4) angezeigt werden.
  25. Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass die Augenposition des Benutzers (3) mittels einer Augenerfassungskamera (12) zur Kalibrierung der kopfbefestigbaren Anzeigevorrichtung (1) aufgenommen wird.
  26. Verfahren nach Anspruch 25, dadurch gekennzeichnet, dass die Augenposition des Benutzers (3) mit Positionsinformationen der kopfbefestigbaren Anzeigevorrichtung (1), insbesondere mit der Position des Anzeigeelements (4), verglichen wird.
DE102014115471.1A 2014-10-23 2014-10-23 Kopfbefestigbare Anzeigevorrichtung und Verfahren Active DE102014115471B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102014115471.1A DE102014115471B4 (de) 2014-10-23 2014-10-23 Kopfbefestigbare Anzeigevorrichtung und Verfahren
PCT/DE2015/100433 WO2016062302A1 (de) 2014-10-23 2015-10-20 Kopfbefestigbare anzeigevorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014115471.1A DE102014115471B4 (de) 2014-10-23 2014-10-23 Kopfbefestigbare Anzeigevorrichtung und Verfahren

Publications (2)

Publication Number Publication Date
DE102014115471A1 true DE102014115471A1 (de) 2016-04-28
DE102014115471B4 DE102014115471B4 (de) 2018-08-23

Family

ID=54478532

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014115471.1A Active DE102014115471B4 (de) 2014-10-23 2014-10-23 Kopfbefestigbare Anzeigevorrichtung und Verfahren

Country Status (2)

Country Link
DE (1) DE102014115471B4 (de)
WO (1) WO2016062302A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108196365A (zh) * 2017-12-13 2018-06-22 深圳市虚拟现实科技有限公司 校正移动终端位置的方法与装置
CN112946885A (zh) * 2019-12-10 2021-06-11 财团法人金属工业研究发展中心 近眼显示与取像头戴装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010016113A1 (de) 2010-03-24 2011-09-29 Krauss-Maffei Wegmann Gmbh & Co. Kg Verfahren zur Ausbildung eines Besatzungsmitglieds eines insbesondere militärischen Fahrzeugs
US20130235191A1 (en) 2012-03-08 2013-09-12 Google Inc. Near-to-eye display with an integrated out-looking camera
US20140300632A1 (en) 2013-04-07 2014-10-09 Laor Consulting Llc Augmented reality apparatus

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4747672A (en) * 1985-04-26 1988-05-31 Nippon Seiki Co., Ltd. Light compensating liquid crystal display
US4852988A (en) * 1988-09-12 1989-08-01 Applied Science Laboratories Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system
GB8916206D0 (en) * 1989-07-14 1989-11-08 Marconi Gec Ltd Helmet systems
JPH05273493A (ja) * 1992-03-27 1993-10-22 Yazaki Corp ヘルメットディスプレイ
US5483307A (en) * 1994-09-29 1996-01-09 Texas Instruments, Inc. Wide field of view head-mounted display
JP3957468B2 (ja) * 2000-03-31 2007-08-15 日立造船株式会社 複合現実感実現システム
US8467133B2 (en) * 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US20120182206A1 (en) * 2011-01-17 2012-07-19 Ronald Steven Cok Head-mounted display control with sensory stimulation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010016113A1 (de) 2010-03-24 2011-09-29 Krauss-Maffei Wegmann Gmbh & Co. Kg Verfahren zur Ausbildung eines Besatzungsmitglieds eines insbesondere militärischen Fahrzeugs
US20130235191A1 (en) 2012-03-08 2013-09-12 Google Inc. Near-to-eye display with an integrated out-looking camera
US20140300632A1 (en) 2013-04-07 2014-10-09 Laor Consulting Llc Augmented reality apparatus

Also Published As

Publication number Publication date
DE102014115471B4 (de) 2018-08-23
WO2016062302A1 (de) 2016-04-28

Similar Documents

Publication Publication Date Title
EP3688511B1 (de) Anzeigevorrichtung, insbesondere für ein fahrzeug, sowie fahrzeug mit einer solchen anzeigevorrichtung
EP3475755B1 (de) Anzeigevorrichtung zur einblendung eines virtuellen bildes in das blickfeld eines benutzers
EP1806000B1 (de) Sichtsystem
DE112016000728T5 (de) Kombinieren eines Displays mit engem Blickfeld und hoher Auflösung und eines Weitwinkeldisplays mit mittlerer Auflösung
DE102014008153A1 (de) Anzeigevorrichtung sowie Verfahren zur augmentierten Darstellung eines Bildobjektes
DE3737972A1 (de) Helm-lagedarstellungsgeraet
DE102014001710A1 (de) Vorrichtung und Verfahren zur augmentierten Darstellung eines virtuellen Bildobjektes in einer realen Umgebung
DE102017222621A1 (de) Projektionsvorrichtung mit einer Bilderzeugungseinheit
DE102010002956A1 (de) Head-up Display für Fahrzeuge
WO2019238846A1 (de) Head-up-display für ein fahrzeug
DE10102938B4 (de) Nicklage-Symbolik
WO2020035264A2 (de) Verfahren zum betreiben einer blickfeldanzeigevorrichtung für ein kraftfahrzeug
DE102014213285A1 (de) Kopfrichtungsabhängige Anzeige von Inhalten auf einer Datenbrille
DE60113793T2 (de) An vorgegebene Ausrüstungsgegenstände anpassbare Head-up-Anzeige
DE4207284C2 (de) Räumliche Bilddarbietung
DE102014115471B4 (de) Kopfbefestigbare Anzeigevorrichtung und Verfahren
DE10302387A1 (de) Head-up-Display für den Einsatz in Kraftfahrzeugen
DE102015118520A1 (de) Kopfbefestigbare Anzeigevorrichtung
DE3100584C2 (de) Vorrichtung für Sichtsimulatoren
EP3622341B1 (de) Kraftfahrzeug-anzeigevorrichtung sowie kraftfahrzeug
DE102016111119A1 (de) Laser-Projektionsanordnung und Verfahren zur Erzeugung virtueller Bilder
DE102016005200A1 (de) Head-up-Anzeigevorrichtung mit einem holographisch optischen Element für ein Kraftfahrzeug
DE1817721A1 (de) Flugzeugnavigationsverfahren
WO2019015895A1 (de) Projektionsanzeigevorrichtung mit einer darstellung in mehreren anzeigenebenen
DE102008012638A1 (de) Anzeigesystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final