AT522012A1 - Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer - Google Patents
Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer Download PDFInfo
- Publication number
- AT522012A1 AT522012A1 ATA51133/2018A AT511332018A AT522012A1 AT 522012 A1 AT522012 A1 AT 522012A1 AT 511332018 A AT511332018 A AT 511332018A AT 522012 A1 AT522012 A1 AT 522012A1
- Authority
- AT
- Austria
- Prior art keywords
- eye
- display
- determined
- user
- glasses
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000003287 optical effect Effects 0.000 title claims abstract description 36
- 239000011521 glass Substances 0.000 claims abstract description 56
- 238000001514 detection method Methods 0.000 claims abstract description 39
- 238000012937 correction Methods 0.000 claims description 29
- 230000004044 response Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 10
- 230000006399 behavior Effects 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000005304 optical glass Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/11—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/011—Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
Abstract
Bei einem Verfahren zur Anpassung eines optischen Systems (1) aus einer Blickerfassungsbrille (2) und wenigstens einer, mit der Blickerfassungsbrille (2) verbundenen Displayeinheit (3) an einen individuellen Benutzer, welche Displayeinheit (3) ein erstes Display (4) aufweist, wobei die Blickerfassungsbrille (2) eine erste Augenerfassungskamera (5) aufweist, wobei das erste Display (4) in einem ersten Durchsichtbereich (7) der Blickerfassungsbrille (2) angeordnet ist, wird vorgeschlagen, dass die Blickerfassungsbrille (2) vom Benutzer aufgesetzt wird, wobei nachfolgend wenigstens eine vorgebbare Augenabmessung und/oder wenigstens eine vorgebbare Augenposition des ersten Auges (6) durch die Blickerfassungsbrille (2) ermittelt werden, wobei nachfolgend aus der ermittelten Augenabmessung und/oder der ermittelten Augenposition sowie der Position und Ausrichtung der ersten Augenerfassungskamera (5) wenigstens ein erster Soll-Wert wenigstens einer geometrischen Display-Anzeige-Einstellung des ersten Displays (4) ermittelt wird, und wobei nachfolgend eine Displayansteuereinheit (8) der Displayeinheit (3) zur Ansteuerung des ersten Displays (4) wenigstens an den ersten Soll-Wert angepasst wird.
Description
1
Die Erfindung betrifft ein Verfahren zur Anpassung eines optischen Systems an
einen individuellen Benutzer gemäß dem Oberbegriff des Patentanspruches 1.
In zunehmendem Maße gewinnen Brillen zur sog. Augmented Reality sowie Mixed Reality an Bedeutung und Verbreitung. Dabei werden dem Benutzer einer Datenbrille Informationen in dessen Gesichtsfeld eingespielt. Derartige Brillen weisen wenigstens ein, zumindest teildurchsichtiges Display auf, welches vor wenigstens einem Auge des Benutzers angeordnet ist. Im Gegensatz zur sog. Virtual Reality ist bei Augmented Reality sowie Mixed Reality stets ein direkter Bezug zur
Umgebung gegeben.
In der Praxis ergeben sich bei derartigen Brillen, etwa der sog. Google Glass, zahlreiche Probleme. Die simple Darstellung einer Information auf einem Display, welches Teil einer Brille ist, hat sich als äußerst nachteilig erwiesen. Durch die Darstellung der Inhalte wird das Blickverhalten des Benutzers deutlich geändert. Der Benutzer wird durch die Darstellung der Information tatsächlich kaum unterstützt, da dieser bzw. dessen Augen gezwungen sind, ständig zwischen der dargestellten Information und der Umgebung zu wechseln. Dies führt zu schnellem Ermüden, und ist eine ernst zu nehmende Belastung für das Gehirn. Durch die dargestellten Inhalte wird der Benutzer auch von der realen Umgebung abgelenkt, da der optische Reiz einer neu angezeigten Information den Blick des Benutzers auf diese lenkt, und zwar ungeachtet dessen, ob in einer anderen Blickrichtung möglicherweise Relevanteres in der realen Welt mehr Aufmerksamkeit verdient hätte. Dies hat bereits zu Unfällen geführt. Derartige bekannte Brillen können daher genau das Gegenteil dessen bewirken, was sie bezwecken. Anstatt eine Situation für den Benutzer zu vereinfachen erhöhen derartige Brillen die
Komplexität.
Zudem sind alle Menschen in gewisser Weise individuell. Die Augen der Menschen sind jeweils, bezogen auf Nase und Ohren, anders angeordnet, und weisen jeweils auch einen individuellen Abstand zueinander auf. Jeder Brillenträger kennt das entsprechende Anpassen einer Brille durch den Optiker, wobei dieser durch mechanische Veränderungen der Brille, etwa durch Verbiegen der Bügel bzw. der Nasenpads, diese an die jeweiligen Gegebenheiten des einzelnen Brillenträgers
anpasst. Entsprechend werden auch optische Gläser jeweils individuell für einen
Benutzer angepasst.
Bei bekannten Systemen für Augmented Reality bzw. Mixed Reality ist es bislang nicht möglich die Anzeige virtueller Objekte mit Objekten der realen Welt zu
kombinieren bzw. vorgebbar und gewollt in Einklang zu bringen.
Aufgabe der Erfindung ist es daher ein Verfahren der eingangs genannten Art anzugeben, mit welchem die genannten Nachteile vermieden werden können, und mit welchem virtuelle Objekte in vorgebbarer Kombination mit der realen
Umgebung angezeigt werden können. Erfindungsgemäß wird dies durch die Merkmale des Patentanspruches 1 erreicht.
Dadurch kann eine Datenbrille, insbesondere ein optisches System bestehend aus einer Blickerfassungsbrille und einer Displayeinheit, schnell und einfach an einen individuellen Benutzer angepasst werden. Dadurch ist es möglich Inhalte nicht irgendwo auf einem Display anzuzeigen, sondern das betreffende optische System derart anzupassen, dass die entsprechenden Inhalte dort angezeigt werden können, wo ein Benutzer hinsieht. Dadurch ist es möglich die Anzeige virtueller Objekte mit Objekten der realen Welt zu kombinieren bzw. vorgebbar und gewollt in Einklang
zu bringen.
Dadurch kann sichergestellt werden, dass, durch das bzw. auf dem Display angezeigte Inhalte in der tatsächlichen Blickrichtung des Benutzers, bzw. in einer wohldefinierten und bewusst gewählten Lage bezogen auf die tatsächliche
Blickrichtung des Benutzers angezeigt werden. Das gegenständliche Verfahren ist in der Praxis schnell und einfach durchführbar. Die Unteransprüche betreffen weitere vorteilhafte Ausgestaltungen der Erfindung.
Ausdrücklich wird hiermit auf den Wortlaut der Patentansprüche Bezug genommen, wodurch die Ansprüche an dieser Stelle durch Bezugnahme in die Beschreibung
eingefügt sind und als wörtlich wiedergegeben gelten.
Die Erfindung wird unter Bezugnahme auf die beigeschlossenen Zeichnungen, in
welchen lediglich bevorzugte Ausführungsformen beispielhaft dargestellt sind,
näher beschrieben. Dabei zeigt:
Fig. 1 eine erste Ausführungsform eines gegenständlichen Systems aus
Blickerfassungsbrille und Displayeinheit in perspektivischer Ansicht;
Fig. 2 eine zweite Ausführungsform eines gegenständlichen Systems aus
Blickerfassungsbrille und Displayeinheit im Grundriss;
Fig. 3 eine schematische perspektivische Ansicht der räumlichen Anordnung eines
ersten und eines zweiten Displays gegenüber den Augen eines Benutzers;
Fig. 4 ein Blockschaltbild einer Ausführungsform eines gegenständlichen Systems
aus Blickerfassungsbrille und Displayeinheit;
Fig. 5 eine schematische perspektivische Ansicht der räumlichen Anordnung eines
ersten Displays, eines ersten Auges sowie eines realen Objekts (Physical Object);
Fig. 6 die Anordnung aus erstem Display und erstem Auge gemäß Fig. 5 mit einem,
auf dem ersten Display dargestelltem virtuellen Objekt (TAG); und
Fig. 7 die Anordnung aus erstem Display und erstem Auge gemäß Fig. 5 mit einem, außerhalb des ersten Displays angeordnetem, und nicht dargestelltem virtuellen Objekt (TAG).
Die Fig. 1, 2 und 4 zeigen jeweils unterschiedliche Ausführungsformen bzw. Darstellungen eines optischen Systems 1, welches gegenständlich an einen individuellen Benutzer angepasst wird. Weiters dient das gegenständliche optische System 1 der definierten Anzeige virtueller Objekte 16, welche in Reaktion auf einen vorgebbaren Zustand bzw. ein vorgebbares Ereignis erzeugt werden. Diese virtuellen Objekte 16 werden in definierter Sichtumgebung an einer vorgebbaren
Position in wenigstens einem Display 4, 10 des Systems 1 dargestellt.
Das optischen Systems 1 besteht wenigstens aus einer Blickerfassungsbrille 2 und
wenigstens einer, mit der Blickerfassungsbrille 2 verbundenen Displayeinheit 3.
Die Blickerfassungsbrille 2 weist wenigstens eine erste Augenerfassungskamera 5 zur Erstellung eines ersten Augenvideos eines ersten Auges 6 des Benutzers auf.
Bevorzugt weist die Blickerfassungsbrille 2 weiters eine zweite
4
Augenerfassungskamera 11 zur Erstellung eines zweiten Augenvideos eines zweiten Auges 12 des Benutzers auf. Die Blickerfassungsbrille 2 weist bevorzugt wenigstens eine, aus Sicht des Benutzers 1, welcher die Blickerfassungsbrille 2 trägt, nach vorne weisende Blickfeldkamera 14 auf. Die wenigstens eine Augenerfassungskamera 5 bzw. die bevorzugt zwei Augenerfassungskameras 5, 11 sind in sog. Nasenteilrahmen der Blickerfassungsbrille 2 angeordnet. In Fig. 2 ist die
Anordnung der beiden Augenerfassungskameras 5, 11 gut zu erkennen.
Eine besonders bevorzugt vorgesehene Blickerfassungsbrille 2, wie in den Fig. 1 und 2 dargestellt, ist aus der AT 513.987 B1 der Anmelderin bekannt, welcher weitere Details der bevorzugten Blickerfassungsbrille 2 zu entnehmen sind. Die gegenständlichen Verfahren können jedoch auch mit anderen Blickerfassungsbrillen
2 durchgeführt werden.
Die Blickerfassungsbrille 2 ist dazu vorgesehen und ausgebildet Blickrichtungen des
Benutzers zu detektieren.
Fig. 4 zeigt u.a. ein Blockschaltbild der Blickerfassungsbrille 2, wobei jedoch eine real umgesetzte Blickerfassungsbrille 2 weitere Komponenten aufweisen kann. Neben den bereits beschriebenen Augenerfassungskameras 5, 11 weist die Blickerfassungsbrille 2 insbesondere wenigstens einen Controller 18 der Blickerfassungsbrille 2 sowie eine Schnittstelle 19 zur Kommunikation mit der Displayeinheit 3 auf. Die Blickerfassungsbrille 2 weist darüber hinaus bevorzugt
weitere Komponenten auf, wie beispielsweise eine Energieversorgungseinheit.
Die Displayeinheit 3 weist zumindest ein - wenigstens - teildurchsichtiges erstes Display 4 auf, wie dies in Fig. 1 dargestellt ist. Insbesondere weist die Displayeinheit 3 weiters ein zweites Display 10 auf. Die beiden Displays 4, 10 können auch einstückig ausgebildet sein, wobei dabei vorgesehen ist, dass sich das einzelne Display über beide Augen 6, 12 erstreckt. Gegenständlich ist durchwegs das erste Display 4 dem linken Auge des Benutzers zugeordnet, wobei es sich jedoch um keine zwingende Festlegung handelt, und auch das rechte Auge als
erstes Auge 6 bezeichnet werden kann.
Bevorzugt ist die Displayeinheit 3 ein, von der Blickerfassungsbrille 2
5
eigenständiges Gerät, welches jedoch dazu ausgebildet ist mit einer bestimmten Art einer Blickerfassungsbrille 2 zu interagieren und auf dieser bestimmten Blickerfassungsbrille 2 angeordnet und mit dieser mechanisch verbunden zu werden. Gegenständlich wird stets das System 1 aus einer Blickerfassungsbrille 2 und einer mit dieser mechanisch verbundenen Displayeinheit 3 verwendet, wobei
auch eine einstückige Ausführung der beiden Geräte 2, 3 vorgesehen sein kann.
Das erste Display 4 ist wenigstens bereichsweise in einem ersten Durchsichtbereich 7 der Blickerfassungsbrille 2 angeordnet. Das bevorzugt vorgesehene zweite Display 10 ist wenigstens bereichsweise in einem zweiten Durchsichtbereich 13 der Blickerfassungsbrille 2 angeordnet. Als Durchsichtbereich 7, 13 ist dabei ein Bereich innerhalb der Sichtlinie bzw. des optischen Gesichtsfeldes eines Benutzers zu verstehen. Insbesondere sind die Durchsichtbereiche 7, 13 identisch mit den Scheibenaufnahmeöffnungen der Blickerfassungsbrille 2. Sofern diese keine „Gläser“ und/oder keinen oder nur einen teilweise ausgebildeten Rahmen aufweist, so sind die Durchsichtbereiche 7, 13 insbesondere die Bereiche an denen
üblicherweise bei einer herkömmlichen Brille die „Gläser“ angeordnet wären.
Das erste und gegebenenfalls das zweite Display 4, 10 können an der, dem Benutzer zugewandten Seite der Blickerfassungsbrille 2, wie in Fig. 1 dargestellt, oder der, dem Benutzer abgewandten Seite der Blickerfassungsbrille 2, wie in Fig. 2 dargestellt, angeordnet sein. Darüber hinaus können diese auch in der
Blickerfassungsbrille 2 angeordnet sein.
Das erste und gegebenenfalls das zweite Display 4, 10 sind lagefest in der Displayeinheit 3 angeordnet. Es ist nicht vorgesehen, dass diese im Betrieb gekippt oder geschwenkt werden. Die Displayeinheit 3 weist auch keine entsprechenden
Aktuatoren auf.
Das erste und gegebenenfalls das zweite Display 4, 10 sind bevorzugt als sog. Wave-
Guide Displays ausgebildet, und im Wesentlichen durchsichtig.
Das erste und gegebenenfalls das zweite Display 4, 10 sind bevorzugt als sog. „single focal plane“-Display ausgebildet. Dabei handelt es sich um ein Display mit
nur einer einzigen Anzeigeebene. Demgegenüber sind auch sog. „multiple focal
plane“-Displays bekannt, welche gegenständlich jedoch nicht verwendet werden.
Fig. 4 zeigt u.a. ein Blockschaltbild der Displayeinheit 3, wobei jedoch eine real umgesetzte Displayeinheit 3 weitere Komponenten aufweisen kann. Neben den bereits beschriebenen Displays 4, 10 weist die Displayeinheit 3 weiters einen Controller 22 der Displayeinheit 3 sowie eine erste Schnittstelle 20 der
Displayeinheit 3 zur Kommunikation mit der Blickerfassungsbrille 2 auf.
Weiters weist die Displayeinheit 3 eine Displayansteuereinheit 8 auf, welche mit dem Controller 22 verbunden oder mit diesem einstückig ausgebildet ist. Die Displayansteuereinheit 8 steuert das erste sowie das bevorzugt vorgesehene zweite Display 4, 10 an, und ist dabei verantwortlich für die Position sowie die Verzerrungen eines Bildes bzw. eines darzustellenden Objekts 16 auf bzw. in dem ersten und bevorzugt zweiten Displays 4, 10. Das Bild bzw. Objekt 16 wird vom Controller 22 generiert, und zur Darstellung an die Displayansteuereinheit 8
übertragen.
Die Displayeinheit 3 weist weiters eine zweite Schnittstelle 21 der Displayeinheit 3 auf, welche zur Kommunikation mit der Umwelt vorgesehen und entsprechend ausgebildet ist. Entsprechend geeignete bzw. bevorzugte Übertragungsverfahren bzw. Systeme sind derzeit vielfältig bekannt und verbreitet, und werden im Bereich des zellulären Mobilfunks als 3G (UMTS) bzw. 4G (LTE) bzw. 5G bezeichnet, wobei weiters Systeme des Internets bzw. WLAN Verwendung finden können.
Entsprechende weitere Protokolle sind etwa IEEE 802 mit zahlreichen Varianten.
Weiters weist die Displayeinheit 3 bevorzugt eine Navigations- und Lagebestimmungseinheit 23 auf, welche mit dem Controller 22 verbunden ist. Entsprechende Einheiten sind aus sog. Smart-Phones bekannt. Die Navigations- und Lagebestimmungseinheit 23 kann sowohl die Position der Displayeinheit 3 in einem globalen Koordinatensystem, insbesondere mittels Sattelitennavigationsverfahren sowie gegebenenfalls unter Hinzuziehung der Verbindungsdaten eines Mobilfunkanbieters, sowie weiters die räumliche Lage bzw. Ausrichtung der Displayeinheit 3 bestimmen, insbesondere mittels wenigstens einem
Neigungssensor.
7127
7
Die Displayeinheit 3 weist darüber hinaus bevorzugt weitere Komponenten auf, wie
beispielsweise eine Energieversorgungseinheit.
Da es bei der Fertigung der Blickerfassungsbrille 2 und/oder der Displayeinheit 3 zu geringfügigen, individuellen Abweichungen von den Maßvorgaben kommen kann, ist bevorzugt vorgesehen, dass die individuelle Position und Ausrichtung der ersten Augenerfassungskamera 5 und/oder der zweiten Augenerfassungskamera 11 jeder einzelnen bzw. individuellen Blickerfassungsbrille 2 - vor deren Auslieferung - in einem Messstand ermittelt werden, und die entsprechenden Daten in einem Speicher bzw. dem Controller 18 der jeweiligen Blickerfassungsbrille 2 abgelegt
werden.
Bevorzugt ist vorgesehen, dass weiters - ebenfalls jeweils individuell - wenigstens ein Wert für wenigstens einen vorgebbaren optischen Fehler der ersten Augenerfassungskamera 5 und/oder der zweiten Augenerfassungskamera 11 in dem Messstand ermittelt wird, und dass der wenigstens eine ermittelte Wert ebenfalls in dem Speicher bzw. dem Controller 18 abgelegt und bei den nachfolgend
beschriebenen Verfahrensschritten berücksichtigt wird.
Weiters ist bevorzugt vorgesehen, dass auch die individuelle Lage und Ausrichtung des ersten Displays 4 sowie des bevorzugt vorgesehenen zweiten Displays 10 einer jeden Displayeinheit 3 einzeln in einem Messstand ermittelt wird, und die dabei ermittelten Daten im Controller 22 der jeweiligen Displayeinheit 3 abgelegt werden. Diese Daten werden bevorzugt bei den nachfolgend beschriebenen
Verfahrensschritten berücksichtigt.
Die vorbeschriebene Ermittlung der tatsächlichen Abmessungen und optischen Fehler erfolgt bereits vor der Übergabe der jeweiligen Blickerfassungsbrille 2 und/oder der jeweiligen Displayeinheit 3 an den Benutzer. Dies wird auch als
intrinsische Kalibrierung bezeichnet.
Ein gegenständliches Verfahren zur Anpassung eines optischen Systems 1 an einen
individuellen Benutzer umfasst zumindest folgende Schritte:
Die Blickerfassungsbrille 2 wird vom Benutzer aufgesetzt.
8
Nachfolgend werden wenigstens eine vorgebbare Augenabmessung und/oder wenigstens eine vorgebbare Augenposition des ersten Auges 6 durch die
Blickerfassungsbrille 2 ermittelt.
Nachfolgend wird aus der wenigstens einen ermittelten Augenabmessung und/oder der wenigstens einen ermittelten Augenposition sowie der Position und Ausrichtung der ersten Augenerfassungskamera 5 wenigstens ein erster Soll-Wert wenigstens einer geometrischen Display-Anzeige-Einstellung des
ersten Displays 4 ermittelt.
Nachfolgend wird eine Displayansteuereinheit 8 der Displayeinheit 3 zur Ansteuerung des ersten Displays 4 wenigstens an den ersten Soll-Wert
angepasst.
Dadurch kann ein gegenständliches individuelles optisches System 1 zur Augmented bzw. Mixed Reality schnell und einfach an einen individuellen Benutzer angepasst werden. Dadurch ist es erst möglich Inhalte nicht irgendwo auf einem Display 4, 10 anzuzeigen, sondern das betreffende optische System 1 derart anzupassen, dass die entsprechenden Inhalte dort angezeigt werden können, wo ein Benutzer bereits hinsieht. Dadurch ist es weiters auch möglich die Anzeige virtueller Objekte 16 mit realen Objekten 15 der realen Welt zu kombinieren bzw. vorgebbar und gewollt in
Einklang zu bringen.
Dadurch kann sichergestellt werden, dass, durch das bzw. auf dem Display 4, 10 angezeigte Inhalte in der tatsächlichen Blickrichtung des Benutzers, bzw. in einer wohldefinierten und bewusst gewählten Lage und/oder Verzerrung bezogen auf die
tatsächliche Blickrichtung des Benutzers angezeigt werden.
Es kann vorgesehen sein, dass eine entsprechende Anpassung bzw. Kalibrierung nur ein einziges Mal für ein individuelles optisches System 1 durchgeführt wird, um dieses an einen bestimmten Benutzer anzupassen. Bevorzugt ist vorgesehen, dass
die Anpassung in vorgebbaren zeitlichen Abständen wiederholt wird.
Die angeführten Verfahrensschritte sind jeweils nur für ein Auge 6 zwingend vorgesehen, und nur für ein Auge 6 ausführbar. Dies betrifft etwa Benutzer mit nur
einem Auge 6 bzw. Situationen, in welchen nur ein Auge 6 genutzt wird.
Bevorzugt ist das bzw. sind die gegenständlichen Verfahren für beide Augen 6, 12 eines Benutzers vorgesehen. Nachfolgend werden die gegenständlichen Verfahren daher insbesondere für zwei Augen 6, 12 beschrieben, wobei sämtliche Verfahrensschritte, welche auch mit bzw. bei nur einem Auge 6 durchführbar sind,
als solches auch für nur ein Auge 6 vorgesehen sind.
Das gegenständliche Verfahren weist daher in der bevorzugten Grundvariante
folgende weiteren Verfahrensschritte auf:
Wenigstens eine vorgebbare Augenabmessung und/oder wenigstens eine vorgebbare Augenposition des zweiten Auges 12 werden durch die
Blickerfassungsbrille 2 ermittelt.
Nachfolgend wird aus der wenigstens einen ermittelten Augenabmessung und/oder der wenigstens einen ermittelten Augenposition sowie der Position und Ausrichtung der zweiten Augenerfassungskamera 11 wenigstens ein zweiter Soll-Wert wenigstens einer geometrischen Display-Anzeige-
Einstellung des zweiten Displays 10 ermittelt.
Nachfolgend wird die Displayansteuereinheit 8 zur Ansteuerung des zweiten
Displays 10 wenigstens an den zweiten Soll-Wert angepasst. Nachfolgend werden die einzelnen Schritte im Detail erläutert.
Das Aufsetzen der Blickerfassungsbrille 2 ist mit dem Aufsetzen einer jeden anderen Brille identisch, allgemein bekannt und erfordert keine weitere Erläuterung. Zusammen mit der Blickerfassungsbrille 2 wird auch die, mit dieser
verbundene Displayeinheit 3 aufgesetzt.
Nachfolgend dem Aufsetzen der Blickerfassungsbrille 2 werden wenigstens eine vorgebbare Augenabmessung und/oder wenigstens eine vorgebbare Augenposition des ersten Auges 6 sowie bevorzugt auch des zweiten Auges 12 durch die Blickerfassungsbrille 2 ermittelt. Augenabmessungen sind insbesondere der Augendurchmesser bzw. der Augenradius sowie weiters der Pupillendurchmesser. Bevorzugt wird beides bestimmt. Augenpositionen sind insbesondere die Position
der Pupillen der Augen 6, 12, insbesondere ein Abstand der beiden Pupillen
10
zueinander, sowie die räumliche Lage der beiden Augen 6, 12 zueinander.
Bevorzugt wird beides bestimmt.
Zur Ermittlung der Augenpositionen des ersten Auges 6 und des zweiten Auges 12 ist insbesondere vorgesehen, dass eine Position eines Medians der Augen 6, 12 bestimmt wird. Als Median wird eine Mittellinie des Körpers bzw. des Kopfes im Bereich der Augen 6, 12 bezeichnet. Weiters wird hierzu die Position der ersten Augenerfassungskamera 5 und der zweiten Augenerfassungskamera 11 zum Median
der Augen 6, 12 bestimmt.
Zur Ermittlung der Augenpositionen bzw. der Augenabmessungen ist bevorzugt vorgesehen, dass wenigstens eine Musterblicksequenz des Benutzers auf eine vorgebbare Mehrzahl vorgegebener Passpunkte aufgenommen wird. Als Musterblicksequenz bzw. Blicksequenz wird dabei das Blickverhalten des Benutzers bezeichnet, welcher dazu angehalten wird, von einem bestimmten Aufenthaltsort aus, auf bestimmte Passpunkte zu blicken, bzw. unter Fixierung eines Passpunktes seinen Kopf vorgebbar zu bewegen. Bevorzugt ist vorgesehen, dass die Passpunkte in unterschiedlichen Abständen und Entfernungen zum optischen System 1 angeordnet sind bzw. werden. Auf die daraus resultierenden Vorteile wird an
später nachfolgender Stelle eingegangen.
Nachfolgend der Ermittlung der Augenabmessungen sowie der Augenpositionen ist vorgesehen, dass aus der wenigstens einen ermittelten Augenabmessung und/oder der wenigstens einen ermittelten Augenposition sowie der Position und Ausrichtung der ersten Augenerfassungskamera 5 wenigstens ein erster Soll-Wert wenigstens einer geometrischen Display-Anzeige-Einstellung des ersten Displays 4 ermittelt wird. Bevorzugt ist weiters vorgesehen, dass aus der wenigstens einen ermittelten Augenabmessung und/oder der wenigstens einen ermittelten Augenposition sowie der Position und Ausrichtung der zweiten Augenerfassungskamera 11 wenigstens ein zweiter Soll-Wert wenigstens einer geometrischen Display-Anzeige-Einstellung des
zweiten Displays 10 ermittelt wird.
Im Zuge dieses Verfahrensschrittes werden daher Werte bzw. Parameter ermittelt, welche als Soll-Werte bezeichnet werden. Diese Soll-Werte geben an, an welcher
Position und/oder mit welcher Verzerrung ein Bild bzw. ein virtuelles Objekt 16
11
innerhalb der Anzeigebereiche der jeweiligen Displays 4, 10 dargestellt werden muss, damit dieses für den Benutzer, welcher auf, schräg vor seinen Augen 6, 12 angeordnete Displays 4, 10 blickt, angezeigt werden muss, damit dieses für den Benutzer wiederum an einer ganz bestimmten bzw. vorgegebenen Stelle dargestellt wird, sowie im Wesentlichen verzeichnungsfrei. Insbesondere handelt es sich bei den Soll-Werten nicht um Einzelwerte, sondern jeweils um Gruppen bzw. Mengen von Werten bzw. Vektoren. Dabei ist insbesondere vorgesehen, dass für verschiedene Augenstellungen, welche in der Regel mit unterschiedlichen Beobachtungsabständen einhergehen, jeweils unterschiedliche Soll-Werte
ermittelt, gespeichert und berücksichtig werden.
Fig. 3 zeigt eine entsprechende Ansicht nur der Augen 6, 12 sowie der beiden
Displays 4, 10.
Entsprechend handelt es sich bei der geometrischen Display-Anzeige-Einstellung um wenigstens eine Einstellung, welche die geometrische Darstellung eines Objekts in dem Display betrifft, nicht jedoch dessen Farbe oder Kontrast. Die geometrische Display-Anzeige-Einstellung betrifft daher Lage bzw. Position, Verzerrung sowie Größe eines dargestellten Objekts 16 innerhalb eines Anzeigebereichs des
jeweiligen Displays 4, 10.
Nach Ermittlung des ersten sowie bevorzugt des zweiten Soll-Wertes wird die Displayansteuereinheit 8 der Displayeinheit 3 zur Ansteuerung des ersten Displays 4 wenigstens an den ersten Soll-Wert, sowie zur Ansteuerung des zweiten Displays 10 wenigstens an den zweiten Soll-Wert angepasst. Durch die Anpassung der Displayansteuereinheit 8 kann erreicht werden, dass die darzustellenden Objekte dem Benutzer in der Weise dargestellt werden, dass diese - relativ zu den Augen 6, 12 des Benutzers - tatsächlich dort dargestellt werden, wo diese auch erscheinen
sollen, und die erforderliche Verzerrung aufweisen, um unverzerrt zu erscheinen.
Das erforderliche Maß an Verzerrung sowie die gewünschte Position sind auch für ein und denselben Benutzer nicht über alle Blickzustände konstant. Insbesondere verändern sich diese mit der Entfernung eines Punktes auf den der Benutzer blickt. Es ist daher, wie bereits angedacht, im Rahmen der Ermittlung der
Augenabmessungen und/oder der Augenpositionen besonders bevorzugt
12
vorgesehen, dass zu einem, in einer ersten Entfernung von dem optischen System 1 angeordneten, ersten Passpunkt erste Entfernungswerte des ersten Soll-Wertes und des zweiten Soll-Wertes ermittelt werden, und dass zu einem, in einer zweiten Entfernung von dem optischen System 1 angeordneten, zweiten Passpunkt zweite Entfernungswerte des ersten Soll-Wertes und des zweiten Soll-Wertes ermittelt werden, wobei die erste Entfernung unterschiedlich der zweiten Entfernung ist. Es werden daher unterschiedliche Werte zw. Beträge des ersten Soll-Wertes und des zweiten Soll-Wertes für unterschiedliche Einstellentfernung des ersten und zweiten Auges 6, 12 bzw. für unterschiedliche, zueinander gerichtete Stellung der Augen 6, 12 handeln kann ermittelt. Insbesondere ist vorgesehen, dass Passpunkte in wenigstens vier unterschiedlichen Entfernungen angeordnet werden. Aus den ermittelten Entfernungswerten kann ein entsprechender Verlauf über die Einstellentfernung extrapoliert und für die künftige Anzeige virtueller Objekte 16
zu bestimmten Augenstellungen gespeichert werden.
Die Art der Soll-Werte steht in direktem Zusammenhang zur Art der verwendeten Displays 4, 10. Displays 4, 10 weisen oftmals sog. Grundeinstellungen auf, welche auch als Default-Settings bezeichnet werden. Ohne bewusste Veränderung bzw. Anpassung der Videosignale, welche einem solchen Display zugeführt werden, wird ein entsprechendes Bild bzw. Video entsprechend der Default-Settings dargestellt. Dadurch würde das entsprechende Bild in der Regel unverzerrt in der Mitte des
jeweiligen Displays dargestellt.
Besonders bevorzugt ist daher vorgesehen, dass als erster Soll-Wert der geometrischen Display-Anzeige-Einstellung eine erste Soll-Position und/oder eine erste Soll-Verzerrung eines ersten Anzeigebereiches 9 zur Darstellung eines virtuellen Objektes 16 vor dem ersten Auge 6 ermittelt wird, wobei ausgehend von wenigstens einer Abweichung der ersten Soll-Position und/oder der ersten SollVerzerrung des ersten Anzeigebereiches 9 zu einer ersten AnzeigebereichsGrundeinstellung des ersten Displays 4 wenigstens ein erster Korrekturfaktor und/oder eine erste Korrekturfunktion ermittelt wird, wobei die Displayansteuereinheit 8 wenigstens mit dem ersten Korrekturfaktor bzw. der ersten Korrekturfunktion an den Benutzer angepasst wird. Der erste Anzeigebereich
9 ist dabei ein Teilbereich innerhalb des ersten Displays 4.
13
Entsprechend ist für das zweite Auge bevorzugt vorgesehen, dass als zweiter SollWert der geometrischen Display-Einstellung eine zweite Soll-Position und/oder eine zweite Soll-Verzerrung eines zweiten Anzeigebereiches 17 zur Darstellung eines virtuellen Objektes 16 vor dem zweiten Auge 12 ermittelt wird, wobei ausgehend von wenigstens einer Abweichung der zweiten Soll-Position und/oder der zweiten Soll-Verzerrung des zweiten Anzeigebereiches 17 zu einer zweiten AnzeigebereichsGrundeinstellung des zweiten Displays 10 wenigstens ein zweiter Korrekturfaktor und/oder eine zweite Korrekturfunktion ermittelt wird, wobei die Displayansteuereinheit 8 wenigstens mit dem zweiten Korrekturfaktor bzw. der zweiten Korrekturfunktion an den Benutzer angepasst wird. Der zweite
Anzeigebereich 17 ist dabei ein Teilbereich innerhalb des zweiten Displays 10.
Im vorgenannten Zusammenhang stellt eine Korrekturfunktion einen Zusammenhang zwischen bestimmten Augenstellungen und/oder Blickrichtungen des Benutzers und den jeweils, für die Anzeige eines virtuellen Objekts untern den jeweiligen Bedingungen vorgesehenen Korrekturfaktoren her. Augen sind zu quasikontinuierlichen Positionsänderungen fähig. Es hat sich gezeigt, dass die
Werte der Korrekturfaktoren ein ebensolch quasikontinuierliches Verhalten zeigen.
Durch die vorstehende Verwendung von Korrekturfaktoren bzw. Korrekturfunktionen ist eine einfache Anpassung der Displays 4, 10 bzw. der Displayansteuereinheit 8 möglich. Dabei ist besonders bevorzugt vorgesehen, die Korrekturfaktoren bzw. Korrekturfunktionen als Feld mit unterschiedlichen
Entfernungswerten aufzunehmen.
Fig. 3 zeigt deutlich, wie für die beiden dargestellten Augen die jeweiligen Anzeigebereiche 9, 17 deutlich von den jeweiligen Mitten der beiden Displays 4, 10
abweichen.
Durch die gegenständlich durchgeführte Anpassung des optischen Systems 1 wird die Anzeige eines virtuellen Objektes 16 in vorgebbarem Bezug zur Blickrichtung bzw. Blickverhalten des Benutzers ermöglicht. Insbesondere ist es dadurch möglich ein virtuelles Objekt 16 in vorgebbarem Bezug zusammen mit einem realen Objekt
15 anzuzeigen.
14
Es wird daher im Weiteren ein Verfahren zum Erzeugen und Anzeigen eines virtuellen Objektes 16 durch ein optisches System 1 beschrieben. Das optische System 1 entspricht dabei dem einleitend beschriebenen optischen System 1, welches entsprechend den beschriebenen Verfahren an den Benutzer angepasst
bzw. kalibriert wurde.
Beim Verfahren zum Erzeugen und Anzeigen eines virtuellen Objektes 16 durch ein
optisches System 1 sind folgende Verfahrensschritte vorgesehen:
In Reaktion auf einen vorgebbaren Zustand und/oder ein vorgebbares
Ereignis wird ein virtuelles Objekt (16) erzeugt.
Das virtuelle Objekt (16) wird von der Displayansteuereinheit (8), unter Berücksichtigung des ersten Soll-Wertes, an einer vorgebbaren Position im
ersten Display (4) anzeigt.
Wie bereits dargelegt, ist insbesondere die Verwendung zweier Displays 4, 10 vorgesehen. Dabei ist insbesondere weiters vorgesehen, dass gleichzeitig mit den
vorgenannten Verfahrensschritten
das virtuelle Objekt 16 von der Displayansteuereinheit 8, unter weiterer Berücksichtigung des zweiten Soll-Wertes ebenfalls im zweiten Display 10
anzeigt wird.
Bei Verwendung von Displays 4, 10 mit Grundeinstellungen ist insbesondere vorgesehen, dass das virtuelle Objekt 16 um den ersten Korrekturfaktor und/oder die erste Korrekturfunktion versetzt und/oder verzerrt im ersten Display 4 anzeigt wird, sowie bevorzugt, dass das virtuelle Objekt 16 um den zweiten Korrekturfaktor und/oder die zweite Korrekturfunktion versetzt und/oder verzerrt im zweiten
Display 10 anzeigt wird.
Das virtuelle Objekt 16 wird erzeugt und angezeigt, wenn ein vorgebbarer Zustand und/oder ein vorgebbares Ereignis eintritt. Dabei kann ein solcher Zustand bzw. ein solches Ereignis jeweils auch erst dann als eingetreten angesehen werden, wenn
jeweils eine vorgebbare Mehrzahl an Kriterien erfüllt ist.
Gemäß einer ersten bevorzugten Variante ist vorgesehen, dass optische System
15
wenigstens eine Blickfeldkamera (14) aufweist, wobei ein vorgebbares reales Objekt (15) durch die Blickfeldkamera (14) detektiert wird, wobei das Detektieren des vorgebbaren realen Objektes (15) das vorgebbare Ereignis, bzw. ein Kriterium für ein entsprechendes Ereignis, zum Erzeugen des virtuellen Objekts (16) ist. Dadurch kann etwa ein Benutzer bei der Orientierung in der realen Welt unterstützt werden. Ein Erkennen eines realen Objekts 15 ist mittels entsprechender Bildverarbeitungsprogramme bereits möglich. In diesem
zusammenhang kann auch das Erkennen eines Gesichts vorgesehen sein.
Gemäß einer zweiten bevorzugten Variante ist vorgesehen, dass das System zur Detektion wenigstens eines Zustandswertes des Benutzers ausgebildet ist, dass der Zustandswert hinsichtlich der Überschreitung eines Grenzwertes von dem System überwacht wird, und dass ein Überschreiten des Grenzwertes das vorgebbare Ereignis zum Erzeugen des virtuellen Objekts 16 ist. Beispielsweise kann ein Müdigkeitswert für einen Wach/Müdigkeitszustand des Benutzers aus einer Beobachtung und Auswertung des Blickverhaltens ermittelt werden, wozu keine
weiteren Sensoren erforderlich sind.
Weiters kann vorgesehen sein, dass das optische System 1 wenigstens einen weiteren Sensor zur Ermittlung einer physiologischen Größe des Benutzers, insbesondere Herzschlag und/oder Hautleitfähigkeit, aufweist, und/oder mit einem entsprechenden externen Sensor verbunden ist, um dessen Werte anzuzeigen. Beispielsweise kann das optische System 1 auch mit einem Blutdrucksensor verbunden sein. Entsprechende externe Sensoren können auch Sensoren sein, welche die Körperfunktionen anderer Lebewesen, als den Benutzer, aufnehmen. So kann beispielsweise ein Trainer über einen kritischen Zustand eines seiner Athleten unterrichtet werden. Weiters kann es sich bei dem wenigstens einen Sensor um
einen Sensor einer technischen Apparatur handeln.
Gemäß einer dritten bevorzugten Variante ist vorgesehen, dass das System wenigstens eine Navigations- und Lagebestimmungseinheit 23 zur Detektion einer räumlichen Ausrichtung sowie eines Standorts des Systems 1 aufweist, und dass ein vorgebbarer Ort sowie eine vorgebbare räumliche Ausrichtung das vorgebbare Ereignis zum Erzeugen des virtuellen Objekts 16 sind. Die Detektion einer
räumlichen Ausrichtung sowie eines Standorts des Systems 1 kann insbesondere
mittels sog. standortbezogener Dienste bzw. location based services, wie diese im
Bereich der Smart-Phones bekannt sind, unterstützt werden.
Die Fig. 5 bis 7 zeigen Beispiele zur Anzeige virtueller Objekte 16 in Bezug auf ein reales Objekt 15, wobei unerheblich ist, ob dieses reale Objekt 15 einfach ur da ist, oder auch als Objekt 15 detektiert bzw. erkannt wurde. Dabei zeigt Fig. 5 das erste Auge 6 des Benutzers, welches durch das erste Display 4 das reale Objekt 15 anblickt, welches in Fig. 5 als „Physical Object“ bezeichnet ist. Gemäß einer besonders einfachen Reaktion wird ein virtuelles Objekt 16 in Form eines Rahmens im Display 4 so angezeigt, dass dieses virtuelle Objekt 16 das reale Objekt 15
einfasst, und der Rahmen im Wesentlichen rechteckig erscheint.
Fig. 6 zeigt eine ähnliche Situation, wobei jedoch kein reales Objekt 15 dargestellt ist. Anstelle der Umrandung wird nunmehr ein anderes virtuelles Objekt 16 in Form eines TAG dargestellt wird. Der betreffende TAG wird dabei seitlich angrenzend zur Blickrichtung dargestellt. Da über die Blickerfassungsbrille 2 eindeutig bekannt ist, wohin der Benutzer blickt, kann das virtuelle Objekt derart an bzw. neben der Blickrichtung positioniert werden, dass dieses vom Benutzer ohne wesentliche
Veränderung der Blickrichtung erkannt bzw. gelesen werden kann.
Fig. 7 zeigt die Auswirkungen auf das virtuelle Objekt 16 bzw. den TAG, wenn der Benutzer sich von diesem wegdreht bzw. den Blick einer anderen Sache zuwendet. Das betreffende virtuelle Objekt 16 behält dabei dessen zugewiesene Position im Raum bei. Da sich dieses nun außerhalb des Anzeigebereichs 9 des Displays 4 befindet, wird es auch nicht mehr dargestellt. Sobald sich der Benutzer wieder ausreichend in die entsprechende Richtung bewegt, wird auch das virtuelle Objekt
16 wieder dargestellt.
Bevorzugt ist vorgesehen, dass von der Blickerfassungsbrille 2 eine Einstellentfernung der beiden Augen 6, 12 des Benutzers beim Anblick des realen Objekts 15 ermittelt wird, und dass das virtuelle Objekt 16 derart lageverschoben und/oder verzerrt am ersten und zweiten Display 4, 10 dargestellt wird, dass dieses als Einzelobjekt in derselben Einstellentfernung der beiden Augen 6, 12 erscheint, wie das reale Objekt 15. Das virtuelle Objekt 16 wird daher zwar auf den Displays
4, 10 dargestellt, welche unmittelbar vor den Augen 6, 12 des Benutzers
17
angeordnet sind, jedoch sehen die Augen 6, 12 des Benutzers das virtuelle Objekt 16 in derselben Entfernung wie das reale Objekt 15, dem es zugeordnet ist. Dadurch entfällt das ansonsten ständig erforderliche erneute Fokussieren auf
unterschiedliche Entfernungen.
Es ist daher vorgesehen, dass das virtuelle Objekt 16 als sog. Stereo-Image
dargestellt wird.
Die Einstellentfernung der beiden Augen 6, 12 wird von der Blickerfassungsbrille derart ermittelt, dass die Winkelstellungen der Augen 6, 12 ermittelt werden, und daraus errechnet wird, auf welche Entfernung die Augen 6, 12 fokussieren. Dabei kann es durchaus unterlassen werden, einen Entfernungswert in einer Längeneinheit zu ermitteln. Die Einstellentfernung kann auch in Form eines Winkels oder mehrerer Winkel ermittelt und verarbeitet werden. Mit anderen Worten wird daher von der Blickerfassungsbrille 2 eine aktuelle Stellung der beiden Augen ermittelt, und das virtuelle Objekt 16 derart lageverschoben und/oder verzerrt am ersten und zweiten Display 4, 10 dargestellt, dass dieses als Einzelobjekt in der
Entfernung erscheint, auf welche die beiden Augen 6, 12 ausgerichtet sind.
Das gegenständliche System 1 weist bevorzugt keinen separaten Entfernungsmesser
zur Ermittlung einer Entfernung zwischen System 1 und realem Objekt 15 auf.
Dabei ist insbesondere vorgesehen, dass die Displayansteuereinheit 8 zur Darstellung des virtuellen Objekts 16 im ersten und zweiten Display 4, 10 wenigstens einen, der Einstellentfernung der beiden Augen 6, 12 entsprechenden Entfernungswert des ersten Soll-Wertes und des zweiten Soll-Wertes berücksichtigt. Sofern kein Entfernungswert zw. Entfernungswerte des ersten Soll-Wertes und des zweiten Soll-Wertes gespeichert sind, ist vorgesehen, dass die Displayansteuereinheit 8 zwischen den beiden benachbarten Entfernungswerten
interpoliert.
Claims (14)
1. Verfahren zur Anpassung eines optischen Systems (1) an einen individuellen Benutzer, wobei das optische System aus einer Blickerfassungsbrille (2) zur Detektion von Blickrichtungen des Benutzers und wenigstens einer, mit der Blickerfassungsbrille (2) verbundenen Displayeinheit (3) besteht, welche Displayeinheit (3) zumindest ein wenigstens teildurchsichtiges erstes Display (4) aufweist, wobei die Blickerfassungsbrille (2) eine erste Augenerfassungskamera (5) zur Erstellung eines ersten Augenvideos eines ersten Auges (6) des Benutzers aufweist, wobei das erste Display (4) wenigstens bereichsweise in einem, dem ersten Auge (6) zugeordneten, ersten Durchsichtbereich (7) der
Blickerfassungsbrille (2) angeordnet ist, wobei die Blickerfassungsbrille (2) vom Benutzer aufgesetzt wird,
wobei nachfolgend wenigstens eine vorgebbare Augenabmessung und/oder wenigstens eine vorgebbare Augenposition des ersten Auges (6) durch die
Blickerfassungsbrille (2) ermittelt werden,
wobei nachfolgend aus der wenigstens einen ermittelten Augenabmessung und/oder der wenigstens einen ermittelten Augenposition sowie der Position und Ausrichtung der ersten Augenerfassungskamera (5) wenigstens ein erster Soll-Wert wenigstens einer geometrischen Display-Anzeige-Einstellung des
ersten Displays (4) ermittelt wird,
und wobei nachfolgend eine Displayansteuereinheit (8) der Displayeinheit (3)
zur Ansteuerung des ersten Displays (4) wenigstens an den ersten Soll-Wert
angepasst wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als erster Soll-Wert der geometrischen Display-Anzeige-Einstellung eine erste Soll-Position und/oder eine erste Soll-Verzerrung eines ersten Anzeigebereiches (9) innerhalb des ersten Displays (4) zur Darstellung eines virtuellen Objektes (16) vor dem ersten Auge (6) ermittelt wird, wobei ausgehend von wenigstens einer Abweichung der ersten Soll-Position und/oder der ersten Soll-Verzerrung des ersten Anzeigebereiches (9) zu einer ersten Anzeigebereichs-Grundeinstellung des ersten Displays (4) wenigstens ein erster Korrekturfaktor und/oder eine erste Korrekturfunktion ermittelt wird, wobei die Displayansteuereinheit (8) wenigstens mit dem ersten Korrekturfaktor bzw. der ersten Korrekturfunktion an den Benutzer
angepasst wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Displayeinheit (3) zumindest ein wenigstens teildurchsichtiges zweites Display (10) aufweist, wobei die Blickerfassungsbrille (2) eine zweite Augenerfassungskamera (11) zur Erstellung eines zweiten Augenvideos eines zweiten Auges (12) des Benutzers aufweist, wobei das zweite Display (10) wenigstens bereichsweise in einem, dem zweiten Auge zugordneten, zweiten Durchsichtbereich (13) der
Blickerfassungsbrille (2) angeordnet ist,
wobei wenigstens eine vorgebbare Augenabmessung und/oder wenigstens eine vorgebbare Augenposition des zweiten Auges durch die
Blickerfassungsbrille (2) ermittelt werden,
wobei nachfolgend aus der wenigstens einen ermittelten Augenabmessung und/oder der wenigstens einen ermittelten Augenposition sowie der Position und Ausrichtung der zweiten Augenerfassungskamera (11) wenigstens ein zweiter Soll-Wert wenigstens einer geometrischen Display-Anzeige-
Einstellung des zweiten Displays (10) ermittelt wird,
und wobei nachfolgend die Displayansteuereinheit (8) zur Ansteuerung des
zweiten Displays (10) wenigstens an den zweiten Soll-Wert angepasst wird.
20
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass als zweiter Soll-Wert der geometrischen Display-Anzeige-Einstellung eine zweite Soll-Position und/oder eine zweite Soll-Verzerrung eines zweiten Anzeigebereiches (17) innerhalb des zweiten Displays (10) zur Darstellung eines virtuellen Objektes (16) vor dem zweiten Auge (12) ermittelt wird, wobei ausgehend von wenigstens einer Abweichung der zweiten Soll-Position und/oder der zweiten Soll-Verzerrung des zweiten Anzeigebereiches (17) zu einer zweiten Anzeigebereichs-Grundeinstellung des zweiten Displays (10) wenigstens ein zweiter Korrekturfaktor und/oder eine zweite Korrekturfunktion ermittelt wird, wobei die Displayansteuereinheit (8) wenigstens mit dem zweiten Korrekturfaktor bzw. der zweiten Korrekturfunktion
an den Benutzer angepasst wird.
5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass bei der Ermittlung der Augenpositionen des ersten Auges (6) und des zweiten Auges (12) weiters eine Position eines Medians der Augen (6, 12) bestimmt wird, und mittels der Blickerfassungsbrille (2) weiters die Position der ersten Augenerfassungskamera (5) und der zweiten Augenerfassungskamera (11) zum
Median der Augen (6, 12) bestimmt wird.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass wenigstens eine Musterblicksequenz des Benutzers auf eine vorgebbare Mehrzahl vorgegebener Passpunkte, welche in unterschiedlichen Abständen und
Entfernungen zum optischen System (1) angeordnet werden, aufgenommen wird.
7. Verfahren nach Anspruch 3 und 6, dadurch gekennzeichnet, dass zu einem, in einer ersten Entfernung von dem optischen System (1) angeordneten, ersten Passpunkt erste Entfernungswerte des ersten Soll-Wertes und des zweiten Soll-Wertes ermittelt werden, und dass zu einem, in einer zweiten Entfernung von dem optischen System (1) angeordneten, zweiten Passpunkt zweite Entfernungswerte des ersten Soll-Wertes und des zweiten Soll-Wertes ermittelt
werden, wobei die erste Entfernung unterschiedlich der zweiten Entfernung ist.
8. Verfahren zum Erzeugen und Anzeigen eines virtuellen Objektes (16) durch ein optisches System (1), wobei das optische System (1) aus einer
Blickerfassungsbrille (2) zur Detektion von Blickrichtungen des Benutzers und
21
wenigstens einer, mit der Blickerfassungsbrille (2) verbundenen Displayeinheit (3) besteht, welche Displayeinheit (3) zumindest ein wenigstens teildurchsichtiges erstes Display (4) aufweist, wobei die Blickerfassungsbrille (2) eine erste Augenerfassungskamera (5) zur Erstellung eines ersten Augenvideos eines ersten Auges (6) des Benutzers aufweist, wobei das erste Display (4) wenigstens bereichsweise in einem, dem ersten Auge (6) zugeordneten, ersten
Durchsichtbereich (7) der Blickerfassungsbrille (2) angeordnet ist,
wobei das optische System (1) gemäß einem Verfahren nach einem der
Ansprüche 1 bis 7 an einen individuellen Benutzer angepasst wird,
wobei in Reaktion auf einen vorgebbaren Zustand und/oder ein vorgebbares
Ereignis ein virtuelles Objekt (16) erzeugt wird,
wobei das virtuelle Objekt (16) von der Displayansteuereinheit (8), unter Berücksichtigung des ersten Soll-Wertes, an einer vorgebbaren Position im
ersten Display (4) anzeigt wird.
9. Verfahren nach Anspruch 8 und 2, dadurch gekennzeichnet, dass das virtuelle Objekt (16) um den ersten Korrekturfaktor und/oder die erste
Korrekturfunktion versetzt und/oder verzerrt im ersten Display (4) anzeigt wird.
10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die Displayeinheit (3) zumindest ein wenigstens teildurchsichtiges zweites Display (10) aufweist, wobei die Blickerfassungsbrille (2) eine zweite Augenerfassungskamera (11) zur Erstellung eines zweiten Augenvideos eines zweiten Auges (12) des Benutzers aufweist, wobei das zweite Display (10) wenigstens bereichsweise in
einem zweiten Durchsichtbereich (13) der Blickerfassungsbrille (2) angeordnet ist,
wobei das optische System (1) gemäß einem Verfahren nach einem der
Ansprüche 3 bis 8 an den individuellen Benutzer angepasst wird,
wobei das virtuelle Objekt (16) von der Displayansteuereinheit (8), unter weiterer Berücksichtigung des zweiten Soll-Wertes auch im zweiten Display
(10) anzeigt wird.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass von der
22
Blickerfassungsbrille (2) eine aktuelle Stellung der beiden Augen ermittelt wird, und dass das virtuelle Objekt (16) derart lageverschoben und/oder verzerrt am ersten und zweiten Display (4, 10) dargestellt wird, dass dieses als Einzelobjekt in
der Entfernung erscheint, auf welche die beiden Augen (6, 12) ausgerichtet sind.
12. Verfahren nach einem der Ansprüche 8 bis 11, dadurch gekennzeichnet, dass optische System wenigstens eine Blickfeldkamera (14) aufweist, wobei ein vorgebbares reales Objekt (15) durch die Blickfeldkamera (14) detektiert wird, wobei das Detektieren des vorgebbaren realen Objektes (15) das vorgebbare
Ereignis zum Erzeugen des virtuellen Objekts (16) ist.
13. Verfahren nach einem der Ansprüche 8 bis 12, dadurch gekennzeichnet, dass das System zur Detektion wenigstens eines Zustandswertes, insbesondere eines Müdigkeitszustandes, des Benutzers ausgebildet ist, dass der Zustandswert hinsichtlich der Überschreitung eines Grenzwertes von dem System überwacht wird, und dass ein Überschreiten des Grenzwertes das vorgebbare Ereignis zum
Erzeugen des virtuellen Objekts (16) ist.
14. Verfahren nach einem der Ansprüche 8 bis 13, dadurch gekennzeichnet, dass das System wenigstens eine Navigations- und Lagebestimmungseinheit (23) zur Detektion einer räumlichen Ausrichtung sowie eines Standorts des Systems aufweist, und dass ein vorgebbarer Ort sowie eine vorgebbare räumliche
Ausrichtung das vorgebbare Ereignis zum Erzeugen des virtuellen Objekts (16) sind.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ATA51133/2018A AT522012A1 (de) | 2018-12-19 | 2018-12-19 | Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer |
EP19827715.4A EP3899693A1 (de) | 2018-12-19 | 2019-12-19 | Verfahren zum erzeugen und anzeigen eines virtuellen objektes durch ein optisches system |
PCT/EP2019/086307 WO2020127732A1 (de) | 2018-12-19 | 2019-12-19 | Verfahren zum erzeugen und anzeigen eines virtuellen objektes durch ein optisches system |
US17/416,736 US11561392B2 (en) | 2018-12-19 | 2019-12-19 | Method for generating and displaying a virtual object by an optical system |
JP2021535796A JP2022514631A (ja) | 2018-12-19 | 2019-12-19 | 光学システムにより仮想オブジェクトを生成および表示するための方法 |
CN201980090853.XA CN113614674A (zh) | 2018-12-19 | 2019-12-19 | 用于通过光学系统产生和显示虚拟对象的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ATA51133/2018A AT522012A1 (de) | 2018-12-19 | 2018-12-19 | Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer |
Publications (1)
Publication Number | Publication Date |
---|---|
AT522012A1 true AT522012A1 (de) | 2020-07-15 |
Family
ID=69005726
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ATA51133/2018A AT522012A1 (de) | 2018-12-19 | 2018-12-19 | Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer |
Country Status (6)
Country | Link |
---|---|
US (1) | US11561392B2 (de) |
EP (1) | EP3899693A1 (de) |
JP (1) | JP2022514631A (de) |
CN (1) | CN113614674A (de) |
AT (1) | AT522012A1 (de) |
WO (1) | WO2020127732A1 (de) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020095784A1 (ja) * | 2018-11-06 | 2020-05-14 | 日本電気株式会社 | 表示制御装置、表示制御方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 |
EP4172741A1 (de) * | 2020-06-30 | 2023-05-03 | Snap Inc. | Brille mit ar-erfahrungen mit gemeinsamer objektmanipulation |
EP4222548A1 (de) * | 2020-09-29 | 2023-08-09 | Viewpointsystem GmbH | Generativ gefertigte augenverfolgungsbrille |
CN112416125A (zh) * | 2020-11-17 | 2021-02-26 | 青岛小鸟看看科技有限公司 | Vr头戴式一体机 |
CN115590462A (zh) * | 2022-12-01 | 2023-01-13 | 广州视景医疗软件有限公司(Cn) | 一种基于摄像头的视力检测方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130050432A1 (en) * | 2011-08-30 | 2013-02-28 | Kathryn Stone Perez | Enhancing an object of interest in a see-through, mixed reality display device |
US20150049201A1 (en) * | 2013-08-19 | 2015-02-19 | Qualcomm Incorporated | Automatic calibration of scene camera for optical see-through head mounted display |
US20150339844A1 (en) * | 2013-11-05 | 2015-11-26 | Shenzhen Cloud Cube Information Tech Co., Ltd. | Method and apparatus for achieving transformation of a virtual view into a three-dimensional view |
US20160353094A1 (en) * | 2015-05-29 | 2016-12-01 | Seeing Machines Limited | Calibration of a head mounted eye tracking system |
Family Cites Families (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7710654B2 (en) * | 2003-05-12 | 2010-05-04 | Elbit Systems Ltd. | Method and system for improving audiovisual communication |
US8990682B1 (en) * | 2011-10-05 | 2015-03-24 | Google Inc. | Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display |
US8878749B1 (en) * | 2012-01-06 | 2014-11-04 | Google Inc. | Systems and methods for position estimation |
WO2013140725A1 (ja) * | 2012-03-21 | 2013-09-26 | パナソニック株式会社 | 眼球疲労判定装置および眼球疲労判定方法 |
US9171198B1 (en) * | 2012-04-02 | 2015-10-27 | Google Inc. | Image capture technique |
US9223136B1 (en) * | 2013-02-04 | 2015-12-29 | Google Inc. | Preparation of image capture device in response to pre-image-capture signal |
US9239460B2 (en) * | 2013-05-10 | 2016-01-19 | Microsoft Technology Licensing, Llc | Calibration of eye location |
US10955665B2 (en) * | 2013-06-18 | 2021-03-23 | Microsoft Technology Licensing, Llc | Concurrent optimal viewing of virtual objects |
US9239626B1 (en) * | 2013-07-02 | 2016-01-19 | Google Inc. | Input system |
US10914951B2 (en) * | 2013-08-19 | 2021-02-09 | Qualcomm Incorporated | Visual, audible, and/or haptic feedback for optical see-through head mounted display with user interaction tracking |
AT513987B1 (de) | 2013-08-23 | 2014-09-15 | Ernst Dipl Ing Dr Pfleger | Brille und Verfahren zur Bestimmung von Pupillenmittelpunkten beider Augen eines Menschen |
US8950864B1 (en) * | 2013-08-30 | 2015-02-10 | Mednovus, Inc. | Brain dysfunction testing |
US9491365B2 (en) * | 2013-11-18 | 2016-11-08 | Intel Corporation | Viewfinder wearable, at least in part, by human operator |
WO2015100714A1 (en) * | 2014-01-02 | 2015-07-09 | Empire Technology Development Llc | Augmented reality (ar) system |
WO2016067078A1 (en) * | 2014-10-30 | 2016-05-06 | Telefonaktiebolaget Lm Ericsson (Publ) | Integrated cellular system with wi-fi-fallback |
US10248192B2 (en) * | 2014-12-03 | 2019-04-02 | Microsoft Technology Licensing, Llc | Gaze target application launcher |
WO2016138178A1 (en) * | 2015-02-25 | 2016-09-01 | Brian Mullins | Visual gestures for a head mounted device |
KR102121134B1 (ko) * | 2015-09-24 | 2020-06-09 | 토비 에이비 | 눈 추적 가능한 웨어러블 디바이스들 |
US9942532B2 (en) * | 2015-11-03 | 2018-04-10 | International Business Machines Corporation | Eye-fatigue reduction system for head-mounted displays |
KR101788452B1 (ko) * | 2016-03-30 | 2017-11-15 | 연세대학교 산학협력단 | 시선 인식을 이용하는 콘텐츠 재생 장치 및 방법 |
US10078377B2 (en) * | 2016-06-09 | 2018-09-18 | Microsoft Technology Licensing, Llc | Six DOF mixed reality input by fusing inertial handheld controller with hand tracking |
US10869026B2 (en) * | 2016-11-18 | 2020-12-15 | Amitabha Gupta | Apparatus for augmenting vision |
US20180157908A1 (en) * | 2016-12-01 | 2018-06-07 | Varjo Technologies Oy | Gaze-tracking system and method of tracking user's gaze |
US10534184B2 (en) * | 2016-12-23 | 2020-01-14 | Amitabha Gupta | Auxiliary device for head-mounted displays |
US20200012101A1 (en) * | 2017-03-31 | 2020-01-09 | Sharp Kabushiki Kaisha | Head-mounted display |
US10249095B2 (en) * | 2017-04-07 | 2019-04-02 | Microsoft Technology Licensing, Llc | Context-based discovery of applications |
US10489651B2 (en) * | 2017-04-14 | 2019-11-26 | Microsoft Technology Licensing, Llc | Identifying a position of a marker in an environment |
US10692287B2 (en) * | 2017-04-17 | 2020-06-23 | Microsoft Technology Licensing, Llc | Multi-step placement of virtual objects |
US10380418B2 (en) * | 2017-06-19 | 2019-08-13 | Microsoft Technology Licensing, Llc | Iris recognition based on three-dimensional signatures |
WO2019104413A1 (en) * | 2017-12-03 | 2019-06-06 | Frank Jones | Enhancing the performance of near-to-eye vision systems |
US10528128B1 (en) * | 2017-12-15 | 2020-01-07 | Facebook Technologies, Llc | Head-mounted display devices with transparent display panels for eye tracking |
US10558260B2 (en) * | 2017-12-15 | 2020-02-11 | Microsoft Technology Licensing, Llc | Detecting the pose of an out-of-range controller |
US10852816B2 (en) * | 2018-04-20 | 2020-12-01 | Microsoft Technology Licensing, Llc | Gaze-informed zoom and pan with manual speed control |
US10607083B2 (en) * | 2018-07-19 | 2020-03-31 | Microsoft Technology Licensing, Llc | Selectively alerting users of real objects in a virtual environment |
CN112805659A (zh) * | 2018-08-03 | 2021-05-14 | 奇跃公司 | 通过用户分类为多深度平面显示系统选择深度平面 |
US10909762B2 (en) * | 2018-08-24 | 2021-02-02 | Microsoft Technology Licensing, Llc | Gestures for facilitating interaction with pages in a mixed reality environment |
US10816804B2 (en) * | 2018-08-31 | 2020-10-27 | Google Llc | Near-eye display system with polarization-based optical path folding and variable focus catadioptric lens assembly |
US11042034B2 (en) * | 2018-12-27 | 2021-06-22 | Facebook Technologies, Llc | Head mounted display calibration using portable docking station with calibration target |
US11127380B2 (en) * | 2019-12-13 | 2021-09-21 | Qualcomm Incorporated | Content stabilization for head-mounted displays |
GB2596300A (en) * | 2020-06-23 | 2021-12-29 | Sony Interactive Entertainment Inc | Gaze tracking apparatus and systems |
US11249556B1 (en) * | 2020-11-30 | 2022-02-15 | Microsoft Technology Licensing, Llc | Single-handed microgesture inputs |
-
2018
- 2018-12-19 AT ATA51133/2018A patent/AT522012A1/de unknown
-
2019
- 2019-12-19 JP JP2021535796A patent/JP2022514631A/ja active Pending
- 2019-12-19 US US17/416,736 patent/US11561392B2/en active Active
- 2019-12-19 EP EP19827715.4A patent/EP3899693A1/de active Pending
- 2019-12-19 CN CN201980090853.XA patent/CN113614674A/zh active Pending
- 2019-12-19 WO PCT/EP2019/086307 patent/WO2020127732A1/de unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130050432A1 (en) * | 2011-08-30 | 2013-02-28 | Kathryn Stone Perez | Enhancing an object of interest in a see-through, mixed reality display device |
US20150049201A1 (en) * | 2013-08-19 | 2015-02-19 | Qualcomm Incorporated | Automatic calibration of scene camera for optical see-through head mounted display |
US20150339844A1 (en) * | 2013-11-05 | 2015-11-26 | Shenzhen Cloud Cube Information Tech Co., Ltd. | Method and apparatus for achieving transformation of a virtual view into a three-dimensional view |
US20160353094A1 (en) * | 2015-05-29 | 2016-12-01 | Seeing Machines Limited | Calibration of a head mounted eye tracking system |
Also Published As
Publication number | Publication date |
---|---|
CN113614674A (zh) | 2021-11-05 |
EP3899693A1 (de) | 2021-10-27 |
WO2020127732A1 (de) | 2020-06-25 |
US20220075187A1 (en) | 2022-03-10 |
JP2022514631A (ja) | 2022-02-14 |
US11561392B2 (en) | 2023-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AT522012A1 (de) | Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer | |
EP2926733B1 (de) | Triangulationsbasierte Tiefen- und Oberflächen-Visualisierung | |
EP3958726B1 (de) | Bestimmung eines refraktionsfehlers eines auges | |
EP3785601B1 (de) | Helligkeitsabhängige anpassung eines brillenglases | |
DE102014223442B4 (de) | Verfahren zur Sehzeichendarstellung, Sehzeichendarstellung, dazugehörige Verwendung und Bildausgabegerät | |
EP3210071B1 (de) | Vorrichtung und verfahren zum bestimmen von optischen parametern | |
EP3235422A1 (de) | Verfahren und vorrichtung zur bestimmung der augendrehpunktlage | |
EP3422087B1 (de) | Verfahren zur korrektur von zentrierparametern und/oder einer achslage sowie entsprechendes computerprogramm und verfahren | |
EP3195052B1 (de) | Verfahren zur messgenauen bestimmung von zentriertdaten eines probanden zur anpassung einer brille an den probanden und immobiles videozentriersystem | |
EP3730998A1 (de) | Bestimmung mindestens eines optischen parameters eines brillenglases | |
DE4417768C2 (de) | Verfahren und Vorrichtung zum Projizieren von Bildinformationen bei Personen mit durch eine Abweichung der Stellung ihrer Sehachse verursachten Störungen des Sehens | |
EP3955800B1 (de) | Bestimmung eines refraktionsfehlers eines auges | |
DE102014017534A1 (de) | Anzeigevorrichtung, die auf den Kopf eines Benutzers aufsetzbar ist | |
EP3765888B1 (de) | Verfahren zur benutzerindividuellen kalibrierung einer auf den kopf eines benutzers aufsetzbaren anzeigevorrichtung für eine augmentierte darstellung | |
DE102015214671A1 (de) | Autofokussierende optische Vorrichtung und Verfahren zur optischen Autofokussierung | |
WO2017220667A1 (de) | Verfahren und vorrichtung zur veränderung der affektiven visuellen information im gesichtsfeld eines benutzers | |
DE102013201773A1 (de) | Kopfgetragenes optisches Instrument und Verfahren zum Justieren eines kopfgetragenen optischen Instruments | |
DE102014113685A1 (de) | Anzeigevorrichtung, die auf den Kopf eines Benutzers aufsetzbar ist, und Verfahren zum Steuern einer solchen Anzeigevorrichtung | |
EP2466364A1 (de) | Vorrichtung mit einer Brillenlinse mit veränderbarer Wirkung sowie Verfahren zum Einstellen der Wirkung einer Brillenlinse | |
WO2016188596A1 (de) | Dynamisch stereoskope sehzeichen | |
DE102020214707A1 (de) | Verfahren und Vorrichtung zur rechnergestützten Simulation einer Sehhilfe für einen Benutzer mit Sehfehler mittels einer auf seinem Kopf getragenen Vorrichtung | |
DE102018110644B4 (de) | Digitales Mikroskop und digitales Mikroskopieverfahren | |
EP4188188B1 (de) | Verfahren zum bestimmen des nahpunkts, zum bestimmen der nahpunktdistanz, zum bestimmen eines sphärischen brechwertes sowie zum herstellen eines brillenglases sowie entsprechende mobile endgeräte und computerprogramme | |
DE102016125075B3 (de) | Verfahren zur Reduktion von Wahrnehmungskonflikten in stereomikroskopischen Bilddaten | |
WO2023151912A1 (de) | Verfahren und vorrichtung zum durchführen einer augennachverfolgung |