AT522012A1 - Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer - Google Patents

Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer Download PDF

Info

Publication number
AT522012A1
AT522012A1 ATA51133/2018A AT511332018A AT522012A1 AT 522012 A1 AT522012 A1 AT 522012A1 AT 511332018 A AT511332018 A AT 511332018A AT 522012 A1 AT522012 A1 AT 522012A1
Authority
AT
Austria
Prior art keywords
eye
display
determined
user
glasses
Prior art date
Application number
ATA51133/2018A
Other languages
English (en)
Original Assignee
Viewpointsystem Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Viewpointsystem Gmbh filed Critical Viewpointsystem Gmbh
Priority to ATA51133/2018A priority Critical patent/AT522012A1/de
Priority to EP19827715.4A priority patent/EP3899693A1/de
Priority to PCT/EP2019/086307 priority patent/WO2020127732A1/de
Priority to US17/416,736 priority patent/US11561392B2/en
Priority to JP2021535796A priority patent/JP2022514631A/ja
Priority to CN201980090853.XA priority patent/CN113614674A/zh
Publication of AT522012A1 publication Critical patent/AT522012A1/de

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features

Abstract

Bei einem Verfahren zur Anpassung eines optischen Systems (1) aus einer Blickerfassungsbrille (2) und wenigstens einer, mit der Blickerfassungsbrille (2) verbundenen Displayeinheit (3) an einen individuellen Benutzer, welche Displayeinheit (3) ein erstes Display (4) aufweist, wobei die Blickerfassungsbrille (2) eine erste Augenerfassungskamera (5) aufweist, wobei das erste Display (4) in einem ersten Durchsichtbereich (7) der Blickerfassungsbrille (2) angeordnet ist, wird vorgeschlagen, dass die Blickerfassungsbrille (2) vom Benutzer aufgesetzt wird, wobei nachfolgend wenigstens eine vorgebbare Augenabmessung und/oder wenigstens eine vorgebbare Augenposition des ersten Auges (6) durch die Blickerfassungsbrille (2) ermittelt werden, wobei nachfolgend aus der ermittelten Augenabmessung und/oder der ermittelten Augenposition sowie der Position und Ausrichtung der ersten Augenerfassungskamera (5) wenigstens ein erster Soll-Wert wenigstens einer geometrischen Display-Anzeige-Einstellung des ersten Displays (4) ermittelt wird, und wobei nachfolgend eine Displayansteuereinheit (8) der Displayeinheit (3) zur Ansteuerung des ersten Displays (4) wenigstens an den ersten Soll-Wert angepasst wird.

Description

1
Die Erfindung betrifft ein Verfahren zur Anpassung eines optischen Systems an
einen individuellen Benutzer gemäß dem Oberbegriff des Patentanspruches 1.
In zunehmendem Maße gewinnen Brillen zur sog. Augmented Reality sowie Mixed Reality an Bedeutung und Verbreitung. Dabei werden dem Benutzer einer Datenbrille Informationen in dessen Gesichtsfeld eingespielt. Derartige Brillen weisen wenigstens ein, zumindest teildurchsichtiges Display auf, welches vor wenigstens einem Auge des Benutzers angeordnet ist. Im Gegensatz zur sog. Virtual Reality ist bei Augmented Reality sowie Mixed Reality stets ein direkter Bezug zur
Umgebung gegeben.
In der Praxis ergeben sich bei derartigen Brillen, etwa der sog. Google Glass, zahlreiche Probleme. Die simple Darstellung einer Information auf einem Display, welches Teil einer Brille ist, hat sich als äußerst nachteilig erwiesen. Durch die Darstellung der Inhalte wird das Blickverhalten des Benutzers deutlich geändert. Der Benutzer wird durch die Darstellung der Information tatsächlich kaum unterstützt, da dieser bzw. dessen Augen gezwungen sind, ständig zwischen der dargestellten Information und der Umgebung zu wechseln. Dies führt zu schnellem Ermüden, und ist eine ernst zu nehmende Belastung für das Gehirn. Durch die dargestellten Inhalte wird der Benutzer auch von der realen Umgebung abgelenkt, da der optische Reiz einer neu angezeigten Information den Blick des Benutzers auf diese lenkt, und zwar ungeachtet dessen, ob in einer anderen Blickrichtung möglicherweise Relevanteres in der realen Welt mehr Aufmerksamkeit verdient hätte. Dies hat bereits zu Unfällen geführt. Derartige bekannte Brillen können daher genau das Gegenteil dessen bewirken, was sie bezwecken. Anstatt eine Situation für den Benutzer zu vereinfachen erhöhen derartige Brillen die
Komplexität.
Zudem sind alle Menschen in gewisser Weise individuell. Die Augen der Menschen sind jeweils, bezogen auf Nase und Ohren, anders angeordnet, und weisen jeweils auch einen individuellen Abstand zueinander auf. Jeder Brillenträger kennt das entsprechende Anpassen einer Brille durch den Optiker, wobei dieser durch mechanische Veränderungen der Brille, etwa durch Verbiegen der Bügel bzw. der Nasenpads, diese an die jeweiligen Gegebenheiten des einzelnen Brillenträgers
anpasst. Entsprechend werden auch optische Gläser jeweils individuell für einen
Benutzer angepasst.
Bei bekannten Systemen für Augmented Reality bzw. Mixed Reality ist es bislang nicht möglich die Anzeige virtueller Objekte mit Objekten der realen Welt zu
kombinieren bzw. vorgebbar und gewollt in Einklang zu bringen.
Aufgabe der Erfindung ist es daher ein Verfahren der eingangs genannten Art anzugeben, mit welchem die genannten Nachteile vermieden werden können, und mit welchem virtuelle Objekte in vorgebbarer Kombination mit der realen
Umgebung angezeigt werden können. Erfindungsgemäß wird dies durch die Merkmale des Patentanspruches 1 erreicht.
Dadurch kann eine Datenbrille, insbesondere ein optisches System bestehend aus einer Blickerfassungsbrille und einer Displayeinheit, schnell und einfach an einen individuellen Benutzer angepasst werden. Dadurch ist es möglich Inhalte nicht irgendwo auf einem Display anzuzeigen, sondern das betreffende optische System derart anzupassen, dass die entsprechenden Inhalte dort angezeigt werden können, wo ein Benutzer hinsieht. Dadurch ist es möglich die Anzeige virtueller Objekte mit Objekten der realen Welt zu kombinieren bzw. vorgebbar und gewollt in Einklang
zu bringen.
Dadurch kann sichergestellt werden, dass, durch das bzw. auf dem Display angezeigte Inhalte in der tatsächlichen Blickrichtung des Benutzers, bzw. in einer wohldefinierten und bewusst gewählten Lage bezogen auf die tatsächliche
Blickrichtung des Benutzers angezeigt werden. Das gegenständliche Verfahren ist in der Praxis schnell und einfach durchführbar. Die Unteransprüche betreffen weitere vorteilhafte Ausgestaltungen der Erfindung.
Ausdrücklich wird hiermit auf den Wortlaut der Patentansprüche Bezug genommen, wodurch die Ansprüche an dieser Stelle durch Bezugnahme in die Beschreibung
eingefügt sind und als wörtlich wiedergegeben gelten.
Die Erfindung wird unter Bezugnahme auf die beigeschlossenen Zeichnungen, in
welchen lediglich bevorzugte Ausführungsformen beispielhaft dargestellt sind,
näher beschrieben. Dabei zeigt:
Fig. 1 eine erste Ausführungsform eines gegenständlichen Systems aus
Blickerfassungsbrille und Displayeinheit in perspektivischer Ansicht;
Fig. 2 eine zweite Ausführungsform eines gegenständlichen Systems aus
Blickerfassungsbrille und Displayeinheit im Grundriss;
Fig. 3 eine schematische perspektivische Ansicht der räumlichen Anordnung eines
ersten und eines zweiten Displays gegenüber den Augen eines Benutzers;
Fig. 4 ein Blockschaltbild einer Ausführungsform eines gegenständlichen Systems
aus Blickerfassungsbrille und Displayeinheit;
Fig. 5 eine schematische perspektivische Ansicht der räumlichen Anordnung eines
ersten Displays, eines ersten Auges sowie eines realen Objekts (Physical Object);
Fig. 6 die Anordnung aus erstem Display und erstem Auge gemäß Fig. 5 mit einem,
auf dem ersten Display dargestelltem virtuellen Objekt (TAG); und
Fig. 7 die Anordnung aus erstem Display und erstem Auge gemäß Fig. 5 mit einem, außerhalb des ersten Displays angeordnetem, und nicht dargestelltem virtuellen Objekt (TAG).
Die Fig. 1, 2 und 4 zeigen jeweils unterschiedliche Ausführungsformen bzw. Darstellungen eines optischen Systems 1, welches gegenständlich an einen individuellen Benutzer angepasst wird. Weiters dient das gegenständliche optische System 1 der definierten Anzeige virtueller Objekte 16, welche in Reaktion auf einen vorgebbaren Zustand bzw. ein vorgebbares Ereignis erzeugt werden. Diese virtuellen Objekte 16 werden in definierter Sichtumgebung an einer vorgebbaren
Position in wenigstens einem Display 4, 10 des Systems 1 dargestellt.
Das optischen Systems 1 besteht wenigstens aus einer Blickerfassungsbrille 2 und
wenigstens einer, mit der Blickerfassungsbrille 2 verbundenen Displayeinheit 3.
Die Blickerfassungsbrille 2 weist wenigstens eine erste Augenerfassungskamera 5 zur Erstellung eines ersten Augenvideos eines ersten Auges 6 des Benutzers auf.
Bevorzugt weist die Blickerfassungsbrille 2 weiters eine zweite
4
Augenerfassungskamera 11 zur Erstellung eines zweiten Augenvideos eines zweiten Auges 12 des Benutzers auf. Die Blickerfassungsbrille 2 weist bevorzugt wenigstens eine, aus Sicht des Benutzers 1, welcher die Blickerfassungsbrille 2 trägt, nach vorne weisende Blickfeldkamera 14 auf. Die wenigstens eine Augenerfassungskamera 5 bzw. die bevorzugt zwei Augenerfassungskameras 5, 11 sind in sog. Nasenteilrahmen der Blickerfassungsbrille 2 angeordnet. In Fig. 2 ist die
Anordnung der beiden Augenerfassungskameras 5, 11 gut zu erkennen.
Eine besonders bevorzugt vorgesehene Blickerfassungsbrille 2, wie in den Fig. 1 und 2 dargestellt, ist aus der AT 513.987 B1 der Anmelderin bekannt, welcher weitere Details der bevorzugten Blickerfassungsbrille 2 zu entnehmen sind. Die gegenständlichen Verfahren können jedoch auch mit anderen Blickerfassungsbrillen
2 durchgeführt werden.
Die Blickerfassungsbrille 2 ist dazu vorgesehen und ausgebildet Blickrichtungen des
Benutzers zu detektieren.
Fig. 4 zeigt u.a. ein Blockschaltbild der Blickerfassungsbrille 2, wobei jedoch eine real umgesetzte Blickerfassungsbrille 2 weitere Komponenten aufweisen kann. Neben den bereits beschriebenen Augenerfassungskameras 5, 11 weist die Blickerfassungsbrille 2 insbesondere wenigstens einen Controller 18 der Blickerfassungsbrille 2 sowie eine Schnittstelle 19 zur Kommunikation mit der Displayeinheit 3 auf. Die Blickerfassungsbrille 2 weist darüber hinaus bevorzugt
weitere Komponenten auf, wie beispielsweise eine Energieversorgungseinheit.
Die Displayeinheit 3 weist zumindest ein - wenigstens - teildurchsichtiges erstes Display 4 auf, wie dies in Fig. 1 dargestellt ist. Insbesondere weist die Displayeinheit 3 weiters ein zweites Display 10 auf. Die beiden Displays 4, 10 können auch einstückig ausgebildet sein, wobei dabei vorgesehen ist, dass sich das einzelne Display über beide Augen 6, 12 erstreckt. Gegenständlich ist durchwegs das erste Display 4 dem linken Auge des Benutzers zugeordnet, wobei es sich jedoch um keine zwingende Festlegung handelt, und auch das rechte Auge als
erstes Auge 6 bezeichnet werden kann.
Bevorzugt ist die Displayeinheit 3 ein, von der Blickerfassungsbrille 2
5
eigenständiges Gerät, welches jedoch dazu ausgebildet ist mit einer bestimmten Art einer Blickerfassungsbrille 2 zu interagieren und auf dieser bestimmten Blickerfassungsbrille 2 angeordnet und mit dieser mechanisch verbunden zu werden. Gegenständlich wird stets das System 1 aus einer Blickerfassungsbrille 2 und einer mit dieser mechanisch verbundenen Displayeinheit 3 verwendet, wobei
auch eine einstückige Ausführung der beiden Geräte 2, 3 vorgesehen sein kann.
Das erste Display 4 ist wenigstens bereichsweise in einem ersten Durchsichtbereich 7 der Blickerfassungsbrille 2 angeordnet. Das bevorzugt vorgesehene zweite Display 10 ist wenigstens bereichsweise in einem zweiten Durchsichtbereich 13 der Blickerfassungsbrille 2 angeordnet. Als Durchsichtbereich 7, 13 ist dabei ein Bereich innerhalb der Sichtlinie bzw. des optischen Gesichtsfeldes eines Benutzers zu verstehen. Insbesondere sind die Durchsichtbereiche 7, 13 identisch mit den Scheibenaufnahmeöffnungen der Blickerfassungsbrille 2. Sofern diese keine „Gläser“ und/oder keinen oder nur einen teilweise ausgebildeten Rahmen aufweist, so sind die Durchsichtbereiche 7, 13 insbesondere die Bereiche an denen
üblicherweise bei einer herkömmlichen Brille die „Gläser“ angeordnet wären.
Das erste und gegebenenfalls das zweite Display 4, 10 können an der, dem Benutzer zugewandten Seite der Blickerfassungsbrille 2, wie in Fig. 1 dargestellt, oder der, dem Benutzer abgewandten Seite der Blickerfassungsbrille 2, wie in Fig. 2 dargestellt, angeordnet sein. Darüber hinaus können diese auch in der
Blickerfassungsbrille 2 angeordnet sein.
Das erste und gegebenenfalls das zweite Display 4, 10 sind lagefest in der Displayeinheit 3 angeordnet. Es ist nicht vorgesehen, dass diese im Betrieb gekippt oder geschwenkt werden. Die Displayeinheit 3 weist auch keine entsprechenden
Aktuatoren auf.
Das erste und gegebenenfalls das zweite Display 4, 10 sind bevorzugt als sog. Wave-
Guide Displays ausgebildet, und im Wesentlichen durchsichtig.
Das erste und gegebenenfalls das zweite Display 4, 10 sind bevorzugt als sog. „single focal plane“-Display ausgebildet. Dabei handelt es sich um ein Display mit
nur einer einzigen Anzeigeebene. Demgegenüber sind auch sog. „multiple focal
plane“-Displays bekannt, welche gegenständlich jedoch nicht verwendet werden.
Fig. 4 zeigt u.a. ein Blockschaltbild der Displayeinheit 3, wobei jedoch eine real umgesetzte Displayeinheit 3 weitere Komponenten aufweisen kann. Neben den bereits beschriebenen Displays 4, 10 weist die Displayeinheit 3 weiters einen Controller 22 der Displayeinheit 3 sowie eine erste Schnittstelle 20 der
Displayeinheit 3 zur Kommunikation mit der Blickerfassungsbrille 2 auf.
Weiters weist die Displayeinheit 3 eine Displayansteuereinheit 8 auf, welche mit dem Controller 22 verbunden oder mit diesem einstückig ausgebildet ist. Die Displayansteuereinheit 8 steuert das erste sowie das bevorzugt vorgesehene zweite Display 4, 10 an, und ist dabei verantwortlich für die Position sowie die Verzerrungen eines Bildes bzw. eines darzustellenden Objekts 16 auf bzw. in dem ersten und bevorzugt zweiten Displays 4, 10. Das Bild bzw. Objekt 16 wird vom Controller 22 generiert, und zur Darstellung an die Displayansteuereinheit 8
übertragen.
Die Displayeinheit 3 weist weiters eine zweite Schnittstelle 21 der Displayeinheit 3 auf, welche zur Kommunikation mit der Umwelt vorgesehen und entsprechend ausgebildet ist. Entsprechend geeignete bzw. bevorzugte Übertragungsverfahren bzw. Systeme sind derzeit vielfältig bekannt und verbreitet, und werden im Bereich des zellulären Mobilfunks als 3G (UMTS) bzw. 4G (LTE) bzw. 5G bezeichnet, wobei weiters Systeme des Internets bzw. WLAN Verwendung finden können.
Entsprechende weitere Protokolle sind etwa IEEE 802 mit zahlreichen Varianten.
Weiters weist die Displayeinheit 3 bevorzugt eine Navigations- und Lagebestimmungseinheit 23 auf, welche mit dem Controller 22 verbunden ist. Entsprechende Einheiten sind aus sog. Smart-Phones bekannt. Die Navigations- und Lagebestimmungseinheit 23 kann sowohl die Position der Displayeinheit 3 in einem globalen Koordinatensystem, insbesondere mittels Sattelitennavigationsverfahren sowie gegebenenfalls unter Hinzuziehung der Verbindungsdaten eines Mobilfunkanbieters, sowie weiters die räumliche Lage bzw. Ausrichtung der Displayeinheit 3 bestimmen, insbesondere mittels wenigstens einem
Neigungssensor.
7127
7
Die Displayeinheit 3 weist darüber hinaus bevorzugt weitere Komponenten auf, wie
beispielsweise eine Energieversorgungseinheit.
Da es bei der Fertigung der Blickerfassungsbrille 2 und/oder der Displayeinheit 3 zu geringfügigen, individuellen Abweichungen von den Maßvorgaben kommen kann, ist bevorzugt vorgesehen, dass die individuelle Position und Ausrichtung der ersten Augenerfassungskamera 5 und/oder der zweiten Augenerfassungskamera 11 jeder einzelnen bzw. individuellen Blickerfassungsbrille 2 - vor deren Auslieferung - in einem Messstand ermittelt werden, und die entsprechenden Daten in einem Speicher bzw. dem Controller 18 der jeweiligen Blickerfassungsbrille 2 abgelegt
werden.
Bevorzugt ist vorgesehen, dass weiters - ebenfalls jeweils individuell - wenigstens ein Wert für wenigstens einen vorgebbaren optischen Fehler der ersten Augenerfassungskamera 5 und/oder der zweiten Augenerfassungskamera 11 in dem Messstand ermittelt wird, und dass der wenigstens eine ermittelte Wert ebenfalls in dem Speicher bzw. dem Controller 18 abgelegt und bei den nachfolgend
beschriebenen Verfahrensschritten berücksichtigt wird.
Weiters ist bevorzugt vorgesehen, dass auch die individuelle Lage und Ausrichtung des ersten Displays 4 sowie des bevorzugt vorgesehenen zweiten Displays 10 einer jeden Displayeinheit 3 einzeln in einem Messstand ermittelt wird, und die dabei ermittelten Daten im Controller 22 der jeweiligen Displayeinheit 3 abgelegt werden. Diese Daten werden bevorzugt bei den nachfolgend beschriebenen
Verfahrensschritten berücksichtigt.
Die vorbeschriebene Ermittlung der tatsächlichen Abmessungen und optischen Fehler erfolgt bereits vor der Übergabe der jeweiligen Blickerfassungsbrille 2 und/oder der jeweiligen Displayeinheit 3 an den Benutzer. Dies wird auch als
intrinsische Kalibrierung bezeichnet.
Ein gegenständliches Verfahren zur Anpassung eines optischen Systems 1 an einen
individuellen Benutzer umfasst zumindest folgende Schritte:
Die Blickerfassungsbrille 2 wird vom Benutzer aufgesetzt.
8
Nachfolgend werden wenigstens eine vorgebbare Augenabmessung und/oder wenigstens eine vorgebbare Augenposition des ersten Auges 6 durch die
Blickerfassungsbrille 2 ermittelt.
Nachfolgend wird aus der wenigstens einen ermittelten Augenabmessung und/oder der wenigstens einen ermittelten Augenposition sowie der Position und Ausrichtung der ersten Augenerfassungskamera 5 wenigstens ein erster Soll-Wert wenigstens einer geometrischen Display-Anzeige-Einstellung des
ersten Displays 4 ermittelt.
Nachfolgend wird eine Displayansteuereinheit 8 der Displayeinheit 3 zur Ansteuerung des ersten Displays 4 wenigstens an den ersten Soll-Wert
angepasst.
Dadurch kann ein gegenständliches individuelles optisches System 1 zur Augmented bzw. Mixed Reality schnell und einfach an einen individuellen Benutzer angepasst werden. Dadurch ist es erst möglich Inhalte nicht irgendwo auf einem Display 4, 10 anzuzeigen, sondern das betreffende optische System 1 derart anzupassen, dass die entsprechenden Inhalte dort angezeigt werden können, wo ein Benutzer bereits hinsieht. Dadurch ist es weiters auch möglich die Anzeige virtueller Objekte 16 mit realen Objekten 15 der realen Welt zu kombinieren bzw. vorgebbar und gewollt in
Einklang zu bringen.
Dadurch kann sichergestellt werden, dass, durch das bzw. auf dem Display 4, 10 angezeigte Inhalte in der tatsächlichen Blickrichtung des Benutzers, bzw. in einer wohldefinierten und bewusst gewählten Lage und/oder Verzerrung bezogen auf die
tatsächliche Blickrichtung des Benutzers angezeigt werden.
Es kann vorgesehen sein, dass eine entsprechende Anpassung bzw. Kalibrierung nur ein einziges Mal für ein individuelles optisches System 1 durchgeführt wird, um dieses an einen bestimmten Benutzer anzupassen. Bevorzugt ist vorgesehen, dass
die Anpassung in vorgebbaren zeitlichen Abständen wiederholt wird.
Die angeführten Verfahrensschritte sind jeweils nur für ein Auge 6 zwingend vorgesehen, und nur für ein Auge 6 ausführbar. Dies betrifft etwa Benutzer mit nur
einem Auge 6 bzw. Situationen, in welchen nur ein Auge 6 genutzt wird.
Bevorzugt ist das bzw. sind die gegenständlichen Verfahren für beide Augen 6, 12 eines Benutzers vorgesehen. Nachfolgend werden die gegenständlichen Verfahren daher insbesondere für zwei Augen 6, 12 beschrieben, wobei sämtliche Verfahrensschritte, welche auch mit bzw. bei nur einem Auge 6 durchführbar sind,
als solches auch für nur ein Auge 6 vorgesehen sind.
Das gegenständliche Verfahren weist daher in der bevorzugten Grundvariante
folgende weiteren Verfahrensschritte auf:
Wenigstens eine vorgebbare Augenabmessung und/oder wenigstens eine vorgebbare Augenposition des zweiten Auges 12 werden durch die
Blickerfassungsbrille 2 ermittelt.
Nachfolgend wird aus der wenigstens einen ermittelten Augenabmessung und/oder der wenigstens einen ermittelten Augenposition sowie der Position und Ausrichtung der zweiten Augenerfassungskamera 11 wenigstens ein zweiter Soll-Wert wenigstens einer geometrischen Display-Anzeige-
Einstellung des zweiten Displays 10 ermittelt.
Nachfolgend wird die Displayansteuereinheit 8 zur Ansteuerung des zweiten
Displays 10 wenigstens an den zweiten Soll-Wert angepasst. Nachfolgend werden die einzelnen Schritte im Detail erläutert.
Das Aufsetzen der Blickerfassungsbrille 2 ist mit dem Aufsetzen einer jeden anderen Brille identisch, allgemein bekannt und erfordert keine weitere Erläuterung. Zusammen mit der Blickerfassungsbrille 2 wird auch die, mit dieser
verbundene Displayeinheit 3 aufgesetzt.
Nachfolgend dem Aufsetzen der Blickerfassungsbrille 2 werden wenigstens eine vorgebbare Augenabmessung und/oder wenigstens eine vorgebbare Augenposition des ersten Auges 6 sowie bevorzugt auch des zweiten Auges 12 durch die Blickerfassungsbrille 2 ermittelt. Augenabmessungen sind insbesondere der Augendurchmesser bzw. der Augenradius sowie weiters der Pupillendurchmesser. Bevorzugt wird beides bestimmt. Augenpositionen sind insbesondere die Position
der Pupillen der Augen 6, 12, insbesondere ein Abstand der beiden Pupillen
10
zueinander, sowie die räumliche Lage der beiden Augen 6, 12 zueinander.
Bevorzugt wird beides bestimmt.
Zur Ermittlung der Augenpositionen des ersten Auges 6 und des zweiten Auges 12 ist insbesondere vorgesehen, dass eine Position eines Medians der Augen 6, 12 bestimmt wird. Als Median wird eine Mittellinie des Körpers bzw. des Kopfes im Bereich der Augen 6, 12 bezeichnet. Weiters wird hierzu die Position der ersten Augenerfassungskamera 5 und der zweiten Augenerfassungskamera 11 zum Median
der Augen 6, 12 bestimmt.
Zur Ermittlung der Augenpositionen bzw. der Augenabmessungen ist bevorzugt vorgesehen, dass wenigstens eine Musterblicksequenz des Benutzers auf eine vorgebbare Mehrzahl vorgegebener Passpunkte aufgenommen wird. Als Musterblicksequenz bzw. Blicksequenz wird dabei das Blickverhalten des Benutzers bezeichnet, welcher dazu angehalten wird, von einem bestimmten Aufenthaltsort aus, auf bestimmte Passpunkte zu blicken, bzw. unter Fixierung eines Passpunktes seinen Kopf vorgebbar zu bewegen. Bevorzugt ist vorgesehen, dass die Passpunkte in unterschiedlichen Abständen und Entfernungen zum optischen System 1 angeordnet sind bzw. werden. Auf die daraus resultierenden Vorteile wird an
später nachfolgender Stelle eingegangen.
Nachfolgend der Ermittlung der Augenabmessungen sowie der Augenpositionen ist vorgesehen, dass aus der wenigstens einen ermittelten Augenabmessung und/oder der wenigstens einen ermittelten Augenposition sowie der Position und Ausrichtung der ersten Augenerfassungskamera 5 wenigstens ein erster Soll-Wert wenigstens einer geometrischen Display-Anzeige-Einstellung des ersten Displays 4 ermittelt wird. Bevorzugt ist weiters vorgesehen, dass aus der wenigstens einen ermittelten Augenabmessung und/oder der wenigstens einen ermittelten Augenposition sowie der Position und Ausrichtung der zweiten Augenerfassungskamera 11 wenigstens ein zweiter Soll-Wert wenigstens einer geometrischen Display-Anzeige-Einstellung des
zweiten Displays 10 ermittelt wird.
Im Zuge dieses Verfahrensschrittes werden daher Werte bzw. Parameter ermittelt, welche als Soll-Werte bezeichnet werden. Diese Soll-Werte geben an, an welcher
Position und/oder mit welcher Verzerrung ein Bild bzw. ein virtuelles Objekt 16
11
innerhalb der Anzeigebereiche der jeweiligen Displays 4, 10 dargestellt werden muss, damit dieses für den Benutzer, welcher auf, schräg vor seinen Augen 6, 12 angeordnete Displays 4, 10 blickt, angezeigt werden muss, damit dieses für den Benutzer wiederum an einer ganz bestimmten bzw. vorgegebenen Stelle dargestellt wird, sowie im Wesentlichen verzeichnungsfrei. Insbesondere handelt es sich bei den Soll-Werten nicht um Einzelwerte, sondern jeweils um Gruppen bzw. Mengen von Werten bzw. Vektoren. Dabei ist insbesondere vorgesehen, dass für verschiedene Augenstellungen, welche in der Regel mit unterschiedlichen Beobachtungsabständen einhergehen, jeweils unterschiedliche Soll-Werte
ermittelt, gespeichert und berücksichtig werden.
Fig. 3 zeigt eine entsprechende Ansicht nur der Augen 6, 12 sowie der beiden
Displays 4, 10.
Entsprechend handelt es sich bei der geometrischen Display-Anzeige-Einstellung um wenigstens eine Einstellung, welche die geometrische Darstellung eines Objekts in dem Display betrifft, nicht jedoch dessen Farbe oder Kontrast. Die geometrische Display-Anzeige-Einstellung betrifft daher Lage bzw. Position, Verzerrung sowie Größe eines dargestellten Objekts 16 innerhalb eines Anzeigebereichs des
jeweiligen Displays 4, 10.
Nach Ermittlung des ersten sowie bevorzugt des zweiten Soll-Wertes wird die Displayansteuereinheit 8 der Displayeinheit 3 zur Ansteuerung des ersten Displays 4 wenigstens an den ersten Soll-Wert, sowie zur Ansteuerung des zweiten Displays 10 wenigstens an den zweiten Soll-Wert angepasst. Durch die Anpassung der Displayansteuereinheit 8 kann erreicht werden, dass die darzustellenden Objekte dem Benutzer in der Weise dargestellt werden, dass diese - relativ zu den Augen 6, 12 des Benutzers - tatsächlich dort dargestellt werden, wo diese auch erscheinen
sollen, und die erforderliche Verzerrung aufweisen, um unverzerrt zu erscheinen.
Das erforderliche Maß an Verzerrung sowie die gewünschte Position sind auch für ein und denselben Benutzer nicht über alle Blickzustände konstant. Insbesondere verändern sich diese mit der Entfernung eines Punktes auf den der Benutzer blickt. Es ist daher, wie bereits angedacht, im Rahmen der Ermittlung der
Augenabmessungen und/oder der Augenpositionen besonders bevorzugt
12
vorgesehen, dass zu einem, in einer ersten Entfernung von dem optischen System 1 angeordneten, ersten Passpunkt erste Entfernungswerte des ersten Soll-Wertes und des zweiten Soll-Wertes ermittelt werden, und dass zu einem, in einer zweiten Entfernung von dem optischen System 1 angeordneten, zweiten Passpunkt zweite Entfernungswerte des ersten Soll-Wertes und des zweiten Soll-Wertes ermittelt werden, wobei die erste Entfernung unterschiedlich der zweiten Entfernung ist. Es werden daher unterschiedliche Werte zw. Beträge des ersten Soll-Wertes und des zweiten Soll-Wertes für unterschiedliche Einstellentfernung des ersten und zweiten Auges 6, 12 bzw. für unterschiedliche, zueinander gerichtete Stellung der Augen 6, 12 handeln kann ermittelt. Insbesondere ist vorgesehen, dass Passpunkte in wenigstens vier unterschiedlichen Entfernungen angeordnet werden. Aus den ermittelten Entfernungswerten kann ein entsprechender Verlauf über die Einstellentfernung extrapoliert und für die künftige Anzeige virtueller Objekte 16
zu bestimmten Augenstellungen gespeichert werden.
Die Art der Soll-Werte steht in direktem Zusammenhang zur Art der verwendeten Displays 4, 10. Displays 4, 10 weisen oftmals sog. Grundeinstellungen auf, welche auch als Default-Settings bezeichnet werden. Ohne bewusste Veränderung bzw. Anpassung der Videosignale, welche einem solchen Display zugeführt werden, wird ein entsprechendes Bild bzw. Video entsprechend der Default-Settings dargestellt. Dadurch würde das entsprechende Bild in der Regel unverzerrt in der Mitte des
jeweiligen Displays dargestellt.
Besonders bevorzugt ist daher vorgesehen, dass als erster Soll-Wert der geometrischen Display-Anzeige-Einstellung eine erste Soll-Position und/oder eine erste Soll-Verzerrung eines ersten Anzeigebereiches 9 zur Darstellung eines virtuellen Objektes 16 vor dem ersten Auge 6 ermittelt wird, wobei ausgehend von wenigstens einer Abweichung der ersten Soll-Position und/oder der ersten SollVerzerrung des ersten Anzeigebereiches 9 zu einer ersten AnzeigebereichsGrundeinstellung des ersten Displays 4 wenigstens ein erster Korrekturfaktor und/oder eine erste Korrekturfunktion ermittelt wird, wobei die Displayansteuereinheit 8 wenigstens mit dem ersten Korrekturfaktor bzw. der ersten Korrekturfunktion an den Benutzer angepasst wird. Der erste Anzeigebereich
9 ist dabei ein Teilbereich innerhalb des ersten Displays 4.
13
Entsprechend ist für das zweite Auge bevorzugt vorgesehen, dass als zweiter SollWert der geometrischen Display-Einstellung eine zweite Soll-Position und/oder eine zweite Soll-Verzerrung eines zweiten Anzeigebereiches 17 zur Darstellung eines virtuellen Objektes 16 vor dem zweiten Auge 12 ermittelt wird, wobei ausgehend von wenigstens einer Abweichung der zweiten Soll-Position und/oder der zweiten Soll-Verzerrung des zweiten Anzeigebereiches 17 zu einer zweiten AnzeigebereichsGrundeinstellung des zweiten Displays 10 wenigstens ein zweiter Korrekturfaktor und/oder eine zweite Korrekturfunktion ermittelt wird, wobei die Displayansteuereinheit 8 wenigstens mit dem zweiten Korrekturfaktor bzw. der zweiten Korrekturfunktion an den Benutzer angepasst wird. Der zweite
Anzeigebereich 17 ist dabei ein Teilbereich innerhalb des zweiten Displays 10.
Im vorgenannten Zusammenhang stellt eine Korrekturfunktion einen Zusammenhang zwischen bestimmten Augenstellungen und/oder Blickrichtungen des Benutzers und den jeweils, für die Anzeige eines virtuellen Objekts untern den jeweiligen Bedingungen vorgesehenen Korrekturfaktoren her. Augen sind zu quasikontinuierlichen Positionsänderungen fähig. Es hat sich gezeigt, dass die
Werte der Korrekturfaktoren ein ebensolch quasikontinuierliches Verhalten zeigen.
Durch die vorstehende Verwendung von Korrekturfaktoren bzw. Korrekturfunktionen ist eine einfache Anpassung der Displays 4, 10 bzw. der Displayansteuereinheit 8 möglich. Dabei ist besonders bevorzugt vorgesehen, die Korrekturfaktoren bzw. Korrekturfunktionen als Feld mit unterschiedlichen
Entfernungswerten aufzunehmen.
Fig. 3 zeigt deutlich, wie für die beiden dargestellten Augen die jeweiligen Anzeigebereiche 9, 17 deutlich von den jeweiligen Mitten der beiden Displays 4, 10
abweichen.
Durch die gegenständlich durchgeführte Anpassung des optischen Systems 1 wird die Anzeige eines virtuellen Objektes 16 in vorgebbarem Bezug zur Blickrichtung bzw. Blickverhalten des Benutzers ermöglicht. Insbesondere ist es dadurch möglich ein virtuelles Objekt 16 in vorgebbarem Bezug zusammen mit einem realen Objekt
15 anzuzeigen.
14
Es wird daher im Weiteren ein Verfahren zum Erzeugen und Anzeigen eines virtuellen Objektes 16 durch ein optisches System 1 beschrieben. Das optische System 1 entspricht dabei dem einleitend beschriebenen optischen System 1, welches entsprechend den beschriebenen Verfahren an den Benutzer angepasst
bzw. kalibriert wurde.
Beim Verfahren zum Erzeugen und Anzeigen eines virtuellen Objektes 16 durch ein
optisches System 1 sind folgende Verfahrensschritte vorgesehen:
In Reaktion auf einen vorgebbaren Zustand und/oder ein vorgebbares
Ereignis wird ein virtuelles Objekt (16) erzeugt.
Das virtuelle Objekt (16) wird von der Displayansteuereinheit (8), unter Berücksichtigung des ersten Soll-Wertes, an einer vorgebbaren Position im
ersten Display (4) anzeigt.
Wie bereits dargelegt, ist insbesondere die Verwendung zweier Displays 4, 10 vorgesehen. Dabei ist insbesondere weiters vorgesehen, dass gleichzeitig mit den
vorgenannten Verfahrensschritten
das virtuelle Objekt 16 von der Displayansteuereinheit 8, unter weiterer Berücksichtigung des zweiten Soll-Wertes ebenfalls im zweiten Display 10
anzeigt wird.
Bei Verwendung von Displays 4, 10 mit Grundeinstellungen ist insbesondere vorgesehen, dass das virtuelle Objekt 16 um den ersten Korrekturfaktor und/oder die erste Korrekturfunktion versetzt und/oder verzerrt im ersten Display 4 anzeigt wird, sowie bevorzugt, dass das virtuelle Objekt 16 um den zweiten Korrekturfaktor und/oder die zweite Korrekturfunktion versetzt und/oder verzerrt im zweiten
Display 10 anzeigt wird.
Das virtuelle Objekt 16 wird erzeugt und angezeigt, wenn ein vorgebbarer Zustand und/oder ein vorgebbares Ereignis eintritt. Dabei kann ein solcher Zustand bzw. ein solches Ereignis jeweils auch erst dann als eingetreten angesehen werden, wenn
jeweils eine vorgebbare Mehrzahl an Kriterien erfüllt ist.
Gemäß einer ersten bevorzugten Variante ist vorgesehen, dass optische System
15
wenigstens eine Blickfeldkamera (14) aufweist, wobei ein vorgebbares reales Objekt (15) durch die Blickfeldkamera (14) detektiert wird, wobei das Detektieren des vorgebbaren realen Objektes (15) das vorgebbare Ereignis, bzw. ein Kriterium für ein entsprechendes Ereignis, zum Erzeugen des virtuellen Objekts (16) ist. Dadurch kann etwa ein Benutzer bei der Orientierung in der realen Welt unterstützt werden. Ein Erkennen eines realen Objekts 15 ist mittels entsprechender Bildverarbeitungsprogramme bereits möglich. In diesem
zusammenhang kann auch das Erkennen eines Gesichts vorgesehen sein.
Gemäß einer zweiten bevorzugten Variante ist vorgesehen, dass das System zur Detektion wenigstens eines Zustandswertes des Benutzers ausgebildet ist, dass der Zustandswert hinsichtlich der Überschreitung eines Grenzwertes von dem System überwacht wird, und dass ein Überschreiten des Grenzwertes das vorgebbare Ereignis zum Erzeugen des virtuellen Objekts 16 ist. Beispielsweise kann ein Müdigkeitswert für einen Wach/Müdigkeitszustand des Benutzers aus einer Beobachtung und Auswertung des Blickverhaltens ermittelt werden, wozu keine
weiteren Sensoren erforderlich sind.
Weiters kann vorgesehen sein, dass das optische System 1 wenigstens einen weiteren Sensor zur Ermittlung einer physiologischen Größe des Benutzers, insbesondere Herzschlag und/oder Hautleitfähigkeit, aufweist, und/oder mit einem entsprechenden externen Sensor verbunden ist, um dessen Werte anzuzeigen. Beispielsweise kann das optische System 1 auch mit einem Blutdrucksensor verbunden sein. Entsprechende externe Sensoren können auch Sensoren sein, welche die Körperfunktionen anderer Lebewesen, als den Benutzer, aufnehmen. So kann beispielsweise ein Trainer über einen kritischen Zustand eines seiner Athleten unterrichtet werden. Weiters kann es sich bei dem wenigstens einen Sensor um
einen Sensor einer technischen Apparatur handeln.
Gemäß einer dritten bevorzugten Variante ist vorgesehen, dass das System wenigstens eine Navigations- und Lagebestimmungseinheit 23 zur Detektion einer räumlichen Ausrichtung sowie eines Standorts des Systems 1 aufweist, und dass ein vorgebbarer Ort sowie eine vorgebbare räumliche Ausrichtung das vorgebbare Ereignis zum Erzeugen des virtuellen Objekts 16 sind. Die Detektion einer
räumlichen Ausrichtung sowie eines Standorts des Systems 1 kann insbesondere
mittels sog. standortbezogener Dienste bzw. location based services, wie diese im
Bereich der Smart-Phones bekannt sind, unterstützt werden.
Die Fig. 5 bis 7 zeigen Beispiele zur Anzeige virtueller Objekte 16 in Bezug auf ein reales Objekt 15, wobei unerheblich ist, ob dieses reale Objekt 15 einfach ur da ist, oder auch als Objekt 15 detektiert bzw. erkannt wurde. Dabei zeigt Fig. 5 das erste Auge 6 des Benutzers, welches durch das erste Display 4 das reale Objekt 15 anblickt, welches in Fig. 5 als „Physical Object“ bezeichnet ist. Gemäß einer besonders einfachen Reaktion wird ein virtuelles Objekt 16 in Form eines Rahmens im Display 4 so angezeigt, dass dieses virtuelle Objekt 16 das reale Objekt 15
einfasst, und der Rahmen im Wesentlichen rechteckig erscheint.
Fig. 6 zeigt eine ähnliche Situation, wobei jedoch kein reales Objekt 15 dargestellt ist. Anstelle der Umrandung wird nunmehr ein anderes virtuelles Objekt 16 in Form eines TAG dargestellt wird. Der betreffende TAG wird dabei seitlich angrenzend zur Blickrichtung dargestellt. Da über die Blickerfassungsbrille 2 eindeutig bekannt ist, wohin der Benutzer blickt, kann das virtuelle Objekt derart an bzw. neben der Blickrichtung positioniert werden, dass dieses vom Benutzer ohne wesentliche
Veränderung der Blickrichtung erkannt bzw. gelesen werden kann.
Fig. 7 zeigt die Auswirkungen auf das virtuelle Objekt 16 bzw. den TAG, wenn der Benutzer sich von diesem wegdreht bzw. den Blick einer anderen Sache zuwendet. Das betreffende virtuelle Objekt 16 behält dabei dessen zugewiesene Position im Raum bei. Da sich dieses nun außerhalb des Anzeigebereichs 9 des Displays 4 befindet, wird es auch nicht mehr dargestellt. Sobald sich der Benutzer wieder ausreichend in die entsprechende Richtung bewegt, wird auch das virtuelle Objekt
16 wieder dargestellt.
Bevorzugt ist vorgesehen, dass von der Blickerfassungsbrille 2 eine Einstellentfernung der beiden Augen 6, 12 des Benutzers beim Anblick des realen Objekts 15 ermittelt wird, und dass das virtuelle Objekt 16 derart lageverschoben und/oder verzerrt am ersten und zweiten Display 4, 10 dargestellt wird, dass dieses als Einzelobjekt in derselben Einstellentfernung der beiden Augen 6, 12 erscheint, wie das reale Objekt 15. Das virtuelle Objekt 16 wird daher zwar auf den Displays
4, 10 dargestellt, welche unmittelbar vor den Augen 6, 12 des Benutzers
17
angeordnet sind, jedoch sehen die Augen 6, 12 des Benutzers das virtuelle Objekt 16 in derselben Entfernung wie das reale Objekt 15, dem es zugeordnet ist. Dadurch entfällt das ansonsten ständig erforderliche erneute Fokussieren auf
unterschiedliche Entfernungen.
Es ist daher vorgesehen, dass das virtuelle Objekt 16 als sog. Stereo-Image
dargestellt wird.
Die Einstellentfernung der beiden Augen 6, 12 wird von der Blickerfassungsbrille derart ermittelt, dass die Winkelstellungen der Augen 6, 12 ermittelt werden, und daraus errechnet wird, auf welche Entfernung die Augen 6, 12 fokussieren. Dabei kann es durchaus unterlassen werden, einen Entfernungswert in einer Längeneinheit zu ermitteln. Die Einstellentfernung kann auch in Form eines Winkels oder mehrerer Winkel ermittelt und verarbeitet werden. Mit anderen Worten wird daher von der Blickerfassungsbrille 2 eine aktuelle Stellung der beiden Augen ermittelt, und das virtuelle Objekt 16 derart lageverschoben und/oder verzerrt am ersten und zweiten Display 4, 10 dargestellt, dass dieses als Einzelobjekt in der
Entfernung erscheint, auf welche die beiden Augen 6, 12 ausgerichtet sind.
Das gegenständliche System 1 weist bevorzugt keinen separaten Entfernungsmesser
zur Ermittlung einer Entfernung zwischen System 1 und realem Objekt 15 auf.
Dabei ist insbesondere vorgesehen, dass die Displayansteuereinheit 8 zur Darstellung des virtuellen Objekts 16 im ersten und zweiten Display 4, 10 wenigstens einen, der Einstellentfernung der beiden Augen 6, 12 entsprechenden Entfernungswert des ersten Soll-Wertes und des zweiten Soll-Wertes berücksichtigt. Sofern kein Entfernungswert zw. Entfernungswerte des ersten Soll-Wertes und des zweiten Soll-Wertes gespeichert sind, ist vorgesehen, dass die Displayansteuereinheit 8 zwischen den beiden benachbarten Entfernungswerten
interpoliert.

Claims (14)

18 GIBLER&POTH PATENTANWÄLTE PATENTANSPRÜCHE
1. Verfahren zur Anpassung eines optischen Systems (1) an einen individuellen Benutzer, wobei das optische System aus einer Blickerfassungsbrille (2) zur Detektion von Blickrichtungen des Benutzers und wenigstens einer, mit der Blickerfassungsbrille (2) verbundenen Displayeinheit (3) besteht, welche Displayeinheit (3) zumindest ein wenigstens teildurchsichtiges erstes Display (4) aufweist, wobei die Blickerfassungsbrille (2) eine erste Augenerfassungskamera (5) zur Erstellung eines ersten Augenvideos eines ersten Auges (6) des Benutzers aufweist, wobei das erste Display (4) wenigstens bereichsweise in einem, dem ersten Auge (6) zugeordneten, ersten Durchsichtbereich (7) der
Blickerfassungsbrille (2) angeordnet ist, wobei die Blickerfassungsbrille (2) vom Benutzer aufgesetzt wird,
wobei nachfolgend wenigstens eine vorgebbare Augenabmessung und/oder wenigstens eine vorgebbare Augenposition des ersten Auges (6) durch die
Blickerfassungsbrille (2) ermittelt werden,
wobei nachfolgend aus der wenigstens einen ermittelten Augenabmessung und/oder der wenigstens einen ermittelten Augenposition sowie der Position und Ausrichtung der ersten Augenerfassungskamera (5) wenigstens ein erster Soll-Wert wenigstens einer geometrischen Display-Anzeige-Einstellung des
ersten Displays (4) ermittelt wird,
und wobei nachfolgend eine Displayansteuereinheit (8) der Displayeinheit (3)
zur Ansteuerung des ersten Displays (4) wenigstens an den ersten Soll-Wert
angepasst wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als erster Soll-Wert der geometrischen Display-Anzeige-Einstellung eine erste Soll-Position und/oder eine erste Soll-Verzerrung eines ersten Anzeigebereiches (9) innerhalb des ersten Displays (4) zur Darstellung eines virtuellen Objektes (16) vor dem ersten Auge (6) ermittelt wird, wobei ausgehend von wenigstens einer Abweichung der ersten Soll-Position und/oder der ersten Soll-Verzerrung des ersten Anzeigebereiches (9) zu einer ersten Anzeigebereichs-Grundeinstellung des ersten Displays (4) wenigstens ein erster Korrekturfaktor und/oder eine erste Korrekturfunktion ermittelt wird, wobei die Displayansteuereinheit (8) wenigstens mit dem ersten Korrekturfaktor bzw. der ersten Korrekturfunktion an den Benutzer
angepasst wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Displayeinheit (3) zumindest ein wenigstens teildurchsichtiges zweites Display (10) aufweist, wobei die Blickerfassungsbrille (2) eine zweite Augenerfassungskamera (11) zur Erstellung eines zweiten Augenvideos eines zweiten Auges (12) des Benutzers aufweist, wobei das zweite Display (10) wenigstens bereichsweise in einem, dem zweiten Auge zugordneten, zweiten Durchsichtbereich (13) der
Blickerfassungsbrille (2) angeordnet ist,
wobei wenigstens eine vorgebbare Augenabmessung und/oder wenigstens eine vorgebbare Augenposition des zweiten Auges durch die
Blickerfassungsbrille (2) ermittelt werden,
wobei nachfolgend aus der wenigstens einen ermittelten Augenabmessung und/oder der wenigstens einen ermittelten Augenposition sowie der Position und Ausrichtung der zweiten Augenerfassungskamera (11) wenigstens ein zweiter Soll-Wert wenigstens einer geometrischen Display-Anzeige-
Einstellung des zweiten Displays (10) ermittelt wird,
und wobei nachfolgend die Displayansteuereinheit (8) zur Ansteuerung des
zweiten Displays (10) wenigstens an den zweiten Soll-Wert angepasst wird.
20
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass als zweiter Soll-Wert der geometrischen Display-Anzeige-Einstellung eine zweite Soll-Position und/oder eine zweite Soll-Verzerrung eines zweiten Anzeigebereiches (17) innerhalb des zweiten Displays (10) zur Darstellung eines virtuellen Objektes (16) vor dem zweiten Auge (12) ermittelt wird, wobei ausgehend von wenigstens einer Abweichung der zweiten Soll-Position und/oder der zweiten Soll-Verzerrung des zweiten Anzeigebereiches (17) zu einer zweiten Anzeigebereichs-Grundeinstellung des zweiten Displays (10) wenigstens ein zweiter Korrekturfaktor und/oder eine zweite Korrekturfunktion ermittelt wird, wobei die Displayansteuereinheit (8) wenigstens mit dem zweiten Korrekturfaktor bzw. der zweiten Korrekturfunktion
an den Benutzer angepasst wird.
5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass bei der Ermittlung der Augenpositionen des ersten Auges (6) und des zweiten Auges (12) weiters eine Position eines Medians der Augen (6, 12) bestimmt wird, und mittels der Blickerfassungsbrille (2) weiters die Position der ersten Augenerfassungskamera (5) und der zweiten Augenerfassungskamera (11) zum
Median der Augen (6, 12) bestimmt wird.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass wenigstens eine Musterblicksequenz des Benutzers auf eine vorgebbare Mehrzahl vorgegebener Passpunkte, welche in unterschiedlichen Abständen und
Entfernungen zum optischen System (1) angeordnet werden, aufgenommen wird.
7. Verfahren nach Anspruch 3 und 6, dadurch gekennzeichnet, dass zu einem, in einer ersten Entfernung von dem optischen System (1) angeordneten, ersten Passpunkt erste Entfernungswerte des ersten Soll-Wertes und des zweiten Soll-Wertes ermittelt werden, und dass zu einem, in einer zweiten Entfernung von dem optischen System (1) angeordneten, zweiten Passpunkt zweite Entfernungswerte des ersten Soll-Wertes und des zweiten Soll-Wertes ermittelt
werden, wobei die erste Entfernung unterschiedlich der zweiten Entfernung ist.
8. Verfahren zum Erzeugen und Anzeigen eines virtuellen Objektes (16) durch ein optisches System (1), wobei das optische System (1) aus einer
Blickerfassungsbrille (2) zur Detektion von Blickrichtungen des Benutzers und
21
wenigstens einer, mit der Blickerfassungsbrille (2) verbundenen Displayeinheit (3) besteht, welche Displayeinheit (3) zumindest ein wenigstens teildurchsichtiges erstes Display (4) aufweist, wobei die Blickerfassungsbrille (2) eine erste Augenerfassungskamera (5) zur Erstellung eines ersten Augenvideos eines ersten Auges (6) des Benutzers aufweist, wobei das erste Display (4) wenigstens bereichsweise in einem, dem ersten Auge (6) zugeordneten, ersten
Durchsichtbereich (7) der Blickerfassungsbrille (2) angeordnet ist,
wobei das optische System (1) gemäß einem Verfahren nach einem der
Ansprüche 1 bis 7 an einen individuellen Benutzer angepasst wird,
wobei in Reaktion auf einen vorgebbaren Zustand und/oder ein vorgebbares
Ereignis ein virtuelles Objekt (16) erzeugt wird,
wobei das virtuelle Objekt (16) von der Displayansteuereinheit (8), unter Berücksichtigung des ersten Soll-Wertes, an einer vorgebbaren Position im
ersten Display (4) anzeigt wird.
9. Verfahren nach Anspruch 8 und 2, dadurch gekennzeichnet, dass das virtuelle Objekt (16) um den ersten Korrekturfaktor und/oder die erste
Korrekturfunktion versetzt und/oder verzerrt im ersten Display (4) anzeigt wird.
10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die Displayeinheit (3) zumindest ein wenigstens teildurchsichtiges zweites Display (10) aufweist, wobei die Blickerfassungsbrille (2) eine zweite Augenerfassungskamera (11) zur Erstellung eines zweiten Augenvideos eines zweiten Auges (12) des Benutzers aufweist, wobei das zweite Display (10) wenigstens bereichsweise in
einem zweiten Durchsichtbereich (13) der Blickerfassungsbrille (2) angeordnet ist,
wobei das optische System (1) gemäß einem Verfahren nach einem der
Ansprüche 3 bis 8 an den individuellen Benutzer angepasst wird,
wobei das virtuelle Objekt (16) von der Displayansteuereinheit (8), unter weiterer Berücksichtigung des zweiten Soll-Wertes auch im zweiten Display
(10) anzeigt wird.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass von der
22
Blickerfassungsbrille (2) eine aktuelle Stellung der beiden Augen ermittelt wird, und dass das virtuelle Objekt (16) derart lageverschoben und/oder verzerrt am ersten und zweiten Display (4, 10) dargestellt wird, dass dieses als Einzelobjekt in
der Entfernung erscheint, auf welche die beiden Augen (6, 12) ausgerichtet sind.
12. Verfahren nach einem der Ansprüche 8 bis 11, dadurch gekennzeichnet, dass optische System wenigstens eine Blickfeldkamera (14) aufweist, wobei ein vorgebbares reales Objekt (15) durch die Blickfeldkamera (14) detektiert wird, wobei das Detektieren des vorgebbaren realen Objektes (15) das vorgebbare
Ereignis zum Erzeugen des virtuellen Objekts (16) ist.
13. Verfahren nach einem der Ansprüche 8 bis 12, dadurch gekennzeichnet, dass das System zur Detektion wenigstens eines Zustandswertes, insbesondere eines Müdigkeitszustandes, des Benutzers ausgebildet ist, dass der Zustandswert hinsichtlich der Überschreitung eines Grenzwertes von dem System überwacht wird, und dass ein Überschreiten des Grenzwertes das vorgebbare Ereignis zum
Erzeugen des virtuellen Objekts (16) ist.
14. Verfahren nach einem der Ansprüche 8 bis 13, dadurch gekennzeichnet, dass das System wenigstens eine Navigations- und Lagebestimmungseinheit (23) zur Detektion einer räumlichen Ausrichtung sowie eines Standorts des Systems aufweist, und dass ein vorgebbarer Ort sowie eine vorgebbare räumliche
Ausrichtung das vorgebbare Ereignis zum Erzeugen des virtuellen Objekts (16) sind.
ATA51133/2018A 2018-12-19 2018-12-19 Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer AT522012A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
ATA51133/2018A AT522012A1 (de) 2018-12-19 2018-12-19 Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer
EP19827715.4A EP3899693A1 (de) 2018-12-19 2019-12-19 Verfahren zum erzeugen und anzeigen eines virtuellen objektes durch ein optisches system
PCT/EP2019/086307 WO2020127732A1 (de) 2018-12-19 2019-12-19 Verfahren zum erzeugen und anzeigen eines virtuellen objektes durch ein optisches system
US17/416,736 US11561392B2 (en) 2018-12-19 2019-12-19 Method for generating and displaying a virtual object by an optical system
JP2021535796A JP2022514631A (ja) 2018-12-19 2019-12-19 光学システムにより仮想オブジェクトを生成および表示するための方法
CN201980090853.XA CN113614674A (zh) 2018-12-19 2019-12-19 用于通过光学系统产生和显示虚拟对象的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ATA51133/2018A AT522012A1 (de) 2018-12-19 2018-12-19 Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer

Publications (1)

Publication Number Publication Date
AT522012A1 true AT522012A1 (de) 2020-07-15

Family

ID=69005726

Family Applications (1)

Application Number Title Priority Date Filing Date
ATA51133/2018A AT522012A1 (de) 2018-12-19 2018-12-19 Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer

Country Status (6)

Country Link
US (1) US11561392B2 (de)
EP (1) EP3899693A1 (de)
JP (1) JP2022514631A (de)
CN (1) CN113614674A (de)
AT (1) AT522012A1 (de)
WO (1) WO2020127732A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020095784A1 (ja) * 2018-11-06 2020-05-14 日本電気株式会社 表示制御装置、表示制御方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
EP4172741A1 (de) * 2020-06-30 2023-05-03 Snap Inc. Brille mit ar-erfahrungen mit gemeinsamer objektmanipulation
EP4222548A1 (de) * 2020-09-29 2023-08-09 Viewpointsystem GmbH Generativ gefertigte augenverfolgungsbrille
CN112416125A (zh) * 2020-11-17 2021-02-26 青岛小鸟看看科技有限公司 Vr头戴式一体机
CN115590462A (zh) * 2022-12-01 2023-01-13 广州视景医疗软件有限公司(Cn) 一种基于摄像头的视力检测方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130050432A1 (en) * 2011-08-30 2013-02-28 Kathryn Stone Perez Enhancing an object of interest in a see-through, mixed reality display device
US20150049201A1 (en) * 2013-08-19 2015-02-19 Qualcomm Incorporated Automatic calibration of scene camera for optical see-through head mounted display
US20150339844A1 (en) * 2013-11-05 2015-11-26 Shenzhen Cloud Cube Information Tech Co., Ltd. Method and apparatus for achieving transformation of a virtual view into a three-dimensional view
US20160353094A1 (en) * 2015-05-29 2016-12-01 Seeing Machines Limited Calibration of a head mounted eye tracking system

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7710654B2 (en) * 2003-05-12 2010-05-04 Elbit Systems Ltd. Method and system for improving audiovisual communication
US8990682B1 (en) * 2011-10-05 2015-03-24 Google Inc. Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display
US8878749B1 (en) * 2012-01-06 2014-11-04 Google Inc. Systems and methods for position estimation
WO2013140725A1 (ja) * 2012-03-21 2013-09-26 パナソニック株式会社 眼球疲労判定装置および眼球疲労判定方法
US9171198B1 (en) * 2012-04-02 2015-10-27 Google Inc. Image capture technique
US9223136B1 (en) * 2013-02-04 2015-12-29 Google Inc. Preparation of image capture device in response to pre-image-capture signal
US9239460B2 (en) * 2013-05-10 2016-01-19 Microsoft Technology Licensing, Llc Calibration of eye location
US10955665B2 (en) * 2013-06-18 2021-03-23 Microsoft Technology Licensing, Llc Concurrent optimal viewing of virtual objects
US9239626B1 (en) * 2013-07-02 2016-01-19 Google Inc. Input system
US10914951B2 (en) * 2013-08-19 2021-02-09 Qualcomm Incorporated Visual, audible, and/or haptic feedback for optical see-through head mounted display with user interaction tracking
AT513987B1 (de) 2013-08-23 2014-09-15 Ernst Dipl Ing Dr Pfleger Brille und Verfahren zur Bestimmung von Pupillenmittelpunkten beider Augen eines Menschen
US8950864B1 (en) * 2013-08-30 2015-02-10 Mednovus, Inc. Brain dysfunction testing
US9491365B2 (en) * 2013-11-18 2016-11-08 Intel Corporation Viewfinder wearable, at least in part, by human operator
WO2015100714A1 (en) * 2014-01-02 2015-07-09 Empire Technology Development Llc Augmented reality (ar) system
WO2016067078A1 (en) * 2014-10-30 2016-05-06 Telefonaktiebolaget Lm Ericsson (Publ) Integrated cellular system with wi-fi-fallback
US10248192B2 (en) * 2014-12-03 2019-04-02 Microsoft Technology Licensing, Llc Gaze target application launcher
WO2016138178A1 (en) * 2015-02-25 2016-09-01 Brian Mullins Visual gestures for a head mounted device
KR102121134B1 (ko) * 2015-09-24 2020-06-09 토비 에이비 눈 추적 가능한 웨어러블 디바이스들
US9942532B2 (en) * 2015-11-03 2018-04-10 International Business Machines Corporation Eye-fatigue reduction system for head-mounted displays
KR101788452B1 (ko) * 2016-03-30 2017-11-15 연세대학교 산학협력단 시선 인식을 이용하는 콘텐츠 재생 장치 및 방법
US10078377B2 (en) * 2016-06-09 2018-09-18 Microsoft Technology Licensing, Llc Six DOF mixed reality input by fusing inertial handheld controller with hand tracking
US10869026B2 (en) * 2016-11-18 2020-12-15 Amitabha Gupta Apparatus for augmenting vision
US20180157908A1 (en) * 2016-12-01 2018-06-07 Varjo Technologies Oy Gaze-tracking system and method of tracking user's gaze
US10534184B2 (en) * 2016-12-23 2020-01-14 Amitabha Gupta Auxiliary device for head-mounted displays
US20200012101A1 (en) * 2017-03-31 2020-01-09 Sharp Kabushiki Kaisha Head-mounted display
US10249095B2 (en) * 2017-04-07 2019-04-02 Microsoft Technology Licensing, Llc Context-based discovery of applications
US10489651B2 (en) * 2017-04-14 2019-11-26 Microsoft Technology Licensing, Llc Identifying a position of a marker in an environment
US10692287B2 (en) * 2017-04-17 2020-06-23 Microsoft Technology Licensing, Llc Multi-step placement of virtual objects
US10380418B2 (en) * 2017-06-19 2019-08-13 Microsoft Technology Licensing, Llc Iris recognition based on three-dimensional signatures
WO2019104413A1 (en) * 2017-12-03 2019-06-06 Frank Jones Enhancing the performance of near-to-eye vision systems
US10528128B1 (en) * 2017-12-15 2020-01-07 Facebook Technologies, Llc Head-mounted display devices with transparent display panels for eye tracking
US10558260B2 (en) * 2017-12-15 2020-02-11 Microsoft Technology Licensing, Llc Detecting the pose of an out-of-range controller
US10852816B2 (en) * 2018-04-20 2020-12-01 Microsoft Technology Licensing, Llc Gaze-informed zoom and pan with manual speed control
US10607083B2 (en) * 2018-07-19 2020-03-31 Microsoft Technology Licensing, Llc Selectively alerting users of real objects in a virtual environment
CN112805659A (zh) * 2018-08-03 2021-05-14 奇跃公司 通过用户分类为多深度平面显示系统选择深度平面
US10909762B2 (en) * 2018-08-24 2021-02-02 Microsoft Technology Licensing, Llc Gestures for facilitating interaction with pages in a mixed reality environment
US10816804B2 (en) * 2018-08-31 2020-10-27 Google Llc Near-eye display system with polarization-based optical path folding and variable focus catadioptric lens assembly
US11042034B2 (en) * 2018-12-27 2021-06-22 Facebook Technologies, Llc Head mounted display calibration using portable docking station with calibration target
US11127380B2 (en) * 2019-12-13 2021-09-21 Qualcomm Incorporated Content stabilization for head-mounted displays
GB2596300A (en) * 2020-06-23 2021-12-29 Sony Interactive Entertainment Inc Gaze tracking apparatus and systems
US11249556B1 (en) * 2020-11-30 2022-02-15 Microsoft Technology Licensing, Llc Single-handed microgesture inputs

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130050432A1 (en) * 2011-08-30 2013-02-28 Kathryn Stone Perez Enhancing an object of interest in a see-through, mixed reality display device
US20150049201A1 (en) * 2013-08-19 2015-02-19 Qualcomm Incorporated Automatic calibration of scene camera for optical see-through head mounted display
US20150339844A1 (en) * 2013-11-05 2015-11-26 Shenzhen Cloud Cube Information Tech Co., Ltd. Method and apparatus for achieving transformation of a virtual view into a three-dimensional view
US20160353094A1 (en) * 2015-05-29 2016-12-01 Seeing Machines Limited Calibration of a head mounted eye tracking system

Also Published As

Publication number Publication date
CN113614674A (zh) 2021-11-05
EP3899693A1 (de) 2021-10-27
WO2020127732A1 (de) 2020-06-25
US20220075187A1 (en) 2022-03-10
JP2022514631A (ja) 2022-02-14
US11561392B2 (en) 2023-01-24

Similar Documents

Publication Publication Date Title
AT522012A1 (de) Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer
EP2926733B1 (de) Triangulationsbasierte Tiefen- und Oberflächen-Visualisierung
EP3958726B1 (de) Bestimmung eines refraktionsfehlers eines auges
EP3785601B1 (de) Helligkeitsabhängige anpassung eines brillenglases
DE102014223442B4 (de) Verfahren zur Sehzeichendarstellung, Sehzeichendarstellung, dazugehörige Verwendung und Bildausgabegerät
EP3210071B1 (de) Vorrichtung und verfahren zum bestimmen von optischen parametern
EP3235422A1 (de) Verfahren und vorrichtung zur bestimmung der augendrehpunktlage
EP3422087B1 (de) Verfahren zur korrektur von zentrierparametern und/oder einer achslage sowie entsprechendes computerprogramm und verfahren
EP3195052B1 (de) Verfahren zur messgenauen bestimmung von zentriertdaten eines probanden zur anpassung einer brille an den probanden und immobiles videozentriersystem
EP3730998A1 (de) Bestimmung mindestens eines optischen parameters eines brillenglases
DE4417768C2 (de) Verfahren und Vorrichtung zum Projizieren von Bildinformationen bei Personen mit durch eine Abweichung der Stellung ihrer Sehachse verursachten Störungen des Sehens
EP3955800B1 (de) Bestimmung eines refraktionsfehlers eines auges
DE102014017534A1 (de) Anzeigevorrichtung, die auf den Kopf eines Benutzers aufsetzbar ist
EP3765888B1 (de) Verfahren zur benutzerindividuellen kalibrierung einer auf den kopf eines benutzers aufsetzbaren anzeigevorrichtung für eine augmentierte darstellung
DE102015214671A1 (de) Autofokussierende optische Vorrichtung und Verfahren zur optischen Autofokussierung
WO2017220667A1 (de) Verfahren und vorrichtung zur veränderung der affektiven visuellen information im gesichtsfeld eines benutzers
DE102013201773A1 (de) Kopfgetragenes optisches Instrument und Verfahren zum Justieren eines kopfgetragenen optischen Instruments
DE102014113685A1 (de) Anzeigevorrichtung, die auf den Kopf eines Benutzers aufsetzbar ist, und Verfahren zum Steuern einer solchen Anzeigevorrichtung
EP2466364A1 (de) Vorrichtung mit einer Brillenlinse mit veränderbarer Wirkung sowie Verfahren zum Einstellen der Wirkung einer Brillenlinse
WO2016188596A1 (de) Dynamisch stereoskope sehzeichen
DE102020214707A1 (de) Verfahren und Vorrichtung zur rechnergestützten Simulation einer Sehhilfe für einen Benutzer mit Sehfehler mittels einer auf seinem Kopf getragenen Vorrichtung
DE102018110644B4 (de) Digitales Mikroskop und digitales Mikroskopieverfahren
EP4188188B1 (de) Verfahren zum bestimmen des nahpunkts, zum bestimmen der nahpunktdistanz, zum bestimmen eines sphärischen brechwertes sowie zum herstellen eines brillenglases sowie entsprechende mobile endgeräte und computerprogramme
DE102016125075B3 (de) Verfahren zur Reduktion von Wahrnehmungskonflikten in stereomikroskopischen Bilddaten
WO2023151912A1 (de) Verfahren und vorrichtung zum durchführen einer augennachverfolgung