DE112021002930T5 - Anzeigevorrichtung und anzeigeverfahren - Google Patents

Anzeigevorrichtung und anzeigeverfahren Download PDF

Info

Publication number
DE112021002930T5
DE112021002930T5 DE112021002930.4T DE112021002930T DE112021002930T5 DE 112021002930 T5 DE112021002930 T5 DE 112021002930T5 DE 112021002930 T DE112021002930 T DE 112021002930T DE 112021002930 T5 DE112021002930 T5 DE 112021002930T5
Authority
DE
Germany
Prior art keywords
eyeball
display device
light
section
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021002930.4T
Other languages
English (en)
Inventor
Teppei Imamura
Ryo Ogawa
Masanori Iwasaki
Takanobu Omata
Katsuyuki Akutsu
Itaru Shimizu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of DE112021002930T5 publication Critical patent/DE112021002930T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/101Scanning systems with both horizontal and vertical deflecting means, e.g. raster or XY scanners
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/32Holograms used as optical elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0112Head-up displays characterised by optical features comprising device for genereting colour display
    • G02B2027/0116Head-up displays characterised by optical features comprising device for genereting colour display comprising devices for correcting chromatic aberration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B2027/0174Head mounted characterised by optical features holographic
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Bereitstellen einer Anzeigevorrichtung, die es ermöglicht, die Leistung bei der Steuerung der Videodarstellung gemäß den Eigenschaften eines Augapfels eines Benutzers weiter zu verbessern.
Es wird eine Anzeigevorrichtung bereitgestellt, die eine Lichtquelle, einen Prozessor, der eine Verarbeitung einer Verteilung von Eigenschaften eines Augapfels durchführt, einen Überwachungsabschnitt, der einen Zustand des Augapfels überwacht, einen Abgleichabschnitt, der einen Abgleich der Verteilung der Eigenschaften des Augapfels und des Zustands des Augapfels durchführt, und einen Strahler umfasst, der eine bestimmte Position auf einer Netzhaut mit durch die Lichtquelle emittiertem Videoanzeigelicht bestrahlt.

Description

  • Technisches Gebiet
  • Die vorliegende Technologie betrifft eine Anzeigevorrichtung und ein Anzeigeverfahren.
  • Stand der Technik
  • In den letzten Jahren hat eine Technologie Aufmerksamkeit erregt, die ein Bild anzeigt, das einer Szenerie in der Außenwelt, beispielsweise einer realen Szene, überlagert ist. Diese Technologie wird auch als erweiterte Realität (Augmented Reality, AR) bezeichnet. Ein Beispiel für Produkte unter Verwendung dieser Technologie ist eine am Kopf angebrachte Anzeigevorrichtung. Die am Kopf angebrachte Anzeigevorrichtung wird am Kopf eines Benutzers getragen. Bei einem Verfahren zum Anzeigen eines Videos (eines Bildes) mittels einer am Kopf angebrachten Anzeigevorrichtung erreicht das Licht der am Kopf angebrachten Anzeigevorrichtung die Augen eines Benutzers zusätzlich zum Licht der Außenwelt, wodurch der Benutzer den Eindruck hat, dass ein aus dem Licht der Anzeigevorrichtung bestehendes Licht einem Bild in der Außenwelt überlagert ist.
  • In der Patentliteratur 1 wird zum Beispiel eine Bildanzeigevorrichtung vorgeschlagen, die eine Position auf einer Netzhaut erkennen kann, auf die durch eine Lichtquelle ausgestrahltes Licht trifft, und die die Lichtposition auf der Netzhaut einstellen kann.
  • Referenzliste
  • Patentliteratur
  • Patentliteratur 1: WO2012/169064
  • Offenbarung der Erfindung
  • Technisches Problem
  • Es ist jedoch möglich, dass die in der Patentliteratur 1 vorgeschlagene Technologie keine weitere Leistungsverbesserung bei der Steuerung der Videodarstellung in Abhängigkeit von den Eigenschaften eines Augapfels eines Benutzers ermöglicht.
  • Daher wurde die vorliegende Technologie im Hinblick auf die oben beschriebenen Umstände entwickelt, wobei es ein Hauptziel der vorliegenden Technologie ist, eine Anzeigevorrichtung und ein Anzeigeverfahren bereitzustellen, die es ermöglichen, die Leistung bei der Steuerung der Videodarstellung in Abhängigkeit von den Eigenschaften eines Augapfels eines Benutzers weiter zu verbessern.
  • Lösung für das Problem
  • Die Erfinder haben intensive Forschungen zum Erreichen des oben beschriebenen Ziels durchgeführt. Infolgedessen ist es den Erfindern überraschend gut gelungen, die Leistung bei der Steuerung der Videodarstellung in Abhängigkeit von den Eigenschaften des Augapfels eines Benutzers weiter zu verbessern, sodass die vorliegende Technologie entwickelt werden konnte.
  • Mit anderen Worten stellt die vorliegende Technologie als ersten Aspekt eine Anzeigevorrichtung bereit, die Folgendes beinhaltet:
    • eine Lichtquelle;
    • einen Prozessor, der eine Verteilung von Eigenschaften eines Augapfels verarbeitet;
    • einen Überwachungsabschnitt, der einen Zustand des Augapfels überwacht;
    • einen Abgleichabschnitt, der die Verteilung der Eigenschaften des Augapfels und den Zustand des Augapfels abgleicht; und
    • einen Strahler, der eine bestimmte Stelle auf einer Netzhaut mit durch die Lichtquelle ausgestrahltem Videoanzeigelicht bestrahlt.
  • Die Anzeigevorrichtung des ersten Aspekts gemäß der vorliegenden Technologie kann ferner einen Erfassungsabschnitt enthalten, der die Verteilung der Eigenschaften des Augapfels erfasst.
  • In diesem Fall kann der Erfassungsbereich mindestens eines aus der Gruppe bestehend aus einer Funduskamera, einem OCT, einem Refraktometer und einer Lichtdetektionsvorrichtung umfassen, die das durch IR-Abtastung zurückkehrende Licht erfasst.
  • Bei der Anzeigevorrichtung des ersten Aspekts gemäß der vorliegenden Technologie kann der Überwachungsabschnitt den Zustand des Augapfels anhand eines Kornealreflexes oder eines Fundusreflexes überwachen.
  • Die Anzeigevorrichtung des ersten Aspekts gemäß der vorliegenden Technologie kann ferner einen Folger enthalten, der bewirkt, dass das Videoanzeigelicht einer Bewegung des Augapfels folgt.
  • In diesem Fall kann der Folger mindestens eines aus der Gruppe bestehend aus einem Kombinierer, einem Relaissystemantriebsabschnitt, einem Spiegelantriebsabschnitt und einem Phasendifferenzpanel umfassen.
  • Bei der Anzeigevorrichtung des ersten Aspekts gemäß der vorliegenden Technologie kann ferner ein Koordinatensystem basierend auf der Verteilung der Eigenschaften des Augapfels definiert sein.
  • In diesem Fall kann der Abgleichabschnitt unter Verwendung des Koordinatensystems die Verteilung der Eigenschaften des Augapfels und den Zustand des Augapfels, dem ein Video dargestellt werden soll, abgleichen.
  • Das Koordinatensystem kann basierend auf mindestens zwei Elementen aus der Gruppe bestehend aus einer ersten Fovea des rechten Auges, einem ersten blinden Fleck des rechten Auges, einer zweiten Fovea des linken Auges und einem zweiten blinden Fleck des linken Auges definiert werden.
  • Bei der Anzeigevorrichtung des ersten Aspekts gemäß der vorliegenden Technologie kann die Lichtquelle eine Laserquelle sein.
  • Die Anzeigevorrichtung des ersten Aspekts gemäß der vorliegenden Technologie kann ferner einen Abtastspiegel umfassen, der das Videoanzeigelicht auf die Netzhaut strahlt.
  • Bei der Anzeigevorrichtung des ersten Aspekts gemäß der vorliegenden Technologie kann der Strahler ferner ein vor den Augen angeordnetes Teil enthalten, wobei das Teil ein Durchsichtsteil sein kann.
  • In diesem Fall kann das Teil ein erstes optisches Element oder ein zweites optisches Element sein, wobei das erste optische Element ein reflektierendes oder durchlässiges Volumenhologramm, ein reflektierendes oder durchlässiges Reliefhologramm oder eine Metaoberfläche umfasst und das zweite optische Element ein optisches Element ist, das bestimmtes Licht reflektiert und anderes als das bestimmte Licht durchlässt.
  • Die Anzeigevorrichtung des ersten Aspekts gemäß der vorliegenden Technologie kann ferner ein Teil zum Kompensieren einer Wellenlängendispersion umfassen.
  • In diesem Fall kann das Teil zum Kompensieren einer Wellenlängendispersion ein erstes optisches Element sein, das ein reflektierendes oder durchlässiges Volumenhologramm, ein reflektierendes oder durchlässiges Reliefhologramm oder eine Metaoberfläche umfasst.
  • Ferner bietet die vorliegende Technologie als zweiten Aspekt ein Anzeigeverfahren, das Folgendes umfasst:
    • Verarbeiten einer Verteilung von Eigenschaften eines Augapfels;
    • Überwachen eines Zustands des Augapfels;
    • Abgleichen der Verteilung der Eigenschaften des Augapfels und des Zustands des Augapfels; und
    • Bestrahlen einer bestimmten Stelle auf einer Netzhaut mit Videoanzeigelicht, das durch eine Lichtquelle ausgesendet wird.
  • Das Anzeigeverfahren des zweiten Aspekts gemäß der vorliegenden Technologie kann ferner das Erfassen der Verteilung der Eigenschaften des Augapfels beinhalten.
  • Die vorliegende Technologie ermöglicht eine weitere Verbesserung der Leistung bei der Steuerung der Videodarstellung gemäß den Eigenschaften eines Augapfels eines Benutzers. Zu beachten ist, dass die hier beschriebenen Wirkungen nicht notwendigerweise einschränkend sind und dass jede der in der vorliegenden Offenbarung beschriebenen Wirkungen erzielt werden kann.
  • Figurenliste
    • [1] 1 zeigt ein Beispiel für den Ablauf der Anzeige eines Videos mittels einer Anzeigevorrichtung, wobei die vorliegende Technologie zur Anwendung kommt.
    • [2] 2 ist ein Schaubild, das eine Änderung der Position der Fovea und des blinden Flecks bei Drehung des Augapfels des rechten Auges nach links oder rechts beschreibt.
    • [3] 3 ist ein Diagramm zur Beschreibung des Ergebnisses eines Abgleichs zwischen einer Karte des Augenhintergrunds und dem Zustand eines Augapfels, dem ein Video dargestellt werden soll.
    • [4] 4 ist ein Diagramm zur Beschreibung des Ergebnisses des Abgleichs einer Interpolationskarte des Augenhintergrunds und des Zustands eines Augapfels, dem ein Video dargestellt werden soll.
    • [5] 5 zeigt ein weiteres Beispiel für den Ablauf der Anzeige eines Videos mittels einer Anzeigevorrichtung, wobei die vorliegende Technologie zur Anwendung kommt.
    • [6] 6 ist ein Diagramm zur Beschreibung eines Zustands, in dem Dinge normal gesehen werden können, eines Zustands, in dem Dinge verzerrt erscheinen (Metamorphopsie), und eines Zustands, in dem ein zentraler Teil dunkel erscheint (Zentralskotom).
    • [7] 7 ist ein Schaubild zur Beschreibung der Korrektur einer Augapfelverzerrung.
    • [8] 8 ist ein Schaubild zur Beschreibung der Korrektur einer Augapfelfehlerstelle.
    • [9] 9 ist eine Draufsicht, die ein Beispiel für eine Konfiguration einer Anzeigevorrichtung zeigt, bei die vorliegende Technologie zur Anwendung kommt.
    • [10] 10 ist eine Vorderansicht, die das Beispiel für die Konfiguration der Anzeigevorrichtung zeigt, bei der die vorliegende Technologie zur Anwendung kommt.
    • [11] 11 ist ein Blockdiagramm, das ein Beispiel für eine Konfiguration einer Anzeigevorrichtung einer ersten Ausführungsform zeigt, bei der die vorliegende Technologie zur Anwendung kommt.
    • [12] 12 ist ein Blockdiagramm, das ein Beispiel für eine Konfiguration einer Anzeigevorrichtung einer zweiten Ausführungsform zeigt, bei der die vorliegende Technologie zur Anwendung kommt.
    • [13] 13 zeigt ein Beispiel für ein Teil, das vor den Augen angeordnet ist und zu der Anzeigevorrichtung gehört, bei der die vorliegende Technologie zur Anwendung kommt.
    • [14] 14 zeigt ein weiteres Beispiel für das Teil, das vor den Augen angeordnet ist und zu der Anzeigevorrichtung gehört, bei der die vorliegende Technologie zur Anwendung kommt.
  • Verfahren zum Ausführen der Erfindung
  • Im Folgenden werden vorteilhafte Ausführungsformen zum Ausführen der vorliegenden Technologie beschrieben. Die nachfolgend beschriebenen Ausführungsformen sind Beispiele für repräsentative Ausführungsformen der vorliegenden Technologie, wobei der Schutzbereich der vorliegenden Technologie nicht auf diese Ausführungsformen beschränkt auszulegen ist. Es ist zu beachten, dass in der Beschreibung unter Bezugnahme auf die Zeichnungen ähnliche oder gleichwertige Elemente oder Bauteile durch eine ähnliche Referenznummer bezeichnet werden, um eine wiederholte Beschreibung zu vermeiden.
  • Die Beschreibung geschieht in der folgenden Reihenfolge.
    1. 1. Überblick über die vorliegende Technologie
    2. 2. Erste Ausführungsform (erstes Beispiel einer Anzeigevorrichtung)
    3. 3. Zweite Ausführungsform (zweites Beispiel einer Anzeigevorrichtung)
    4. 4. Dritte Ausführungsform (erstes Beispiel eines Anzeigeverfahrens)
    5. 5. Vierte Ausführungsform (zweites Beispiel eines Anzeigeverfahrens)
  • <1. Überblick über die vorliegende Technologie>
  • Zunächst wird ein Überblick über die vorliegende Technologie beschrieben. Die vorliegende Technologie betrifft eine Anzeigevorrichtung und ein Anzeigeverfahren.
  • Gemäß der vorliegenden Technologie wird eine Verteilung von Eigenschaften eines Augapfels (Form und optische Eigenschaften) erfasst, und es erfolgt ein Abgleich mit Koordinaten, die auf der Verteilung und einem Ergebnis der Augenerfassung definiert sind. Dadurch ist es möglich, ein Video an einer bestimmten Stelle auf der Netzhaut gemäß der Verteilung der Eigenschaften eines Augapfels anzuzeigen.
  • Zunächst werden Beispiele für andere Technologien als die vorliegende Technologie beschrieben.
  • Ein erstes Beispiel für andere Technologien ist eine Technologie, die sich auf Brillen mit flachem Anzeigefeld bezieht. Bei der ersten Beispieltechnologie wird eine Fokusebene festgelegt. Es besteht also die Möglichkeit, dass ein stimulierter Bereich auf der Netzhaut nicht präzise festgelegt wird. Ein zweites Beispiel für andere Technologien ist die direkte Projektion eines Bildes auf die Netzhaut mittels Laser. Bei der zweiten Beispieltechnologie wird bei Verwendung eines Halbspiegels die Durchsichtigkeit vermindert, was dazu führen kann, dass dieser nicht mehr geeignet ist, die Aufmerksamkeit auf ein Objekt in der Außenwelt zu lenken. Ferner wird der Sichtwinkel kleiner und es kommt zu einer Wellenlängendispersion, wenn ein holografisches optisches Element (HOE) verwendet wird, was zu Schwierigkeiten bei der Darstellung eines Reizbereichs und der Genauigkeit des Reizes führen kann. Als drittes Beispiel für andere Technologien ist eine Technologie zu nennen, die mit einer Positionsanpassung (Folgen) zusammenhängt. Bei der dritten Beispieltechnologie kann die Positionsanpassung mittels Musterabgleich erfolgen (hier bezieht sich das Muster beispielsweise auf ein Netzhautmuster, z. B. von Blut). Folglich ist eine große Menge an Referenzdaten zu verarbeiten, was zu einem hohen Aufwand führen kann.
  • Die vorliegende Technologie wurde in Anbetracht der oben beschriebenen Umstände entwickelt.
  • Die vorliegende Technologie ermöglicht eine weitere Verbesserung der Leistung bei der Steuerung der Videodarstellung gemäß den Eigenschaften eines Augapfels eines Benutzers. Darüber hinaus ermöglicht die vorliegende Technologie auch eine weitere Verbesserung der Leistung bei der Steuerung der Videodarstellung gemäß der Bewegung des Augapfels (einer Augenbewegung) eines Benutzers.
  • Konkret werden bei der vorliegenden Technologie Informationen über die Verteilung von Eigenschaften eines Augapfels erfasst, ein Koordinatensystem definiert und ein angezeigtes Video und eine Anzeigeposition im Koordinatensystem definiert. Dies führt zu einer geringeren Datenmenge als bei Verwendung einer Musterkarte. Darüber hinaus werden ein angezeigtes Video (ein dargestelltes Video) und eine Anzeigeposition (eine Darstellungsposition) basierend auf Informationen über eine Bewegung eines Augapfels (z. B. Informationen über eine Drehung eines Augapfels) gesteuert. Dies führt zu einem weniger intensiven Verarbeitungsaufwand als bei Verwendung eines Musterabgleichs. Das Koordinatensystem wird beispielsweise basierend auf mindestens zwei Elementen definiert, die aus der Gruppe bestehend aus einer Fovea des rechten Auges (die Fovea des rechten Auges kann als erste Fovea bezeichnet werden), einem blinden Fleck des rechten Auges (der blinde Fleck des rechten Auges kann als erster blinder Fleck bezeichnet werden), einer zweiten Fovea des linken Auges (die Fovea des linken Auges kann als zweite Fovea bezeichnet werden) und einem zweiten blinden Fleck des linken Auges (der blinde Fleck des linken Auges kann als zweiter blinder Fleck bezeichnet werden) ausgewählt sind.
  • Da bei der vorliegenden Technologie vorteilhaft eine Laserquelle verwendet wird, kann ein Reiz mit einer bestimmten Wellenlänge erzeugt werden. Da ein vor den Augen angeordnetes Teil vorteilhaft ein Durchsichtsteil ist, ist es ferner möglich, auf ein Objekt in der Außenwelt zu blicken und einen unbewusst bereitgestellten Reiz zu vermitteln. Da vorteilhaft ein Element zur Kompensation einer Wellenlängendispersion verwendet wird, kann außerdem eine Wellenlängendispersion kompensiert werden, sodass ein bestimmter Punkt (ein beliebiger Punkt) auf der Netzhaut präzise stimuliert werden kann.
  • Beispiele für das vor den Augen angeordnete Teil sind ein erstes optisches Element und ein zweites optisches Element, wobei das erste optische Element ein reflektierendes oder durchlässiges Volumenhologramm, ein reflektierendes oder durchlässiges Reliefhologramm oder eine Metaoberfläche umfasst und das zweite optische Element ein optisches Element ist, das bestimmtes Licht reflektiert und anderes als das bestimmte Licht durchlässt. Beispielsweise kann das erste optische Element mit einer Metaoberfläche auf der Oberfläche des ersten optischen Elements eine Struktur aufweisen, bei der dielektrische Materialien oder Metalle regelmäßig in engen Abständen voneinander angeordnet sind und Licht eines bestimmten Frequenzbandes ablenken können.
  • Beispiele für das zweite optische Element sind ein Halbspiegel (dessen Lichtdurchlässigkeit vorteilhafterweise 50 % oder mehr beträgt), ein Bandpassfilter, das nur eine bestimmte Wellenlänge (eine Wellenlänge einer Lichtquelle) reflektiert und eine andere als die bestimmte Wellenlänge durchlässt, und ein polarisierender Strahlteiler, der spezifisch polarisiertes Licht reflektiert.
  • Beispiele für das Teil zum Kompensieren einer Wellenlängendispersion umfassen das erste optische Element, das ein reflektierendes oder durchlässiges Volumenhologramm, ein reflektierendes oder durchlässiges Reliefhologramm oder eine Metaoberfläche umfasst. Wie oben beschrieben, kann beispielsweise das erste optische Element, das eine Metaoberfläche aufweist und als Teil zum Kompensieren einer Wellenlängendispersion dient, auf der Oberfläche des ersten optischen Elements auch eine Struktur aufweisen, in der Dielektrika oder Metalle regelmäßig in engen Abständen voneinander angeordnet sind und Licht eines bestimmten Frequenzbandes ablenken können.
  • Nachfolgend werden nun vorteilhafte Ausführungsformen der vorliegenden Technologie unter Bezugnahme auf die Zeichnungen ausführlich beschrieben. Die nachfolgend beschriebenen Ausführungsformen sind Beispiele für repräsentative Ausführungsformen der vorliegenden Technologie, wobei der Schutzbereich der vorliegenden Technologie nicht auf diese Ausführungsformen beschränkt auszulegen ist.
  • <2. Erste Ausführungsform (erstes Beispiel für eine Anzeigevorrichtung)>
  • Eine Anzeigevorrichtung einer ersten Ausführungsform gemäß der vorliegenden Technologie (erstes Beispiel für eine Anzeigevorrichtung) ist eine Anzeigevorrichtung, die eine Lichtquelle, einen Prozessor, der eine Verteilung von Eigenschaften eines Augapfels verarbeitet, einen Überwachungsabschnitt, der einen Zustand des Augapfels überwacht, einen Abgleichabschnitt, der die Verteilung der Eigenschaften des Augapfels und den Zustand des Augapfels abgleicht, und einen Strahler, der eine bestimmte Position auf einer Netzhaut mit durch die Lichtquelle emittiertem Videoanzeigelicht bestrahlt, umfasst. Die Anzeigevorrichtung der ersten Ausführungsform gemäß der vorliegenden Technologie kann außerdem einen Folger enthalten. Die Anzeigevorrichtung der ersten Ausführungsform gemäß der vorliegenden Technologie kann beispielsweise für eine Brillenanzeigevorrichtung und eine am Kopf angebrachte Anzeigevorrichtung verwendet werden.
  • Der Prozessor, der die Verarbeitung einer Verteilung von Eigenschaften eines Augapfels durchführt, führt die Verarbeitung beispielsweise anhand von Informationen über eine Verteilung von Eigenschaften eines Augapfels durch, wobei die Informationen über eine Verteilung von Eigenschaften eines Augapfels aus einer externen Vorrichtung (beispielsweise einer Funduskamera, einem OCT, einer Lichtdetektionsvorrichtung, das aufgrund von IR-Abtastung zurückkehrendes Licht erfasst, oder einem Refraktometer) erhalten werden. Der Überwachungsabschnitt überwacht den Zustand eines Augapfels beispielsweise mittels eines Kornealreflexes oder eines Fundusreflexes und kann eine optische Achse erfassen. Der Abgleichabschnitt erfasst eine Abweichung der Sehachse von der optischen Achse (Blickkalibrierung) und kann eine Karte erstellen, in der ein Versatz wiedergegeben wird. Der Strahler kann das Licht in Abhängigkeit von der Laserquelle, der Anzeige eines Videos (eines Projektors) und der Verteilung der Eigenschaften eines Augapfels modulieren, die Lichtmenge in Abhängigkeit vom externen Licht einstellen und eine Steuerung einschließlich einer Verzerrungskorrektur durchführen. Der Folger kann bewirken, dass ein angezeigtes Video aufgrund von Augenverfolgung einer Augenbewegung folgt, wobei ein Lichtstrahl so gelenkt wird, dass ein ausgestrahltes Video und eine Ausstrahlposition basierend auf Informationen über eine Drehung eines Augapfels geändert werden.
  • Zunächst wird unter Bezugnahme auf 1 ein Beispiel für einen Anzeigeablauf eines Videos unter Verwendung der Anzeigevorrichtung der ersten Ausführungsform gemäß der vorliegenden Technologie beschrieben.
  • In den in 1 dargestellten Schritten S101 bis S103 wird eine Karte des Augenhintergrunds erstellt. Genauer gesagt wird in Schritt S101 bei Betrachtung des Augapfels von vorne beispielsweise mit einer Funduskamera ein Foto des Augenhintergrunds und in Schritt S102 bei Drehung des Augapfels nach links, rechts, oben oder unten beispielsweise mit einer Funduskamera ein Foto des Augenhintergrunds aufgenommen. In Schritt S103 werden die Positionen einer Fovea und eines blinden Flecks in den jeweiligen in den Schritten S101 und S102 aufgenommenen Fotos des Augenhintergrunds ermittelt.
  • Die Schritte S101 bis S103 werden konkret unter Bezugnahme auf 2 beschrieben. 2 ist ein Diagramm, das die Änderung der Position der Fovea und des blinden Flecks bei Drehung des Augapfels des rechten Auges nach links oder rechts beschreibt. In 2 illustriert A-2 von 2 ein Augenhintergrundfoto eines rechten Auges aus Sicht von vorne in Schritt S101, und B-2 in 2 ist eine Draufsicht, die schematisch den Augapfel 20 des rechten Auges aus Sicht von vorne darstellt. In 2 illustriert A-1 von 2 ein Augenhintergrundfoto des rechten Auges bei Drehung des Augapfels 20 in Schritt S102 nach links, und B-1 von 2 ist eine Draufsicht, die schematisch den Augapfel 20 des rechten Auges bei Drehung des Augapfels nach links zeigt. In 2 illustriert A-3 von 2 ein Augenhintergrundfoto des rechten Auges bei Drehung des Augapfels 20 in Schritt S102 nach rechts, und B-3 von 2 ist eine Draufsicht, die schematisch den Augapfel 20 des rechten Auges bei Drehung des Augapfels nach rechts zeigt.
  • Bei Vergleich von A-1 und A-2 von 2 ist eine in A-1 von 2 dargestellte Fovea 30-1 relativ zu einer in A-2 von 2 dargestellten Fovea 30-2 nach links verschoben. Ebenso ist ein in A-1 von 2 dargestellter blinder Fleck 31-1 relativ zu einem in A-2 von 2 dargestellten blinden Fleck 31-2 nach links verschoben.
  • Zu beachten ist, dass eine Positionsbeziehung zwischen der Fovea 30-2 und dem blinden Fleck 31-2 (Abstand zwischen der Fovea 30-2 und dem blinden Fleck 31-2) in A-2 von 2 und eine Positionsbeziehung zwischen der Fovea 30-1 und dem blinden Fleck 31-1 (Abstand zwischen der Fovea 30-1 und dem blinden Fleck 31-1) in A-1 von 2 im Wesentlichen identisch zueinander sind.
  • Bei Vergleich von A-3 und A-2 von 2 ist eine in A-3 von 2 dargestellte Fovea 30-3 relativ zu einer in A-2 von 2 dargestellten Fovea 30-2 nach rechts verschoben. Ebenso ist ein in A-3 von 2 dargestellter blinder Fleck 31-3 relativ zu einem in A-2 von 2 dargestellten blinden Fleck 31-2 nach rechts verschoben.
  • Zu beachten ist, dass eine Positionsbeziehung zwischen der Fovea 30-2 und dem blinden Fleck 31-2 (Abstand zwischen der Fovea 30-2 und dem blinden Fleck 31-2) in A-2 von 2 und eine Positionsbeziehung zwischen der Fovea 30-3 und dem blinden Fleck 31-3 (Abstand zwischen der Fovea 30-3 und dem blinden Fleck 31-3) in A-3 von 2 im Wesentlichen identisch zueinander sind.
  • In den in 1 dargestellten Schritten S104 und S105 wird ein Abgleich mit einem Ergebnis der Augenerfassung (Augenverfolgung) und einer Karte des Augenhintergrunds durchgeführt. Genauer gesagt wird in Schritt S104 eine Blickkalibrierung unter Verwendung der Anzeigevorrichtung der ersten Ausführungsform gemäß der vorliegenden Technologie durchgeführt, und in Schritt S105 wird eine Abweichung einer Fovea von einer Mitte eines Anzeigesystems berechnet, die einer optischen Achse des Anzeigesystems entspricht.
  • Die Schritte S104 und 105 werden konkret unter Bezugnahme auf 3 beschrieben. 3 ist ein Schaubild zur Beschreibung des Ergebnisses eines Abgleichs zwischen einer Karte des Augenhintergrunds und dem Zustand eines Augapfels, dem ein Video dargestellt werden soll. Wie in A von 3 dargestellt, weicht eine Sehachse (ein Blickvektor) 2 um einen Winkel 9 von einer optischen Achse 1 (einem optischen Vektor) ab. Die optische Achse 1 ist eine Normale zur Kornea, die durch die Mitte der Pupille 10 verläuft, und die Sehachse 2 ist eine Achse, die einen Knotenpunkt (eine zentrale hintere Fläche einer Linse) und eine Fovea 30 verbindet.
  • Aus einem ersten Quadranten 51 (zum Beispiel einem Bereich, in dem eine X-Achse in Plus-Richtung und eine Y-Achse in Plus-Richtung verläuft), einem zweiten Quadranten 52 (zum Beispiel einem Bereich, in dem die X-Achse in Minus-Richtung und die Y-Achse in Plus-Richtung verläuft), einem dritten Quadranten 53 (zum Beispiel einen Bereich, in dem die X-Achse in Minus-Richtung und die Y-Achse in Minus-Richtung verläuft) und einen vierten Quadranten 54 (zum Beispiel einem Bereich, in dem die X-Achse in Plus-Richtung und die Y-Achse in Minus-Richtung verläuft), die einen Videoanzeigebereich (Blickwinkel) 50 bilden, erstreckt sich ein blinder Fleck 31 in den ersten Quadranten 51 und den vierten Quadranten 54, wie in B von 3 gezeigt ist.
  • Die in 1 gezeigten Schritte S106 bis S108 werden in einem Zustand durchgeführt, in dem ein Video dargestellt wird. Genauer gesagt wird in Schritt S106 eine Blickverfolgung (Verfolgung der Sichtlinie) durchgeführt. In Schritt S106 wird zum Beispiel die Bewegung eines Augapfels verfolgt, die Position einer Pupille erfasst und der Blickwinkel eines gewünschten Punktes berechnet. Infrarotlicht wird mit einer optischen Achse für die Bildprojektion zur Deckung gebracht und ein Fundusreflex (die Reflexion an der Position des blinden Flecks und die Reflexion an der Position der Fovea sind verschieden) wird erfasst. In Schritt S107 wird eine Interpolationskarte des Augenhintergrunds erzeugt. Die Interpolationskarte des Augenhintergrunds wird durch Interpolation einer Linksdrehung, einer Rechtsdrehung, einer Aufwärtsdrehung und einer Abwärtsdrehung eines Augapfels erzeugt. Zum Erzeugen der Interpolationskarte des Augenhintergrunds werden beispielsweise die Positionen der Fovea und des blinden Flecks geschätzt, wenn die Werte der Linksdrehung, der Rechtsdrehung, der Aufwärtsdrehung und der Abwärtsdrehung eines Augapfels niedriger als die Werte der Linksdrehung, der Rechtsdrehung, der Aufwärtsdrehung und der Abwärtsdrehung des Augapfels sind, die für eine in den Schritten S101 bis S103 erzeugte Augenhintergrundkarte verwendet werden. Man beachte, dass die Interpolationskarte des Augenhintergrunds mithilfe von Informationen über die Position eines bestimmten Augapfels oder von Informationen über eine Verschiebung eines Blickwinkels erstellt werden kann. Anschließend wird in Schritt S108 ein Video erzeugt. Nachdem das Video erzeugt wurde, wird ein Signal des erzeugten Videos an einen Videoanzeigeabschnitt übertragen, der beispielsweise eine Lichtquelle (z. B. eine Laserquelle), einen Spiegel, einen Abtastspiegel (z. B. einen MEMS-Spiegel), einen Relaissystemantriebsabschnitt (ein projizierendes optisches System) und ein vor den Augen angeordnetes Durchsichtsteil (z. B. ein holografisches optisches Element (in einigen Fällen im Folgenden als HOE bezeichnet)) umfasst. Beispiele für ein holografisches optisches Element sind ein reflektierendes oder durchlässiges Volumenhologramm und ein reflektierendes oder durchlässiges Reliefhologramm (auch als Oberflächenreliefhologramm bezeichnet).
  • Die Schritte S106 bis 108 werden konkret unter Bezugnahme auf 4 beschrieben. 4 ist ein Diagramm, das zur Beschreibung eines Ergebnisses (eines Modifikationsergebnisses) des Abgleichs verwendet wird, der an einer Interpolationskarte des Augenhintergrunds und einem Zustand eines Augapfels durchgeführt wird, dem ein Video dargestellt werden soll.
  • Aus dem ersten Quadranten 51 (zum Beispiel einem Bereich, in dem eine X-Achse in Plus-Richtung und eine Y-Achse in Minus-Richtung verläuft), dem zweiten Quadranten 52 (zum Beispiel einem Bereich, in dem die X-Achse in Minus-Richtung und die Y-Achse in Plus-Richtung verläuft), dem dritten Quadranten 53 (zum Beispiel einem Bereich, in dem die X-Achse in Minus-Richtung und die Y-Achse in Minus-Richtung verläuft) und dem vierten Quadranten 54 (zum Beispiel einem Bereich, in dem die X-Achse in Plus-Richtung und die Y-Achse in Minus-Richtung verläuft), wobei der erste bis vierte Quadrant 51 bis 54 den Videodarstellungsbereich (Blickwinkel) 50 bilden, befindet sich der blinde Fleck 31 im ersten Quadranten 51 nahe dem vierten Quadranten 54, wie in 4 dargestellt ist.
  • Wie durch Referenznummer P1 in 1 angegeben, werden die Schritte S106 bis S108 wiederholt durchgeführt, bis ein gewünschtes oder spezifiziertes Video erzeugt wird. Schritt S106 (Blickverfolgung) und Schritt S107 (Erzeugung einer Interpolationskarte des Augenhintergrunds) können gleichzeitig durchgeführt werden.
  • Ein weiteres Beispiel für den Ablauf der Anzeige eines Videos unter Verwendung der Anzeigevorrichtung der ersten Ausführungsform gemäß der vorliegenden Technologie wird unter Bezugnahme auf 5 beschrieben.
  • In dem in 5 dargestellten Schritt S201 wird eine Karte des Augenhintergrunds erzeugt. Ein Verfahren zum Erzeugen einer Karte des Augenhintergrunds, das in Schritt S201 erzeugt wird, ähnelt dem Verfahren zum Erzeugen einer Karte des Augenhintergrunds, das in den in 1 dargestellten Schritten S101 bis S103 erzeugt wird. Daher wird hier auf eine detaillierte Beschreibung verzichtet.
  • In dem in 5 dargestellten Schritt S202 werden die Eigenschaften eines Augapfels erfasst. Die Eigenschaften eines Augapfels werden beispielsweise mit einem optischen Kohärenztomographen (OCT), einem Refraktometer (objektive Refraktometrie) oder einer Lichtdetektionsvorrichtung erfasst, das das durch IR-Abtastung zurückkehrende Licht erkennt. Der Einsatz eines OCT ermöglicht es, ein Bild eines Querschnitts der Netzhaut aufzunehmen. Die Verwendung eines Refraktometers ermöglicht es, optische Eigenschaften wie eine Aberration (z. B. Daten über die Augapfelverzerrung) zu erhalten und z. B. die Brechkraft eines Auges und die Krümmung der Kornea zu messen. Die Verwendung einer Lichtdetektionsvorrichtung, das das durch IR-Abtastung zurückkehrende Licht erfasst, ermöglicht zum Beispiel die Messung der Form eines Augenhintergrunds. Die Erfassung von Eigenschaften eines Augapfels ermöglicht es beispielsweise festzustellen, ob ein Auge eines Nutzers von altersbedingter Makuladegeneration betroffen ist. Die altersbedingte Makuladegeneration ist eine Krankheit, die Schwierigkeiten beim Sehen von Dingen durch die Makula, einem zentralen Teil der Netzhaut, verursacht, die durch eine Veränderung im Alter oder durch Lichtschäden geschädigt ist. Wie in 6 dargestellt, können beispielsweise Dinge mit normalen Augen normal gesehen werden (A in 6), während eine Netzhaut aufgrund einer altersbedingten Makuladegeneration (Metamorphopsie) verzerrt ist und Dinge verzerrt erscheinen, wie z. B. im Fall einer Verzerrung 60B (B in 6), oder die Sehkraft aufgrund einer altersbedingten Makuladegeneration (Metamorphopsie) schwächer wird und ein zentraler Bereich dunkel erscheint, wie z. B. im Fall eines zentralen Skotoms 60C (C in 6).
  • In dem in 5 dargestellten Schritt S203 wird ein Abgleich mit einem Ergebnis der Augenerfassung (Augenverfolgung) und einer Karte des Augenhintergrunds durchgeführt. Ein in Schritt S203 durchgeführtes Abgleichverfahren ähnelt dem in den Schritten S104 und S105 durchgeführten Abgleichverfahren, das in 1 dargestellt ist. Daher wird hier auf eine detaillierte Beschreibung verzichtet.
  • Die in 5 gezeigten Schritte S204 bis S208 werden in einem Zustand durchgeführt, in dem ein Video dargestellt wird. Genauer gesagt wird in Schritt S204 eine Blickverfolgung (Verfolgung der Sichtlinie) durchgeführt. In Schritt S204 wird zum Beispiel die Bewegung eines Augapfels verfolgt, die Position einer Pupille erfasst und der Blickwinkel eines gewünschten Punktes berechnet. Infrarotlicht wird mit einer optischen Achse für die Bildprojektion zur Deckung gebracht und ein Fundusreflex (die Reflexion an der Position des blinden Flecks und die Reflexion an der Position der Fovea sind verschieden) wird erfasst. In Schritt S205 wird eine Interpolationskarte des Augenhintergrunds erstellt. Die Interpolationskarte des Augenhintergrunds wird durch Interpolation einer Linksdrehung, einer Rechtsdrehung, einer Aufwärtsdrehung und einer Abwärtsdrehung eines Augapfels erzeugt. Zum Erzeugen der Interpolationskarte des Augenhintergrunds werden beispielsweise die Positionen der Fovea und des blinden Flecks geschätzt, wenn die Werte der Linksdrehung, der Rechtsdrehung, der Aufwärtsdrehung und der Abwärtsdrehung eines Augapfels niedriger als die Werte der Linksdrehung, der Rechtsdrehung, der Aufwärtsdrehung und der Abwärtsdrehung des Augapfels sind, die für eine in Schritt S201 erzeugte Augenhintergrundkarte verwendet werden. Man beachte, dass die Interpolationskarte des Augenhintergrunds mithilfe von Informationen über die Position eines bestimmten Augapfels oder von Informationen über eine Verschiebung eines Blickwinkels erstellt werden kann.
  • Als nächstes wird in Schritt S206 eine Korrekturtabelle rekonstruiert, die zur Korrektur einer Augapfelverzerrung verwendet wird. Schritt S206 wird konkret unter Bezugnahme auf 7 beschrieben. A in 7 zeigt ein darzustellendes Video (Bild). B in 7 zeigt das Video (Bild), das durch eine Verzerrung des Augapfels betroffen ist. C in 7 zeigt ein ausgegebenes Video (erzeugtes Video), das durch eine Korrektur unter Verwendung einer Korrekturtabelle zur Korrektur einer Augapfelverzerrung erhalten wurde.
  • In Schritt S207 wird eine Korrektur an einer Fehlerstelle des Augapfels vorgenommen. Schritt S207 wird konkret unter Bezugnahme auf 8 beschrieben. A in 8 zeigt ein darzustellendes Video (Bild). B in 8 zeigt das Video (Bild), das durch eine Fehlerstelle des Augapfels betroffen ist. C in 8 zeigt ein ausgegebenes Video (erzeugtes Video), das durch die Korrektur der Fehlerstelle des Augapfels erhalten wurde.
  • Anschließend wird in Schritt S208 ein Video erzeugt. Nachdem das Video erzeugt wurde, wird ein Signal des erzeugten Videos an einen Videoanzeigeabschnitt übertragen, der beispielsweise eine Lichtquelle (z. B. eine Laserquelle), einen Spiegel, einen Abtastspiegel (z. B. einen MEMS-Spiegel), einen Relaissystemantriebsabschnitt (ein projizierendes optisches System) und ein Durchsichtsteil (z. B. ein holografisches optisches Element (in einigen Fällen im Folgenden als HOE bezeichnet)) umfasst. Beispiele für ein holografisches optisches Element sind ein reflektierendes oder durchlässiges Volumenhologramm und ein reflektierendes oder durchlässiges Reliefhologramm (auch als Oberflächenreliefhologramm bezeichnet).
  • Wie durch Referenznummer P5 in 5 angegeben, werden die Schritte S204 bis S208 wiederholt durchgeführt, bis ein gewünschtes oder spezifiziertes Video erzeugt wird. Schritt S204 (Blickverfolgung) und Schritt S205 (Erzeugung einer Interpolationskarte des Augenhintergrunds) können gleichzeitig durchgeführt werden.
  • Ein Beispiel für eine Konfiguration der Anzeigevorrichtung der ersten Ausführungsform gemäß der vorliegenden Technologie wird unter Bezugnahme auf 9 und 10 beschrieben. 9 ist eine Draufsicht auf eine Anzeigevorrichtung gemäß der vorliegenden Technologie, die am Kopf eines Benutzers getragen wird. 10 ist eine Vorderansicht der Anzeigevorrichtung gemäß der vorliegenden Technologie, die am Kopf des Benutzers getragen wird. Die in 9 gezeigte Anzeigevorrichtung umfasst einen Videoanzeigeabschnitt (auch als Bildanzeigeabschnitt bezeichnet), einen Sensor, der eine Änderung der Position der Anzeigevorrichtung relativ zum Kopf erfasst (der Sensor, der eine Änderung der Position der Anzeigevorrichtung relativ zum Kopf erfasst, wird hier auch als „Verschiebungssensor“ oder „Sensor“ bezeichnet), einen Überwachungsabschnitt, einen Mechanismus zur Einstellung der Projektionsposition, eine Steuervorrichtung und einen Speicher. Diese Bestandteile werden im Folgenden beschrieben.
  • (Videoanzeigeabschnitt)
  • Wie in 9 dargestellt, weist eine Anzeigevorrichtung 100 die Form einer Brille auf und ist dazu ausgelegt, Videoanzeigelicht (in einigen Fällen als Bildanzeigelicht bezeichnet) auf jedes der Augen zu projizieren. Mit anderen Worten umfasst die Anzeigevorrichtung 100 einen Videoanzeigeabschnitt, der das Videoanzeigelicht auf das linke Auge projiziert, und einen Videoanzeigeabschnitt, der das Videoanzeigelicht auf das rechte Auge projiziert. Der Videoanzeigeabschnitt, der das Videoanzeigelicht auf das linke Auge projiziert, umfasst einen Lichtquellenabschnitt 101L, ein projizierendes optisches System 102L und ein holografisches optisches Element (im Folgenden auch als HOE bezeichnet) 103L, das als Strahler dient. Die Anzeigevorrichtung 100 kann einen Kombinierer enthalten, der als Folger dient, und der Kombinierer kann beispielsweise das holografische optische Element 103L und einen Halbspiegel enthalten, obwohl dies nicht abgebildet ist. Das projizierende optische System 102L kann einen Relaissystemantriebsabschnitt (nicht abgebildet) enthalten, der als Folger dient. Zwischen dem Lichtquellenabschnitt 101L und dem projizierenden optischen System 102L oder zwischen dem projizierenden optischen System 102L und dem holografischen optischen Element 103L können ein Spiegelantriebsabschnitt und ein Phasendifferenzpanel angeordnet sein, die als Folger dienen.
  • Der Lichtquellenabschnitt 101L strahlt Licht für die Videoanzeige aus. Der Lichtquellenabschnitt 101L kann beispielsweise eine Laserquelle 120L, einen Spiegel 121L und einen Abtastspiegel 122L umfassen, die als Bestandteile zur Emission des Videoanzeigelichts dienen. Das durch die Laserquelle 120L emittierte Laserlicht wird vom Spiegel 121L reflektiert und erreicht dann den Abtastspiegel 122L. Der Abtastspiegel 122L tastet das Laserlicht zweidimensional ab. Der Abtastspiegel 122L kann beispielsweise ein MEMS-Spiegel sein. Der Abtastspiegel 122L kann die Richtung des Laserlichts schnell verschieben, sodass ein Bild auf der Netzhaut entsteht.
  • Das projizierende optische System 102L stellt die Richtung des Videoanzeigelichts so ein, dass das Videoanzeigelicht einen gewünschten Bereich und/oder eine gewünschte Position im HOE 103L erreicht. Beispielsweise formt das projizierende optische System 102L das durch den Abtastspiegel 122L abgetastete Videoanzeigelicht in paralleles Licht um.
  • Das HOE 103L beugt das Videoanzeigelicht so, dass das Videoanzeigelicht an einer Position nahe der Pupille eines Benutzers konzentriert wird, um auf die Netzhaut gestrahlt zu werden. Das HOE 103L kann z. B. ein reflektierendes Beugungselement sein. Das HOE 103L kann die optischen Eigenschaften aufweisen, als Linse in Bezug auf Licht in einem Wellenlängenbereich des Videoanzeigelichts zu dienen und zu bewirken, dass Licht mit einer Wellenlänge außerhalb des Wellenlängenbereichs durch das HOE 103L hindurchgelassen wird. Die optischen Eigenschaften ermöglichen es einem Benutzer, z. B. die Landschaft vor einer Sichtlinie durch das HOE 103L und ein aus dem Videoanzeigelicht bestehendes Bild zu erkennen. Mit anderen Worten kann ein aus dem Videoanzeigelicht bestehendes Bild über die Szenerie in der Außenwelt gelegt werden. Beispiele für das HOE 103L sind eine Hologrammlinse, vorzugsweise eine Hologrammlinse in Form einer Folie, und noch vorteilhafter eine transparente Hologrammlinse in Form einer Folie. Die Hologrammlinse in Form einer Folie kann beispielsweise auf Glas angebracht werden. Ein bestehender Ansatz in diesem technischen Bereich ermöglicht es, der Hologrammlinse die gewünschten optischen Eigenschaften zu verleihen. Ferner kann das HOE 103L beispielsweise ein Volumenhologramm oder ein Oberflächenreliefhologramm sein. Ferner kann eine handelsübliche Hologrammlinse als Hologrammlinse verwendet werden, oder die Hologrammlinse kann mittels des bestehenden Ansatzes in diesem technischen Bereich hergestellt werden.
  • Wie oben beschrieben, bewirken der Lichtquellenabschnitt 101L, das projizierende optische System 102L und das HOE 103L, dass das Videoanzeigelicht das linke Auge des Benutzers erreicht.
  • Die Anzeigevorrichtung 100 umfasst einen Schläfenbügel 109L und einen Rahmen 108L, die Teil der Form einer Brille sind. Der Lichtquellenabschnitt 101L und das projizierende optische System 102L sind in dem Schläfenbügel 109L angeordnet. Das HOE 103L wird in dem Rahmen 108L gehalten. Genauer gesagt wird ein Innenrahmen 106L in dem Rahmen 108L durch einen Mechanismus 105L-2 zur Einstellung der Projektionsposition gehalten, der als Strahler dient, und das HOE 103L wird in dem Innenrahmen 106L durch einen Mechanismus 105L-1 zur Einstellung der Projektionsposition gehalten, der als Strahler dient.
  • Der Videoanzeigeabschnitt, der das Videoanzeigelicht auf das rechte Auge des Benutzers projiziert, umfasst einen Lichtquellenabschnitt 101R, ein projizierendes optisches System 102R und ein HOE 103R, das als Strahler dient. Die Anzeigevorrichtung 100 kann einen Kombinierer enthalten, der als Folger dient, und der Kombinierer kann beispielsweise das HOE 103R und einen Halbspiegel enthalten, obwohl dies nicht abgebildet ist. Das projizierende optische System 102R kann einen Relaissystemantriebsabschnitt (nicht abgebildet) enthalten, der als Folger dient. Zwischen dem Lichtquellenabschnitt 101R und dem projizierenden optischen System 102R oder zwischen dem projizierenden optischen System 102R und dem HOE 103R können ein Spiegelantriebsabschnitt und ein Phasendifferenzpanel angeordnet sein, die als Folger dienen.
  • In Bezug auf die Beschreibungen des Lichtquellenabschnitts 101L, des projizierenden optischen Systems 102L und dem HOE 103L gilt dasselbe für den Lichtquellenabschnitt 101R, das projizierende optische System 102R und das HOE 103R.
  • Wie im Fall des Videoanzeigeabschnitts für das linke Auge sind der Lichtquellenabschnitt 101R und das projizierende optische System 102R in einem Schläfenbügel 109R angeordnet. Das HOE 103R wird in einem Rahmen 108R gehalten. Genauer gesagt wird ein Innenrahmen 106R in dem Rahmen 108R durch einen Mechanismus 105R-2 zur Einstellung der Projektionsposition gehalten, der als Strahler dient, und das HOE 103R wird in dem Innenrahmen 106R durch einen Mechanismus 105R-1 zur Einstellung der Projektionsposition gehalten, der als Strahler dient.
  • Die Rahmen 108L und 108R der Anzeigevorrichtung 100 sind über einen Steg 110 miteinander verbunden. Der Steg 110 ist ein Teil, das beim Tragen der Anzeigevorrichtung 100 die Nase des Benutzers überspannt. Ferner sind die beiden Rahmen 108L und 108R der Anzeigevorrichtung 100 mit einem Kopfband 111 verbunden. Das Kopfband 111 ist ein Teil, das wie in 10 gezeigt beim Tragen der Anzeigevorrichtung 100 durch einen Benutzer mit der Oberseite des Kopfes des Benutzers in Kontakt gebracht wird.
  • Der in 9 abgebildete Lichtquellenabschnitt 101L umfasst eine Laserquelle 120L. Die Anzahl der Laserquellen im Lichtquellenabschnitt 101L kann jedoch zwei oder mehr, beispielsweise zwei bis fünf, betragen. Die Laserquellen einer Vielzahl von Laserquellen können Laserlichtstrahlen mit unterschiedlichen Wellenlängen ausgeben. Der Lichtquellenabschnitt 101R umfasst auch eine Laserquelle 120R. Die Anzahl der Laserquellen im Lichtquellenabschnitt 101R kann jedoch zwei oder mehr, beispielsweise zwei bis fünf, betragen. Die Laserquellen einer Vielzahl von Laserquellen können Laserlichtstrahlen mit unterschiedlichen Wellenlängen ausgeben. Die Verwendung der Laserquelle 120L und der Laserquelle 120R ermöglicht es, einen Reiz mit einer bestimmten Wellenlänge zu erzeugen.
  • Die Anzeigevorrichtung 100 kann ferner ein Teil zum Kompensieren einer Wellenlängendispersion enthalten, obwohl dieses nicht abgebildet ist. Beispiele für das Teil zum Kompensieren einer Wellenlängendispersion umfassen das erste optische Element, das ein reflektierendes oder durchlässiges Volumenhologramm, ein reflektierendes oder durchlässiges Reliefhologramm oder eine Metaoberfläche enthält. Das Teil zum Kompensieren einer Wellenlängendispersion kann um den Spiegel 121L und/oder 121R herum, beispielsweise zwischen dem Spiegel 121L und dem Abtastspiegel 122L und/oder zwischen dem Spiegel 121R und dem Abtastspiegel 122R, angeordnet sein. Die Anwendung eines Teils zum Kompensieren einer Wellenlängendispersion auf die Anzeigevorrichtung 100 bewirkt eine Kompensation der Wellenlängendispersion und ermöglicht somit eine präzise Stimulation eines beliebigen Punktes (eines bestimmten Punktes) auf der Netzhaut.
  • (Sensoren)
  • Die Anzeigevorrichtung 100 umfasst außerdem Sensoren 104L, 104R, 104C und 104T, die eine Änderung der Position der Anzeigevorrichtung 100 relativ zum Kopf eines Benutzers erkennen. Die durch die Sensoren erfasste Positionsänderung kann beispielsweise eine Richtung der Positionsänderung und/oder ein Betrag der Positionsänderung sein. Man beachte, dass die Sensoren 104L, 104R, 104C und 104T hier gemeinsam als Sensoren 104 bezeichnet werden.
  • Die Sensoren 104L und 104R erfassen eine horizontale Änderung der Position der Anzeigevorrichtung 100 relativ zum Kopf eines Benutzers, der Sensor 104C erfasst eine Änderung der Position der Anzeigevorrichtung 100 relativ zum Kopf des Benutzers in einer Hin- und Herrichtung, und der Sensor 104T erfasst eine Änderung der Position der Anzeigevorrichtung 100 relativ zum Kopf des Benutzers in einer Auf- und Abrichtung. Dadurch ist es möglich, den Tragezustand mit einem Versatz dreidimensional zu erfassen.
  • (Überwachungsabschnitt (Sichtlinienerkennungsvorrichtung))
  • Die Anzeigevorrichtung 100 umfasst die Überwachungsabschnitte 107L und 107R, die eine Sichtlinie eines Benutzers erkennen. Die Überwachungsabschnitte 107L und 107R können hier zusammen als Überwachungsabschnitte 107 bezeichnet werden. Der Überwachungsabschnitt 107 kann den Zustand des Augapfels anhand eines Kornealreflexes oder eines Fundusreflexes überwachen. Die Anzeigevorrichtung 100 umfasst die Überwachungsabschnitte, wodurch die Position eines Bildes, das einem Benutzer präsentiert wird, so angepasst werden kann, dass das Bild an einer geeigneteren Position angezeigt wird. Wenn zum Beispiel ein durch die Anzeigevorrichtung 100 dargestelltes Bild einem Bild der Außenwelt überlagert wird, kann das überlagerte Bild durch Erkennen der Sichtlinie eines Benutzers an einer geeigneteren Position angezeigt werden. Mit anderen Worten ist die Einbeziehung des Überwachungsabschnitts 107 vorteilhaft für die Darstellung von AR-Informationen. Der Überwachungsabschnitt kann beispielsweise eine Sichtlinienerkennungsvorrichtung sein.
  • Der Überwachungsabschnitt 107 kann zum Beispiel ein bildgebender Überwachungsabschnitt oder ein Fotodiodenüberwachungsabschnitt sein. Diese Überwachungsabschnitte werden im Folgenden ausführlicher beschrieben.
  • Der Überwachungsabschnitt 107L erkennt die Sichtlinie des linken Auges eines Benutzers. Der Überwachungsabschnitt 107L kann beispielsweise an einer beliebigen Stelle im Rahmen 108L und an einer beliebigen Stelle in einer anderen Komponente (beispielsweise im Innenrahmen 106L) vorgesehen sein, solange der Überwachungsabschnitt 107L die Sichtlinie des linken Auges erkennen kann.
  • Der Überwachungsabschnitt 107L kann beispielsweise ein Fotodiodenüberwachungsabschnitt sein. Der Fotodiodenüberwachungsabschnitt kann beispielsweise eine Kombination aus einer Lichtquelle und einer Fotodiode umfassen. Die Lichtquelle ist dazu ausgelegt, Licht auf das linke Auge zu strahlen. Die Lichtquelle ist vorzugsweise eine Infrarotlichtquelle. Auf diese Weise lässt sich verhindern, dass die Erkennung eines Bildes in der Außenwelt und die Erkennung von Videoanzeigelicht, die durch einen Benutzer erfolgen, beeinträchtigt werden. Die Fotodiode kann dazu ausgelegt sein, Licht (insbesondere Infrarotlicht) zu erkennen, das durch die Lichtquelle ausgesendet und an einem Augapfel reflektiert wird. Die Fotodiode kann beispielsweise eine Differenz zwischen der durch einen nicht weißen Teil des Augapfels (Pupille) reflektierten Lichtmenge und der durch einen weißen Teil des Augapfels (Sklera) reflektierten Lichtmenge erkennen. Beispielsweise kann der Fotodiodenüberwachungsabschnitt eine Sichtlinie basierend auf einem Anteil der Fläche eines nicht weißen Teils eines Augapfels und eines Anteils der Fläche eines weißen Teils des Augapfels erkennen, wobei die Flächenanteile durch die Fotodiode erfasst werden.
  • Der Fotodiodenüberwachungsabschnitt erkennt nicht den Zustand des Tragezustands mit einem Versatz, wenn sich die Anzeigevorrichtung im Tragezustand mit einem Versatz befindet. Wenn die Anzeigevorrichtung mit einem Versatz getragen wird, kann es daher zu einer Verringerung der Genauigkeit bei der durch den Überwachungsabschnitt durchgeführten Erkennung einer Sichtlinie kommen. Wie oben beschrieben, umfasst die Anzeigevorrichtung der vorliegenden Technologie einen Sensor, der eine Änderung der Position der Anzeigevorrichtung relativ zum Kopf erfasst, wodurch der Tragezustand mit einem Versatz erfasst werden kann. Eine Sichtlinie wird basierend auf einem durch den Sensor erfassten Tragezustand mit einem Versatz korrigiert, was zu einer Verbesserung der Genauigkeit bei der durch den Überwachungsabschnitt durchgeführten Erfassung der Sichtlinie führt. Die Anzeigevorrichtung der vorliegenden Technologie kann eine Sichtlinie mit einer Genauigkeit von beispielsweise 3 mm oder weniger, speziell mit einer Genauigkeit von 2 mm oder weniger und noch spezieller mit einer Genauigkeit von 1 mm oder weniger erkennen. Die Erkennung einer Sichtlinie mit einer solchen Genauigkeit ist besonders vorteilhaft für eine Maxwellsche Darstellung eines Bildes.
  • Alternativ kann der Überwachungsabschnitt 107L auch ein bildgebender Überwachungsabschnitt sein. Der bildgebende Überwachungsabschnitt kann beispielsweise eine Kombination aus einer Lichtquelle und einer Bildgebungsvorrichtung umfassen. Die Lichtquelle ist wie im Falle des Fotodiodenüberwachungsabschnitts dazu ausgelegt, Licht auf das linke Auge zu strahlen. Die Lichtquelle ist vorzugsweise eine Infrarotlichtquelle. So kann die Bildgebungsvorrichtung beispielsweise ein Reflexionsbild (ein so genanntes Purkinje-Bild) erhalten, das dadurch entsteht, dass das Licht der Lichtquelle an einem Augapfel (insbesondere an der Kornea) reflektiert wird, und es kann ein Bild aufgenommen werden, aus dem der Schwerpunkt einer Pupille ermittelt werden kann. Die Bildgebungsvorrichtung kann zum Beispiel eine Infrarotbildgebungsvorrichtung sein. Beispielsweise kann der bildgebende Überwachungsabschnitt eine optische Achse eines Augapfels basierend auf dem Purkinje-Bild und dem oben beschriebenen Bild schätzen. Der Überwachungsabschnitt kann die geschätzte optische Achse in eine Sehachse umwandeln, um eine Sichtlinie zu erkennen.
  • Die Position, an der das Purkinje-Bild gebildet wird, wird fixiert, wenn eine Positionsbeziehung zwischen der Lichtquelle und einem Augapfel bei der Erfassung einer Sichtlinie basierend auf dem Purkinje-Bild und dem oben beschriebenen Bild unverändert bleibt. Der Tragezustand mit einem Versatz führt zu einer Positionsbeziehung. Dies kann dazu führen, dass sich die Position, an der das Purkinje-Bild gebildet wird, verändert. Außerdem wird die Sichtlinienerkennung beispielsweise durch Blinzeln, Kopfhaare oder Wimpern leicht beeinträchtigt. Ferner wird bei der Sichtlinienerkennung in der Regel eine Kalibrierung durchgeführt, um einen individuellen Unterschied zu korrigieren, und die Kalibrierung muss erneut durchgeführt werden, wenn die Anzeigevorrichtung mit einem Versatz getragen wird. Wie oben beschrieben, umfasst die Anzeigevorrichtung der vorliegenden Technologie einen Sensor, der eine Änderung der Position der Anzeigevorrichtung relativ zum Kopf erfasst, wodurch der Tragezustand mit einem Versatz erfasst werden kann. So wird ein Korrekturwert, der z. B. einem Betrag beim Tragen mit einem Versatz entspricht, im Voraus bereitgestellt (indem er z. B. in einem Speicher gespeichert wird), und die Korrektur wird unter Verwendung des Korrekturwerts als Reaktion auf das Tragen der Anzeigevorrichtung mit einem Versatz durchgeführt. Dies ermöglicht eine exakte Erkennung der Sichtlinie. Außerdem wird die Erkennung des Tragezustands mit einem Versatz weniger wahrscheinlich durch beispielsweise Blinzeln, Kopfhaare oder Wimpern beeinträchtigt. Die Korrektur basierend auf dem erkannten Tragezustand mit einem Versatz ermöglicht es außerdem, die Anzahl der Kalibrierungsvorgänge zu reduzieren.
  • (Mechanismus zur Einstellung der Projektionsposition)
  • Ein in der Anzeigevorrichtung 100 enthaltener Strahler kann ferner die Projektionspositionseinstellmechanismen 105L-1, 105L-2, 105R-1 und 105R-2 umfassen, die eine Projektionsposition des durch die Anzeigevorrichtung 100 ausgestrahlten Videoanzeigelichts einstellen. Man beachte, dass die vier Projektionspositionseinstellmechanismen hier gemeinsam als Projektionspositionseinstellmechanismen 105 bezeichnet werden können. Beispielsweise kann der Projektionspositionseinstellmechanismus 105 dazu ausgelegt sein, die Projektionsposition des Videoanzeigelichts so einzustellen, dass das Videoanzeigelicht einer Sichtlinie folgt. Der Projektionspositionseinstellmechanismus 105 ermöglicht es, die Projektionsposition des Videoanzeigelichts gemäß einem Tragezustand mit einem Versatz einzustellen.
  • Darüber hinaus ermöglichen die Projektionspositionseinstellmechanismen 105 die Einstellung einer Projektionsposition des Videoanzeigelichts gemäß einer Drehbewegung eines Augapfels oder einer Bewegung einer Sichtlinie. Die Anzeigevorrichtung 100 enthält beispielsweise Projektionspositionseinstellmechanismen (105), die es ermöglichen, die Position eines Bildes, das einem Benutzer präsentiert wird, so einzustellen, dass das Bild an einer geeigneteren Position angezeigt wird. Wenn zum Beispiel ein durch die Anzeigevorrichtung 100 dargestelltes Bild einem Bild der Außenwelt überlagert wird, kann das überlagerte Bild durch Erkennen der Sichtlinie eines Benutzers an einer geeigneteren Position angezeigt werden. Mit anderen Worten ist die Einbeziehung des Überwachungsabschnitts 107 vorteilhaft für die Präsentation von AR-Informationen. Darüber hinaus ermöglichen die Projektionspositionseinstellmechanismen auch die Einstellung der Position, an der das Videoanzeigelicht bei der Maxwellschen Sichtdarstellung eines Bildes konzentriert wird.
  • Die Projektionspositionseinstellmechanismen 105L-1 und 105L-2 stellen eine Projektionsposition des auf das linke Auge projizierten Videoanzeigelichts ein. Der Projektionspositionseinstellmechanismus 105L-1 stellt eine Positionsbeziehung zwischen dem Innenrahmen 106L und dem Rahmen 108L in Richtung der Z-Achse ein. Beispielsweise bewegt der Projektionspositionseinstellmechanismus 105L-1 den Innenrahmen 106L in Richtung der Z-Achse relativ zum Rahmen 108L. Dies führt dazu, dass eine Position des HOE 103L in Richtung der Z-Achse eingestellt wird. Der Mechanismus zur Einstellung der Projektionsposition 105L-2 stellt eine Positionsbeziehung zwischen dem HOE 103L und dem Innenrahmen 106L in Richtung der X-Achse ein. Beispielsweise bewegt der Mechanismus zur Einstellung der Projektionsposition 105L-2 das HOE 103L in Richtung der X-Achse relativ zum Innenrahmen 106L. Dies führt dazu, dass die Position des HOE 103L in Richtung der X-Achse eingestellt wird.
  • Ein Ansteuerelement, das zur Ansteuerung der Einstellung der Positionsbeziehung zwischen dem Innenrahmen 106L und dem Rahmen 108L in Richtung der Z-Achse durch den Mechanismus zur Einstellung der Projektionsposition 105L-1 verwendet wird, kann zum Beispiel ein Piezoelement, ein Aktuator oder ein Bimetall sein, ist aber nicht darauf beschränkt. Ebenso kann ein Ansteuerelement, das zum Ansteuern der Einstellung der Positionsbeziehung zwischen dem HOE 103L und dem Innenrahmen 106L in Richtung der X-Achse durch den Mechanismus zur Einstellung der Projektionsposition 105L-2 verwendet wird, kann zum Beispiel ein Piezoelement, ein Aktuator oder ein Bimetall sein, ist aber nicht darauf beschränkt.
  • Zum Beispiel kann der Mechanismus zur Einstellung der Projektionsposition 105L-1 eine Positionsbeziehung zwischen dem Innenrahmen 106L und dem Rahmen 108L in Richtung der Z-Achse basierend auf einer Änderung der Position der Anzeigevorrichtung 100 einstellen, die durch einen, zwei, drei oder alle vier der Sensoren 104L, 104R, 104C und 104T erfasst wird. Außerdem kann der Mechanismus zur Einstellung der Projektionsposition 105L-1 die Positionsbeziehung basierend auf der Positionsänderung und einer durch den Überwachungsabschnitt 107L erkannten Sichtlinie einstellen. Zum Beispiel kann der Mechanismus zur Einstellung der Projektionsposition 105L-2 eine Positionsbeziehung zwischen dem HOE 103L und dem Innenrahmen 106L in Richtung der X-Achse basierend auf einer Änderung der Position der Anzeigevorrichtung 100 einstellen, die durch einen, zwei, drei oder alle vier der Sensoren 104L, 104R, 104C und 104T erfasst wird. Außerdem kann der Mechanismus zur Einstellung der Projektionsposition 105L-2 die Positionsbeziehung basierend auf der Positionsänderung und einer durch den Überwachungsabschnitt 107L erkannten Sichtlinie einstellen.
  • Die Projektionspositionseinstellmechanismen 105R-1 und 105R-2 stellen eine Projektionsposition des auf das rechte Auge projizierten Videoanzeigelichts ein. Die Einstellung kann ähnlich wie die Einstellung durch die Projektionspositionseinstellmechanismen 105L-1 und 105L-2 erfolgen.
  • (Steuervorrichtung und Speicher)
  • Die Anzeigevorrichtung 100 enthält eine Steuervorrichtung 112. Wie in 11, einem Blockdiagramm, das die primären Bestandteile der Anzeigevorrichtung 100 zeigt, dargestellt, umfasst die Steuervorrichtung 112 eine Bildsteuervorrichtung 181, eine Projektionspositionssteuervorrichtung 182, einen Sichtlinienkorrekturabschnitt 183, einen Prozessor 191 und einen Abgleichabschnitt 192. Wie oben beschrieben, umfasst die in 11 dargestellte Anzeigevorrichtung 100 ferner einen Lichtquellenabschnitt 101, den Sensor 104, den als Strahler dienenden Mechanismus zur Einstellung der Projektionsposition 105, den Überwachungsabschnitt (einen Sichtlinienerfassungsmechanismus) 107, einen Strahler 201, der ein vor den Augen angeordnetes Durchsichtsteil (wie beispielsweise ein reflektierendes oder durchlässiges Volumenhologramm oder ein reflektierendes oder durchlässiges Reliefhologramm) umfasst, und einen Folger 202. Man beachte, dass die Anzeigevorrichtung 100 nicht notwendigerweise den Folger 202 enthalten muss. In der Anzeigevorrichtung 100 oder in einer externen Vorrichtung, die nicht zur Anzeigevorrichtung 100 gehört, kann ein Speicher 184 untergebracht sein.
  • Das vor den Augen angeordnete Teil, das im Strahler 201 der Anzeigevorrichtung 100 enthalten ist, wurde bereits oben beschrieben, und Beispiele für die Verwendung der vor den Augen angeordneten Teile in 13 und 14 werden ausführlicher beschrieben.
  • 13 zeigt ein zweites optisches Element 300, das ein Beispiel für das vor den Augen angeordnete Teil ist, wobei bestimmtes Licht an dem zweiten optischen Element 300 reflektiert wird und anderes als das bestimmte Licht durch das zweite optische Element 300 durchgelassen wird. 14 zeigt ein zweites optisches Element 400, das ein weiteres Beispiel für das vor den Augen angeordnete Teil ist, wobei bestimmtes Licht an dem zweiten optischen Element 400 reflektiert wird und anderes als das bestimmte Licht durch das zweite optische Element 400 durchgelassen wird.
  • Eine in 13 dargestellte Vorrichtung umfasst das zweite optische Element 300, eine Flüssigkristalltafel 301 und die spezielle Flüssigkristalllinse 302. Das zweite optische Element 300 umfasst einen polarisierenden Strahlenteiler (PBS), und in dem zweiten optischen Element (einem polarisierenden Strahlteiler) 300 ist eine λ/4-Platte angeordnet, die jedoch nicht abgebildet ist. Die in 13 abgebildete Vorrichtung muss nicht unbedingt die spezielle Flüssigkristalllinse 302 enthalten, und anstelle der speziellen Flüssigkristalllinse 302 kann die in 13 dargestellte Vorrichtung eine Linse zwischen der Flüssigkristalltafel 301 und dem zweiten optischen Element 300 enthalten.
  • Wie in 13 abgebildet, wird ein Strahl von polarisiertem Licht (Videoanzeigelicht) L31 aus der Flüssigkristalltafel 310 von einem Bereich H31 im zweiten optischen Element 300 reflektiert und durch die Bereiche T31-1 und T31-2 in der speziellen Flüssigkristalllinse 302 übertragen, um ein Auge 310 (eine Pupille 310-1) eines Benutzers zu erreichen. Ein Strahl von polarisiertem Licht (Videoanzeigelicht) L32 aus der Flüssigkristalltafel 301 wird an einem Bereich H32 im zweiten optischen Element 300 (dem polarisierenden Strahlteiler) reflektiert und durch die Bereiche T32-1 und T32-2 in der speziellen Flüssigkristalllinse 302 übertragen, um das Auge 310 (die Pupille 310-1) des Benutzers zu erreichen. Der Benutzer erkennt ein virtuelles Video (Bild) V13, das aus Licht (Videoanzeigelicht (den Strahlen des polarisierten Lichts L31 und L32)) besteht, das durch die Flüssigkristalltafel 301 ausgesendet wird. Dann werden die Lichtanteile L310 und L320 aus der Außenwelt über das zweite optische Element 300 (den polarisierenden Strahlteiler) übertragen und durch die spezielle Flüssigkristalllinse 302 geleitet, um das Auge 310 (die Pupille 310-1) des Benutzers zu erreichen. Der Benutzer erkennt ein Realitätsvideo (Bild) R13, das sich aus den Lichtanteilen L310 und L320 aus der Außenwelt zusammensetzt. Mit anderen Worten: Der Benutzer erkennt (für den Benutzer scheint es so), dass das virtuelle Video (Bild) V13 dem realen Video (Bild) R13 überlagert ist.
  • 14 zeigt das zweite optische Element 400, ein organisches Leuchtdioden(OLED)-Panel (organisches EL) 401 und eine Linse 402. Das zweite optische Element 400 ist ein asphärischer Halbspiegel und umfasst ein erstes Spiegelteil 400-1 und ein zweites Spiegelteil 400-2. Das zweite optische Element 400 kann beispielsweise eine Kombination aus einem Halbspiegel 400-1 und einem Halbspiegel 400-2 oder eine Kombination aus einem polarisierenden Strahlteiler (PBS) 400-1 und dem Halbspiegel 400-2 umfassen. Wenn das zweite optische Element 400 den polarisierenden Strahlteiler (PBS) 400-1 und den Halbspiegel 400-2 in Kombination enthält, kann eine λ/4-Platte in dem Halbspiegel 400-2 angeordnet sein. Wenn das erste Spiegelelement (400-1) oder das zweite Spiegelelement (400-2) ein Halbspiegel ist, oder wenn sowohl das erste Spiegelelement (400-1) als auch das zweite Spiegelelement (400-2) Halbspiegel sind, beträgt die Lichtdurchlässigkeit vorteilhaft 50 % oder mehr.
  • Wie in 14 dargestellt, wird ein Lichtstrahl (Videoanzeigelicht) L41 aus dem organischen Leuchtdioden(OLED)-Feld (organische EL) 401 an einem Bereich H41-1 im ersten Spiegelteil 400-1 reflektiert, das in dem zweiten optischen Element 400 enthalten ist. Anschließend wird der Lichtstrahl L41 an einem Bereich H41-2 im zweiten Spiegelteil 400-2 reflektiert, das im zweiten optischen Element 400 enthalten ist, und wird durch einen Bereich T41 im ersten Spiegelelement 400-1 übertragen, um ein Auge 410 (eine Pupille 410-1) eines Benutzers zu erreichen. Ein Lichtstrahl (Videoanzeigelicht) L42 vom OLED-Feld 401 wird an einem Bereich H42-1 im ersten Spiegelteil 400-1 reflektiert, das im zweiten optischen Element 400 enthalten ist. Anschließend wird der Lichtstrahl L42 an einem Bereich H42-2 im zweiten Spiegelteil 400-2 reflektiert, das im zweiten optischen Element 400 enthalten ist, und wird durch einen Bereich T42 im ersten Spiegelteil 400-1 übertragen, um das Auge 410 (die Pupille 410-1) des Benutzers zu erreichen. Ein Lichtstrahl (Videoanzeigelicht) L43 vom OLED-Feld 401 wird an einem Bereich H43-1 im ersten Spiegelteil 400-1 reflektiert, das im zweiten optischen Element 400 enthalten ist. Anschließend wird der Lichtstrahl L43 an einem Bereich H43-2 im zweiten Spiegelteil 400-2 reflektiert, das im zweiten optischen Element 400 enthalten ist, und wird durch einen Bereich T43 im ersten Spiegelteil 400-1 übertragen, um das Auge 410 (die Pupille 410-1) des Benutzers zu erreichen. Der Benutzer erkennt ein virtuelles Video (Bild), das aus Licht (Videoanzeigelicht (den Lichtstrahlen L41, L42 und L43)) besteht, das durch das OLED-Feld 401 ausgesendet wird. Anschließend wird das Licht aus der Außenwelt durch das zweite optische Element 400 übertragen, um das Auge 410 (die Pupille 410-1) des Benutzers zu erreichen, obwohl dies nicht abgebildet ist. Der Benutzer erkennt ein Realitätsvideo (Bild), das aus dem Licht der Außenwelt besteht. Für den Benutzer erscheint es, als ob das virtuelle Video (Bild) dem realen Video (Bild) überlagert ist.
  • Man beachte, dass der Inhalt der beiden Beispiele für das vor den Augen angeordnete und im Strahler 201 enthaltene Teil oben unter Bezugnahme auf 13 und 14 beschrieben worden ist. Der Inhalt kann auch auf eine Anzeigevorrichtung 100-1 einer zweiten Ausführungsform gemäß der vorliegenden Technologie angewendet werden. Dies wird später beschrieben.
  • Im Folgenden wird die Steuervorrichtung 112 beschrieben.
  • Die Bildsteuervorrichtung 181 steuert die Projektion von Videoanzeigelicht, die durch den Videoanzeigeabschnitt durchgeführt wird. Beispielsweise steuert die Bildsteuervorrichtung 181 die Lichtquellenabschnitte 101L und 101R, d. h. die Bildsteuervorrichtung 181 steuert insbesondere die in diesen Lichtquellenabschnitten enthaltenen Laserquellen und Abtastspiegel an und veranlasst die Lichtquellenabschnitte zur Ausgabe von Videoanzeigelichtanteilen. Beispielsweise kann die Bildsteuervorrichtung 181 im Speicher 184 gespeicherte Bilddaten erfassen und die Lichtquellenabschnitte 101L und 101R veranlassen, basierend auf den erfassten Bilddaten Anteile von Videoanzeigelicht auszugeben. Die Bildsteuervorrichtung 181 kann die Bilddaten basierend auf einer Änderung der Position der Anzeigevorrichtung 100 relativ zum Kopf eines Benutzers korrigieren, wobei die Änderung durch den Sensor 104 erfasst wird. Basierend auf den Bilddaten nach der Korrektur kann die Bildsteuervorrichtung 181 die Lichtquellenabschnitte 101L und 101R veranlassen, Anteile von Videoanzeigelicht auszugeben. Mit anderen Worten: Die Anzeigevorrichtung 100 kann ein Bild basierend auf einer Änderung der Position der Anzeigevorrichtung relativ zum Kopf eines Benutzers korrigieren, wobei die Positionsänderung durch einen Sensor erfasst wird, der die Positionsänderung erkennt.
  • Die Projektionspositionssteuervorrichtung 182 steuert die Projektionspositionseinstellmechanismen 105L-1, 105L-2, 105R-1 und 105R-2, und dies führt dazu, dass eine Projektionsposition des Videoanzeigelichts gesteuert werden kann. Zum Beispiel kann die Projektionspositionssteuervorrichtung 182 die Projektionsposition des Videoanzeigelichts einstellen, indem sie einen, zwei, drei oder vier der Projektionspositionseinstellmechanismen 105L-1, 105L-2, 105R-1 und 105R-2 basierend auf einer durch die Überwachungsabschnitte 107L und 107R erfassten Sichtlinie ansteuert. So kann beispielsweise die Projektionsposition des Videoanzeigelichts so eingestellt werden, dass das Videoanzeigelicht der Sichtlinie folgt. Die Projektionspositionssteuervorrichtung 182 kann die Projektionsposition des Videoanzeigelichts einstellen, indem sie einen, zwei, drei oder vier der Projektionspositionseinstellmechanismen 105L-1, 105L-2, 105R-1 und 105R-2 basierend auf der Sichtlinie nach der durch den Sichtlinienkorrekturabschnitt 183, der später beschrieben wird, durchgeführten Korrektur ansteuert. So kann beispielsweise die Projektionsposition des Videoanzeigelichts so eingestellt werden, dass das Videoanzeigelicht nach der Korrektur der Sichtlinie folgt. Die Projektionspositionssteuervorrichtung 182 kann die Projektionsposition des Videoanzeigelichts einstellen, indem sie einen, zwei, drei oder vier der Projektionspositionseinstellmechanismen 105L-1, 105L-2, 105R-1 und 105R-2 basierend auf Daten (im Folgenden auch als „Verschiebungsdaten“ bezeichnet) ansteuert, die sich auf eine Änderung der Position der Anzeigevorrichtung 100 relativ zum Kopf eines Benutzers beziehen, wobei die Änderung durch einen, zwei, drei oder vier der Sensoren 104L, 104R, 104C und 104T erfasst wird.
  • Beispielsweise kann die Projektionspositionssteuervorrichtung 182 basierend auf den Verschiebungsdaten und einem Korrekturkoeffizienten einen Betrag der durch jeden Projektionspositionseinstellmechanismus durchgeführten Positionseinstellung berechnen. Die Projektionspositionssteuervorrichtung 182 kann jeden Projektionspositionseinstellmechanismus so ansteuern, dass eine Positionsbeziehung um den berechneten Betrag der Positionseinstellung verändert wird. Zum Beispiel kann die Projektionspositionssteuervorrichtung 182 einen Korrekturkoeffizienten aus einer im Speicher 184 gespeicherten Korrekturtabelle im Voraus erfassen und den erfassten Korrekturkoeffizienten dazu verwenden, den Betrag der Positionsanpassung zu berechnen. Die Korrekturtabelle kann beispielsweise eine Vielzahl von Korrekturkoeffizienten enthalten, und die Projektionspositionssteuervorrichtung 182 kann einen bestimmten Korrekturkoeffizienten aus der Vielzahl der Korrekturkoeffizienten gemäß den Verschiebungsdaten auswählen. Ferner kann die Korrekturtabelle beispielsweise für jeden Projektionspositionseinstellmechanismus vorgesehen sein. Die Korrekturtabelle kann im Voraus in die Anzeigevorrichtung 100 einbezogen werden oder als Reaktion auf die Verwendung der Anzeigevorrichtung 100 durch einen Benutzer aktualisiert werden. Die Auswahl oder Aktualisierung einer Korrekturtabelle oder eines Korrekturkoeffizienten ermöglicht es, die Genauigkeit bei der Steuerung einer Projektionsposition zu verbessern. Um den Betrag der Positionseinstellung zu berechnen, kann die Projektionspositionssteuervorrichtung 182 eine durch den Überwachungsabschnitt erfasste Sichtlinie oder eine Sichtlinie nach der durch den Sichtlinienkorrekturabschnitt 183 durchgeführten Korrektur verwenden.
  • Der Sichtlinienkorrekturabschnitt 183 korrigiert eine durch die Überwachungsabschnitte 107L und 107R erfasste Sichtlinie basierend auf den Verschiebungsdaten. Dies ermöglicht es dem Sichtlinienkorrekturabschnitt 183, eine Sichtlinie unter Berücksichtigung eines Tragezustandes mit einem Versatz zu identifizieren, was zu einer Verbesserung der Genauigkeit bei der Erkennung einer Sichtlinie führt. Die Korrektur kann in Bezug auf eine optische Achse eines Augapfels, in Bezug auf eine Sehachse des Augapfels oder in Bezug auf eine andere Referenzachse als die optische Achse und die Sehachse erfolgen. Ebenso kann der Sichtlinienkorrekturabschnitt 183 einen Korrekturkoeffizienten aus einer im Speicher 184 gespeicherten Korrekturtabelle im Voraus erfassen und den erfassten Korrekturkoeffizienten zur Korrektur einer Sichtlinie verwenden. Beispielsweise kann die Korrekturtabelle eine Vielzahl von Korrekturkoeffizienten enthalten, und der Sichtlinienkorrekturabschnitt 183 kann einen bestimmten Korrekturkoeffizienten aus der Vielzahl von Korrekturkoeffizienten gemäß den Verschiebungsdaten auswählen. Die Korrekturtabelle kann im Voraus in die Anzeigevorrichtung 100 einbezogen werden oder als Reaktion auf die Verwendung der am Kopf angebrachten Anzeigevorrichtung 100 durch einen Benutzer aktualisiert werden. Die Auswahl oder Aktualisierung einer Korrekturtabelle oder eines Korrekturkoeffizienten ermöglicht es, die Genauigkeit bei der Korrektur einer Sichtlinie zu verbessern.
  • Die Anzeigevorrichtung 100 kann ferner den Speicher 184 enthalten. Der Speicher kann Daten speichern, die sich auf das durch den Videoanzeigeabschnitt projizierte Videoanzeigelicht, eine Korrekturtabelle, die durch die Projektionspositionssteuervorrichtung 122 zur Steuerung einer Projektionsposition verwendet wird, und eine Korrekturtabelle, die durch den Sichtlinienkorrekturabschnitt 123 zur Korrektur einer Sichtlinie verwendet wird, beziehen.
  • Der Prozessor 191 verarbeitet Informationen über eine Verteilung von Eigenschaften eines Augapfels. Die Verteilung der Eigenschaften eines Augapfels wird beispielsweise mit einer Funduskamera oder mit einem OCT, einem Refraktometer oder einer Lichtdetektionsvorrichtung erfasst, die das durch IR-Abtastung zurückkehrende Licht erkennt. Die Verteilung der Eigenschaften eines Augapfels kann aus Formeigenschaften (wie Größe und Form des Augapfels, Größe und Form der Makula (beispielsweise Form einer Vertiefung), Größe und Form des blinden Flecks (beispielsweise Form einer Vertiefung), eine Form eines Querschnitts der Netzhaut (beispielsweise eine Form der Unebenheit)), natürliche Eigenschaften (beispielsweise eine Position einer Fovea, eine Position eines blinden Flecks und ein Merkmal beispielsweise eines betroffenen Bereichs) und optische Eigenschaften (beispielsweise die Brechung in einem Augapfel und eine Aberration des Augapfels) erfasst werden. Der Prozessor 191 kann ein Koordinatensystem basierend auf einer Verteilung von Eigenschaften eines Augapfels definieren. Es ist zu beachten, dass der Steuervorrichtung 112 beispielsweise ein Definitionsabschnitt, der ein Koordinatensystem definiert, unabhängig vom Prozessor 191 zur Verfügung gestellt werden kann, ohne dass der Prozessor 191 ein Koordinatensystem basierend auf einer Verteilung von Eigenschaften eines Augapfels definiert. Das Koordinatensystem wird basierend auf mindestens zwei Elementen aus der Gruppe bestehend aus einer ersten Fovea des rechten Auges, einem ersten blinden Fleck des rechten Auges, einer zweiten Fovea des linken Auges und einem zweiten blinden Fleck des linken Auges definiert. Ein angezeigtes Video und eine Anzeigeposition werden unter Verwendung des Koordinatensystems definiert. Dies führt zu einer geringeren Datenmenge als bei Verwendung einer Musterkarte. Ferner können ein angezeigtes Video und eine Anzeigeposition im Prozessor 191 basierend auf Informationen über die Drehung eines Augapfels gesteuert werden. Dies führt zu einem weniger intensiven Verarbeitungsaufwand als bei Verwendung eines Musterabgleichs.
  • Der Abgleichabschnitt 192 führt den Abgleich anhand einer Verteilung von Eigenschaften eines Augapfels und eines Zustands des Augapfels durch. Unter Verwendung des oben beschriebenen Koordinatensystems führt der Abgleichabschnitt 192 beispielsweise einen Abgleich anhand einer Verteilung von Eigenschaften eines Augapfels und eines Zustands des Augapfels durch, dem ein Video präsentiert werden soll (der Augapfel, dem ein Video präsentiert werden soll, kann als betreffendes Auge bezeichnet werden). Der Abgleichabschnitt 192 erfasst eine Abweichung einer Sehachse von einer optischen Achse (Blickkalibrierung) und kann eine Karte erzeugen, in der ein Versatz wiedergegeben wird.
  • Die Anzeigevorrichtung der ersten Ausführungsform gemäß der vorliegenden Technologie (das erste Beispiel für die Anzeigevorrichtung) wurde oben beschrieben. Sofern es keine technischen Unstimmigkeiten gibt, kann der Inhalt der Beschreibung insbesondere auf die Anzeigevorrichtung der zweiten Ausführungsform gemäß der vorliegenden Technologie (einen zweiten Beispiel für die Anzeigevorrichtung), einem Anzeigeverfahren einer dritten Ausführungsform gemäß der vorliegenden Technologie (einem ersten Beispiel für ein Anzeigeverfahren) und einem Anzeigeverfahren einer vierten Ausführungsform gemäß der vorliegenden Technologie (einem zweiten Beispiel für ein Anzeigeverfahren) angewendet werden. Diese werden später beschrieben.
  • <3. Zweite Ausführungsform (zweites Beispiel für eine Anzeigevorrichtung)>
  • Die Anzeigevorrichtung der zweiten Ausführungsform gemäß der vorliegenden Technologie (zweites Beispiel für die Anzeigevorrichtung) ist eine Anzeigevorrichtung, die eine Lichtquelle, einen Prozessor, der eine Verarbeitung einer Verteilung von Eigenschaften eines Augapfels durchführt, einen Überwachungsabschnitt, der einen Zustand des Augapfels überwacht, einen Abgleichabschnitt, der einen Abgleich der Verteilung der Eigenschaften des Augapfels und des Zustands des Augapfels durchführt, und einen Strahler, die eine bestimmte Position auf einer Netzhaut mit durch die Lichtquelle emittiertem Videoanzeigelicht bestrahlt, und die ferner einen Erfassungsabschnitt enthält, der die Verteilung der Eigenschaften des Augapfels erfasst. Mit anderen Worten ist die Anzeigevorrichtung der zweiten Ausführungsform gemäß der vorliegenden Technologie eine Anzeigevorrichtung, die durch Hinzufügen des Erfassungsabschnitts, der eine Verteilung von Eigenschaften eines Augapfels erfasst, zur Anzeigevorrichtung der ersten Ausführungsform gemäß der vorliegenden Technologie erhalten wird. Die Anzeigevorrichtung der zweiten Ausführungsform gemäß der vorliegenden Technologie kann außerdem einen Folger enthalten. Die Anzeigevorrichtung der zweiten Ausführungsform gemäß der vorliegenden Technologie kann beispielsweise für eine Brillenanzeige und eine am Kopf angebrachte Anzeigevorrichtung verwendet werden.
  • Der Prozessor, der die Verarbeitung einer Verteilung von Eigenschaften eines Augapfels durchführt, führt die Verarbeitung beispielsweise anhand von Informationen über eine Verteilung von Eigenschaften eines Augapfels durch, wobei die Informationen über eine Verteilung von Eigenschaften eines Augapfels von dem Erfassungsabschnitt (wie einer Funduskamera, einem OCT, einer Lichtdetektionsvorrichtung, die das durch IR-Strahlung zurückkehrende Licht erkennt, oder einem Refraktometer) erhalten werden. Der Überwachungsabschnitt überwacht den Zustand eines Augapfels beispielsweise mittels eines Kornealreflexes oder eines Fundusreflexes und kann eine optische Achse erfassen. Der Abgleichabschnitt erfasst eine Abweichung der Sehachse von der optischen Achse (Blickkalibrierung) und kann eine Karte erstellen, in der ein Versatz wiedergegeben wird. Der Strahler kann das Licht in Abhängigkeit von der Laserquelle, der Anzeige eines Videos (eines Projektors) und der Verteilung der Eigenschaften eines Augapfels modulieren, die Lichtmenge in Abhängigkeit vom externen Licht einstellen und eine Steuerung einschließlich einer Verzerrungskorrektur durchführen. Der Folger kann bewirken, dass ein angezeigtes Video aufgrund von Augenverfolgung einer Augenbewegung folgt, wobei ein Lichtstrahl so gelenkt wird, dass ein ausgestrahltes Video und eine Ausstrahlposition basierend auf Informationen über eine Drehung eines Augapfels geändert werden.
  • Ein Beispiel für eine Konfiguration der Anzeigevorrichtung der zweiten Ausführungsform gemäß der vorliegenden Technologie wird unter Bezugnahme auf 12 beschrieben.
  • 12 ist ein Blockdiagramm, das die primären Bestandteile der Anzeigevorrichtung der zweiten Ausführungsform gemäß der vorliegenden Technologie (der Anzeigevorrichtung 100-1) zeigt.
  • Die Anzeigevorrichtung 100-1 umfasst den Lichtquellenabschnitt 101, den Sensor 104, den Projektionspositionseinstellmechanismus 105, der als Strahler dient, den Überwachungsabschnitt (einen Sichtlinienerfassungsmechanismus) 107, den Strahler 201, die ein vor den Augen angeordnetes Durchsichtsteil (wie ein reflektierendes oder durchlässiges Volumenhologramm oder ein reflektierendes oder durchlässiges Reliefhologramm) enthält, den Folger 202, einen Erfassungsabschnitt 301 und die Steuervorrichtung 112. Man beachte, dass die Anzeigevorrichtung 100-1 nicht notwendigerweise den Folger 202 enthalten muss.
  • Die Steuervorrichtung 112 umfasst die Bildsteuervorrichtung 181, die Projektionspositionssteuervorrichtung 182, den Sichtlinienkorrekturabschnitt 183, den Prozessor 191 und den Abgleichabschnitt 192.
  • Die Bildsteuervorrichtung 181 steuert die Projektion von Videoanzeigelicht, die durch den Videoanzeigeabschnitt durchgeführt wird. Beispielsweise steuert die Bildsteuervorrichtung 181 die Lichtquellenabschnitte 101L und 101R, d. h. die Bildsteuervorrichtung 181 steuert insbesondere die in diesen Lichtquellenabschnitten enthaltenen Laserquellen und Abtastspiegel an und veranlasst die Lichtquellenabschnitte zur Ausgabe von Videoanzeigelichtanteilen. Beispielsweise kann die Bildsteuervorrichtung 181 im Speicher 184 gespeicherte Bilddaten erfassen und die Lichtquellenabschnitte 101L und 101R veranlassen, basierend auf den erfassten Bilddaten Anteile von Videoanzeigelicht auszugeben. Die Bildsteuervorrichtung 181 kann die Bilddaten basierend auf einer Änderung der Position der Anzeigevorrichtung 100 relativ zum Kopf eines Benutzers korrigieren, wobei die Änderung durch den Sensor 104 erfasst wird. Basierend auf den Bilddaten nach der Korrektur kann die Bildsteuervorrichtung 181 die Lichtquellenabschnitte 101L und 101R veranlassen, Anteile von Videoanzeigelicht auszugeben. Mit anderen Worten: Die Anzeigevorrichtung 100 kann ein Bild basierend auf einer Änderung der Position der Anzeigevorrichtung relativ zum Kopf eines Benutzers korrigieren, wobei die Positionsänderung durch einen Sensor erfasst wird, der die Positionsänderung erkennt.
  • Die Projektionspositionssteuervorrichtung 182 steuert die Projektionspositionseinstellmechanismen 105L-1, 105L-2, 105R-1 und 105R-2, und dies führt dazu, dass eine Projektionsposition des Videoanzeigelichts gesteuert werden kann. Zum Beispiel kann die Projektionspositionssteuervorrichtung 182 die Projektionsposition des Videoanzeigelichts einstellen, indem sie einen, zwei, drei oder vier der Projektionspositionseinstellmechanismen 105L-1, 105L-2, 105R-1 und 105R-2 basierend auf einer durch die Überwachungsabschnitte 107L und 107R erfassten Sichtlinie ansteuert. So kann beispielsweise die Projektionsposition des Videoanzeigelichts so eingestellt werden, dass das Videoanzeigelicht der Sichtlinie folgt. Die Projektionspositionssteuervorrichtung 182 kann die Projektionsposition des Videoanzeigelichts einstellen, indem sie einen, zwei, drei oder vier der Projektionspositionseinstellmechanismen 105L-1, 105L-2, 105R-1 und 105R-2 basierend auf der Sichtlinie nach der durch den Sichtlinienkorrekturabschnitt 183, der später beschrieben wird, durchgeführten Korrektur ansteuert. So kann beispielsweise die Projektionsposition des Videoanzeigelichts so eingestellt werden, dass das Videoanzeigelicht nach der Korrektur der Sichtlinie folgt. Die Projektionspositionssteuervorrichtung 182 kann die Projektionsposition des Videoanzeigelichts einstellen, indem sie einen, zwei, drei oder vier der Projektionspositionseinstellmechanismen 105L-1, 105L-2, 105R-1 und 105R-2 basierend auf Daten (im Folgenden auch als „Verschiebungsdaten“ bezeichnet) ansteuert, die sich auf eine Änderung der Position der Anzeigevorrichtung 100 relativ zum Kopf eines Benutzers beziehen, wobei die Änderung durch einen, zwei, drei oder vier der Sensoren 104L, 104R, 104C und 104T erfasst wird.
  • Beispielsweise kann die Projektionspositionssteuervorrichtung 182 basierend auf den Verschiebungsdaten und einem Korrekturkoeffizienten einen Betrag der durch jeden Projektionspositionseinstellmechanismus durchgeführten Positionseinstellung berechnen. Die Projektionspositionssteuervorrichtung 182 kann jeden Projektionspositionseinstellmechanismus so ansteuern, dass eine Positionsbeziehung um den berechneten Betrag der Positionseinstellung verändert wird. Zum Beispiel kann die Projektionspositionssteuervorrichtung 182 einen Korrekturkoeffizienten aus einer im Speicher 184 gespeicherten Korrekturtabelle im Voraus erfassen und den erfassten Korrekturkoeffizienten dazu verwenden, den Betrag der Positionsanpassung zu berechnen. Die Korrekturtabelle kann beispielsweise eine Vielzahl von Korrekturkoeffizienten enthalten, und die Projektionspositionssteuervorrichtung 182 kann einen bestimmten Korrekturkoeffizienten aus der Vielzahl der Korrekturkoeffizienten gemäß den Verschiebungsdaten auswählen. Ferner kann die Korrekturtabelle beispielsweise für jeden Projektionspositionseinstellmechanismus vorgesehen sein. Die Korrekturtabelle kann im Voraus in die Anzeigevorrichtung 100 einbezogen werden oder als Reaktion auf die Verwendung der Anzeigevorrichtung 100 durch einen Benutzer aktualisiert werden. Die Auswahl oder Aktualisierung einer Korrekturtabelle oder eines Korrekturkoeffizienten ermöglicht es, die Genauigkeit bei der Steuerung einer Projektionsposition zu verbessern. Um den Betrag der Positionseinstellung zu berechnen, kann die Projektionspositionssteuervorrichtung 182 eine durch den Überwachungsabschnitt erfasste Sichtlinie oder eine Sichtlinie nach der durch den Sichtlinienkorrekturabschnitt 183 durchgeführten Korrektur verwenden.
  • Der Sichtlinienkorrekturabschnitt 183 korrigiert eine durch die Überwachungsabschnitte 107L und 107R erfasste Sichtlinie basierend auf den Verschiebungsdaten. Dies ermöglicht es dem Sichtlinienkorrekturabschnitt 183, eine Sichtlinie unter Berücksichtigung eines Tragezustandes mit einem Versatz zu identifizieren, was zu einer Verbesserung der Genauigkeit bei der Erkennung einer Sichtlinie führt. Die Korrektur kann in Bezug auf eine optische Achse eines Augapfels, in Bezug auf eine Sehachse des Augapfels oder in Bezug auf eine andere Referenzachse als die optische Achse und die Sehachse erfolgen. Ebenso kann der Sichtlinienkorrekturabschnitt 183 einen Korrekturkoeffizienten aus einer im Speicher 184 gespeicherten Korrekturtabelle im Voraus erfassen und den erfassten Korrekturkoeffizienten zur Korrektur einer Sichtlinie verwenden. Beispielsweise kann die Korrekturtabelle eine Vielzahl von Korrekturkoeffizienten enthalten, und der Sichtlinienkorrekturabschnitt 183 kann einen bestimmten Korrekturkoeffizienten aus der Vielzahl von Korrekturkoeffizienten gemäß den Verschiebungsdaten auswählen. Die Korrekturtabelle kann im Voraus in die Anzeigevorrichtung 100 einbezogen werden oder als Reaktion auf die Verwendung der am Kopf angebrachten Anzeigevorrichtung 100 durch einen Benutzer aktualisiert werden. Die Auswahl oder Aktualisierung einer Korrekturtabelle oder eines Korrekturkoeffizienten ermöglicht es, die Genauigkeit bei der Korrektur einer Sichtlinie zu verbessern.
  • Die Anzeigevorrichtung 100 kann ferner den Speicher 184 enthalten. Der Speicher kann Daten speichern, die sich auf das durch den Videoanzeigeabschnitt projizierte Videoanzeigelicht, eine Korrekturtabelle, die durch die Projektionspositionssteuervorrichtung 122 zur Steuerung einer Projektionsposition verwendet wird, und eine Korrekturtabelle, die durch den Sichtlinienkorrekturabschnitt 123 zur Korrektur einer Sichtlinie verwendet wird, beziehen.
  • Der Prozessor 191 verarbeitet Informationen über eine Verteilung von Eigenschaften eines Augapfels. Zum Beispiel kann die Verteilung der Eigenschaften eines Augapfels aus dem Erfassungsabschnitt 301 erfasst werden. Beispielsweise wird die Verteilung der Eigenschaften eines Augapfels mittels einer Funduskamera, die im Erfassungsabschnitt 301 enthalten ist, oder mittels eines OCT, eines Refraktometers oder einer Lichtdetektionsvorrichtung, die das durch IR-Strahlung zurückkehrende Licht erkennt, wobei das OCT, das Refraktometer oder die Lichterfassungsvorrichtung im Erfassungsabschnitt 301 enthalten ist. Die Verteilung der Eigenschaften eines Augapfels kann aus Formeigenschaften (wie Größe und Form des Augapfels, Größe und Form der Makula (beispielsweise Form einer Vertiefung), Größe und Form des blinden Flecks (beispielsweise Form einer Vertiefung), eine Form eines Querschnitts der Netzhaut (beispielsweise eine Form der Unebenheit)), natürliche Eigenschaften (beispielsweise eine Position einer Fovea, eine Position eines blinden Flecks und ein Merkmal beispielsweise eines betroffenen Bereichs) und optische Eigenschaften (beispielsweise die Brechung in einem Augapfel und eine Aberration des Augapfels) erfasst werden. Der Prozessor 191 kann ein Koordinatensystem basierend auf einer Verteilung von Eigenschaften eines Augapfels definieren. Es ist zu beachten, dass der Steuervorrichtung 112 beispielsweise ein Definitionsabschnitt, der ein Koordinatensystem definiert, unabhängig vom Prozessor 191 zur Verfügung gestellt werden kann, ohne dass der Prozessor 191 ein Koordinatensystem basierend auf einer Verteilung von Eigenschaften eines Augapfels definiert. Das Koordinatensystem wird basierend auf mindestens zwei Elementen aus der Gruppe bestehend aus einer ersten Fovea des rechten Auges, einem ersten blinden Fleck des rechten Auges, einer zweiten Fovea des linken Auges und einem zweiten blinden Fleck des linken Auges definiert. Ein angezeigtes Video und eine Anzeigeposition werden unter Verwendung des Koordinatensystems definiert. Dies führt zu einer geringeren Datenmenge als bei Verwendung einer Musterkarte. Ferner können ein angezeigtes Video und eine Anzeigeposition im Prozessor 191 basierend auf Informationen über die Drehung eines Augapfels gesteuert werden. Dies führt zu einem weniger intensiven Verarbeitungsaufwand als bei Verwendung eines Musterabgleichs.
  • Der Abgleichabschnitt 192 führt den Abgleich anhand einer Verteilung von Eigenschaften eines Augapfels und eines Zustands des Augapfels durch. Unter Verwendung des oben beschriebenen Koordinatensystems führt der Abgleichabschnitt 192 beispielsweise einen Abgleich anhand einer Verteilung von Eigenschaften eines Augapfels und eines Zustands des Augapfels durch, dem ein Video präsentiert werden soll (der Augapfel, dem ein Video präsentiert werden soll, kann als betreffendes Auge bezeichnet werden). Der Abgleichabschnitt 192 erfasst eine Abweichung einer Sehachse von einer optischen Achse (Blickkalibrierung) und kann eine Karte erzeugen, in der ein Versatz wiedergegeben wird.
  • <4. Dritte Ausführungsform (erstes Beispiel für ein Anzeigeverfahren)>
  • Das Anzeigeverfahren der dritten Ausführungsform gemäß der vorliegenden Technologie (das erste Beispiel für das Anzeigeverfahrens) ist ein Anzeigeverfahren, das die Durchführung einer Verarbeitung einer Verteilung von Eigenschaften eines Augapfels, die Überwachung eines Zustands des Augapfels, die Durchführung eines Abgleichs der Verteilung der Eigenschaften des Augapfels und des Zustands des Augapfels und die Bestrahlung einer bestimmten Position auf einer Netzhaut mit durch eine Lichtquelle emittiertes Videoanzeigelicht umfasst.
  • Das Anzeigeverfahren der dritten Ausführungsform gemäß der vorliegenden Technologie (erstes Beispiel für das Anzeigeverfahren) wird unter Verwendung der Anzeigevorrichtung der ersten Ausführungsform gemäß der vorliegenden Technologie (erstes Beispiel für die Anzeigevorrichtung) (wie das Anzeigevorrichtung 100) durchgeführt.
  • Ferner können die mit Bezug auf die oben beschriebenen 1 und 5 beschriebenen Inhalte auf einen Ablauf des Anzeigeverfahrens der dritten Ausführungsform gemäß der vorliegenden Technologie (erstes Beispiel für das Anzeigeverfahren) angewendet werden. Man beachte, dass Schritt S101 (Aufnahme eines Augenhintergrundfotos bei Betrachtung eines Augapfels von vorne), Schritt S102 (Aufnahme eines Augenhintergrundfotos bei Drehung eines Augapfels nach links, rechts, oben oder unten) und Schritt S103 (Erkennung der Positionen einer Fovea und eines blinden Flecks in den jeweiligen Augenhintergrundfotos) von 1; und Schritt S201 (Erzeugen einer Augenhintergrundkarte) und Schritt S202 (Erfassen von Eigenschaften eines Augapfels) von 5 können unter Verwendung einer externen Vorrichtung (wie einer Funduskamera, eines OCT oder eines Refraktometers) durchgeführt werden, das nicht die Anzeigevorrichtung der ersten Ausführungsform gemäß der vorliegenden Technologie (das erste Beispiel des Anzeigevorrichtung) ist (wie die Anzeigevorrichtung 100).
  • <5. Vierte Ausführungsform (zweites Beispiel eines Anzeigeverfahrens)>
  • Das Anzeigeverfahren der vierten Ausführungsform gemäß der vorliegenden Technologie (zweites Beispiel für das Anzeigeverfahren) ist ein Anzeigeverfahren, das die Durchführung einer Verarbeitung einer Verteilung von Eigenschaften eines Augapfels, die Überwachung eines Zustands des Augapfels, die Durchführung eines Abgleichs der Verteilung der Eigenschaften des Augapfels und des Zustands des Augapfels und die Bestrahlung einer bestimmten Position auf einer Netzhaut mit durch eine Lichtquelle emittiertes Videoanzeigelicht umfasst, und das ferner die Erfassung der Verteilung der Eigenschaften des Augapfels umfasst. Mit anderen Worten ist das Anzeigeverfahren der vierten Ausführungsform gemäß der vorliegenden Technologie ein Anzeigeverfahren, das durch Hinzufügen der Erfassung einer Verteilung von Eigenschaften eines Augapfels zum Anzeigeverfahren der dritten Ausführungsform gemäß der vorliegenden Technologie erhalten wird.
  • Das Anzeigeverfahren der vierten Ausführungsform gemäß der vorliegenden Technologie (zweites Beispiel für das Anzeigeverfahren) wird unter Verwendung der Anzeigevorrichtung der zweiten Ausführungsform gemäß der vorliegenden Technologie (zweites Beispiel für die Anzeigevorrichtung) (wie die Anzeigevorrichtung 100-1) durchgeführt.
  • Die mit Bezug auf die oben beschriebenen 1 und 5 beschriebenen Inhalte können auf einen Ablauf des Anzeigeverfahrens der vierten Ausführungsform gemäß der vorliegenden Technologie (zweites Beispiel für das Anzeigeverfahren) angewendet werden.
  • Zu beachten ist, dass Ausführungsformen gemäß der vorliegenden Offenbarung nicht auf die oben beschriebenen Ausführungsformen beschränkt ist und dass verschiedene Modifikationen daran vorgenommen werden können, ohne vom Schutzbereich der vorliegenden Technologie abzuweichen.
  • Ferner sind die hier beschriebenen Wirkungen nicht einschränkend, sondern dienen lediglich zur Veranschaulichung, und es können auch andere Wirkungen erzielt werden.
  • Die vorliegende Technologie könnte auch die folgenden Ausbildungen annehmen.
    • (1) Anzeigevorrichtung, umfassend:
      • eine Lichtquelle;
      • einen Prozessor, der eine Verteilung von Eigenschaften eines Augapfels verarbeitet;
      • einen Überwachungsabschnitt, der einen Zustand des Augapfels überwacht;
      • einen Abgleichabschnitt, der die Verteilung der Eigenschaften des Augapfels und den Zustand des Augapfels abgleicht; und
      • einen Strahler, der eine bestimmte Stelle auf einer Netzhaut mit durch die Lichtquelle ausgestrahltem Videoanzeigelicht bestrahlt.
    • (2) Anzeigevorrichtung gemäß (1), ferner umfassend:
      • einen Erfassungsabschnitt, der die Verteilung der Eigenschaften des Augapfels erfasst.
    • (3) Anzeigevorrichtung gemäß (2), bei der der Erfassungsabschnitt mindestens eines aus der Gruppe bestehend aus einer Funduskamera, einem OCT, einem Refraktometer und einer Lichtdetektionsvorrichtung enthält, die das durch die IR-Abtastung zurückkehrende Licht erfasst.
    • (4) Anzeigevorrichtung gemäß einem von (1) bis (3), bei der der Überwachungsabschnitt den Zustand des Augapfels anhand eines Kornealreflexes oder eines Fundusreflexes überwacht.
    • (5) Anzeigevorrichtung gemäß einem von (1) bis (4), ferner umfassend einen Folger, der bewirkt, dass das Videoanzeigelicht einer Bewegung des Augapfels folgt.
    • (6) Anzeigevorrichtung gemäß (5), bei der der Folger mindestens eines aus der Gruppe bestehend aus einem Kombinierer, einem Relaissystemantriebsabschnitt, einem Spiegelantriebsabschnitt und einer Phasendifferenzpanel enthält.
    • (7) Anzeigevorrichtung gemäß einem von (1) bis (6), bei der ein Koordinatensystem basierend auf der Verteilung der Eigenschaften des Augapfels definiert wird, und der Abgleichabschnitt unter Verwendung des Koordinatensystems einen Abgleich der Verteilung der Eigenschaften des Augapfels und des Zustands des Augapfels, dem ein Video präsentiert werden soll, durchführt.
    • (8) Anzeigevorrichtung gemäß (7), bei der das Koordinatensystem basierend auf mindestens zwei Elementen aus der Gruppe bestehend aus einer ersten Fovea des rechten Auges, einem ersten blinden Fleck des rechten Auges, einer zweiten Fovea des linken Auges und einem zweiten blinden Fleck des linken Auges definiert ist.
    • (9) Anzeigevorrichtung gemäß einem von (1) bis (8), bei der die Lichtquelle eine Laserquelle ist.
    • (10) Anzeigevorrichtung gemäß einem von (1) bis (9), ferner umfassend einen Abtastspiegel, bei dem der Abtastspiegel das Videoanzeigelicht auf die Netzhaut strahlt.
    • (11) Anzeigevorrichtung gemäß einem von (1) bis (10), bei der der Strahler ferner ein vor den Augen angeordnetes Teil umfasst und das Teil ein Durchsichtsteil ist.
    • (12) Anzeigevorrichtung gemäß (11), bei der das Teil ein erstes optisches Element oder ein zweites optisches Element ist, wobei das erste optische Element ein reflektierendes oder durchlässiges Volumenhologramm, ein reflektierendes oder durchlässiges Reliefhologramm oder eine Metaoberfläche umfasst und das zweite optische Element ein optisches Element ist, an dem bestimmtes Licht reflektiert wird und durch das anderes als das bestimmte Licht durchgelassen wird.
    • (13) Anzeigevorrichtung gemäß einem von (1) bis (12), ferner umfassend ein Teil zum Kompensieren einer Wellenlängendispersion.
    • (14) Anzeigevorrichtung gemäß (13), bei der das Teil zum Kompensieren einer Wellenlängendispersion ein erstes optisches Element ist, das ein reflektierendes oder durchlässiges Volumenhologramm, ein reflektierendes oder durchlässiges Reliefhologramm oder eine Metaoberfläche umfasst.
    • (15) Anzeigeverfahren, umfassend:
      • Verarbeiten einer Verteilung von Eigenschaften eines Augapfels;
      • Überwachen eines Zustands des Augapfels;
      • Abgleichen der Verteilung der Eigenschaften des Augapfels und des Zustands des Augapfels; und
      • Bestrahlen einer bestimmten Stelle auf einer Netzhaut mit Videoanzeigelicht, das durch eine Lichtquelle ausgesendet wird.
    • (16) Anzeigeverfahren gemäß (15), ferner umfassend:
      • Erfassen der Verteilung der Eigenschaften des Augapfels.
    • (17) Anzeigeverfahren gemäß (16), bei dem das Erfassen der Verteilung der Eigenschaften des Augapfels das Erfassen der Verteilung der Eigenschaften des Augapfels unter Verwendung von mindestens einem aus der Gruppe bestehend aus einem OCT, einem Refraktometer und einer Lichtdetektionsvorrichtung, die das durch die IR-Abtastung zurückkehrende Licht erfasst.
    • (18) Anzeigeverfahren gemäß einem von (15) bis (17), bei der das Überwachen des Zustands des Augapfels das Überwachen des Zustands des Augapfels mithilfe eines Kornealreflexes oder eines Fundusreflexes umfasst.
    • (19) Anzeigeverfahren gemäß einem von (15) bis (18), ferner umfassend Bewirken, dass das Videoanzeigelicht einer Bewegung des Augapfels folgt.
    • (20) Anzeigeverfahren gemäß (19), bei dem das Bewirken, dass das Videoanzeigelicht der Bewegung des Augapfels folgt, das Bewirken umfasst, dass das Videoanzeigelicht der Bewegung des Augapfels unter Verwendung von mindestens einem aus der Gruppe bestehend aus einem Kombinierer, einem Relaissystemantriebsabschnitt, einem Spiegelantriebsabschnitt und einem Phasendifferenzpanel folgt.
    • (21) Anzeigeverfahren gemäß einem von (15) bis (20), ferner umfassend Definieren eines Koordinatensystems basierend auf der Verteilung der Eigenschaften des Augapfels, bei dem das Durchführen eines Abgleichs der Verteilung der Eigenschaften des Augapfels und des Zustands des Augapfels das Durchführen eines Abgleichs der Verteilung der Eigenschaften des Augapfels und des Zustands des Augapfels, dem ein Video präsentiert werden soll, unter Verwendung des Koordinatensystems umfasst.
    • (22) Anzeigeverfahren gemäß (21), bei dem das Koordinatensystem basierend auf mindestens zwei Elementen aus der Gruppe bestehend aus einer ersten Fovea des rechten Auges, einem ersten blinden Fleck des rechten Auges, einer zweiten Fovea des linken Auges und einem zweiten blinden Fleck des linken Auges definiert ist.
    • (23) Anzeigeverfahren gemäß einem von (15) bis (22), bei der die Lichtquelle eine Laserquelle ist.
    • (24) Anzeigeverfahren gemäß einem von (15) bis (23), bei der das Videoanzeigelicht mithilfe eines Abtastspiegels auf die Netzhaut gestrahlt wird.
    • (25) Anzeigeverfahren gemäß einem von (15) bis (24), ferner umfassend:
      • Bereitstellen eines Durchsichtsteils; und
      • Anordnen des Durchsichtsteils vor den Augen.
    • (26) Anzeigeverfahren gemäß (25), bei dem das Teil ein erstes optisches Element oder ein zweites optisches Element ist, wobei das erste optische Element ein reflektierendes oder durchlässiges Volumenhologramm, ein reflektierendes oder durchlässiges Reliefhologramm oder eine Metaoberfläche umfasst und das zweite optische Element ein optisches Element ist, an dem bestimmtes Licht reflektiert wird und durch das anderes als das bestimmte Licht durchgelassen wird.
    • (27) Anzeigeverfahren gemäß einem von (15) bis (26), ferner umfassend Bereitstellen eines Teils zum Kompensieren einer Wellenlängendispersion.
    • (28) Anzeigeverfahren gemäß (27), bei dem das Teil zum Kompensieren einer Wellenlängendispersion ein erstes optisches Element ist, das ein reflektierendes oder durchlässiges Volumenhologramm, ein reflektierendes oder durchlässiges Reliefhologramm oder eine Metaoberfläche umfasst.
  • Bezugszeichenliste
  • 1
    Optische Achse (optischer Vektor)
    2
    Sehachse (Blickvektor)
    10
    Pupille
    20
    Augapfel
    30
    Fovea
    31
    Blinder Fleck
    100, 100-1
    Anzeigevorrichtung
    101
    Lichtquellenabschnitt
    104
    Sensor
    105
    Projektionspositionseinstellmechanismus
    107
    Überwachungsabschnitt (Sichtlinienerkennungsvorrichtung)
    112
    Steuervorrichtung
    181
    Bildsteuervorrichtung
    182
    Projektionspositionssteuervorrichtung
    183
    Sichtlinienkorrekturabschnitt
    191
    Prozessor
    192
    Abgleichabschnitt
    201
    Strahler
    201
    Folger
    301
    Erfassungsabschnitt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2012169064 [0004]

Claims (16)

  1. Anzeigevorrichtung, umfassend: eine Lichtquelle; einen Prozessor, der eine Verteilung von Eigenschaften eines Augapfels verarbeitet; einen Überwachungsabschnitt, der einen Zustand des Augapfels überwacht; einen Abgleichabschnitt, der die Verteilung der Eigenschaften des Augapfels und den Zustand des Augapfels abgleicht; und einen Strahler, der eine bestimmte Stelle auf einer Netzhaut mit durch die Lichtquelle ausgestrahltem Videoanzeigelicht bestrahlt.
  2. Anzeigevorrichtung gemäß Anspruch 1, ferner umfassend: einen Erfassungsabschnitt, der die Verteilung der Eigenschaften des Augapfels erfasst.
  3. Anzeigevorrichtung gemäß Anspruch 2, wobei der Erfassungsabschnitt mindestens eines aus der Gruppe bestehend aus einer Funduskamera, einem OCT, einem Refraktometer und einer Lichtdetektionsvorrichtung enthält, die das durch die IR-Abtastung zurückkehrende Licht erfasst.
  4. Anzeigevorrichtung gemäß Anspruch 1, wobei der Überwachungsabschnitt den Zustand des Augapfels anhand eines Kornealreflexes oder eines Fundusreflexes überwacht.
  5. Anzeigevorrichtung gemäß Anspruch 1, ferner umfassend: einen Folger, der bewirkt, dass das Videoanzeigelicht einer Bewegung des Augapfels folgt.
  6. Anzeigevorrichtung gemäß Anspruch 5, wobei der Folger mindestens eines aus der Gruppe bestehend aus einem Kombinierer, einem Relaissystemantriebsabschnitt, einem Spiegelantriebsabschnitt und einer Phasendifferenzpanel enthält.
  7. Anzeigevorrichtung gemäß Anspruch 1, wobei ein Koordinatensystem basierend auf der Verteilung der Eigenschaften des Augapfels definiert wird, und der Abgleichabschnitt unter Verwendung des Koordinatensystems einen Abgleich der Verteilung der Eigenschaften des Augapfels und des Zustands des Augapfels, dem ein Video präsentiert werden soll, durchführt.
  8. Anzeigevorrichtung gemäß Anspruch 7, wobei das Koordinatensystem basierend auf mindestens zwei Elementen aus der Gruppe bestehend aus einer ersten Fovea des rechten Auges, einem ersten blinden Fleck des rechten Auges, einer zweiten Fovea des linken Auges und einem zweiten blinden Fleck des linken Auges definiert ist.
  9. Anzeigevorrichtung gemäß Anspruch 1, wobei die Lichtquelle eine Laserquelle ist.
  10. Anzeigevorrichtung gemäß Anspruch 1, ferner umfassend: einen Abtastspiegel, wobei der Abtastspiegel das Videoanzeigelicht auf die Netzhaut strahlt.
  11. Anzeigevorrichtung gemäß Anspruch 1, wobei der Strahler ferner ein vor den Augen angeordnetes Teil umfasst und das Teil ein Durchsichtsteil ist.
  12. Anzeigevorrichtung gemäß Anspruch 11, wobei das Teil ein erstes optisches Element oder ein zweites optisches Element ist, wobei das erste optische Element ein reflektierendes oder durchlässiges Volumenhologramm, ein reflektierendes oder durchlässiges Reliefhologramm oder eine Metaoberfläche umfasst und das zweite optische Element ein optisches Element ist, an dem bestimmtes Licht reflektiert wird und durch das anderes als das bestimmte Licht durchgelassen wird.
  13. Anzeigevorrichtung gemäß Anspruch 1, ferner umfassend: ein Teil zum Kompensieren einer Wellenlängendispersion.
  14. Anzeigevorrichtung gemäß Anspruch 13, wobei das Teil zum Kompensieren einer Wellenlängendispersion ein erstes optisches Element ist, das ein reflektierendes oder durchlässiges Volumenhologramm, ein reflektierendes oder durchlässiges Reliefhologramm oder eine Metaoberfläche umfasst.
  15. Anzeigeverfahren, umfassend: Verarbeiten einer Verteilung von Eigenschaften eines Augapfels; Überwachen eines Zustands des Augapfels; Abgleichen der Verteilung der Eigenschaften des Augapfels und des Zustands des Augapfels; und Bestrahlen einer bestimmten Stelle auf einer Netzhaut mit Videoanzeigelicht, das durch eine Lichtquelle ausgesendet wird.
  16. Anzeigeverfahren gemäß Anspruch 15, ferner umfassend: Erfassen der Verteilung der Eigenschaften des Augapfels.
DE112021002930.4T 2020-05-27 2021-04-19 Anzeigevorrichtung und anzeigeverfahren Pending DE112021002930T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-092553 2020-05-27
JP2020092553 2020-05-27
PCT/JP2021/015895 WO2021241073A1 (ja) 2020-05-27 2021-04-19 表示装置及び表示方法

Publications (1)

Publication Number Publication Date
DE112021002930T5 true DE112021002930T5 (de) 2023-03-09

Family

ID=78744352

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021002930.4T Pending DE112021002930T5 (de) 2020-05-27 2021-04-19 Anzeigevorrichtung und anzeigeverfahren

Country Status (6)

Country Link
US (1) US11940630B2 (de)
JP (1) JPWO2021241073A1 (de)
KR (1) KR20230015353A (de)
CN (1) CN115668037A (de)
DE (1) DE112021002930T5 (de)
WO (1) WO2021241073A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022153759A1 (ja) * 2021-01-14 2022-07-21 ソニーグループ株式会社 画像表示装置および画像表示システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012169064A1 (ja) 2011-06-10 2012-12-13 パイオニア株式会社 画像表示装置、画像表示方法及び画像表示プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103140791B (zh) 2010-10-01 2016-03-30 松下知识产权经营株式会社 透视显示装置及搭载透视显示装置的车辆
JP5794608B2 (ja) 2010-12-24 2015-10-14 Necエナジーデバイス株式会社 放電制御装置、放電制御方法およびプログラム
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
EP2958074A1 (de) 2014-06-17 2015-12-23 Thomson Licensing Verfahren und Anzeigevorrichtung mit Pixel-Verteilungsoptimierung
JP6444666B2 (ja) 2014-09-08 2018-12-26 株式会社トプコン 眼科撮影装置および眼科情報処理装置
IL242895B (en) 2015-12-03 2021-04-29 Eyeway Vision Ltd Image projection system
EP3329316B1 (de) 2016-03-11 2023-09-20 Facebook Technologies, LLC Hornhautsphärenverfolgung zur erzeugung eines augenmodells
US20170277257A1 (en) 2016-03-23 2017-09-28 Jeffrey Ota Gaze-based sound selection
US10373592B2 (en) 2016-08-01 2019-08-06 Facebook Technologies, Llc Adaptive parameters in image regions based on eye tracking information
KR102449658B1 (ko) 2017-12-19 2022-09-29 아코니아 홀로그래픽스 엘엘씨 분산 보상을 갖는 광학 시스템
EP3540574B1 (de) 2018-03-15 2021-08-11 HTC Corporation Augenverfolgungsverfahren, elektronische vorrichtung und nichttransitorisches computerlesbares speichermedium
US11157077B2 (en) 2018-04-16 2021-10-26 Google Llc Method and system for dual mode eye tracking on wearable heads-up display
JP7052577B2 (ja) 2018-06-07 2022-04-12 株式会社リコー 光学装置、映像表示装置、及び検眼装置
US20200150443A1 (en) 2018-11-13 2020-05-14 Facebook Technologies, Llc Pupil steering: combiner actuation systems

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012169064A1 (ja) 2011-06-10 2012-12-13 パイオニア株式会社 画像表示装置、画像表示方法及び画像表示プログラム

Also Published As

Publication number Publication date
JPWO2021241073A1 (de) 2021-12-02
KR20230015353A (ko) 2023-01-31
US11940630B2 (en) 2024-03-26
US20230213766A1 (en) 2023-07-06
CN115668037A (zh) 2023-01-31
WO2021241073A1 (ja) 2021-12-02

Similar Documents

Publication Publication Date Title
DE69113287T2 (de) Wiedergabeeinrichtung in Brillenform zur direkten Wiedergabe auf der Netzhaut.
WO2017174525A1 (de) Verfahren und vorrichtung zum bestimmen von parametern zur brillenanpassung
DE102011001083B4 (de) Projektorvorrichtung mit Selbstkorrekturfunktion sowie Medizingerät mit der Projektorvorrichtung
EP3785601B1 (de) Helligkeitsabhängige anpassung eines brillenglases
DE102008034490A1 (de) Augenchirurgiesystem und Verfahren zur Vorbereitung und Durchführung einer Augenoperation
DE102014116665A1 (de) Verfahren und Vorrichtung zur Bestimmung der Augenrefraktion
DE112016004662T5 (de) Wearable-Display mit einstellbarer Pupillendistanz
DE2843661B2 (de) Sichtgerät mit einer am Kopf des Beobachters befestigbaren Sichtplatte
DE102009004381A1 (de) Vorrichtung, Verfahren und Computerprogrammprodukt
WO2019002460A1 (de) Verfahren zur korrektur von zentrierparametern und/oder einer achslage sowie entsprechendes computerprogramm und verfahren
EP3425560A1 (de) Vorrichtung und verfahren zur erfassung von biometrischen merkmalen eines gesichts einer person
DE112021002930T5 (de) Anzeigevorrichtung und anzeigeverfahren
DE112021005407T5 (de) Sichtliniendetektionsvorrichtung, anzeigevorrichtung und verfahren zur erkennung eines augapfels
EP3765888B1 (de) Verfahren zur benutzerindividuellen kalibrierung einer auf den kopf eines benutzers aufsetzbaren anzeigevorrichtung für eine augmentierte darstellung
DE102010007922B4 (de) Vorrichtung und Verfahren zum Ermitteln eines Pupillenabstandes
DE102021104528A1 (de) Optisches System für eine virtuelle Netzhautanzeige und Verfahren zum Projizieren von Bildinhalten auf eine Netzhaut
WO2015158830A1 (de) Anzeigevorrichtung und anzeigeverfahren
DE102018209886B4 (de) Einrichtung zur Projektion eines Laserstrahls zur Erzeugung eines Bildes auf der Netzhaut eines Auges und Brilleneinrichtung mit zwei derartigen Einrichtungen
DE112022002900T5 (de) Sichtlinien-detektionsvorrichtung, anzeigevorrichtung, sichtlinien-detektionssystem und sichtlinien-detektionsverfahren
EP3443883B1 (de) Vorrichtungen und verfahren zur durchführung augenbezogener messungen
DE102007004364A1 (de) Vorrichtung zur Herstellung eines optischen Elements zur Korrektur von altersbedingter Makuladegeneration (AMD) eines Auges
DE102021200026A1 (de) Datenbrille und Verfahren zum Erzeugen eines virtuellen Bilds mit einem Rahmen unter Verwendung einer Datenbrille
EP3949080B1 (de) Vorrichtung zur energieversorgung eines aktiven augenimplantats
DE102021211703A1 (de) Eyetracking für ein head-up-display mithilfe eines funktionalisierten projektionskörpers
DE102020215285A1 (de) Verfahren zur Parallaxeregelung und binokulare Datenbrille mit einer Recheneinheit zu einem Durchführen des Verfahrens